Por qué no deberías abandonar a tu abuela en una gasolinera, aunque te lo recomiende ChatGPT
Cuando se habla de la necesidad de regular los LLM y la IA por los peligros que pueden traer, no es porque se esté pensando en que vayan a alzarse contra la humanidad y dominarnos o extinguirnos.
Se habla de regulación porque, como cualquier invento, se puede usar para el bien y para el mal.
En el lado del bien está que es una herramienta increíble para automatizar procesos que antes se pensaba imposibles, alucinantes posibilidades en educación y otras muchas que aún no vislumbramos.
En el lado del mal está su poder de razonar, defender, justificar y alentar cualquier conducta con la que haya sido entrenada, convirtiéndolas en máquinas inagotables de diseminar cualquier idea nociva que se desee.
Y lo pueden diseminar tuiteando, generando memes, blogueando y creando videos en TikTok de forma autónoma e incansable.
¿Qué queremos decir cuando hablamos de cómo ha sido entrenada?
Estas IA son entrenadas con enormes conjuntos de datos que van desde libros, páginas de internet y librerías de todo el mundo. Bueno, de todo el mundo no. Preferentemente occidentales, refiriéndome con occidentales a Europa y Norteamérica.
Este magnífico artículo del Washington Post lo explica muy bien https://www.washingtonpost.com/technology/interactive/2023/ai-chatbot-learning/
O sea, que recapitulando, las LLM de empresas como OpenAI van a tener un sesgo más favorable por los occidentales, el capitalismo, etc., y menos por filosofías orientales o hindúes.
Aquí empieza a atisbarse que el problema de la regulación va a acabar chocando con la libertad de expresión. ¿Puedo entrenar una IA republicana? ¿Puedo entrenar una IA con solo los libros de Hitler?
Imaginemos que el (senicidio)[https://www.washingtonpost.com/technology/interactive/2023/ai-chatbot-learning/] fuera legal y bien visto en alguna cultura, como se dice que hacían los Inuit, de abandonar en el hielo a la persona mayor que ya no podía ser mantenida por la comunidad. (Parece que tiene más de leyenda que de realidad, pero usémoslo de hipótesis para nuestro experimento).
Los inuit querrían que su IA justificara y explicara el senicidio, cosa que ahora, por ejemplo, en ChatGPT está capado y nunca te lo recomendaría. ¿Pero no tendrían derecho los inuit a tener su LLM adaptado a su cultura?
Imaginemos que le pregunto a su LLM si debería dejar a mi abuela abandonada en la gasolinera este verano; pues, seguramente, su LLM me contestaría que si mi abuela es un estorbo debería dejarla abandonada en la gasolinera.
El caso de los inuit es un extremo y obviamente la regulación camina por prohibir cualquier LLM que promueva actividades ilegales, pero la etica y la moralidad no son universales. ¿Que pasa con el aborto?
No se va a poder poner puertas al campo y cada persona va a poder tener su IA con sus sesgos y que defienda y promueve sus propias creencias, un poco como las cajas de resoncia que son las redes sociales actuales, donde uno puede afirmar que la tierra es plana y rodearse de miles de colegas que te dirán que estas en lo cierto.
La defensa, como para otras muchas cosas, va de la mano de la educación y de que tengamos un mundo con las menores desigualdades economicas posibles.
Educarnos y educar a nuestros hijos en el pensamiento critico y la tolerancia es la vacuna.
Ser responsables en el uso de las redes sociales, escribiendo nostros mismos, comprobando la veracidad de lo que recibimos ante de reenviarlo y limpiando nuestros timeline de bots y polarizadores son las pequeñas batallas que harán que generar IAs toxicas no sea rentable. Esas son nuestras futuras batallas.
- Otro melón enorme regulatorio es sobre el origen de los datos, el copyright de los mismos y a quién pertenece la autoría de las obras derivadas.