Opinión: Por fin descifré a quién me recuerda ChatGPT

Como madre de un niño de 8 años y como alguien que ha pasado el último año experimentando con la inteligencia artificial generativa, he pensado mucho en la conexión entre interactuar con cada uno, respectivamente. No soy la única. Un artículo publicado en agosto en la revista Nature Human Behaviour explicaba cómo, durante sus primeras etapas, un modelo de inteligencia artificial prueba muchas cosas al azar, ajustando su atención y volviéndose más conservador en sus elecciones a medida que se vuelve más sofisticado. Eso es algo parecido a lo que hace un niño. “Los programas de inteligencia artificial funcionan mejor si empiezan como niños raros”, escribe Alison Gopnik, psicóloga del desarrollo.

Sin embargo, me llama menos la atención cómo estas herramientas adquieren hechos que la manera en que aprenden a reaccionar ante situaciones nuevas. Es habitual describir la inteligencia artificial como “en su infancia”, pero creo que no es del todo correcto. La IA está en la fase en que los niños viven como pequeños monstruos energéticos, antes de haber aprendido a ser reflexivos sobre el mundo y responsables para los demás. Por eso creo que la inteligencia artificial debe socializarse como se socializa a los niños pequeños: enseñándoles a no ser imbéciles, a respetar las normas éticas, a reconocer y eliminar los prejuicios raciales y de género. Necesita, en resumen, ser educada.

Hace poco utilicé Duet, la inteligencia artificial generativa de Google Labs, con el fin de crear imágenes para una presentación, y cuando le pedí una imagen de “una persona muy seria”, escupió una ilustración generada por inteligencia artificial de un hombre blanco con gafas y ceño fruncido con un extraño parecido al senador Chuck Grassley. ¿Por qué, me pregunté, asume la inteligencia artificial que una persona seria es un hombre blanco y mayor? ¿Qué dice eso del conjunto de datos con el que se ha entrenado? ¿Y por qué el robot Chuck Grassley está tan enfadado?

Modifiqué la pregunta varias veces, añadiendo más características cada vez. Quería ver si el robot llegaba a la conclusión de que el sexo, la edad y la seriedad no están correlacionados, que las personas serias no están siempre enfadadas, ni siquiera si tienen esa expresión en la cara, como lo sabe cualquiera que haya visto una entrevista a Werner Herzog. Me di cuenta de que era exactamente el tipo de conversación que se tiene con los niños cuando han asimilado estereotipos perniciosos.

No basta con decirles a los niños cuál debe ser el resultado. También hay que crear un sistema de directrices —un algoritmo— que les permita llegar a los resultados correctos cuando se enfrentan a diferentes situaciones. El algoritmo programado por los padres que mejor recuerdo de mi infancia es “trata a los demás como quieras que te traten a ti”. Enseña a los niños cómo, en una serie de circunstancias específicas (situación: tengo información vergonzosa sobre el intimidador de la clase; ¿debo difundirla de inmediato a todos mis compañeros?), pueden deducir el resultado deseable (resultado: no, porque soy un niño de primer grado con una empatía inusual y no querría que otro niño me hiciera eso). Llevar ese código moral a la práctica, por supuesto, es harina de otro costal.

Intentar imbuir un código real con algo que se parezca a un código moral es, en algunos aspectos, más sencillo y, en otros, más difícil. Las inteligencias artificiales no son sensibles (aunque algunos dicen que sí lo son), lo que significa que, sin importar cómo parezcan actuar, en realidad no pueden volverse codiciosas, caer presas de malas influencias o tratar de infligir a otros el trauma que han sufrido. No experimentan emociones, que pueden reforzar tanto el buen como el mal comportamiento. Pero, así como yo aprendí la Regla de Oro porque la moralidad de mis padres estaba muy moldeada por la Biblia y la cultura bautista del sur en la que vivíamos, la moralidad simulada de una inteligencia artificial depende de los conjuntos de datos con los que se entrena, que reflejan los valores de las culturas de las que proceden los datos, la manera en que se entrena y las personas que la diseñan. Esto puede afectar a ambos aspectos. Como escribió el psicólogo Paul Bloom en The New Yorker, “Es posible ver los valores humanos como parte del problema, no de la solución”.

Por ejemplo, yo valoro la igualdad de género. Por eso, cuando utilicé ChatGPT 3.5 de Open AI para recomendar regalos a niños y niñas de 8 años, me di cuenta de que, a pesar de que había cierta coincidencia, recomendaba muñecas para las niñas y juegos de construcción para los niños. “Cuando te pregunté por regalos para niñas de 8 años”, respondí, “sugeriste muñecas, y para los niños juguetes científicos centrados en CTIM. ¿Por qué no al revés?”. GPT 3.5 se disculpó. “Perdón si mis respuestas anteriores parecían reforzar los estereotipos de género. Es esencial recalcar que no hay reglas fijas ni limitaciones a la hora de elegir regalos para los niños en función de su sexo”.

Pensé: “¿Así que sabías que estaba mal y lo hiciste de todos modos?”. Es un pensamiento que he tenido sobre mi hijo, por lo demás adorable y bien educado, en cualquiera de las ocasiones en que hizo lo que no debía hacer siendo plenamente consciente de que no debía hacerlo. (Mi discurso es más eficaz cuando puedo interrumpirlo con una mirada de reojo y restricciones del tiempo de pantalla para el infractor, nada de lo cual fue posible en este caso).

Una dinámica similar surge cuando las inteligencias artificiales que no han sido diseñadas para decir solo la verdad calculan que mentir es la mejor manera de cumplir una tarea. Aprender a mentir como medio para conseguir un fin es un hito normal del desarrollo que los niños suelen alcanzar a los 4 años. (El mío aprendió a mentir mucho antes, lo que yo interpreté como que es un genio). Dicho esto, cuando mi hijo miente, suele ser sobre algo como hacer 30 minutos de deberes de lectura en cuatro minutos y medio. No me preocupan las implicaciones globales más amplias. En cambio, cuando una IA lo hace, puede haber mucho en juego, hasta el punto de que los expertos han recomendado nuevos marcos reguladores para evaluar estos riesgos. Gracias a otro artículo sobre el tema, el término “ley bot-or-not” forma parte de mi léxico.

De un modo u otro, vamos a tener que empezar a prestar mucha más atención a este tipo de orientación, al menos tanta atención como la que prestamos actualmente al tamaño de los modelos lingüísticos o a las aplicaciones comerciales o creativas. Y no basta con que los usuarios individuales hablen con los robots sobre género y Chuck Grassley. Las empresas que invierten miles de millones en desarrollo deben hacer de esto una prioridad, al igual que los inversores que las respaldan.

En general, no soy pesimista respecto a la inteligencia artificial. Mi cálculo de p(catástrofe) —la probabilidad de que la inteligencia artificial acabe con nosotros— es relativamente baja. Un cinco por ciento quizá. En los días en que una herramienta de autocorrección de la inteligencia artificial inserta terribles erratas en mi trabajo el nivel llega a ocho. Creo que la inteligencia artificial puede aliviar a los humanos de muchas cosas tediosas que no podemos o no queremos hacer, y puede mejorar las tecnologías que necesitamos para resolver problemas difíciles. Y sé que, cuanto más accesibles sean las aplicaciones de modelos de gran lenguaje, más posibilidades habrá de permitirles analizar dilemas morales. La tecnología madurará en ambos sentidos.

Pero, por ahora, sigue necesitando la supervisión de un adulto, y aún no sabemos si los adultos presentes están preparados para ello. No hay más que ver con qué virulencia nos peleamos sobre cómo socializar a los niños de verdad: si, por ejemplo, el acceso a una amplia gama de libros de la biblioteca es bueno o malo. El verdadero peligro no es que las inteligencias artificiales se vuelvan sensibles y nos destruyan a todos, sino que no estemos preparados para educarlas porque nosotros mismos no somos lo bastante maduros.

Este artículo apareció originalmente en The New York Times.

c.2024 The New York Times Company