Anuncios
Elecciones México 2024:

Cobertura Especial | LO ÚLTIMO

Por qué la inteligencia artificial mejorará aún más en conversar (pero no en decir la verdad)

Daniel De Freitas, cofundador de Character.AI, muestra un chat en el sitio web de la empresa, en Palo Alto, California, el 6 de enero de 2023. (Ian C. Bates/The New York Times)
Daniel De Freitas, cofundador de Character.AI, muestra un chat en el sitio web de la empresa, en Palo Alto, California, el 6 de enero de 2023. (Ian C. Bates/The New York Times)

Una tarde reciente, Jonas Thiel, estudiante de Socioeconomía en una universidad del norte de Alemania, pasó más de una hora chateando en línea con algunos de los filósofos políticos de izquierda que había estado estudiando. No se trataba de filósofos reales, sino de recreaciones virtuales, traídas a la conversación, si no a la vida, por sofisticados chatbots de un sitio web llamado Character.AI.

El favorito de Thiel era un robot que imitaba a Karl Kautsky, un socialista checo-austriaco que murió antes de la Segunda Guerra Mundial. Cuando Thiel pidió al avatar digital de Kautsky que aconsejara a los socialistas de la actualidad que luchan por reconstruir el movimiento obrero en Alemania, el robot Kautsky les sugirió que publicaran un periódico. “Pueden utilizarlo no solo como medio de difusión de la propaganda socialista, que por el momento escasea en Alemania, sino también para organizar a la clase obrera”, comentó el bot.

El robot Kautsky continuó argumentando que las clases trabajadoras terminarían por “entrar en razón” y adoptarían una revolución marxista moderna. “El proletariado se encuentra ahora mismo en el punto más bajo de su historia”, escribió. “Con el tiempo, se darán cuenta de los defectos del capitalismo, sobre todo a causa del cambio climático”.

A lo largo de varios días, Thiel se reunió con otros eruditos virtuales, como G. A. Cohen y Adolph Reed Jr. Pero podría haber elegido a casi cualquier persona, viva o muerta, real o imaginaria. En Character.AI, que surgió este verano, los usuarios pueden chatear con facsímiles razonables de personas tan variadas como la reina Isabel II, William Shakespeare, Billie Eilish o Elon Musk (hay varias versiones). Cualquiera que se quiera invocar, o inventar, está disponible para conversar. La empresa y el sitio, fundados por Daniel De Freitas y Noam Shazeer, dos antiguos investigadores de Google, están entre los muchos esfuerzos por construir un nuevo tipo de chatbot. Estos bots no pueden conversar exactamente como un humano, pero a menudo parece que sí.

A finales de noviembre, OpenAI, un laboratorio de inteligencia artificial de San Francisco, presentó un bot llamado ChatGPT que dejó a más de un millón de personas con la sensación de estar chateando con otro ser humano. Google, Meta y otros gigantes tecnológicos están desarrollando tecnologías similares. Algunas empresas se han mostrado reacias a compartir su tecnología con el público en general. Dado que estos bots aprenden sus habilidades a partir de los datos publicados en internet por personas reales, con frecuencia generan falsedades, discurso de odio y un lenguaje sesgado contra las mujeres y las personas de color. Si se utilizan mal, podrían convertirse en una forma más eficaz de llevar a cabo el tipo de campaña de desinformación que se ha vuelto habitual en los últimos años.

“Sin ninguna barrera adicional, acabarán reflejando todos los prejuicios y la información tóxica que ya existe en la web”, afirmó Margaret Mitchell, antigua investigadora de inteligencia artificial en Microsoft y Google, donde ayudó a fundar el equipo Ethical AI. Ahora trabaja en la empresa de IA Hugging Face.

Sin embargo, otras empresas, como Character.AI, confían en que el público aprenda a aceptar los defectos de los chatbots y desarrolle una sana desconfianza respecto de lo que dicen. Thiel descubrió que los bots de Character.AI tenían tanto talento para la conversación como para hacerse pasar por personas de la vida real. “Si lees lo que escribió alguien como Kautsky en el siglo XIX, no utiliza el mismo lenguaje que nosotros usamos hoy”, señaló. “Pero la IA puede traducir de algún modo sus ideas a un inglés moderno corriente”.

Noam Shazeer, a la izquierda, y Daniel De Freitas, fundadores de Character.AI, una empresa que permite a los usuarios de su sitio web conversar con sofisticados chatbots entrenados para hablar como humanos, vivos o muertos, reales o imaginarios, en Palo Alto, California, el 6 de enero de 2023. (Ian C. Bates/The New York Times)
Noam Shazeer, a la izquierda, y Daniel De Freitas, fundadores de Character.AI, una empresa que permite a los usuarios de su sitio web conversar con sofisticados chatbots entrenados para hablar como humanos, vivos o muertos, reales o imaginarios, en Palo Alto, California, el 6 de enero de 2023. (Ian C. Bates/The New York Times)

De momento, estos y otros chatbots avanzados son una fuente de entretenimiento. Y se están convirtiendo rápidamente en una forma más potente de interactuar con las máquinas. Los expertos siguen debatiendo si los puntos fuertes de estas tecnologías compensarán sus defectos y su potencial dañino, pero coinciden en un punto: la verosimilitud de las conversaciones ficticias seguirá mejorando.

El arte de la conversación

En 2015, De Freitas, que entonces trabajaba como ingeniero de software en Microsoft, leyó un artículo de investigación publicado por científicos de Google Brain, el laboratorio de inteligencia artificial más importante de Google. El artículo, titulado “A Neural Conversational Model”, mostraba cómo una máquina podía aprender el arte de la conversación analizando transcripciones de diálogos de cientos de películas.

El artículo describía lo que investigadores de IA denominan red neuronal, un sistema matemático inspirado en la red de neuronas del cerebro. Esta misma tecnología también traduce entre español e inglés en servicios como Traductor de Google e identifica peatones y señales de tráfico para los vehículos autónomos que circulan por las calles de las ciudades.

Una red neuronal aprende habilidades identificando patrones en enormes cantidades de datos digitales. Por ejemplo, al analizar miles de fotos de gatos puede aprender a reconocerlos.

Cuando De Freitas leyó el artículo, aún no era investigador en IA, sino ingeniero de software que trabajaba en motores de búsqueda. Pero lo que realmente quería era llevar la idea de Google a su extremo lógico.

“Se notaba que este robot era capaz de generalizar”, explicó. “Lo que decía no se parecía a lo que había en el guion de una película”.

Se trasladó a Google en 2017. Oficialmente, era ingeniero en YouTube, el sitio para compartir videos de la compañía. Pero para su proyecto “veinte por ciento de tiempo” —una tradición de Google que permite a los empleados explorar nuevas ideas junto a sus obligaciones diarias— empezó a construir su propio chatbot.

La idea era entrenar una red neuronal a partir de una colección de diálogos mucho mayor: montones de registros de chats extraídos de servicios de redes sociales y otros sitios de internet. La idea era sencilla, pero requeriría enormes cantidades de potencia de procesamiento informático. Incluso una supercomputadora necesitaría semanas o incluso meses para analizar todos esos datos.

Como ingeniero de Google, tenía algunos créditos que le permitían ejecutar software experimental en la vasta red de centros de datos informáticos de la empresa. No obstante, estos créditos solo le concedían una pequeña fracción de la potencia de cálculo necesaria para entrenar a su chatbot. Así que empezó a pedir créditos prestados a otros ingenieros; a medida que el sistema analizaba más datos, sus habilidades mejoraban a pasos agigantados.

Al principio, entrenó su chatbot con lo que se conoce como LSTM (memoria de corto-largo plazo), una red neuronal diseñada en la década de 1990 específicamente para el lenguaje natural. Pero pronto cambió a un nuevo tipo de red neuronal llamada transformadora, desarrollada por un equipo de investigadores de IA de Google entre los que se encontraba Noam Shazeer.

A diferencia de una LSTM, que lee el texto palabra por palabra, un transformador puede utilizar varios procesadores informáticos para analizar un documento entero en un solo paso.

Google, OpenAI y otras organizaciones ya estaban utilizando transformadores para construir lo que denominan “grandes modelos lingüísticos”, sistemas adecuados para una amplia gama de tareas lingüísticas, desde escribir mensajes de Twitter hasta responder preguntas. Aún trabajando por su cuenta, De Freitas centró la idea en la conversación, alimentando su transformador con la mayor cantidad de diálogo posible.

Era un planteamiento excesivamente sencillo. Pero, como le gusta decir a De Freitas, eran “soluciones sencillas para resultados increíbles”.

En este caso, el resultado fue un chatbot al que llamó Meena. Fue tan eficaz que Google Brain contrató a De Freitas y convirtió su proyecto en una investigación oficial. Meena se convirtió en LaMDA, abreviatura de Language Model for Dialogue Applications (modelo lingüístico para aplicaciones de diálogo).

El proyecto saltó a la opinión pública a principios de verano, cuando otro ingeniero de Google, Blake Lemoine, declaró a The Washington Post que LaMDA era sensible. Esta afirmación era, cuando menos, exagerada. Pero el alboroto demostró lo rápido que estaban mejorando los chatbots en laboratorios como Google Brain y OpenAI.

Google se mostraba reticente a divulgar la tecnología, preocupada porque su habilidad para la desinformación y otros lenguajes tóxicos pudieran dañar la marca de la empresa. Pero para entonces De Freitas y Shazeer habían abandonado Google, decididos a poner este tipo de tecnología en manos del mayor número posible de personas a través de su nueva empresa, Character.AI.

“La tecnología es útil en la actualidad: para divertirse, apoyo emocional, generar ideas, todo tipo de creatividad”, aseguró Shazeer.

Diseñado para intercambios abiertos

ChatGPT, el bot lanzado por OpenAI con bombo y platillo a finales de noviembre, fue diseñado para funcionar como un nuevo tipo de motor de preguntas y respuestas. Es bastante bueno en este papel, pero el usuario nunca sabe cuándo se va a inventar algo el chatbot. Puede que le diga que la moneda oficial de Suiza es el euro (en realidad es el franco suizo) o que la célebre rana saltarina del condado de Calaveras de Mark Twain no solo podía saltar, sino también hablar. Los investigadores de IA llaman “alucinación” a esta generación de falsedades.

Al construir Character.AI, De Freitas y Shazeer tenían un objetivo distinto: la conversación abierta. Creen que los chatbots actuales se adaptan mejor a este tipo de servicio, por ahora un medio de entretenimiento, basado en hechos o no. Como señala el sitio: “¡Todo lo que dicen los personajes es inventado!”.

“Estos sistemas no están diseñados para decir la verdad”, afirmó Shazeer. “Están diseñados para tener una conversación verosímil”.

De Freitas, Shazeer y sus colegas no construyeron un bot que imita a Musk, otro que imita a la reina Isabel y un tercero que repite como loro a Shakespeare. Construyeron un único sistema que puede imitar a todas esas personas y a otras. Ha aprendido de resmas de diálogos, artículos, libros y textos digitales que describen a personas como Musk, la reina y Shakespeare.

A veces, el chatbot acierta. A veces, no. Cuando Thiel chateó con un avatar que pretendía imitar a Reed, el pensador político estadounidense del siglo XX, lo convirtió en “una especie de maoísta militante, lo que definitivamente no está bien”.

Al igual que Google, OpenAI y otros laboratorios punteros, De Freitas, Shazeer y sus colegas planean entrenar su sistema con cantidades cada vez mayores de datos digitales. Este entrenamiento puede llevar meses y millones de dólares; también puede afinar las habilidades del conversador artificial.

Los investigadores afirman que la rápida mejora solo durará un tiempo. Richard Socher, excientífico jefe responsable de IA en Salesforce que ahora dirige una empresa emergente llamada You.com, cree que estas mejoras exponenciales empezarán a estabilizarse en los próximos años, cuando los modelos lingüísticos lleguen a un punto en el que hayan analizado prácticamente todo el texto de internet.

Pero Shazeer afirma que el recorrido es mucho más largo: “Hay miles de millones de personas en el mundo generando texto todo el tiempo. La gente seguirá gastando más y más dinero para formar sistemas cada vez más inteligentes. No estamos ni cerca del final de esa tendencia”.

© 2023 The New York Times Company