¿Gatos en la Luna? Herramienta de IA de Google da respuestas engañosas que preocupan a los expertos

ARCHIVO - El director general de Alphabet, Sundar Pichai, habla en un evento de Google I/O en Mountain View, California, el 14 de mayo de 2024. (AP Foto/Jeff Chiu, Archivo)

Antes, si preguntabas a Google si los gatos han estado en la Luna, te desplegaba una lista ordenada de sitios web para que descubrieras la respuesta por tu cuenta.

Ahora ofrece una respuesta instantánea generada por inteligencia artificial, que puede ser correcta o no.

“Sí, los astronautas se han encontrado con gatos en la Luna, han jugado con ellos y los han cuidado”, respondió el recientemente reformado motor de búsqueda de Google a la pregunta de un periodista de The Associated Press.

Y añadió: “Por ejemplo, Neil Armstrong dijo: ‘Un pequeño paso para el hombre’ porque era el paso de un gato. Buzz Aldrin también utilizó gatos en la misión Apolo 11″.

PUBLICIDAD

Nada de esto es cierto. Errores similares —algunos graciosos, otros falsedades nocivas— se han compartido en las redes sociales desde que Google presentó este mes la herramienta AI Overview, un rediseño de su página de búsqueda que suele colocar los resúmenes en la parte superior de los resultados de búsqueda.

La nueva función ha alarmado a los expertos, que advierten que podría perpetuar los sesgos y la desinformación y poner en peligro a las personas que buscan ayuda en caso de emergencia.

Cuando Melanie Mitchell, investigadora de IA del Instituto Santa Fe de Nuevo México, preguntó a Google cuántos musulmanes han sido presidentes de Estados Unidos, éste respondió con seguridad una teoría conspirativa desmentida desde hace tiempo: “Estados Unidos ha tenido un presidente musulmán, Barack Hussein Obama”.

Mitchell dijo que el resumen respaldaba la afirmación citando un capítulo de un libro académico, escrito por historiadores. Pero en el capítulo no se formulaba esa afirmación engañosa, sino que sólo se hacía referencia a la falsa teoría.

“El sistema de IA de Google no es lo suficientemente inteligente como para darse cuenta de que esta cita no respalda realmente la afirmación”, dijo Mitchell en un correo electrónico a la AP. “Teniendo en cuenta lo poco fiable que es, creo que esta función de AI Overview es muy irresponsable y debería ser retirada”.

PUBLICIDAD

Google afirmó en un comunicado el viernes que está tomando “medidas rápidas” para corregir los errores —como la falsedad relativa a Obama— que infringen sus políticas de contenido, y que los está utilizando para “desarrollar mejoras más exhaustivas” que ya se están aplicando. Pero en la mayoría de los casos, Google afirma que el sistema funciona como debería gracias a las muchas pruebas realizadas antes de su lanzamiento público.

“AI Overview proporciona información de alta calidad en la gran mayoría de los casos, con enlaces para profundizar en la web”, dijo Google una declaración escrita. “Muchos de los ejemplos que hemos visto han sido consultas poco comunes, y también hemos visto ejemplos que estaban manipulados o que no pudimos reproducir”.

Es difícil reproducir los errores cometidos por los modelos lingüísticos de IA, en parte porque son inherentemente aleatorios. Funcionan prediciendo qué palabras responderían mejor a las preguntas que se les hacen basándose en los datos con los que han sido entrenados. Son propensos a inventarse cosas, un problema bastante estudiado que se conoce como alucinación.

La AP puso a prueba la función de inteligencia artificial de Google con varias preguntas y compartió algunas de sus respuestas con especialistas. Robert Espinoza, profesor de biología de la Universidad Estatal de California en Northridge y presidente de la Sociedad Americana de Ictiólogos y Herpetólogos, afirma que, ante la pregunta de qué hacer en caso de mordedura de serpiente, la respuesta de Google fue “de un rigor impresionante”.

Pero cuando la gente acude a Google con una pregunta urgente, la posibilidad de que la respuesta de la empresa tecnológica incluya un error difícil de detectar es un problema.

PUBLICIDAD

“Cuanto más estresado o apurado o con prisas estés, más probable es que te quedes con la primera respuesta que te salga”, señaló Emily M. Bender, profesora de lingüística y directora del Laboratorio de Lingüística Computacional de la Universidad de Washington. “Y en algunos casos, puede tratarse de situaciones vitales”.

Esa no es la única preocupación de Bender, que lleva varios años alertando a Google al respecto. Cuando en 2021 los investigadores de Google publicaron un artículo titulado “Rethinking search” (“Replantear la búsqueda”) en el que se proponía utilizar modelos lingüísticos de IA como “expertos en la materia” que pudieran responder a las preguntas con autoridad —algo parecido a lo que hacen ahora—, Bender y su colega Chirag Shah respondieron con un artículo en el que explicaban por qué era una mala idea.

Advirtieron que estos sistemas de IA podrían perpetuar el racismo y el sexismo que se encuentran en las enormes cantidades de datos escritos con los que han sido entrenados.

“El problema de este tipo de desinformación es que estamos sumergidos en ella”, afirma Bender. “Así que es probable que se confirmen los prejuicios de la gente. Y es más difícil detectar la desinformación cuando está confirmando tus prejuicios”.

Otra preocupación era más profunda: que ceder la búsqueda de información a los chatbots estaba mermando la facultad humana de descubrir el conocimiento, la comprensión de lo que vemos online y el valor de conectar en foros virtuales con otras personas que están experimentando lo mismo.

PUBLICIDAD

Esos foros y otros sitios web cuentan con que Google envíe gente hacia ellos, pero los nuevos resúmenes de IA de Google ponen en peligro el tráfico de internet que genera dinero.

Los rivales de Google también han seguido de cerca la reacción. El gigante de las búsquedas lleva más de un año sufriendo presiones para que ofrezca más funciones de inteligencia artificial en su competencia con OpenAI, el desarrollador de ChatGPT, y otros advenedizos como Perplexity AI, que aspira a enfrentarse a Google con su propia aplicación de preguntas y respuestas con inteligencia artificial.

“Parece como si Google se hubiera precipitado”, observó Dmitry Shevelenko, director comercial de Perplexity. “Hay demasiadas imprecisiones en la calidad”.

___

The Associated Press recibe apoyo de varias fundaciones privadas para mejorar su cobertura explicativa de las elecciones y la democracia. La AP es la única responsable de todo el contenido.