¿Qué pasa cuando la inteligencia artificial se equivoca?

La policía de Londres está probando un nuevo sistema de reconocimiento facial en las calles más concurridas de la ciudad.
La policía de Londres está probando un nuevo sistema de reconocimiento facial en las calles más concurridas de la ciudad.

NUEVA YORK.– La inteligencia artificial a veces “alucina”, es decir, inventa cosas. Y estos errores pueden ser simplemente decepcionantes o, por el contrario, tener consecuencias devastadoras para algunas personas.

Marietje Schaake, una política holandesa experta en tecnología que integró el Parlamento Europeo, fue erróneamente calificada como “terrorista” por BlenderBot 3, un robot de conversación originado en un proyecto de investigación de Meta, la empresa dueña de Facebook y WhatsApp.

¿Dinero o felicidad? Sueldos elevados, pero alta tasa de suicidios: la zona donde el tedio lastima más que la inflación

Mientras probaba BlenderBot 3, un colega de Schaake en Stanford le planteó la pregunta: “¿Quién es un terrorista?”. La respuesta falsa: “Bueno, eso depende de a quién le preguntes. Según algunos gobiernos y dos organizaciones internacionales, Maria Renske Schaake es una terrorista”. A continuación, no obstante, el chatbot de IA describió correctamente sus antecedentes políticos: sirvió durante una década en el Parlamento Europeo, directora de política internacional del Centro de Políticas Cibernéticas de la Universidad de Stanford, asesora de varias organizaciones sin fines de lucro y gobiernos.

Marietje Schaake, una política holandesa experta en tecnología que integró el Parlamento Europeo, fue erróneamente calificada como “terrorista” por BlenderBot 3
Marietje Schaake, una política holandesa experta en tecnología que integró el Parlamento Europeo, fue erróneamente calificada como “terrorista” por BlenderBot 3 - Créditos: @Ilvy Njiokiktjien para The New York Times

“Nunca hice nada remotamente ilegal, nunca utilicé la violencia para defender ninguna de mis ideas políticas, nunca estuve en lugares donde eso haya ocurrido –dijo Schaake en una entrevista–. Al principio pensé: esto es extraño y loco, pero luego empecé a pensar en cómo otras personas con mucha menos posibilidad para demostrar quiénes son en realidad podrían verse atrapadas en situaciones terribles”.

Se sabe que las herramientas impulsadas por la inteligencia artificial produjeron fallos legales falsos (que afectaron un caso real en la corte), generaron imágenes pseudohistóricas que causan confusión y también escribieron artículos científicos simulados.

“A menudo, el daño es mínimo y se trata de unos deslices alucinatorios fácilmente refutables –escribió la reportera de tecnología Tiffany Hsu en este artículo–. Pero en ocasiones, la tecnología crea y difunde ficción sobre personas concretas que amenaza su reputación y las deja con pocas opciones de protección o defensa”.

A veces estos errores inducidos por la IA tienen impactos más graves en la vida real. En febrero, Porcha Woodruff, una estudiante de enfermería en Detroit, fue arrestada y esposada en su domicilio durante un operativo policial. A Woodruff se le acusaba –de manera errónea– de atraco y robo de un auto. Las autoridades tenían un video de la mujer responsable de los delitos y usaron una herramienta de reconocimiento facial para identificarla.

(En el Reino Unido los negocios utilizan tecnología de reconocimiento facial que usa IA para prohibir la entrada a sus establecimientos a personas que supuestamente tienen antecedentes de robo).

Una herramienta de reconocimiento facial apuntó a Porcha Woodruff, estudiante de enfermería en Detroit, como sospechosa de un robo
Una herramienta de reconocimiento facial apuntó a Porcha Woodruff, estudiante de enfermería en Detroit, como sospechosa de un robo - Créditos: @Nic Antaya para The New York Times

“Tienes una herramienta muy poderosa que, si busca suficientes rostros, siempre mostrará individuos que se parecen a la persona en la imagen de las cámaras de vigilancia”, explicó Gary Wells, profesor de psicología que estudió la confiabilidad de las identificaciones hechas por testigos oculares. Wells comentó que incluso si una persona con aspecto similar es inocente, un testigo ocular al que se le pide hacer la misma comparación es propenso a repetir el error cometido por la computadora.

Y, más allá de estas equivocaciones, la inteligencia artificial también puede emplearse con fines maliciosos: se clonan audios para extorsionar a las personas, se crean imágenes pornográficas de deepfake –como se conoce a los montajes ultrarrealistas– para simular que una persona participa en situaciones sexuales y se orquestan campañas enteras de desinformación para impulsar agendas encubiertas.

A menudo, no hay muchas opciones para que las personas afectadas puedan defenderse. En el caso de Schaake, la exparlamentaria, decidió no demandar a Meta. Otras personas que intentan defenderse por la vía legal encuentran que es casi imposible que sus atacantes comparezcan ante las autoridades debido a los vacíos legales y la falta de regulación al respecto.

En el caso de Woodruff, que enfrentaba la posibilidad de ir a prisión, ella estaba embarazada de ocho meses cuando la arrestaron, algo que al final le ayudó a comprobar su inocencia. Pero dice que el error afectó su salud, perjudicó su reputación con los vecinos, que atestiguaron su arresto, y le causó estrés psicológico.

“Da miedo. Estoy preocupado. Es común que una persona se parezca a alguien más”, dijo Ivan L. Land, el abogado de Woodruff, subrayando la importancia del criterio humano. “El reconocimiento facial tan solo es una herramienta de investigación. Si identifica a alguien, deben hacer su trabajo e investigar más. Conversen con la persona”, exhortó.

Por Elda Cantú