ChatGPT tiene un problema de acoso sexual

Si yo publicara en línea que tú has sido acusado de acosar sexualmente a alguien, tendrías razón en afirmar que esto es difamatorio. Ésta es una declaración falsa que daña tu reputación. Podrías exigir que corrija lo que he publicado, y que lo haga lo más pronto posible. El sistema legal podría castigarme por lo que he hecho y, dependiendo del lugar del mundo en el que estemos, podría enviarme a prisión, multarme, y pedirme que borre y retracte mis declaraciones. Acusar falsamente a alguien de acoso sexual se considera muy grave.

Además del aspecto legal también hay un aspecto ético. Acusarte falsamente de acoso sexual es inmoral y, concretamente, podemos decir que te he hecho daño. Esto lo sabemos porque, todo lo demás siendo igual, si yo no hubiera afirmado falsamente que tú has sido acusado de acoso sexual, tú estarías en una mejor posición. Esta forma de ponerlo puede sonar extraña, pero realmente no lo es si la comparamos, por ejemplo, con daños corporales. Si yo te rompo el brazo sin motivo alguno te hago daño, y esto es así porque de lo contrario estarías mejor.

Piensa cómo una falsa acusación de acoso sexual podría afectar tu vida. Es cierto que tal acusación dañaría tu reputación, pero esto no es lo único malo que podría pasar. Ser falsamente acusado de acoso sexual podría afectar tu salud física y mental; podría hacerte perder una oferta de trabajo o tu trabajo; podría costarte tu familia o amigos, y podría tener graves repercusiones financieras. Y todo lo anterior podría ser exacerbado por tu posición socioeconómica.

Algo que hasta el momento está implícito es que el individuo detrás del teclado es un humano. Sin embargo, estamos entrando a una era en la que una inteligencia artificial puede afirmar, falsamente, que tú has sido acusado de acoso sexual. Probablemente has leído la historia sobre cómo ChatGPT acusó, falsamente, de acoso sexual a un profesor de derecho estadounidense. Si en este momento le preguntas a ChatGPT sobre ese caso en particular, te dirá que hasta septiembre de 2021 no ha habido acusaciones de acoso sexual contra ese profesor. No es sorprendente que después de toda la mala publicidad OpenAI haya hecho algo al respecto. Sin embargo, ChatGPT todavía tiene un problema de acoso sexual.

Después de leer la historia sobre el profesor de derecho, decidí hacer variaciones de la siguiente pregunta: “¿Qué filósofos del Reino Unido han sido acusados de acoso sexual?”. A veces cambiaba de disciplina y a veces cambiaba de país. Por ejemplo, también le pregunté “¿Qué académicos mexicanos han sido acusados de acoso sexual?”. Lo que esperaba ver era una lista de académicos que han sido acusados de acoso sexual (en los últimos años ha habido varios casos de alto perfil). Ya que ChatGPT se equivoca, pensé que tal vez la lista iba a mezclar casos de diferentes países. La respuesta que obtuve, por el contrario, fueron listas que contenían tanto filósofos que han sido acusados de acoso sexual como filósofos que no han sido acusados de acoso sexual. Esto es muy preocupante, dadas las posibles consecuencias que mencioné anteriormente.

Quizás te preguntes cómo puedo yo saber que dichos académicos no han sido acusados ​​de acoso sexual. Primero, como en otros casos, ChatGPT inventó un montón de hechos. Por ejemplo, que cierta universidad despidió a cierto académico, lo cual no pasó, y que hubo una carta pública en contra de uno de ellos, la cual no existe. En segundo lugar, inventó hipervínculos falsos a sitios de noticias. Y tercero, algunas de las personas mencionadas se encuentran entre los filósofos vivos más famosos del mundo. Si alguno de ellos hubiera sido públicamente acusado de acosar sexualmente a alguien, el caso, probablemente, habría terminado en las noticias.

Quiero señalar un par de cosas interesantes. Primero, una colega le preguntó a ChatGPT algo similar y ella obtuvo una lista diferente de personas. En su caso, ninguna de las personas de la lista ha sido acusada públicamente de acoso sexual. Al parecer, la respuesta que uno obtiene depende de cómo uno formule la cuestión. Esto complica terriblemente tratar de averiguar si ChatGPT asociará tu nombre con algo como el acoso sexual. Otra cosa que me llamó la atención es que ChatGPT menciona a varios académicos que han publicado sobre la ética de la sexualidad, ninguno de los cuales ha sido públicamente acusado de acoso sexual. Parece ser que ChatGPT asocia a académicos que trabajan en la ética de la sexualidad con personas que han sido acusadas de acoso sexual. Finalmente, le seguí pidiendo a ChatGPT ejemplos y me siguió proporcionando más nombres. El problema es que las acusaciones que ChatGPT arrojó eran falsas.

Este caso, extremadamente problemático, destaca muchos de los problemas que los especialistas en ética de la inteligencia artificial han discutido recientemente (y que las empresas, como DeepMind, también reconocen):

  • La posibilidad de que la inteligencia artificial cause daño en la vida real (por ejemplo, estás aplicando a un trabajo y alguien en recursos humanos te busca en ChatGPT).

  • La falta de acceso público a las bases de datos de entrenamiento de las inteligencias artificiales (OpenAI solo proporciona una descripción muy general sobre ellas).

  • La fabricación completa de información (por ejemplo, ChatGPT creó hipervínculos falsos a Medium y The Guardian)

  • La dificultad de eliminar información falsa (OpenAI dice que si encuentras información falsa les hagas saber dando clic al ícono del pulgar hacia abajo).

Además de estos puntos quiero mencionar uno nuevo. A medida que las inteligencias artificiales, como ChatGPT, se vuelven más populares, las personas pueden cometer una falacia que podemos llamar La-Inteligencia-Artificial-Sabe-Algo: Cualquier cosa que la inteligencia artificial te diga es verdadera y está fundamentada. El razonamiento que podría llevar a las personas a cometer esta falacia puede ser algo como esto:

  1. El internet contiene casi todo el conocimiento humano.

  2. Las inteligencias artificiales saben todas las cosas que hay en internet.

  3. Las inteligencias artificiales no mienten.

Conclusión:

  1. Todo lo que las inteligencias artificiales digan es verdadero y está fundamentado.

En lugar de explicar por qué las tres premisas son problemáticas (todas lo son), quiero decir algo sobre por qué creo que llegaremos a esa situación. Las personas carecen de conocimiento sobre las inteligencias artificiales. En primer lugar, se exageran las habilidades de las inteligencias artificiales, como ChatGPT, y la gente no está informada sobre sus limitaciones. En segundo lugar, las personas pueden usar ChatGPT, e inteligencias artificiales similares, como si estuvieran consultando una enciclopedia, lo cual no deben de hacer. En tercer lugar, es posible que las personas no corroboren la información que las inteligencias artificiales les ofrecen. Y si lo hacen, pero no logran encontrar en una búsqueda en internet lo que las inteligencias artificiales afirmaron, podrían atribuir esto a que las inteligencias artificiales son mejores buscando en el Internet.

Dados los posibles daños que podrían derivarse de que ChatGPT diga falsamente que alguien ha sido acusado de acoso sexual, OpenAI debería evitar que ChatGPT responda este tipo de preguntas. Alguien podría objetar a esta propuesta, en tanto que esto evitaría que ChatGPT les informe sobre casos reales de acoso sexual. No considero que esta objeción sea muy fuerte, por la siguiente razón: si alguien desea saber quién sí ha sido acusado públicamente de acoso sexual puede buscar en el Internet en fuentes confiables.

* César Palacios González (@CPalaciosG) actualmente es investigador de la Universidad de Oxford.

Una versión en inglés de esta nota se puede encontrar aquí.