Opinión: La basura generada por la inteligencia artificial contamina nuestra cultura

(Jim Stoten/The New York Times)
(Jim Stoten/The New York Times)

UN ELEMENTO RASTRERO E INSIDIOSO DE LA INTELIGENCIA ARTIFICIAL YA ESTÁ PENETRANDO EN NUESTRAS INSTITUCIONES MÁS IMPORTANTES.

Cada vez es más común que montones de productos sintéticos generados con la inteligencia artificial aparezcan en nuestras fuentes de noticias y búsquedas. Lo que está en juego va mucho más allá de lo que aparece en nuestras pantallas. A toda la cultura le está afectando la escorrentía de la inteligencia artificial, un elemento insidioso que está entrando a rastras en nuestras instituciones más importantes.

Tomemos en cuenta la ciencia. Justo después del exitoso lanzamiento de GPT-4, el modelo de inteligencia artificial más reciente de OpenAI y uno de los más avanzados que existen, el lenguaje de la investigación científica empezó a mutar. En especial dentro del propio campo de la inteligencia artificial.

Un nuevo estudio que se realizó este mes examinó revisiones paritarias de científicos —pronunciamientos oficiales de investigadores sobre el trabajo de otros que constituyen la base del progreso científico— presentadas en varios congresos científicos de alto perfil y prestigio dedicados al estudio de la inteligencia artificial. En uno de ellos, esas revisiones paritarias utilizaron la palabra “meticuloso” casi un 3400 por ciento más que el año anterior. El uso de “encomiable” aumentó cerca de un 900 por ciento y el de “intrincado” más de un 1000 por ciento. Otros congresos importantes mostraron patrones similares.

Por supuesto que esos modos de expresarse son algunas de las palabras de moda favoritas de los grandes modelos de lenguaje modernos como ChatGPT. En otras palabras, una cantidad significativa de investigadores en los congresos de inteligencia artificial fueron atrapados entregando sus revisiones paritarias de trabajos ajenos a una inteligencia artificial o, como mínimo, escribiéndolas con mucha ayuda de este tipo de tecnología. Y mientras más cercana era la fecha límite para las revisiones enviadas, se encontró un mayor uso de la inteligencia artificial en ellas.

Si esto te incomoda —en especial sin consideramos la falta actual de confiabilidad en la Inteligencia Artificial— o si crees que tal vez las inteligencias artificiales no deberían revisar la ciencia, sino los propios científicos, esos sentimientos enfatizan la paradoja que se encuentra en el centro de esta tecnología: no está claro cuál es la línea ética entre la estafa y el uso regular. Algunas estafas generadas por medio de la inteligencia artificial son fáciles de identificar, como el artículo de una revista médica en el que aparece una rata de caricatura con unos genitales enormes. Muchos otros son más insidiosos, como la vía reguladora mal etiquetada y alucinada que se describe en ese mismo artículo, uno que también fue arbitrado (¿se podría especular que tal vez por otra inteligencia artificial?).

¿Qué sucede cuando la inteligencia artificial se utiliza de una de las maneras deseadas: para ayudar a escribir? Hace poco, se hizo un alboroto cuando se volvió evidente que las búsquedas simples en bases de datos científicas generaban frases como “Como modelo de lenguaje de inteligencia artificial” en lugares donde los autores que dependían de la inteligencia artificial habían olvidado cubrir sus huellas. Si los mismos autores simplemente hubieran borrado esas marcas de agua accidentales, ¿habría estado bien su uso de la inteligencia artificial para escribir sus artículos?

Lo que ocurre en la ciencia es un microcosmos de un problema mucho mayor. ¿Publicar en redes sociales? Cualquier publicación viral en X ahora casi sin excepción incluye respuestas generadas con inteligencia artificial, desde resúmenes de la publicación original hasta reacciones escritas en la voz insípida al estilo de Wikipedia que tiene ChatGPT, todo para conseguir seguidores. Instagram se está llenando de modelos que fueron generadas con inteligencia artificial, Spotify de canciones generadas con inteligencia artificial. ¿Publicas un libro? Poco después, en Amazon suelen aparecer a la venta “libros de ejercicios” generados con inteligencia artificial que en teoría acompañan tu libro (cuyo contenido es incorrecto; lo sé porque me pasó a mí). Ahora, los primeros resultados de una búsqueda en Google suelen ser imágenes o artículos generados con inteligencia artificial. Los principales medios de comunicación, como Sports Illustrated, han creado artículos generados con inteligencia artificial que se les atribuyen a perfiles de autores igual de falsos. Los comerciantes que venden métodos de optimización de motores de búsqueda presumen abiertamente que utilizan la inteligencia artificial para crear miles de artículos no deseados para robarle tráfico a sus competidores.

Luego está el uso cada vez mayor de la inteligencia artificial generativa para crear videos sintéticos baratos para niños en YouTube. Algunos ejemplos son horrores lovecraftianos, como videos musicales sobre loros en los que los pájaros tienen ojos dentro de ojos, picos dentro de picos, y se transforman incomprensiblemente mientras cantan con una voz artificial: “¡El loro en el árbol dice hola, hola!”. Las narrativas no tienen sentido, los personajes aparecen y desaparecen al azar, datos básicos como los nombres de las formas son erróneos. Después de identificar varios canales sospechosos en mi boletín, The Intrinsic Perspective, Wired encontró evidencia del uso de inteligencia artificial generativa en los procesos de producción de algunas cuentas con cientos de miles o incluso millones de suscriptores.

Como neurocientífico, esto me preocupa. ¿No es posible que en su interior la cultura humana contenga micronutrientes cognitivos —cosas como oraciones cohesivas, narraciones y continuidad de personajes— que los cerebros en desarrollo necesitan? Se supone que Einstein dijo: “Si quieres que tus hijos sean inteligentes, léeles cuentos de hadas. Si quieres que sean muy inteligentes, léeles más cuentos de hadas”. No obstante, ¿qué sucede cuando un niño pequeño en su mayor parte consume basura onírica generada con inteligencia artificial? Nos encontramos en medio de un vasto experimento de desarrollo.

Ahora hay tanta basura sintética en internet que las propias empresas e investigadores de inteligencia artificial están preocupados, no por la salud de la cultura, sino por lo que va a pasar con sus modelos. Cuando las capacidades de la inteligencia artificial aumentaron en 2022, escribí sobre el riesgo de que la cultura se inunde tanto de creaciones de inteligencia artificial que, al entrenar a las inteligencias artificiales del futuro, los resultados anteriores de la inteligencia artificial se filtren en el conjunto de entrenamiento y produzcan un futuro de copias de copias de copias, conforme el contenido se vuelva cada vez más estereotipado y predecible. En 2023, los investigadores introdujeron un término técnico para describir cómo este riesgo afectaba el entrenamiento de la inteligencia artificial: colapso del modelo. De cierto modo, nosotros y estas empresas estamos en el mismo barco, remando por el mismo fango que se vierte en nuestro océano cultural.

Con esta analogía desagradable en mente, vale la pena fijarse en la que podría ser la analogía histórica más clara de nuestra situación actual: el movimiento ambientalista y el cambio climático. Así como la economía inexorable de contaminar hizo que las empresas y los individuos contaminaran, la contaminación cultural de la inteligencia artificial se debe a la decisión racional de satisfacer el apetito voraz por contenido de internet de la manera más barata posible. Aunque los problemas ambientales no están ni cerca de estar resueltos, ha habido un progreso innegable que ha mantenido nuestras ciudades casi libres de esmog y nuestros lagos casi libres de aguas residuales. ¿Cómo?

Antes de cualquier solución específica a nivel de una política, hubo el reconocimiento de que la contaminación ambiental era un problema que necesitaba una legislación externa. Este punto de vista recibió la influencia de una perspectiva que desarrolló en 1968 Garrett Hardin, un biólogo y ecologista. Hardin enfatizó que el motivo detrás del problema de la contaminación eran las personas que actuaban en su propio beneficio y que, por lo tanto, “estamos atrapados en un sistema de ‘ensuciar nuestro propio nido’, siempre que nos comportemos como emprendedores independientes, racionales y libres”. Hardin resumió el problema como una “tragedia de los comunes”. Este planteamiento fue decisivo para el movimiento ambientalista, el cual llegaría a depender de la regulación gubernamental para hacer lo que las empresas solas no podían o no querían hacer.

De nuevo nos encontramos representando una tragedia de los comunes: el interés económico a corto plazo fomenta el uso de contenido barato de inteligencia artificial para maximizar los clics y las visitas, lo que a su vez contamina nuestra cultura e incluso debilita nuestra percepción de la realidad. Y, hasta ahora, las grandes empresas de inteligencia artificial se niegan a buscar medios avanzados para identificar la obra de la inteligencia artificial, lo cual podrían hacer agregando patrones estadísticos sutiles ocultos en el uso de las palabras o en los píxeles de las imágenes.

Una justificación común para la inacción es que los editores humanos siempre podrían juguetear con los patrones implementados si saben lo suficiente. Sin embargo, muchos de los problemas que estamos experimentando no son a causa de actores maliciosos motivados y con capacidades técnicas, sino de usuarios normales que no se adhieren a una línea de uso ético tan fina que es casi inexistente. A la mayoría no le interesan tácticas defensivas avanzadas para patrones estadísticos que se implementaron en productos que, idealmente, deberían tener la marca de que los generó una inteligencia artificial.

Es por eso que los investigadores independientes pudieron detectar resultados de inteligencia artificial en el sistema de revisión arbitrada con una precisión sorprendentemente alta: de hecho, lo intentaron. Del mismo modo, en este momento profesores de todo el país han creado métodos caseros de detección de resultados, como agregar solicitudes ocultas de patrones de uso de palabras a las instrucciones para redactar ensayos que solo aparecen cuando se copian y pegan.

En particular, las empresas de inteligencia artificial parecen oponerse a cualquier patrón integrado a sus productos que pueda mejorar las labores de detección de la inteligencia artificial a niveles razonables, tal vez porque temen que implementar esos patrones puede interferir en el rendimiento del modelo al limitar demasiado sus resultados, aunque no hay pruebas actuales de que esto sea un riesgo. A pesar de las promesas públicas anteriores de desarrollar marcas de agua más avanzadas, cada vez está más claro que la reticencia y la lentitud de las empresas se deben a que tener productos detectables va en contra de las utilidades de la industria de la inteligencia artificial.

Para hacerle frente a esta negativa corporativa a actuar necesitamos el equivalente de una Ley de Aire Limpio: una Ley del Internet Limpio. Tal vez la solución más sencilla sería obligar legislativamente a los productos generados a introducir marcas de agua avanzadas intrínsecas, como patrones que no se puedan eliminar con facilidad. Al igual que el siglo XX necesitó intervenciones de gran envergadura para proteger el medioambiente que compartimos, el siglo XXI va a requerir intervenciones de gran envergadura para proteger un recurso común distinto, pero igual de crucial, del que no nos hemos percatado hasta ahora porque nunca estuvo amenazado: nuestra cultura humana compartida.

Este artículo apareció originalmente en The New York Times.

c.2024 The New York Times Company