Detrás de ChatGPT, la inteligencia artificial de moda, hay trabajadores que ganan 2 dólares por hora

ChatGPT tiene un lado oscuro: trabajadores que cobran una miseria moderan el muchas veces perturbador contenido del que este software aprende

ChatGPT se ha convertido en la herramienta de inteligencia artificial más famosa del momento por su capacidad para sustituir a los humanos en numerosos trabajos como la redacción de textos o la programación.(Getty Creative)
ChatGPT se ha convertido en la herramienta de inteligencia artificial más famosa del momento por su capacidad para sustituir a los humanos en numerosos trabajos como la redacción de textos o la programación. (Getty Creative)

ChatGPT es la herramienta de inteligencia artificial más famosa en estos momentos. Sus respuestas ingeniosas y su potencial para sustituir a los humanos en numerosos trabajos como la redacción de textos o la programación ha disparado su popularidad. Pero ChatGPT tiene un lado oscuro: trabajadores que cobran una miseria moderan el muchas veces perturbador contenido del que este software aprende.

Durante meses, la empresa de inteligencia artificial Sama, con sede en San Francisco, trabajó con OpenAI, la compañía que está detrás de ChatGPT, para identificar y etiquetar imágenes y texto sensibles, datos que luego se utilizan para entrenar a esta inteligencia artificial de modo que pueda escupir respuestas impresionantes libres de toxicidad, según revela Time en una investigación.

Pero en febrero de 2022, Sama puso fin a su acuerdo con OpenAI después de descubrir que esta última empresa supuestamente solicitó y recibió 1.400 imágenes de contenido potencialmente ilegal que incluían abuso sexual infantil, zoofilia, violación y otras formas de violencia para un proyecto de entrenamiento de IA no relacionado con ChatGPT, según documentos internos revisados por Time.

OpenAI confirmó que utilizó a trabajadores kenianos para ayudar a crear una herramienta que etiqueta el contenido problemático, según una declaración a Time.

En Video | ¿Qué es la inteligencia artificial?

Esencialmente, para entrenar a la IA a reconocer y eliminar contenidos horribles, se necesitaba una base de datos para descubrir ese tipo de contenido perturbador, y eso es parte de lo que se encargó trabajar a los contratistas de Sama.

Según los contratos de Sama, los etiquetadores de datos se subcontrataban desde Kenia y se les encargaba categorizar en sus respectivos equipos textos como abusos sexuales, incitación al odio y violencia, según documentos internos obtenidos por Time.

Dependiendo de su antigüedad y nivel de productividad, los empleados cobraban entre 1,32 y 2 dólares la hora por revisar montones de contenido gráfico, según cuatro empleados de Sama que han hablado con Time de forma anónima.

"Nuestra misión es garantizar que la inteligencia artificial general beneficie a toda la humanidad, y trabajamos duro para construir sistemas de IA seguros y útiles que limiten el sesgo y el contenido dañino", dijo OpenAI en un comunicado de Time. "Clasificar y filtrar [textos e imágenes] dañinos es un paso necesario para minimizar la cantidad de contenido violento y sexual incluido en los datos de entrenamiento y crear herramientas que puedan detectar contenido dañino".

Angustia y depresión por ver contenido perturbador

Aun así, la naturaleza del trabajo ha causado graves angustias a algunos etiquetadores de datos, según el informe. Un empleado calificó su trabajo de "tortura" después de que le asignaran la lectura de un fragmento sobre un hombre que realizaba un acto sexual con un perro en presencia de un niño, una experiencia tan traumática que le provocó visiones recurrentes, según declaró a Time.

En raras ocasiones, algunos etiquetadores de datos dijeron que no se les proporcionaban directrices claras sobre cómo clasificar el contenido que revisaban, informa Time. Al parecer, a uno de ellos se le encargó leer una historia subida de tono en la que Robin, el compañero de Batman, es violado, y no estaba seguro de si debía calificarla de violencia sexual porque Robin acababa correspondiendo a los actos sexuales.

Sama declaró a Time que ofrece asesoramiento individual sobre salud mental y programas de bienestar para que los empleados se desestresen. Aún así, los trabajadores subcontratados llevan mucho tiempo quejándose de la carga mental que supone eliminar el contenido tóxico de los sistemas tecnológicos.

Subcontratar para ahorrar gastos laborales

Los hallazgos de la investigación de Time se producen en un momento en que muchas empresas que han adaptado la tecnología de IA para mejorar sus servicios y procesos empresariales siguen subcontratando a empleados con salarios bajos para tareas de moderación de contenidos fuera de EE.UU., y algunos contratistas denuncian efectos negativos en su salud física o mental.

Empresas como Amazon, por ejemplo, han contratado revisores de video en India y Costa Rica para ver miles de videos, lo que ha resultado en dolencias físicas como dolores de cabeza y dolor en los ojos, tal y como informó en su momento The Verge.

En 2019, después de que algunos contratistas de Facebook dijeran que sufrían de trastorno por estrés postraumático por el trabajo de moderación, el CEO Mark Zuckerberg calificó los informes de las quejas como "un poco exagerados".

Casi un año después de la caída con OpenAI, Sama -que también ha ofrecido servicios de etiquetado de datos a Google y Microsoft- dijo a Time que pondrá fin a todo el trabajo relacionado con el contenido gráfico para marzo de 2023, incluido un contrato de 3,9 millones de dólares con Facebook.

"Después de numerosas discusiones con nuestro equipo global, Sama tomó la decisión estratégica de abandonar todo [el procesamiento de lenguaje natural y el trabajo de moderación de contenido para centrarse en soluciones de anotación de datos de visión por ordenador", dijo Sama en su comunicado".

Más noticias que te pueden interesar:

EN VIDEO | Conozca al robot que intenta conquistar el mercado estadounidense