Meta alertará en sus redes sociales sobre imágenes creadas con inteligencia artificial


La empresa tecnológica Meta anunció este martes 6 de febrero que identificará “en los próximos meses” cualquier imagen generada por inteligencia artificial (IA) que aparezca en sus redes sociales, Facebook, Instagram y Threads.

“En los próximos meses etiquetaremos las imágenes que los usuarios publiquen en Facebook, Instagram y Threads. Ello siempre y cuando podamos detectar los indicadores, conforme a las normas de la industria, que revelan que son generadas por inteligencia artificial“, anunció Nick Clegg, el responsable de asuntos internacionales de Meta.

A medida que se difumina la diferencia entre contenidos humanos y sintéticos, la gente quiere saber en dónde está el límite. “Para muchas personas, esta es la primera vez que ven contenidos generados por inteligencia artificial. Nuestros usuarios nos han dicho que valoran la transparencia en torno a esta nueva tecnología.

META, CONTRA IMÁGENES CREADAS CON INTELIGENCIA ARTIFICIAL

“Por eso es importante que ayudemos a la gente a saber cuándo un contenido fotorrealista ha sido creado con inteligencia artificial. Para ello, aplicamos la etiqueta ‘Imaginado con IA’ a las imágenes fotorrealistas creadas con nuestra función Meta AI. Queremos poder hacerlo también con los contenidos creados por otras empresas”, indica un comunicado.

“Estamos creando herramientas líderes en el sector capaces de identificar marcadores invisibles a escala –en concreto, la información ‘generada por IA’ de los estándares técnicos C2PA e IPTC– para poder etiquetar imágenes de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock a medida que ponen en marcha sus planes para añadir metadatos a las imágenes creadas por sus herramientas”.

El auge de la inteligencia artificial generativa suscita temores de que las personas utilicen estas herramientas para sembrar el caos político, especialmente a través de la desinformación. Casi la mitad de la población mundial celebrará elecciones este año.

Además del riesgo político, el desarrollo de programas de inteligencia artificial generativa podría producir un flujo incontrolable de contenidos degradantes, según numerosos activistas y reguladores, como las imágenes falsas (“deepfakes”) pornográficas de mujeres famosas, un fenómeno que también afecta a muchas personas anónimas.

EL CASO DE TAYLOR SWIFT

Por ejemplo, una imagen falsa de la estrella estadounidense Taylor Swift fue vista 47 millones de veces en la red social X a finales de enero antes de ser eliminada. Según la prensa estadounidense, la publicación permaneció en línea en la plataforma durante aproximadamente 17 horas.

Si bien Nick Clegg admite que este etiquetado a gran escala, a través de marcadores invisibles, “no eliminará” totalmente el riesgo de producción de imágenes falsas, “ciertamente minimizará” su proliferación. Añade que será “dentro de los límites de lo que la tecnología permite actualmente”.

“No es perfecto, la tecnología aún no está completamente desarrollada, pero de todas las plataformas es el intento más avanzado hasta ahora para proporcionar transparencia de forma significativa a miles de millones de personas en todo el mundo”, dijo Clegg a la AFP. N

Newsweek en Español te recomienda también estas notas:

Polémica cultural: la canción ‘Zorra’ enfrenta a feministas y el gobierno de España

Bob Dylan, Taylor Swift y otros quedan fuera de TikTok por desacuerdo con Universal Music

Adolescentes acosados corren el riesgo de padecer episodios de psicosis

Dormir demasiado o muy poco se asocia con una mala salud cerebral: estudio

Alcohol, cannabis y nicotina, sustancias relacionadas con pensamientos suicidas