Comisión de comunicaciones de EEUU considera regular anuncios políticos por IA en televisión y radio

ARCHIVO - La presidenta de la Comisión Federal de Comunicaciones, Jessica Rosenworcel, habla desde el auditorio South Court del complejo de la Casa Blanca en Washington, el 14 de febrero de 2022. (AP Foto/Susan Walsh, Archivo)

NUEVA YORK (AP) —

La presidenta de la Comisión Federal de Comunicaciones de Estados Unidos (FCC por su siglas en inglés) presentó el miércoles una propuesta para exigir a los anunciantes políticos que informen cuando utilicen contenidos generados por inteligencia artificial en anuncios de radio y televisión.

De ser adoptada por la comisión de cinco miembros, la propuesta añadiría un nivel de transparencia que muchos legisladores y expertos en IA han estado pidiendo ante el rápido avance de las herramientas de IA generativa que producen imágenes, videos y clips de audio realistas que pueden confundir a los votantes en las próximas elecciones de Estados Unidos.

Sin embargo, el principal regulador de las telecomunicaciones del país sólo tendría autoridad sobre la televisión, la radio y algunos proveedores de televisión por cable. Las nuevas normas, de adoptarse, no cubrirían el extraordinario incremento de la publicidad en plataformas digitales y de streaming.

“A medida que las herramientas de inteligencia artificial se vuelven más accesibles, la comisión quiere asegurarse de que los consumidores estén plenamente informados de cuándo se utiliza la tecnología”, dijo la presidenta de la FCC, Jessica Rosenworcel, en un comunicado el miércoles. “Hoy he compartido con mis colegas una propuesta que deja claro que los consumidores tienen derecho a saber cuándo se utilizan herramientas de IA en los anuncios políticos que ven, y espero que actúen con rapidez en este asunto”.

Con esta propuesta, es la segunda vez este año que la comisión empieza a tomar medidas significativas para combatir el creciente uso de herramientas de inteligencia artificial en la comunicación política. Anteriormente, la FCC había confirmado que las herramientas de clonación de voz mediante IA en las llamadas automatizadas están prohibidas por la legislación vigente. Esa decisión se tomó tras un episodio ocurrido en las elecciones primarias de Nueva Hampshire, cuando se hicieron llamadas automatizadas en las que se utilizó un software de clonación de voz para imitar al presidente Joe Biden con el fin de disuadir a los votantes de acudir a las urnas.

Si se aprueba, la propuesta anunciada el miércoles pedirá a las emisoras que verifiquen con los anunciantes políticos si sus contenidos se han generado con herramientas de IA, como creadores de texto a imagen o programas de clonación de voz. La FCC tiene autoridad sobre la publicidad política transmitida por los canales de radio y TV en virtud de la Ley de Reforma de las Campañas de 2002.

Los comisionados tendrán que debatir varios detalles de la propuesta, como si las emisoras tendrán que revelar los contenidos generados por IA en un mensaje al aire o sólo en los archivos políticos de la emisora de radio o televisión, que son públicos. También tendrán que llegar a un acuerdo sobre la definición de contenido generado por IA, un reto que se ha vuelto difícil a medida que las herramientas de retoque y otros avances de la IA se integran cada vez más en todo tipo de software creativo.

Rosenworcel espera que la normativa entre en vigor antes de las elecciones.

Jonathan Uriarte, portavoz y asesor político de Rosenworcel, dijo que la presidenta de la FCC pretende definir el contenido generado por IA como aquel generado mediante tecnología computacional o sistemas basados en máquinas, “incluyendo, en particular, voces generadas por IA que suenan como voces humanas, y actores generados por IA que parecen ser actores humanos”. Pero dijo que su proyecto de definición probablemente cambiará a lo largo del proceso normativo.

La propuesta llega en un momento en que las campañas políticas ya han experimentado mucho con la IA generativa, desde la creación de chatbots para sus sitios web hasta la creación de videos e imágenes mediante esta tecnología.

El año pasado, por ejemplo, el Comité Nacional Republicano publicó un anuncio generado totalmente por IA que intentaba mostrar un futuro distópico en caso de otro gobierno de Biden. Utilizaba fotos falsas pero realistas que mostraban comercios tapiados, patrullas militares en las calles y oleadas de migrantes que sembraban el pánico.

Campañas políticas y sujetos malintencionados también han utilizado imágenes, videos y contenidos de audio muy realistas para estafar, engañar y privar de derechos a los votantes. En las elecciones de India, los recientes videos generados por IA en los que estrellas de Bollywood critican al primer ministro son un ejemplo de una tendencia que, según los expertos en IA, está apareciendo en las elecciones democráticas de todo el mundo.

Rob Weissman, presidente del grupo activista Public Citizen, dijo que se alegraba de ver que la FCC “da un paso adelante para abordar de forma proactiva las amenazas de la inteligencia artificial y los deepfakes, especialmente para la integridad de las elecciones”.

Weissman instó a la FCC a exigir que el aviso sobre IA se dé al aire para beneficio del público, y criticó a otro organismo, la Comisión de Elecciones Federales, por sus retrasos, ya que también está estudiando la posibilidad de regular los deepfakes generados por IA en los publicidad política.

La representante demócrata por Nueva York Yvette Clarke dijo que ha llegado el momento de que el Congreso actúe contra la desinformación en internet, sobre la que la FCC no tiene jurisdicción. Clarke ha presentado un proyecto de ley para exigir la notificación de los contenidos generados por IA en los anuncios en línea.

A medida que la IA generativa se ha ido haciendo más barata, accesible y fácil de usar, varios grupos bipartidistas de legisladores han pedido una legislación que regule la tecnología en la política. A poco más de cinco meses de que se realicen las elecciones de noviembre, todavía no se ha aprobado ningún proyecto de ley.

Un proyecto de ley bipartidista presentado por las senadoras Amy Klobuchar, demócrata, y Lisa Murkowski, republicana, obligaría a incluir una cláusula en los anuncios políticos que se realicen o modifiquen significativamente utilizando IA. Además, obligaría la Comisión de Elecciones Federales a responder en caso de infracción.

Uriarte dijo que Rosenworcel es consciente de que la competencia de la FCC para actuar contra las amenazas relacionadas con la IA es limitada, pero quiere hacer lo que pueda antes de las elecciones de 2024.

“Esta propuesta ofrece las máximas normas de transparencia que la comisión puede hacer cumplir bajo su jurisdicción”, dijo Uriarte.

“Esperamos que las agencias gubernamentales y los legisladores puedan basarse en este importante primer paso para establecer una norma de transparencia sobre el uso de la IA en la publicidad política”.

___

The Associated Press recibe apoyo de varias fundaciones privadas para mejorar su cobertura explicativa de las elecciones y la democracia. La AP es la única responsable de todo el contenido.