Comisión de supervisión insta a Meta a replantear su política sobre contenido manipulado

ARCHIVO - Un grupo de personas conversa junto a un cartel de Meta en el exterior de la sede de la empresa en Menlo Park, California, el 7 de marzo de 2023. (AP Foto/Jeff Chiu)

NUEVA YORK (AP) — Una comisión de supervisión ha criticado las políticas de Meta —propietaria de Facebook— relativas a contenidos manipulados, por considerarlas “incoherentes” e insuficientes para hacer frente a la avalancha de desinformación en línea que ya ha empezado a afectar las elecciones de este año en todo el mundo.

La comisión, de carácter semiindependiente, afirmó el lunes que su revisión de un video alterado del presidente Joe Biden que se difundió en Facebook puso de manifiesto la existencia de lagunas en la política de la empresa. La comisión dijo que Meta debería ampliar la política para que no sólo se enfoque en los videos generados con inteligencia artificial, sino también en el contenido en general, independientemente de cómo se haya creado. Eso incluye las grabaciones de audio falsas, que ya han suplantado de forma convincente a candidatos políticos en Estados Unidos y otros países.

Según indicó la comisión supervisora de Meta, la empresa también debería aclarar qué afectaciones está tratando de prevenir y etiquetar imágenes, videos y fragmentos de audio como manipulados en lugar de eliminar por completo las publicaciones.

Los comentarios de la comisión reflejan el intenso escrutinio al que se enfrentan muchas empresas tecnológicas por su gestión de las falsificaciones electorales en un año en el que los votantes de más de 50 países acudirán a las urnas. Dado que tanto los deepfakes de inteligencia artificial generativa como los “fakes baratos” de menor calidad en las redes sociales amenazan con confundir a los votantes, las plataformas están tratando de ponerse al día y responder a las publicaciones falsas sin dejar de proteger el derecho a la libertad de expresión de los usuarios.

“Tal y como está, la política tiene poco sentido”, dijo el copresidente de la comisión de supervisión, Michael McConnell, refiriéndose a la política de Meta en una declaración el lunes. Afirmó que la empresa debe cerrar los recovecos de su reglamento, y garantizar al mismo tiempo que la expresión política esté “inquebrantablemente protegida”.

Meta afirmó que está estudiando las recomendaciones de la comisión de supervisión y que responderá públicamente en un plazo de 60 días.

El portavoz de Meta, Corey Chambliss, dijo que aunque los deepfakes de audio no se mencionan en la política de contenidos manipulados de la empresa, pueden ser objeto de verificación de hechos y datos, y se etiquetarán o bajarán de categoría si los verificadores de hechos y datos los califican de falsos o alterados. La empresa también toma medidas contra cualquier tipo de contenido que infrinja las normas comunitarias de Facebook.

Facebook, que cumplió 20 años este mes, sigue siendo la red social más popular entre los estadounidenses, según Pew. Pero otras redes sociales, entre ellas Instagram, WhatsApp y Threads de Meta, así como X, YouTube y TikTok, también son posibles focos de difusión de contenidos engañosos que pueden confundir a los votantes.

Meta creó su comisión de supervisión en 2020 para que actuara como árbitro de los contenidos de sus plataformas. Sus recomendaciones actuales llegan después de que revisara un video alterado del presidente Biden y su nieta adulta que era engañoso pero no violaba las políticas específicas de la empresa.

El video original muestra a Biden colocándole a su nieta una pegatina con el lema “Yo voté” en la parte alta del pecho, por indicación de ella, y dándole un beso en la mejilla. La versión que apareció en Facebook fue alterada para eliminar el relevante contexto, haciendo que pareciera que la había tocado de forma inapropiada.

La resolución de la comisión del lunes confirmó la decisión de Meta de 2023 de dejar el video de siete segundos en Facebook, ya que no infringía la política vigente de la empresa sobre medios manipulados. La política actual de Meta dice que eliminará los videos creados con herramientas de inteligencia artificial que tergiversen el discurso de alguien.

“Dado que el video de esta publicación no fue alterado con IA y muestra al presidente Biden haciendo algo que no hizo (no algo que no dijo), no viola la política vigente”, dice la resolución.

La comisión aconsejó a la empresa que actualizara la política y etiquetara en el futuro videos similares como manipulados. Sostuvo que, para proteger el derecho a la libertad de expresión de los usuarios, Meta debería etiquetar los contenidos como manipulados en lugar de eliminarlos de la plataforma si no infringen ninguna otra política.

La comisión también señaló que algunas formas de contenido manipulado están hechas para el humor, la parodia o la sátira y deben ser protegidas. En lugar de centrarse en cómo se ha creado una imagen, un video o un fragmento de audio distorsionados, la política de la empresa debería centrarse en el daño que pueden causar las publicaciones manipuladas, como alterar el proceso electoral, dice la resolución.

Meta dijo en su sitio web que ve con buenos ojos la decisión tomada por la comisión de supervisión sobre la publicación relacionada con Biden y que la actualizará tras revisar las recomendaciones de la comisión.

Meta está obligada a acatar las decisiones de la comisión de supervisión sobre contenidos concretos, pero no está obligada a seguir sus recomendaciones generales. Aun así, la comisión ha conseguido que la empresa introduzca algunos cambios a lo largo de los años, entre ellos que los mensajes a los usuarios que infringen sus políticas sean más específicos para explicarles lo que han hecho mal.

Jen Golbeck, profesora de la Facultad de Estudios de la Información de la Universidad de Maryland, afirma que Meta es lo bastante grande como para liderar el etiquetado de contenidos manipulados, pero que su aplicación es tan importante como el cambio de política.

"¿Implementarán esos cambios y luego los harán cumplir frente a la presión política de la gente que quiere hacer cosas malas? Esa es la verdadera cuestión”, dijo. “Si hacen esos cambios y no los aplican, contribuyen a la destrucción de la confianza, que es algo intrínseco a la desinformación”.

___

La periodista de The Associated Press Barbara Ortutay contribuyó a este despacho desde San Francisco.

___

The Associated Press recibe apoyo de varias fundaciones privadas para mejorar su cobertura explicativa de las elecciones y la democracia. La AP es la única responsable de todo el contenido.