Estados Unidos presenta plan de acción para mitigar los riesgos de la inteligencia artificial

El presidente de Estados Unidos, Joe Biden, emitió una orden ejecutiva para gestionar los riesgos de la inteligencia artificial. Con ella, se busca aumentar la seguridad y, al mismo tiempo, proteger a los consumidores, trabajadores y grupos minoritarios de los riesgos relacionados con la tecnología, según la Casa Blanca.

La orden va más allá de los compromisos voluntarios asumidos a principios de este año por empresas de inteligencia artificial como OpenAI, Alphabet (matriz de Google) y Meta Platforms, que se comprometieron a poner marcas de agua a contenido generado por inteligencia artificial para hacer la tecnología más segura.

De acuerdo con la Casa Blanca, la orden ejecutiva requiere que los desarrolladores de sistemas de inteligencia artificial que representen riesgos para la seguridad nacional, la economía, la salud pública o la seguridad de Estados Unidos compartan los resultados de las pruebas de seguridad con el gobierno estadounidense antes de que se hagan públicos.

También ordena a las agencias que establezcan estándares para esas pruebas y aborden los riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad relacionados.

Los funcionarios estadounidenses han advertido que la IA puede aumentar el riesgo de prejuicios y violaciones de los derechos civiles. La orden ejecutiva de Biden busca abordar esto pidiendo orientación a los propietarios, los programas de beneficios federales y los contratistas federales «para evitar que los algoritmos de IA se utilicen para exacerbar la discriminación», lee el comunicado.

Como parte de la orden, el Departamento de Comercio «desarrollará una guía para la autenticación de contenido y la marca de agua» para etiquetar artículos generados por IA. Esto para garantizar que las comunicaciones gubernamentales sean claras, dijo la Casa Blanca.

La orden también exige el desarrollo de «mejores prácticas» para abordar los daños que la IA puede causar a los trabajadores, incluido el desplazamiento laboral. También exige un informe sobre los impactos en el mercado laboral.

Estados Unidos y otras naciones se están movilizando para mitigar los posibles riesgos de la inteligencia artificial

La orden es el último paso de la administración Biden para establecer parámetros en torno a la inteligencia artificial, a medida que gana rápidamente popularidad en un entorno de regulación que es, hasta ahora, limitado.

La movilización de EU refleja los esfuerzos de otras regiones para regular la inteligencia artificial, siendo la Unión Europa una de las más relevantes.

La llamada Ley de inteligencia artificial de la Unión Europea es la primera iniciativa concreta del mundo para regularla. Su objetivo es convertir a Europa en un centro mundial de IA fiable, estableciendo normas que regulen el desarrollo, la comercialización y su uso en la región; sin embargo, legisladores de la UE aún deben llegar a un acuerdo sobre varias cuestiones relacionadas con las nuevas reglas antes de aprobarlas.

Reuters informó el domingo que el G7 acordará este lunes un código de conducta voluntario para las empresas que desarrollen sistemas avanzados de inteligencia artificial. Este marcará un hito en la manera en que los principales países gobiernan la IA.

China, por su parte, publicó el 12 de octubre propuestas de requisitos de seguridad para empresas que ofrecen servicios impulsados por IA generativa. Entre estos se incluye una lista negra de fuentes que no pueden usarse para entrenar estos modelos.

A su vez, Gran Bretaña organizará la siguiente semana una cumbre mundial sobre seguridad de la inteligencia artificial. Esta se centrará en comprender los riesgos que plantea la inteligencia artificial y cómo se podrían apoyar los marcos nacionales e internacionales.

La vicepresidenta de Estados Unidos, Kamala Harris, asistirá a la cumbre; también se espera que China esté representada en la reunión, cuyo anfitrión será el primer ministro británico, Rishi Sunak.

Sunak ha dicho que únicamente los gobiernos podrían abordar los riesgos que plantea la inteligencia artificial. Según el primer ministro británico, la IA podría facilitar la construcción de armas químicas o biológicas, sembrar el miedo o escapar del control humano.

México aún no cuenta con leyes u organismos que regulen la inteligencia artificial

México actualmente carece de una regulación que sirva para promover el desarrollo ordenado y seguro de la inteligencia artificial; sin embargo, en mayo de este año el diputado panista Ignacio Loyola presentó una propuesta para establecer un marco legal alrededor de esta tecnología.

Bajo el nombre Ley de Regulación Ética de la Inteligencia Artificial y la Robótica, esta propuesta buscaría “regular y normar el uso de la inteligencia artificial y la robótica en su uso con fines gubernamentales, económicos, comerciales, administrativos, comunicacionales y financieros para que su uso sea siempre basado en apego a la ética y en apego a derecho».

A su vez, esta nueva ley vería la creación del Consejo Mexicano de Ética para la Inteligencia Artificial y la Robótica. Este organismo funcionaría como una plataforma desde la que investigadores, analistas y expertos en tecnología desarrollarían nuevas normas oficiales para fomentar el desarrollo ético de la IA en nuestro país.

Sin embargo, esta propuesta aún se encuentra en sus primeras etapas y tomará tiempo para ver un borrador más completo.

AHORA LEE: El foro de seguridad de inteligencia artificial respaldado por OpenAI, Microsoft y Google nombra a su primer director

TAMBIÉN LEE: Consejo de derechos humanos de la ONU adopta resolución para abordar transparencia en inteligencia artificial

Descubre más historias en Business Insider México

Síguenos en Facebook, Instagram, Twitter, LinkedIn, YouTube, TikTok y Threads

AHORA ESCUCHA:

AHORA VE: