Anuncios
Elecciones México 2024:

Cobertura Especial | LO ÚLTIMO

Miedo ante el desarrollo de la IA: Musk y varios expertos hablan de riesgos potenciales para la humanidad

Por Jyoti Narayan y Krystal Hu

29 mar (Reuters) - Elon Musk y un grupo de expertos en inteligencia artificial y ejecutivos del sector piden una pausa de seis meses en el entrenamiento de sistemas más potentes que el recién lanzado modelo GPT-4 de OpenAI, según afirman en una carta abierta, en la que aluden a riesgos potenciales para la sociedad y la humanidad.

La carta —publicada por la organización sin ánimo de lucro Future of Life Institute y firmada por más de 1.000 personas, entre ellas Musk, el director ejecutivo de Stability AI, Emad Mostaque, investigadores de DeepMind, propiedad de Alphabet, así como los pesos pesados de la IA Yoshua Bengio y Stuart Russell— pide una pausa en el desarrollo de inteligencia artificial (IA) avanzada hasta que se desarrollen y apliquen protocolos de seguridad compartidos para tales diseños y auditados por expertos independientes.

"Los potentes sistemas de IA solo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables", afirma la carta.

Una preocupación cada vez más extendida

 

La carta también detalla los riesgos potenciales para la sociedad y la civilización que presentan los sistemas de IA competitivos con humanos en forma de trastornos económicos y políticos, y pide a los desarrolladores que colaboren con los responsables en materia de gobernanza y autoridades reguladoras.

La carta llega después de que Europol, la fuerza policial de la UE, se uniera el lunes a un coro de entidades que han expresado preocupaciones éticas y legales sobre la IA avanzada como ChatGPT, y advierten sobre el posible uso indebido del sistema en intentos de "phishing", desinformación y ciberdelincuencia. Musk, cuyo fabricante de automóviles Tesla está utilizando la IA para un sistema de piloto automático, ha manifestado abiertamente su preocupación por esta tecnología.

Desde su lanzamiento el año pasado, ChatGPT de OpenAI, respaldada por Microsoft, ha llevado a sus competidores a acelerar el desarrollo de grandes modelos lingüísticos similares y a las empresas a integrar modelos generativos de IA en sus productos.

Sam Altman, director ejecutivo de OpenAI, no ha firmado la carta, según dijo a Reuters un portavoz de Future of Life. OpenAI no respondió inmediatamente a una petición de comentarios enviada por Reuters.

"La carta no es perfecta, pero la intención es la correcta: tenemos que frenar hasta que entendamos mejor las ramificaciones", dijo Gary Marcus, un profesor emérito de la Universidad de Nueva York que firmó la carta.

"Pueden causar graves daños... los grandes actores son cada vez más reservados sobre lo que hacen, lo que dificulta que la sociedad se defienda contra cualquier daño que pueda materializarse", añadió.

También te puede interesar | EN VIDEO: Comienza una revolución: la inteligencia artificial alcanza la vida cotidiana

(Reportes de Jyoti Narayan en Bengaluru y Krystal Hu en Nueva York. edición de Gerry Doyle; editado en español por Flora Gómez)