Anuncios
Elecciones México 2024:

Cobertura Especial | LO ÚLTIMO

Los líderes del sector advierten sobre el ‘riesgo de extinción’ de la inteligencia artificial

Sam Altman, director ejecutivo de OpenAI, testifica en Capitol Hill en Washington, DC, el 16 de mayo de 2023. Ejecutivos de tres de las principales empresas de inteligencia artificial, entre ellos Sam Altman, han firmado una carta abierta en la que advierten sobre los riesgos de la inteligencia artificial. (Haiyun Jiang/The New York Times)
Sam Altman, director ejecutivo de OpenAI, testifica en Capitol Hill en Washington, DC, el 16 de mayo de 2023. Ejecutivos de tres de las principales empresas de inteligencia artificial, entre ellos Sam Altman, han firmado una carta abierta en la que advierten sobre los riesgos de la inteligencia artificial. (Haiyun Jiang/The New York Times)

Directivos de OpenAI, Google DeepMind, Anthropic y otros laboratorios de inteligencia artificial advierten que los sistemas del futuro podrían ser tan mortíferos como las pandemias y las armas nucleares.

Un grupo de líderes de la industria advirtió el martes que la tecnología de inteligencia artificial (IA) que están desarrollando algún día podría ser una amenaza existencial para la humanidad y debería considerarse un riesgo social al mismo nivel que las pandemias y las guerras nucleares.

“Mitigar el riesgo de extinción de la inteligencia artificial debería ser una prioridad mundial junto a otros riesgos a escala social, como las pandemias y las guerras nucleares”, dice la declaración, que consta de una sola frase, publicada por el Centro para la Seguridad de la IA, una organización sin fines de lucro. La carta abierta está firmada por más de 350 ejecutivos, investigadores e ingenieros que trabajan en inteligencia artificial.

Entre los firmantes figuran altos ejecutivos de tres de las principales empresas de inteligencia artificial: Sam Altman, director ejecutivo de OpenAI; Demis Hassabis, director ejecutivo de Google DeepMind, y Dario Amodei, director ejecutivo de Anthropic.

Geoffrey Hinton y Yoshua Bengio, dos de los tres investigadores galardonados con el Premio Turing por su trabajo pionero en redes neuronales y que a menudo son considerados como los “padrinos” del movimiento moderno de la inteligencia artificial, firmaron la declaración, al igual que otros destacados investigadores de ese campo. (El tercer ganador del Premio Turing, Yann LeCun, quien dirige los esfuerzos de Meta para la investigación en inteligencia artificial, no había firmado hasta el martes).

La declaración llega en un momento de creciente preocupación por los posibles perjuicios de la inteligencia artificial. Los recientes avances en los llamados modelos grandes de lenguaje —el tipo de sistema utilizado por ChatGPT y otros chatbots— han suscitado el temor de que la inteligencia artificial pueda utilizarse pronto a gran escala para difundir desinformación y propaganda, o que pueda eliminar millones de puestos de trabajo.

Algunos creen que, si no se hace nada para frenarla, la inteligencia artificial podría llegar a ser tan poderosa como para provocar trastornos a escala social en unos pocos años, aunque los investigadores aún no explican cómo ocurriría eso.

Estos temores son compartidos por numerosos líderes de la industria, lo que los ubica en la inusual posición de argumentar que una tecnología que están desarrollando —y que, en muchos casos, se apresuran a construir más rápido que sus competidores— plantea graves riesgos y debería regularse más de manera más estricta.

Este mes, Altman, Hassabis y Amodei se reunieron con el presidente y la vicepresidenta de Estados Unidos, Joe Biden y Kamala Harris, para hablar de la regulación de la inteligencia artificial. En un testimonio ante el Senado estadounidense tras la reunión, Altman advirtió que los riesgos de los sistemas avanzados de inteligencia artificial eran lo bastante serios como para justificar la intervención del gobierno y pidió que fuese regulada por sus daños potenciales.

Dan Hendrycks, director ejecutivo del Centro para la Seguridad de la IA, declaró en una entrevista que la carta abierta representaba una “salida del clóset” para algunos líderes del sector que habían expresado su preocupación —pero solo en privado— por los riesgos de la tecnología que están desarrollando.

“Existe la idea errónea, incluso en la comunidad de la IA, de que solo hay un grupo de catastrofistas”, dijo Hendrycks. “Pero, de hecho, muchas personas expresan en privado su preocupación por estas cosas”.

Algunos escépticos sostienen que la tecnología de la inteligencia artificial aún está en ciernes como para suponer una amenaza existencial. En lo que respecta a los sistemas de IA actuales, les preocupan más los problemas a corto plazo, como las respuestas sesgadas e incorrectas, que los peligros a largo plazo.

Pero otros han argumentado que la inteligencia artificial está mejorando con tanta rapidez que ya ha superado el rendimiento humano en algunas áreas y que pronto lo hará en otras. Afirman que la tecnología ha dado muestras de capacidades y conocimientos avanzados, lo que hace temer que la “inteligencia artificial general” (IAG), un tipo de inteligencia artificial que puede igualar o superar el rendimiento humano en una amplia variedad de tareas, no esté muy lejos.

En una entrada de blog publicada la semana pasada, Altman y otros dos ejecutivos de OpenAI propusieron varias formas de gestionar de manera responsable los potentes sistemas de inteligencia artificial. Pidieron cooperación entre los principales fabricantes de IA, más investigación técnica sobre los modelos grandes de lenguaje y la formación de una organización internacional de seguridad de la inteligencia artificial, similar al Organismo Internacional de la Energía Atómica, que trata de controlar el uso de armas nucleares.

Altman también ha expresado su apoyo a las normas que obligarían a los fabricantes de grandes modelos de IA a registrarse para obtener una licencia expedida por el gobierno.

En marzo, más de 1000 tecnólogos e investigadores firmaron otra carta abierta en la que pedían una pausa de seis meses en el desarrollo de los mayores modelos de IA, citando la preocupación por “una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más potentes”.

Esa carta, coordinada por otra organización sin fines de lucro centrada en la inteligencia artificial, el Future of Life Institute, estaba firmada por Elon Musk y otros conocidos líderes tecnológicos, pero no contaba con muchas firmas de los principales laboratorios de IA.

La brevedad de la nueva declaración del Centro para la Seguridad de la Inteligencia Artificial —solo 22 palabras en inglés en total— pretende unir a expertos en inteligencia artificial que podrían discrepar sobre la naturaleza de los riesgos específicos o las medidas para evitar que se produzcan, pero que comparten preocupaciones generales sobre los potentes sistemas de IA, dijo Hendrycks.

“No queríamos imponer un menú muy amplio de 30 posibles intervenciones”, dijo. “Cuando eso ocurre, se diluye el mensaje”.

La declaración se compartió inicialmente con algunos expertos en inteligencia artificial de alto nivel, entre ellos Hinton, que este mes dejó su trabajo en Google para poder hablar con más libertad, según dijo, sobre los daños potenciales de la IA. A partir de ahí, llegó a varios de los principales laboratorios de inteligencia artificial, donde algunos empleados la firmaron.

La urgencia de las advertencias de los líderes de la IA ha aumentado a medida que millones de personas han recurrido a los chatbots como entretenimiento, compañía y aumento de la productividad, y a medida que la tecnología subyacente mejora a un ritmo vertiginoso.

“Creo que si esta tecnología sale mal, puede salir bastante mal”, dijo Altman al subcomité del Senado. “Queremos trabajar con el gobierno para evitar que eso suceda”.

Kevin Roose es columnista de tecnología y autor de Futureproof: 9 Rules for Humans in the Age of Automation.

c. 2023 The New York Times Company