Opinión: La IA quizá nos salve, o quizá genere virus que nos maten

He aquí una ganga de lo más espeluznante: por menos de 100.000 dólares, ya es posible utilizar la inteligencia artificial para desarrollar un virus que podría matar a millones de personas.

Esa es la conclusión de Jason Matheny, presidente de Rand Corp, un grupo de expertos que estudia asuntos de seguridad y otras cuestiones.

“No costaría más crear un patógeno capaz de matar a cientos de millones de personas que un patógeno capaz de matar solo a cientos de miles de personas”, explicó Matheny.

En cambio, señaló, podría costar miles de millones de dólares producir una nueva vacuna o antiviral como antídoto.

Le conté a Matheny que cuando yo era jefe de la oficina de The New York Times en Tokio, una secta religiosa llamada Aum Shinrikyo utilizó armas químicas y biológicas en atentados terroristas, incluyendo uno en 1995 que mató a trece personas en el metro de Tokio. “Hoy serían capaces de causar un daño mucho mayor”, aseguró Matheny.

Soy miembro desde hace mucho tiempo del Aspen Strategy Group, una organización bipartidista que estudia cuestiones de seguridad mundial, y nuestra reunión anual de este mes se centró en la inteligencia artificial. Por eso invitamos a Matheny y otros expertos a unirse a nosotros… y luego nos asustaron.

A principios de la década de 2000, algunos de nosotros nos preocupábamos por la posibilidad de que se reintrodujera la viruela como arma biológica si alguien robaba el virus de los laboratorios de Atlanta y de la región rusa de Novosibirsk que conservan el virus desde que se erradicó la enfermedad. Sin embargo, con la biología sintética, ahora ni siquiera haría falta robarlo.

Hace unos años, un equipo de investigación creó en seis meses y por 100.000 dólares un primo del virus de la viruela, la viruela equina. Con la IA podría ser más fácil y barato perfeccionar el virus.

Una de las razones por las que no se han utilizado mucho las armas biológicas es que pueden convertirse en un bumerán. Si Rusia liberara un virus en Ucrania, podría propagarse a Rusia. No obstante, un general chino retirado ha planteado la posibilidad de una guerra biológica dirigida contra determinadas razas o etnias (tal vez de forma imperfecta), lo que haría que las armas biológicas fueran mucho más útiles. Otra posibilidad sería desarrollar un virus que matara o incapacitara a una persona concreta, como un presidente o embajador problemático, con solo obtener el ADN de esa persona en una cena o recepción.

Las evaluaciones de la investigación sobre objetivos étnicos por parte de China son confidenciales, pero pueden ser la razón por la que el Departamento de Defensa de Estados Unidos ha afirmado que la amenaza más importante a largo plazo de la guerra biológica procede de China.

Por supuesto, la IA también tiene un lado más esperanzador. Promete mejorar la educación, reducir los accidentes de tráfico, curar el cáncer y desarrollar nuevos fármacos milagrosos.

Uno de los beneficios más conocidos es el del plegamiento de proteínas, que puede dar lugar a avances revolucionarios en la atención médica. Los científicos solían tardar años o décadas en averiguar la forma de proteínas individuales; entonces, se presentó una iniciativa de Google llamada AlphaFold que podía predecir la forma en cuestión de minutos. “Es el Google Maps de la biología”, aseguró Kent Walker, presidente de Asuntos Globales de Google.

Desde entonces, los científicos han utilizado versiones actualizadas de AlphaFold para trabajar en productos farmacéuticos, incluyendo una vacuna contra la malaria, una de las mayores asesinas de seres humanos en la historia.

Así que no está claro si la IA nos salvará o nos matará primero.

Los científicos llevan años estudiando cómo la IA podría dominar la guerra, con drones autónomos o robots programados para encontrar y eliminar objetivos de manera instantánea. La guerra podría reducirse a la lucha de unos robots contra otros robots.

Los robots asesinos no tendrán corazón en un sentido literal, pero no serán necesariamente brutales. No violarán, además de que podrían ser menos propensos que los soldados humanos a la ira que conduce a masacres y torturas.

Una gran incertidumbre es el alcance y el calendario de las pérdidas de puestos de trabajo —camioneros, abogados e incluso codificadores— que podrían amplificar el descontento social. Hace una generación, los funcionarios estadounidenses no sabían cuántos puestos de trabajo en las fábricas costaría el comercio con China ni que, al parecer, provocaría una explosión de muertes por desesperación y el auge del populismo de derecha. Ojalá sepamos gestionar mejor los trastornos económicos de la IA.

Los dictadores se han beneficiado de las nuevas tecnologías. Liu Xiaobo, el disidente chino que recibió el Premio Nobel de la Paz, pensaba que “el internet es un regalo de Dios para el pueblo chino”. No fue así: Liu murió bajo custodia china, y China ha utilizado la IA para aumentar la vigilancia y apretarles las tuercas a los ciudadanos.

La IA también puede facilitar la manipulación de las personas, en formas que recuerdan a Orwell. Un estudio publicado este año descubrió que, cuando el Chat GPT-4 tenía acceso a información básica sobre las personas con las que se relacionaba, tenía un 80 por ciento más de probabilidades de persuadir a alguien que un humano con los mismos datos. El Congreso hacía bien en preocuparse por la manipulación de la opinión pública por el algoritmo de TikTok.

Todo esto subraya por qué es esencial que Estados Unidos mantenga su liderazgo en materia de inteligencia artificial. Por mucho que nos cueste pisar el acelerador, esta no es una competencia en la que esté bien quedar por detrás de China.

El presidente Joe Biden está al tanto de esto, y los límites que impuso al acceso de China a los chips informáticos más avanzados ayudarán a preservar nuestro liderazgo. El gobierno de Biden ha contratado a personas de primera fila del sector privado para encomendarles que reflexionen sobre estas cuestiones y el año pasado emitió una importante orden ejecutiva sobre la seguridad de la IA, pero también tendremos que desarrollar nuevos sistemas en los próximos años para mejorar la gobernanza.

“Nunca hemos tenido una circunstancia en la que la tecnología más peligrosa, y de mayor impacto, esté por completo en manos del sector privado”, señaló Susan Rice, que fue asesora de seguridad nacional durante el gobierno del presidente Barack Obama. “No puede ser que las empresas tecnológicas de Silicon Valley decidan el destino de nuestra seguridad nacional, y quizá el destino del mundo, sin restricciones”.

Creo que es cierto. Gestionar la IA sin asfixiarla será uno de nuestros grandes retos en la adopción de esta tecnología, que quizá sea la más revolucionaria desde que Prometeo nos trajo el fuego.

Contacta a Kristof en Facebook.com/Kristof , Twitter.com/NickKristof o por correo en The New York Times, 620 Eighth Ave., Nueva York, NY 10018.

c.2024 The New York Times Company