La advertencia de una exingeniera de Google sobre el peligro real de los "robots asesinos"

¿Robots inteligentes y armados hasta los dientes –o hasta los circuitos– en roles militares? ¿Máquinas de guerra capaces de actuar de modo autónomo para eliminar al enemigo?

Esas premisas, comunes en la ciencia ficción, estarían cada vez más cerca de volverse realidad y, con ello, la posibilidad de que esos robots inteligentes armados pudiesen atacar y matar por decisión propia a personas que nada tienen que ver con sus objetivos militares, incluso de alzarse contra la humanidad misma, inquieta a muchos.

La organización Campaña para Frenar los Robots Asesinos pide prohibir a escala global los sistemas de armamento autónomos sin control humano por el alto riesgo de que cometan accidentes o errores letales. (YouTube / Campaign to Stop Killer Robots)

Esa preocupación no es un mero pasatiempo: es una poderosa advertencia que han realizado numerosos científicos, organizaciones y países, que han llamado a una prohibición global de las armas totalmente autónomas, y es el campo de acción de iniciativas con un nombre tan específico como Campaign to Stop Killer Robots (Campaña para Frenar los Robots Asesinos).

Esa es también la alerta que Laura Nolan, quien fue una de las ingenieras de software más destacadas de Google, ha planteado recientemente. Ella se ha sumado a la propuesta de prohibir en todo el mundo las máquinas provistas de armas e inteligencia artificial que no requieran de controles humanos, del mismo modo en que se han prohibido las armas químicas.

De acuerdo al relato de The Guardian, Nolan renunció a su puesto en Google en protesta por haber sido transferida al Proyecto Maven, una iniciativa del Pentágono orientada al desarrollo de sistemas militares de inteligencia artificial que, se afirma, busca lograr que los sistemas puedan distinguir autónomamente y rápidamente a personas de objetos o animales en videos captados por drones.

Así, lo que requeriría una gran cantidad de horas de trabajo de una gran cantidad de analistas militares para revisar imágenes captadas por drones de vigilancia podría hacerse con sistemas de inteligencia artificial, de modo mucho más rápido.

Con ello, las decisiones sobre dónde y cuándo lanzar un ataque se tomarían más rápidamente y, al menos en el papel, reduciendo errores y “bajas colaterales”.

Pero para muchos el Proyecto Maven y otras iniciativas para utilizar sistemas de inteligencia artificial en el ámbito militar incurren en un grave peligro: que esas “máquinas inteligentes” en realidad se equivoquen en sus decisiones y ataquen a inocentes o, en su versión más extrema, que decidan tajantemente atacar a los seres humanos.

El segundo escenario –que evoca a ‘Terminator’ y otras sagas de ciencia ficción– luce un tanto lejano, pero sería inquietantemente plausible en la medida en que avanza el desarrollo de sistemas de inteligencia artificial.

Pero la primera posibilidad, que un arma autónoma, al carecer de la capacidad para tomar decisiones éticas complejas, pudiese lanzar un ataque contra personas que nada tienen que ver con la misión en cuestión sería ya un riesgo inminente.

La Campaña para Frenar los Robots Asesinos define ese peligro como “armas completamente autónomas que podrían decidir quién vive o muere, sin intervención humana…”. La propuesta de prohibir a escala internacional esos sistemas cuenta con el apoyo de 21 premios Nobel, 110 organizaciones no gubernamentales, 4,500 expertos en inteligencia artificial, el secretario general de la ONU y 28 países.

Nolan explicó ese peligro a diplomáticos de la ONU, de acuerdo a The Guardian: “podrían darse accidentes de gran magnitud porque esas cosas [los sistemas militares autónomos] empezarán a comportarse de formas inesperadas.

Es por eso que los sistemas avanzados de armas deben estar sujetos a un control humano significativo. De lo contrario deben ser prohibidos porque son demasiado impredecibles y peligrosos”.

Según Nolan, “si no somos más cuidadosos con estas armas, estos robots asesinos, podrían accidentalmente desatar una guerra relámpago, destruir una central eléctrica nuclear y causar atrocidades masivas”.

Un ejemplo de esas situaciones formulado por Nolan es que un sistema militar autónomo de esa naturaleza –por ejemplo drones artillados– podría establecer que un grupo de personas armadas por estar de cacería para obtener alimento es un grupo enemigo hostil y decidir por sí mismo atacarlo.

Contar con drones armados autónomos sería, según Nolan, un escenario inminente, pues su implementación “es hoy solo un problema de software que es relativamente fácil de resolver”. Y es por eso que ella, y la Campaña para Frenar los Robots Asesinos a la que se ha sumado, llaman a la prohibición de esos sistemas militares autónomos sin control humano.

En gran medida, Nolan renunció a Google en rechazo a ser parte del equipo de contratistas del Proyecto Maven (que no tendría que ver directamente con armas autónomas) y Google al final se retiró de ese programa del Pentágono, luego de que 3,000 de sus empleados firmaron una petición censurando la implicación de la compañía en ese programa, y se habría apartado del desarrollo de sistemas de armamento de inteligencia artificial.

El buque autónomo Sea Hunter, de la Marina de Estados Unidos, es parte de la investigación del Pentágono de vehículos no tripulados y armas autónomas. (Wikimedia Commons/U.S. Navy/John F. Williams/Released)

Pero el desarrollo de esas máquinas autónomas prosigue, tanto en Estados Unidos como en otros países, y ejemplos de ello citados por The Guardian son barcos autónomos desarrollados por el Pentágono y un tanque autónomo sin tripulación en diseño por Rusia. China, Israel, Corea del Sur y el Reino Unido también tienen proyectos de desarrollo de armas autónomas, indicó la Campaña para Frenar los Robots Asesinos.

Ante ello, la Campaña para Frenar los Robots Asesinos plantea que es necesario que se establezcan leyes a escala nacional e internacional para prohibir el desarrollo, la producción y el uso de armas completamente autónomas; para garantizar el control humano del uso de la fuerza; y para que todos las personas y organizaciones dedicadas a la inteligencia artificial y la robótica se comprometan a nunca participar en el desarrollo de armas completamente autónomas.