Esta nueva IA sabe qué haces a través de las paredes o completamente a oscuras

La nueva IA desarrollada por el MIT puede detectar personas a través de paredes o en plena oscuridad, e interpretar sus acciones | imagen MIT
La nueva IA desarrollada por el MIT puede detectar personas a través de paredes o en plena oscuridad, e interpretar sus acciones | imagen MIT

Durante los últimos años hemos asistido a un impresionante progreso en los sistemas de Inteligencia Artificial. Una buena parte de esos avances se deben también a la llegada de nuevas, y cada vez más eficaces, tecnologías de sensores capaces de recoger una gran cantidad de información del mundo exterior. Hace tan solo unas semanas, publicábamos en esta misma sección, un artículo dedicado al reconocimiento de imágenes y cómo las diferentes compañías que desarrollan estas redes neuronales artificiales han ido mejorando cada vez más en este aspecto. El titular anunciaba “La Inteligencia Artificial está a punto de alcanzarnos reconociendo imágenes” y no es un tema superficial… el progreso en este tipo de sistemas de percepción está llegando a un punto donde empieza a asombrar.

Un ejemplo notable de este avance es la nueva IA, desarrollada por el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del célebre MIT, que ya es capaz de detectar e identificar, con un alto grado de precisión, acciones humanas a través de paredes o en lugares extremadamente oscuros.

Hasta ahora, los sistemas existentes ya eran capaces de reconocer acciones a partir de datos visuales sin embargo, al igual que el ojo humano, solo podían detectar y analizar esos movimientos con luz visible. El sistema desarrollado por el MIT puede penetrar paredes y recibir datos a oscuras utilizando señales de radio en las frecuencias WiFi.

El artículo se ha publicado en el repositorio científico ArXiv con el sugerente título de “Hacer visible lo invisible: reconocimiento de acciones a través de muros y oclusiones” con el que demuestran la capacidad de su nuevo sistema para utilizar las ondas de radio WIFI, analizar esas señales e interpretar (de manera bastante exitosas) qué están haciendo las personas detrás de una pared.

Ya existían sistemas similares pero necesitaban luz para funcionar... la nueva IA lo consigue a través de paredes o en habitaciones oscuras | imagen MIT
Ya existían sistemas similares pero necesitaban luz para funcionar... la nueva IA lo consigue a través de paredes o en habitaciones oscuras | imagen MIT

Los autores lo explican así: “Nuestro modelo toma señales de radiofrecuencia (RF) como entrada, genera esqueletos humanos en 3D como una representación intermedia y reconoce las acciones e interacciones de varias personas a lo largo del tiempo”.

Tal y como observamos en las imágenes, pertenecientes al artículo publicado, los investigadores realizaron pruebas tanto con luz visible como con ambientes oscuros o muros intermedios. La nueva IA recogió datos, utilizando señales de WIFI, y convierte a las personas en representaciones simples (apenas unos palitos o “esqueletos en 3D”)… a partir de ahí, las redes neuronales son capaces de captar sus movimientos e interpretarlos como acciones: agacharse, jugar con el móvil, aplaudir, señalar, darse la mano…

La IA desarrollada por el MIT utiliza señales WiFi para detectar personas, en habitaciones oscuras y cerradas, e interpretar sus acciones y movimientos
La IA desarrollada por el MIT utiliza señales WiFi para detectar personas, en habitaciones oscuras y cerradas, e interpretar sus acciones y movimientos

Incluso en habitaciones cerradas y oscuras, el nuevo sistema del MIT es capaz de reconocer cuántas personas se encuentran en ellas y qué están haciendo. Por supuesto, esta nueva herramienta ofrece infinidad de aplicaciones, algunas muy inquietantes (como vigilancia y control de personas en edificios, o en sus propias casa) y otras realmente esperanzadoras como detección y localización de víctimas en tragedias como derrumbes o terremotos. Como siempre, una herramienta tecnológica tan solo ofrece posibilidades: su buen o mal uso, dependerá en última instancia de las manos que la utilicen.

Referencias científicas y más información:

Li, Tianhong, et al. “Making the Invisible Visible: Action Recognition Through Walls and Occlusions” ArXiv:1909.09300

Medium “Watch Out, MIT’s New AI Model Knows What You’re Doing Behind That Wall