Esta nueva IA sabe qué haces a través de las paredes o completamente a oscuras
Durante los últimos años hemos asistido a un impresionante progreso en los sistemas de Inteligencia Artificial. Una buena parte de esos avances se deben también a la llegada de nuevas, y cada vez más eficaces, tecnologías de sensores capaces de recoger una gran cantidad de información del mundo exterior. Hace tan solo unas semanas, publicábamos en esta misma sección, un artículo dedicado al reconocimiento de imágenes y cómo las diferentes compañías que desarrollan estas redes neuronales artificiales han ido mejorando cada vez más en este aspecto. El titular anunciaba “La Inteligencia Artificial está a punto de alcanzarnos reconociendo imágenes” y no es un tema superficial… el progreso en este tipo de sistemas de percepción está llegando a un punto donde empieza a asombrar.
Un ejemplo notable de este avance es la nueva IA, desarrollada por el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del célebre MIT, que ya es capaz de detectar e identificar, con un alto grado de precisión, acciones humanas a través de paredes o en lugares extremadamente oscuros.
Hasta ahora, los sistemas existentes ya eran capaces de reconocer acciones a partir de datos visuales sin embargo, al igual que el ojo humano, solo podían detectar y analizar esos movimientos con luz visible. El sistema desarrollado por el MIT puede penetrar paredes y recibir datos a oscuras utilizando señales de radio en las frecuencias WiFi.
El artículo se ha publicado en el repositorio científico ArXiv con el sugerente título de “Hacer visible lo invisible: reconocimiento de acciones a través de muros y oclusiones” con el que demuestran la capacidad de su nuevo sistema para utilizar las ondas de radio WIFI, analizar esas señales e interpretar (de manera bastante exitosas) qué están haciendo las personas detrás de una pared.
Los autores lo explican así: “Nuestro modelo toma señales de radiofrecuencia (RF) como entrada, genera esqueletos humanos en 3D como una representación intermedia y reconoce las acciones e interacciones de varias personas a lo largo del tiempo”.
Tal y como observamos en las imágenes, pertenecientes al artículo publicado, los investigadores realizaron pruebas tanto con luz visible como con ambientes oscuros o muros intermedios. La nueva IA recogió datos, utilizando señales de WIFI, y convierte a las personas en representaciones simples (apenas unos palitos o “esqueletos en 3D”)… a partir de ahí, las redes neuronales son capaces de captar sus movimientos e interpretarlos como acciones: agacharse, jugar con el móvil, aplaudir, señalar, darse la mano…
Incluso en habitaciones cerradas y oscuras, el nuevo sistema del MIT es capaz de reconocer cuántas personas se encuentran en ellas y qué están haciendo. Por supuesto, esta nueva herramienta ofrece infinidad de aplicaciones, algunas muy inquietantes (como vigilancia y control de personas en edificios, o en sus propias casa) y otras realmente esperanzadoras como detección y localización de víctimas en tragedias como derrumbes o terremotos. Como siempre, una herramienta tecnológica tan solo ofrece posibilidades: su buen o mal uso, dependerá en última instancia de las manos que la utilicen.
Referencias científicas y más información:
Li, Tianhong, et al. “Making the Invisible Visible: Action Recognition Through Walls and Occlusions” ArXiv:1909.09300
Medium “Watch Out, MIT’s New AI Model Knows What You’re Doing Behind That Wall”