Meta presenta una herramienta de IA capaz de relacionar diferentes datos sensoriales

Nueva York, 9 may (EFE).- La tecnológica estadounidense Meta presentó este martes una herramienta de inteligencia artificial (IA) para investigadores que es capaz de relacionar seis fuentes de datos sensoriales: imágenes y vídeo, audio, texto, profundidad, temperatura y movimiento.

En un comunicado, Meta explicó que esta nueva herramienta de código abierto, ImageBind, facilitará que las máquinas puedan analizar simultáneamente esas diferentes informaciones, algo que describió como un "entendimiento holístico" que se acerca a las capacidades humanas.

Las máquinas equipadas con esta IA, según la empresa, podrán "unir" los datos sensoriales y, por ejemplo, conectar los objetos de una fotografía con su sonido, su forma en tres dimensiones o su movimiento; o bien crear imágenes basándose en ruidos.

Meta sugirió que en el futuro la herramienta podría introducir nuevas modalidades de datos sensoriales, como "tacto, discurso, olor" e imágenes por resonancia magnética cerebrales.

A medida que esas modalidades se incrementen, aventuró la empresa, ImageBind "abrirá las compuertas" de la investigación para "diseñar o experimentar mundos inmersivos y virtuales", en una clara referencia al metaverso, que es su proyecto a largo plazo.

Hace unos meses, Meta ya presentó otra herramienta de AI para investigadores con código abierto, LLaMa (Large Language Model Meta AI), pero de momento no ha lanzado aplicaciones con potencial comercial, como los "chatbots" de sus rivales tecnológicas.

(c) Agencia EFE