La tecnológica estadounidense Meta presentó el pasado 09 de mayo una herramienta de inteligencia artificial para investigadores, capaz de relacionar seis fuentes de datos sensoriales: imágenes y vídeo, audio, texto, profundidad, temperatura y movimiento.
En un comunicado, la compañía indicó que esta nueva función de código abierto, ImageBind, permitirá que las máquinas analicen simultáneamente esas diferentes informaciones, algo que calificó como un «entendimiento holístico» que se acerca a las capacidades humanas.
Las máquinas equipadas con esta IA podrán «unir» los datos sensoriales y, por ejemplo, conectar los objetos de una fotografía con su sonido, su forma en tres dimensiones o su movimiento; o bien crear imágenes basándose en ruidos.
Meta adelantó que en el futuro la herramienta podría introducir nuevas modalidades de datos sensoriales, como «tacto, discurso, olor» e imágenes por resonancia magnética cerebrales.
A medida que esas modalidades se incrementen, añadió la empresa, ImageBind «abrirá las compuertas» de la investigación para «diseñar o experimentar mundos inmersivos y virtuales», en una clara referencia al metaverso, que es su proyecto a largo plazo.
Anteriormente, Meta ya presentó otra herramienta de IA para investigadores con código abierto, pero al momento no ha lanzado aplicaciones con potencial comercial, como los «chatbots» de sus rivales tecnológicas.
Escucha el reportaje: