¿Sigues pensando que unas gafas con inteligencia artificial son cosa del futuro lejano? Meta acaba de anunciar el despliegue de funciones de IA multimodal para sus famosas gafas inteligentes Ray-Ban. La actualización (sólo disponible en EE. UU. para usuarios seleccionados) haría de este invento un rival directo de GPT-4 Vision, pero en forma de accesorio wearable.

Entre las nuevas características destaca la posibilidad de que las gafas con IA puedan informar sobre todo aquello que el asistente de IA de Meta vea y oiga a través de la cámara y los micrófonos que lleva incorporados. Interesante, ¿no?

Relacionado: ¿Qué se puede hacer con las gafas con IA de Meta?

La IA de Meta para las gafas con inteligencia artificial Ray-Ban puede identificar objetos y traducir idiomas

que se puede hacer con las gafas con ia de meta

Meta está cumpliendo con el calendario de actualizaciones que había anunciado para sus gafas con inteligencia artificial. Tras presentar hace un par de meses las Ray-Ban con IA, aseguró que multimodalidad llegaría a principios del año que viene.

Hoy, el CEO de la empresa, Mark Zuckerberg, ha compartido varios vídeos a modo de anticipo para que entendamos mejor de qué será capaz este curioso gadget:

Cómo funcionan las gafas con IA de Meta

El funcionamiento es bastante sencillo. Comienzas una consulta de Meta AI diciendo: «Hey Meta, echa un vistazo a esto», seguido de los detalles. Por ejemplo, «Hey Meta, echa un vistazo a este plato de comida y dime qué ingredientes se han utilizado». Para responder a la pregunta, las gafas capturan una imagen de lo que tienes delante y luego desglosan los distintos temas y elementos con IA generativa.

Esta nueva IA multimodal de Meta se lanzará públicamente en 2024, según ha afirmado Andrew Bosworth, director de tecnología de Meta, en un vídeo publicado en su Instagram.

Andrew Bosworth: «El año que viene, vamos a lanzar una versión multimodal del asistente de IA que aprovecha la cámara de las gafas para ofrecerte información no solo sobre una pregunta que le has hecho, sino también sobre el mundo que te rodea. Boz».

Si hay una característica especialmente prometedora de estas gafas con inteligencia artificial es la de traducción en tiempo real. Siguiendo el espíritu de la función de traducción con cámara de Google Lens (disponible desde hace años), las gafas de Meta podrán mostrarnos una versión en nuestro idioma de todo lo que se pose delante de ellas.

Si a esto le sumamos el nuevo modelo Seamless de traducción en tiempo real presentado hace unos días, resulta fácil echar a volar la imaginación y pensar en las sinergias que podrían salir de la conjunción de los no pocos desarrollos de IA que Meta tiene entre manos (recordemos que trabajan en su propio LLM y en varias tecnologías de creación de avatares realistas).gafas ray-ban con ai de meta para que sirven

Relacionado: Meta nos acerca al sueño de la traducción universal en tiempo real

Las gafas, cuya última versión se presentó en la conferencia anual Connect de Meta en Palo Alto en septiembre, cuestan 299 dólares, y ya se comercializan en los modelos actuales con un asistente de IA integrado (bastante limitado, pues es incapaz aún de realizar ninguna de las tareas que mencionamos en este artículo). Con la actualización anunciada hoy, esto está a punto de cambiar.

Pero no tan rápido. Como suele ser habitual en muchos lanzamientos de inteligencia artificial, por ahora sólo un pequeño grupo de usuarios de Estados Unidos recibirá la nueva actualización. Meta planea recoger comentarios y perfeccionar sus próximas características de IA antes del lanzamiento oficial.

Con este lanzamiento, Meta daría un paso más (y uno grande) de cara a la implantación de la IA generativa en objetos. Aparte de Google y sus Google Glass (un prototipo de gafas inteligentes de la década de 2010 que no gozó de mucho éxito), Humane y su AI Pin es el producto más similar que por ahora podemos encontrar en la categoría de wearables con inteligencia artificial.