Meta ha actualizado su segunda generación Gafas inteligentes Ray-Bancreado en colaboración con EssilorLuxotticacon una nueva ronda de estilos, incluida la montura Skyler, y mejoraron su usabilidad, justo a tiempo para la temporada de gafas de sol.
Las mejoras de las gafas Ray-Ban Meta y las gafas de sol incluyen una mejor integración con Apple Music, soporte para IA multimodal y compatibilidad con WhatsApp y Messenger, lo que permite a los usuarios transmitir lo que ven desde las gafas de sol.
La IA multimodal significa que el asistente de IA del dispositivo ahora puede ayudarlo con la información que se le presenta en múltiples formas, simultáneamente: imágenes, audio, video y texto. Esto permite que las gafas, por ejemplo, respondan a su comando de voz mientras procesan una imagen frente a ellas, en tiempo real.
Meta adelantó el acceso temprano al soporte de IA multimodal poco después del lanzamiento de las gafas inteligentes, pero esta última actualización se está implementando para todos los usuarios de gafas. Cronometrado después de lo no tan suave Lanzamiento humano de Ai Pin y con otros dispositivos como el R1 de Rabbit flotando en el horizonte, Meta está llevando la IA multimodal a un dispositivo portátil que no pretende hacer todo lo que hay bajo el sol.
En cambio, Meta está centrando el dispositivo portátil en funciones a las que los usuarios de gafas inteligentes ya estarán acostumbrados, al tiempo que agrega nuevas capacidades como video en vivo integrado en aplicaciones de mensajería comunes. La capacidad de compartir tu vista en WhatsApp y Messenger es completamente manos libres, lo que te permite mostrar exactamente lo que estás viendo en tiempo real. No tener que apuntar con un dispositivo a lo que sea que estés mirando definitivamente aporta una nueva dimensión a las videollamadas.
Las gafas inteligentes de $ 329 vienen con una cámara ultra ancha incorporada de 12 megapíxeles (MP) que está integrada con Meta AI con Vision para funcionalidad de realidad aumentada (AR). Esto incluye una función de traducción, que le permite simplemente mirar el texto en un idioma extranjero y verlo traducido, así como una capacidad de identificación de puntos de referenciaanunciado a principios de este año y demostrado por el propio Mark Zuckerberg en un publicación de instagram.
También: Las gafas inteligentes Ray-Ban Meta obtienen integración de manos libres con Apple Music y más
Algunos usos prácticos de compartir vistas en vivo podrían incluir mostrarle a alguien selecciones de productos en un supermercado, mientras que una aplicación más interesante podría ser compartir su vista épica durante una caminata o unas vacaciones. Para compartir, simplemente toque dos veces el botón de captura física en las gafas, lo cual es posible incluso si no ha vinculado su cuenta de WhatsApp a la aplicación Meta View.
Los usuarios pueden activar la cámara para tomar fotos y videos con comandos de voz, como «Hola Meta, envía una foto», en lugar de hacerlo a través de una pantalla táctil o una interfaz de usuario visual, y aprovechar la IA para una experiencia fluida y manos libres.
También: 10 funciones de Threads que deberías probar en la alternativa de Twitter de Meta
Los propietarios de Ray-Ban Meta Smart Glasses solo necesitan actualizar sus gafas en la aplicación Meta View para acceder a las nuevas funciones. Meta aclaró en un entrada en el blog que las nuevas funciones se implementarán a partir del 24 de abril, por lo que es posible que las actualizaciones no estén disponibles de inmediato para todos los usuarios.