Resumen
Generado por Inteliegenica Artifical (OpenAI)Meta y Ray-Ban han dado un paso adelante en la evolución de las gafas inteligentes con el anuncio de una serie de actualizaciones que incluyen la adición de IA avanzada y la esperada funcionalidad de traducción en directo. Este avance promete cambiar la forma en que las personas interactúan con el mundo que las rodea, especialmente en entornos multilingües.
Una de las características más llamativas de esta nueva serie es el lanzamiento de una edición limitada con un marco transparente, que permite ver los componentes internos de las gafas. Con solo 7.500 unidades disponibles a un precio de 429 dólares, esta versión exclusiva se convierte en un objeto de deseo para los entusiastas de la tecnología y el diseño. Además, Meta anunció una próxima colaboración con EssilorLuxottica para incorporar lentes Transitions, que se adaptan a diferentes niveles de luz, brindando mayor comodidad en diversas situaciones.
El verdadero salto tecnológico de estas gafas está en la nueva capacidad de traducir conversaciones en tiempo real, una mejora notable respecto a la función anterior, que solo permitía traducir texto a partir de imágenes. En los próximos meses, los usuarios podrán mantener conversaciones en diferentes idiomas —inglés, español, francés e italiano— y escuchar la traducción directamente a través de los altavoces de las gafas. Esta función, que tendrá más idiomas en el futuro, convierte a las Ray-Ban de Meta en una herramienta imprescindible para viajeros y quienes interactúan en entornos multiculturales.
Memoria visual y recordatorios inteligentes
Otro avance significativo es la incorporación de la función "Reminders", que permitirá a los usuarios capturar imágenes de su entorno y recibir notificaciones automáticas para recordar momentos importantes. Además, las gafas podrán recordar detalles como el lugar de estacionamiento o enviar recordatorios de voz, ofreciendo una experiencia sin la necesidad de usar un teléfono.
Meta ha mejorado su asistente virtual Meta AI, haciéndolo más intuitivo. Los usuarios podrán interactuar con la IA de manera fluida, simplemente diciendo "Hey, Meta", sin necesidad de repetir el comando de activación. Además, las gafas podrán identificar objetos en el entorno del usuario y ofrecer información relevante al instante, sin comandos adicionales.
Una de las funciones más esperadas es la capacidad de procesar vídeo en tiempo real. Cuando un usuario esté en una nueva ciudad, podrá pedir recomendaciones personalizadas de lugares de interés o recibir ayuda en actividades cotidianas, como decidir qué cocinar basado en los ingredientes visibles.