MADRID, 17 de diciembre (Portaltic/EP) –
Meta añade novedades en la beta para sus Ray -Ban Smart Glasses te permitirá utilizar funciones de inteligencia artificial (IA) en tiempo real gracias al soporte de entrada de vídeo, así como traducción instantánea de chat, además de lanzar oficialmente la compatibilidad. con Shazam.
La compañía liderada por Mark Zuckerberg anunció una serie de mejoras de inteligencia artificial en sus gafas Ray-Ban Meta como parte del evento anual Meta Connect 2024, anunciando mejoras que avanzan en la experiencia del usuario con su asistente inteligente. Meta AI e introduce funciones como traducción en tiempo real y compatibilidad con otros servicios como Shazam.
Ahora Meta ha lanzado actualizaciones de software actualizadas v11, en el que asegura que las gafas Ray-Ban Meta serán «más útiles, más interesantes y más efectivas», gracias en parte a la introducción de nuevas funciones en la versión beta como la IA en tiempo real.
Como explicó Meta en un comunicado en su blog, la IA en tiempo real es posible gracias a la implementación de soporte de vídeo en el dispositivo, de modo que la IA pueda analizar y comprender si la imagen se está visualizando.
De esta manera, durante la sesión de IA en tiempo real, el metaasistente de IA podrá saber qué está mirando el usuario constantemente y, al comprender estas imágenes, podrá tener conversaciones con los usuarios. de una forma más natural y cotidiana. De hecho, los usuarios podrán hacer preguntas o solicitudes relacionadas con lo que están viendo.
Por ejemplo, los usuarios podrán hacer preguntas sobre la receta que están preparando y sin necesidad de decir «Hola». . , Meta’, así como referirse a temas ya tratados en Meta AI o hacer preguntas de seguimiento sobre cualquier tema.
Meta también indica que ‘en el momento apropiado’ y, en base a todo, el usuario ve con las gafas, la IA en tiempo real podrá hacer sugerencias útiles al usuario «antes incluso de que pregunte».
Siguiente esta línea, otra función que Meta ha proporcionado a los usuarios en La versión beta es traducción en tiempo real. Esta opción permite que las gafas Ray-Ban Meta traduzcan instantáneamente conversaciones entre hablantes de inglés y español, francés o italiano.
Especialmente, los usuarios escucharán todo lo dicho traducido al inglés. Chatea automáticamente a través del altavoz abierto del dispositivo. También puede ver la traducción como una transcripción fonética en su teléfono inteligente.
La empresa tiene como objetivo «derribar las barreras del idioma y unir a las personas». Por lo tanto, esta es una característica útil en situaciones como viajes internacionales.
Sin embargo, Meta ahora ha lanzado funciones de inteligencia artificial y traducción en tiempo real específicamente para los usuarios que participan en su programa de acceso temprano en los Estados Unidos y Canadá. Asimismo, señala que al tratarse de funciones beta, «puede que no siempre funcionen correctamente».
Además de todo esto, las gafas inteligentes de Meta ya son compatibles con la función de reconocimiento de música de Shazam. De esta manera, los usuarios pueden preguntar «Hola Meta, ¿qué canción es esta?» deja que las gafas comiencen a analizar la canción que se está reproduciendo y puedan reconocer el artista y el título de la canción.
Entonces esta es la herramienta que te permite reconocer la música manualmente, aunque en este momento sólo se ha lanzado oficialmente para usuarios de Estados Unidos y Canadá.
Agregar Comentario