MADRID, 18 de diciembre (Portaltic/EP) –
Google ha mostrado algunas posibilidades que su prototipo de asistente ofrecerá de forma universal. El proyecto de inteligencia artificial (IA) de Astra, ya sea integrado en un teléfono inteligente o en gafas inteligentes, podrá responder a todas las preguntas de los usuarios teniendo en cuenta el entorno y las acciones del usuario en tiempo real.
. El gigante tecnológico presentó el Proyecto Astra de Google DeepMind como parte de su evento anual Google I/O 2024, que en ese momento demostró que se trata de «un asistente». El futuro universal multimodal se construye a partir de Gemini, que ve el mundo a través de la cámara de un «teléfono inteligente». los usuarios pueden preguntar al respecto.
La semana pasada, Google anunció una nueva versión de su modelo de lenguaje grande Gemini 2.0, que combina mejoras de latencia y rendimiento, junto con nuevas características. noticias. Actualmente está disponible con el prototipo Flash Gemini 2.0, que duplica la velocidad de Gemini 1.5 y proporciona mejoras en la funcionalidad multimodal, y se ha integrado en el proyecto Astra.
Como parte de este proyecto, se comparte tecnología sus avances en el proyecto Astra y algunas de las capacidades que ofrecerá el asistente multimodal, tanto a través de smartphones como integrado en gafas inteligentes
En el caso del proyecto Astra en un “Smartphone” Pixel, el usuario interactúa con el asistente mediante comandos de voz y con la cámara, que además puede entender la imagen del entorno en tiempo real, así como así como comentarios y solicitudes que los usuarios hacen en voz alta.
Para hacer esto, los usuarios simplemente enfocan la cámara en lo que quieren obtener información sobre información, como un monumento en la calle, un plato de alimento o electrodomésticos y hacer preguntas relacionadas al mismo tiempo. De este modo, el asistente podrá ofrecer ayuda con información relevante sobre el monumento, detallar los ingredientes utilizados para preparar un plato o explicar qué programa es el más adecuado para lavar un determinado tipo de ropa concreta en la lavadora.
. Las respuestas del Asistente se muestran tanto en texto en la pantalla del teléfono inteligente como a través de comentarios de voz, para mantener la conversación fluida con las personas.
Asimismo, el asistente también puede realizar búsquedas o sugerencias relacionadas con, por ejemplo, una lista de restaurantes escrita en un papel, con solo centrarse en dicha lista, así como recordar la información a ponerlo a disposición del usuario de forma rápida y sencilla más adelante.
En el caso del proyecto Astra integrado en gafas inteligentes, el asistente ofrece las mismas capacidades que con el «teléfono inteligente smart», pero de una forma más cómoda porque gracias a la cámara de las gafas, mire donde mire el usuario, el asistente verá lo mismo sin necesidad de utilizar el teléfono.
Así que este formato permite Utilice el asistente en cualquier momento. momento mediante comando de voz, independientemente de la actividad en curso. Como demuestra Google, se puede utilizar mientras el usuario va en bicicleta para responder preguntas en tiempo real sobre la ruta o ubicaciones cercanas, según la ubicación actual.
AstraProject Actualmente, todavía se está desarrollando un prototipo de asistente de IA de proyecto universal. en desarrollo, por lo que aquí hay algunas características que Google planea ofrecer a los usuarios en el futuro.
Agregar Comentario