Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
MADRID, 27 de junio (Portaltic/EP) –
Google ha presentado de forma oficial su nuevo modelo de inteligencia artificial (IA) de código abierto, Gemma 3n, que, sin requerir conexión a internet, puede funcionar de manera eficiente en un ‘smartphone’ con 2 GB de memoria RAM.
La empresa anunció su nuevo modelo el pasado mayo, concebido para funcionar fluidamente en tabletas, ‘smartphones’ y ordenadores portátiles, además de ofrecer experiencias de IA de forma rápida y con bajo consumo, de forma local.
Tal como se informó entonces, Gemma 3n incluye la “n” en su nombre debido a su conexión directa con Gemini Nano, ya que emplea la misma arquitectura avanzada que está presente en ese otro modelo de Google, la cual está optimizada para la IA multimodal eficiente en el dispositivo.
Ahora, Google ha ampliado formalmente su gama de modelos de IA Gemma 3 con el nuevo Gemma 3n, que ya está disponible con todo su potencial de arquitectura móvil y es compatible con herramientas como Hugging Face Transformers, llama.cpp, Google AI Edge, Ollama y MLX, entre otras.
Así lo comunicó la tecnológica en una publicación en su blog para desarrolladores, donde explicó que representa un “gran avance” para la IA en el dispositivo, proporcionando “potentes capacidades multimodales” con un rendimiento que “antes solo se veía en los modelos que operan en la nube”.
Entre las novedades que incluye Gemma 3n, Google ha destacado que es un modelo multimodal por diseño que admite de forma nativa entradas y salidas de texto, imágenes, audio y vídeo.
De igual modo, está disponible en los tamaños E2B y E4B, que tienen 2.000 millones y 4.000 millones de parámetros respectivamente, con capacidad para operar con solo 2 GB de memoria RAM en el caso del tamaño E2B y 3 GB de RAM para la versión E4B. En el caso de este último, Google ha especificado que alcanza una puntuación LMArena superior a 1.300, el primer modelo con menos de 10.000 millones en lograr este estándar.
Asimismo, el núcleo de Gemma 3n integra una arquitectura innovadora, llamada MatFormer, para mejorar la flexibilidad computacional. Según explicó la empresa, esta arquitectura se basa en las muñecas rusas conocidas como Matryoshka, y permite la inferencia elástica, de manera que los modelos más grandes contienen versiones más pequeñas de sí mismos para adaptarse a las necesidades del momento y optimizar recursos.
Junto a MatFormer, también dispone de incrustaciones por capa (PLE) para impulsar la eficiencia de memoria, lo que permite que el modelo se ejecute en dispositivos con solo 2 GB de RAM, ya que mejora la calidad del modelo sin incrementar el consumo de memoria, al permitir que una parte significativa de los parámetros se carguen eficazmente en la CPU, en lugar de cargar todos los parámetros en la VRAM.
También integra codificadores de audio y visión avanzados basados en audio, como MobileNet-V5, entre otras características. Con todo esto, a la hora de ofrecer resultados, Gemma 3n está disponible en 140 idiomas para texto, acompañado de una comprensión multimodal en 35 idiomas. Con esto, puede resolver cuestiones relacionadas con las matemáticas, la programación y el razonamiento.
Los usuarios ya pueden experimentar directamente con Gemma 3n en Google AI Studio, además de descargar el modelo desde Hugging Face y Kaggle, así como crear herramientas de IA en el dispositivo con Google AI Edge Gallery, Ollama, MLX y llama.cpp, entre otros.
Agregar Comentario