MADRID, 25 de abril. (Portal/EP) – Apple ha lanzado su línea de código abierto de modelos de lenguaje eficiente, diseñada para ofrecer resultados precisos en dispositivos como computadoras portátiles, utilizando menos tokens de entrenamiento que otros modelos de inteligencia artificial (IA), como Elm. Conocida como OpenELM, esta es una línea de productos que utiliza una estrategia de escalado por capas para asignar parámetros de manera eficiente dentro de cada capa del modelo, centrándose así en tareas específicas y permitiendo a los usuarios obtener resultados más precisos.
Esta familia incluye cuatro grandes modelos de lenguaje (LLM) de diferentes tamaños: 270 millones de parámetros, 450 millones, 1,1 mil millones y 3 mil millones de parámetros. Cada uno viene en dos versiones: preentrenada (una variante genérica entrenada con un conjunto de datos de la biblioteca CoreNet de GitHub) y optimizada (‘instrucciones optimizadas’), que está optimizada y configurada para su uso con propósitos específicos, como se explica en artículos de investigación publicados. en Arxiv.org.
Los investigadores dijeron que los modelos fueron probados en un modelo de MacBook Pro con SoC M2 Max, 64 GB de RAM y basado en macOS 14.4.1; así como en equipos con procesador Intel i9-13900KF equipados con DRAM DDR5-4000 y GPU NVIDIA RTX 4090 con 24 GB de VRAM. En sus pruebas, Apple descubrió que OpenELM superó a LLM similares, como OLMo, desarrollado por el Allen AI Institute, ofreciendo una mejora del 2,36% en la precisión y requiriendo la mitad de tokens previamente entrenados. Finalmente, Apple admitió que OpenELM, cuyo repositorio se encuentra en Hugging Face, fue entrenado utilizando conjuntos de datos disponibles públicamente y sin ninguna garantía de seguridad.
Esto significa que estos modelos pueden producir resultados inexactos, dañinos o engañosos.