MADRID, 20 de noviembre (Portaltic/EP) –
Niantic ha anunciado que están desarrollando un gran modelo geoespacial (LGM , por las siglas en inglés) impulsado por Inteligencia Artificial (IA), que se basará en datos registrados por los usuarios de sus servicios como Pokémon Go y. permite a los modelos adquirir habilidades de «comprensión».
Actualmente, los modelos de IA tienen dificultades para visualizar e inferir partes faltantes de una escena e imaginar cómo se vería un lugar desde una nueva perspectiva. Se trata de «comprensión espacial», un rasgo humano de razonamiento basado en información de «innumerables escenas similares» vistas en diferentes momentos.
Sin embargo, como ha subrayado Niantic, esta tarea es «extremadamente difícil». » para máquinas. En este contexto, para avanzar en “la próxima frontera de los modelos de IA”, la compañía anunció que está desarrollando un nuevo modelo geoespacial de gran tamaño, que tendrá capacidades de “inteligencia espacial”.
En En particular, como explican en un comunicado en su página web, este concepto de modelado geoespacial utilizará el aprendizaje automático a gran escala para comprender una escena y así conectarla con “millones de otras escenas” en todo el mundo.
Para ello se apoyará en los datos recogidos por el sistema de posicionamiento visual (VPS), sobre el que han entrenado más de 50 millones de redes neuronales con más más de 150 mil millones de parámetros, más detallados, que permiten operaciones en más de un millón de posiciones.
VPS es la tecnología propia de Niantic, que aporta precisión a cada centímetro y su capacidad de existir y cambiar de contenidos digitales en función del comportamiento del usuario. En concreto, esta es la tecnología que la compañía utiliza para sus juegos basados en la localización, como Pokémon Go y la nueva función experimental Pokémon Playgrounds.
Así que con una sola imagen tomada desde un «teléfono inteligente», el sistema ayuda a determinar la ubicación y dirección del usuario, utilizando un mapa 3D creado a partir de información compartida por personas que escanean ubicaciones en el juego por el desarrollador y Scaniverse.
Además, este es un conjunto de datos único porque se toma desde la perspectiva de un peatón y, por lo tanto, incluye lugares a los que otros vehículos no pueden llegar, como el cuenco de paraguas.
Con todo esto, La compañía ha dejado claro que la red local de cada sistema VPS contribuirá al gran modelo global, «al implementar la comprensión Compartir sobre ubicaciones geográficas y la comprensión de lugares aún». completamente escaneado.»
Con toda esta información, LGM de Niantic permitirá a las computadoras reconocer y comprender espacios físicos e interactuar con ellos «de nuevas maneras». Según señaló, esto representa un “factor clave” cuando se trata de tecnología de punta en áreas como gafas de realidad aumentada, robótica, creación de contenidos y sistemas autónomos.
«A medida que pasamos de los teléfonos a «La tecnología portátil, la inteligencia espacial, se convertirá en el futuro sistema operativo del mundo», afirmó la empresa de tecnología.
De manera similar, Niantic aclaró que esto es LGM porque funcionará de manera similar a los modelos de lenguaje grandes (LLM), que se construyen a partir de grandes cantidades de datos sin procesar. En el caso del LGM, “miles de millones” de imágenes del mundo, vinculadas a ubicaciones específicas, se “destilarían” en un gran modelo que permitiría una comprensión basada en la ubicación, la estructura y las interacciones.