Tecnologia

Ya está disponible el modelo GPT

caruri 1810.png
caruri 1810.png
Además, GPT-4 Turbo también se actualiza con nueva información hasta abril de 2023.

MADRID, 10 de abril. (Portal/EP) – OpenAI ha lanzado el modelo de inteligencia artificial (IA) avanzada GPT-4 Turbo con Vision, que ahora está disponible para los desarrolladores a través de una interfaz de programación de aplicaciones (API) y permite analizar imágenes y responder preguntas sobre ellas. La empresa dirigida por Sam Altman presentó su modelo GPT-4 Turbo AI durante el evento de desarrolladores de la empresa en noviembre de 2023, cuando la empresa lo identificó como un modelo más capaz y económico que su predecesor, el modelo GPT-4.

De hecho, GPT-4 Turbo incluye una ventana emergente mejorada, es decir, instrucciones o ‘indicaciones’ que el usuario inserta, de 32 KB a 128 KB de GPT-4, lo que equivale a más de 300 páginas de texto en un solo mensaje. Además, GPT-4 Turbo también se actualiza con nueva información hasta abril de 2023. Ahora, OpenAI ha anunciado que GPT-4 Turbo ya está disponible para los desarrolladores a través de la API Vision Support, como se compartió a través de una publicación de la cuenta del desarrollador en X (anteriormente Twitter).

En concreto, GPT-4 Turbo with Vision es un gran modelo multimodal (LMM) capaz de analizar imágenes y proporcionar respuestas textuales a preguntas sobre ellas. De hecho, integra tanto el procesamiento del lenguaje natural como la comprensión visual. Como explica OpenAI en su guía para usar GPT-4 con Vision, este modelo responde preguntas generales sobre lo que hay en la imagen.

Por ejemplo, este modelo puede sugerir ideas para cenar basándose en fotografías de alimentos en el refrigerador porque puede comprender qué elementos aparecen en las fotografías y proporcionar información relacionada con ellos. Asimismo, la compañía también detalló en su página de actualización que las solicitudes para utilizar las capacidades de reconocimiento y análisis de Model Vision ahora se pueden cumplir a través del formato de intercambio de datos JSON, basado en el lenguaje de programación JavaScript y llamadas a funciones. Con esta mejora implementada en las plantillas, los desarrolladores pueden beneficiarse de flujos de trabajo mejorados y crear aplicaciones utilizando plantillas de manera más eficiente.

De manera similar, OpenAI también compartió algunas aplicaciones de las capacidades de GPT-4 Turbo en escenarios de desarrolladores del mundo real. En este sentido, según detalla la compañía, la aplicación de fitness Healthify utiliza GPT-4 Turbo con Vision para brindar información nutricional basada en fotografías de las comidas del usuario. En esta línea, la aplicación Make It Real de Tldraw utiliza GPT-4 Turbo con Vision para crear un sitio web impulsado por código real, a partir de diseños de interfaz generados por el usuario.

Con todo esto en mente, los desarrolladores ahora pueden comenzar a implementar las capacidades de GPT-4 Turbo con Vision a través de la API. Asimismo, OpenAI señala que este modelo también se despliega a través del “chatbot” ChatGPT.

TRA Digital

GRATIS
VER