GPT-4 Turbo, la nueva versión del chatbot de OpenAI
En su primera conferencia de desarrolladores, OpenAI presentó GPT-4 Turbo, una versión mejorada y personalizada de su modelo insignia de IA de generación de texto, GPT-4, que, según la compañía, es «más poderoso» y menos costoso.
GPT-4 Turbo viene en dos versiones: una que analiza estrictamente el texto y una segunda versión que comprende el contexto tanto del texto como de las imágenes. El modelo de análisis de texto está disponible en versión preliminar a través de una API a partir de hoy, y OpenAI dice que planea que ambos estén disponibles de forma generalizada «en las próximas semanas».
Tienen un precio de 0,01 dólares por cada 1000 tokens de entrada (~750 palabras), donde los «tokens» representan fragmentos de texto sin formato (por ejemplo, la palabra «fantástico» dividida en «fan», «tas» y «tic») y 0,03 dólares por cada 1000 tokens de entrada (~750 palabras). 1.000 tokens de salida. (Los tokens de entrada son tokens que se introducen en el modelo, mientras que los tokens de salida son tokens que el modelo genera en función de los tokens de entrada). El precio del GPT-4 Turbo de procesamiento de imágenes dependerá del tamaño de la imagen. Por ejemplo, pasar una imagen con 1080×1080 píxeles a GPT-4 Turbo costará 0,00765 dólares, dice OpenAI.
GPT-4 Turbo cuenta con varias mejoras con respecto a GPT-4, una de las cuales es una base de conocimientos más reciente a la que recurrir al responder solicitudes.
Como todos los modelos de lenguaje, GPT-4 Turbo es esencialmente una herramienta estadística para predecir palabras. Con una enorme cantidad de ejemplos, en su mayoría de la web, GPT-4 Turbo aprendió la probabilidad de que aparezcan palabras en función de patrones, incluido el contexto semántico del texto circundante. Por ejemplo, dado un correo electrónico típico que termina en el fragmento «Esperando…», GPT-4 Turbo podría completarlo con «… para recibir una respuesta».
GPT-4 Turbo también tiene una ventana contextual ampliada ofreciendo 128.000 tokens de contexto, cuatro veces el tamaño de GPT-4 y la ventana de contexto más grande de cualquier modelo disponible comercialmente, superando incluso al Claude 2 de Anthropic. (Claude 2 admite hasta 100.000 tokens; Anthropic afirma ser está experimentando con una ventana de contexto de 200.000 tokens, pero aún no la ha publicado). De hecho, 128.000 tokens se traducen en alrededor de 100.000 palabras o 300 páginas, lo que, a modo de referencia, equivale aproximadamente a la extensión de “Cumbres Borrascosas”, “Los viajes de Gulliver” y “Harry Potter y el prisionero de Azkaban”.
Y GPT-4 Turbo admite un nuevo «modo JSON«, que garantiza que el modelo responda con JSON válido: el formato de archivo estándar abierto y el formato de intercambio de datos. Esto es útil en aplicaciones web que transmiten datos, como aquellas que envían datos desde un servidor a un cliente para que puedan mostrarse en una página web, dice OpenAI. Otros nuevos parámetros relacionados permitirán a los desarrolladores hacer que el modelo devuelva finalizaciones «consistentes» la mayor parte del tiempo y, para aplicaciones más específicas, registrar probabilidades para los tokens de salida más probables generados por GPT-4 Turbo.
Por otro lado, la compañía está lanzando un programa de acceso experimental para ajustar GPT-4. A diferencia del programa de ajuste para GPT-3.5, el predecesor de GPT-4, el programa GPT-4 implicará más supervisión y orientación por parte de los equipos de OpenAI, dice la compañía, principalmente debido a obstáculos técnicos.
Finalmente, OpenAI anunció que duplicará el límite de tasa de tokens por minuto para todos los clientes que pagan por GPT-4. Pero el precio seguirá siendo el mismo: 0,03 dólares por token de entrada y 0,06 dólares por token de salida (para el modelo GPT-4 con una ventana de contexto de 8.000 tokens) o 0,06 dólares por token de entrada y 0,012 dólares por token de salida (para GPT-4 con una ventana de contexto de 32.000 tokens).
Vía – TechCrunch