OpenAI, el creador de ChatGPT, ha lanzado GPT-4, capaz de aceptar entradas de texto o imágenes.
OpenAI ha anunciado GPT-4, lo último en su línea de modelos de lenguaje de IA que impulsan aplicaciones como ChatGPT y el nuevo Bing. La compañía afirma que el modelo es "más creativo y colaborativo que nunca" y "puede resolver problemas difíciles con mayor precisión". Ahora también puede analizar la entrada de texto e imagen, aunque solo puede responder a través de texto.
OpenAI también advierte que los sistemas conservan muchos de los mismos problemas que los modelos de lenguaje anteriores, incluida la tendencia a inventar información (o "alucinar") y la capacidad de generar texto violento y dañino.
Chat GPT-4 se integrará en Duolingo, Stripe y Khan Academy
La empresa informó además que ya se asoció con varias compañías para integrar GPT-4 en sus productos, incluidas Duolingo, Stripe y Khan Academy. El nuevo modelo está disponible para el público en general a través de ChatGPT Plus, la suscripción mensual de ChatGPT de 20 dólares. Actualmente, está impulsando el chatbot Bing de Microsoft. También será accesible como una API para que los desarrolladores la desarrollen.
OpenAI informó a través de una publicación de su blog de investigación, que la distinción entre GPT-4 y su predecesor GPT-3.5, el modelo que impulsa ChatGPT, es “sutil”. El CEO de OpenAI, Sam Altman, tuiteó que GPT-4 "todavía tiene fallas, todavía es limitado", pero que también "todavía parece más impresionante en el primer uso que después de pasar más tiempo con él".
La compañía dice que las mejoras de GPT-4 son evidentes en el rendimiento del sistema en una serie de pruebas y puntos de referencia, incluidos los exámenes Uniform Bar Exam, LSAT, SAT Math y SAT Evidence-Based Reading & Writing. En los exámenes mencionados, GPT-4 obtuvo una puntuación en el percentil 88 y superior.
Las especulaciones sobre GPT-4 y sus capacidades han sido abundantes durante el año pasado, y muchos sugirieron que sería un gran salto con respecto a los sistemas anteriores. “La gente está rogando por estar decepcionada y lo estará”, dijo Altman en una entrevista sobre GPT-4 en enero. "La exageración es como... No tenemos un AGI real y eso es más o menos lo que se espera de nosotros".
GPT-4 es de hecho multimodal, pero en menos medios de lo que algunos predijeron. OpenAI dice que el sistema puede aceptar entradas de texto e imágenes y emitir salidas de texto. La compañía dice que la capacidad del modelo para analizar texto e imagen simultáneamente le permite interpretar entradas más complejas.