Volver a la página principal

GPT-3.5, GPT-4: Conozca la diferencia

ChatGPT es una aplicación de chatbot desarrollada por OpenAI. Diferentes versiones de GPT (como GPT-3.5 y GPT-4) son los "cerebros" del chatbot, la inteligencia artificial que permite a ChatGPT reconocer, comprender y generar texto de forma similar a la humana.

GPT-3.5

GPT-3.5 es una subclase de la 3ª iteración de Generative Pre-Trained Transformer. Se trata de un gran modelo lingüístico basado en la arquitectura de transformadores que ha sido entrenado en grandes cantidades de datos de texto para comprender y responder en lenguas naturales (como el español, el inglés, el francés, etc.). Es lo que se llama procesamiento del lenguaje natural. La arquitectura de transformadores es más avanzada que la arquitectura neuronal recurrente anterior. En palabras sencillas, ayuda al modelo lingüístico a comprender y aprehender mejor el texto.

Los transformadores son capaces de entender mejor el contexto, percibir las conexiones entre las palabras de una frase y un párrafo y destacar las ideas clave dentro de un texto.

GPT-3.5 tiene 175.000 millones de parámetros de aprendizaje. En aquel momento era la mayor cantidad de cualquier otro modelo lingüístico de gran tamaño. Estos parámetros son como conexiones neuronales: cuantas más, mejor. Lo más sorprendente es que en algún momento, cuando aumenta el número de parámetros, el modelo se convierte en un experto incluso en áreas para las que nadie lo ha entrenado especialmente: traducir de un idioma a otro, resolver problemas lógicos y matemáticos, por ejemplo.

Para que la interacción con GPT-3.5 fuera más natural y segura, se aplicó una técnica llamada aprendizaje por refuerzo a partir de la retroalimentación humana, en la que la aportación humana se utiliza para mejorar los algoritmos de aprendizaje automático.

ChatGPT-4 y sus diferencias con ChatGPT-3.5

GPT-4 tiene 100 billones de parámetros.

El nuevo modelo es mucho más avanzado. Una diferencia importante que llama inmediatamente la atención es que el GPT-4 ha aprendido a reconocer imágenes. Esto es lo que puede hacer:

  • describir lo que hay en la imagen,
  • explicar chistes visuales,
  • inventar un pie de foto,
  • sugerir una receta basada en la comida de la imagen,
  • entender gráficos, tablas y textos escritos a mano.

Por ejemplo, a partir de una plantilla dibujada a mano, GPT-4 puede escribir el código de la página web que desee crear.

GPT-4 también procesa mejor que su predecesor la información textual: memoriza grandes cantidades de texto para una mejor comprensión contextual y da respuestas un 40% más precisas. GPT-4 puede procesar el equivalente a 300 páginas de texto (128 000 tokens) en una sola pregunta, mientras que GPT-3.5 sólo podía procesar 14 páginas (16 000 tokens).

GPT-4 es tan inteligente que aprobó el examen de acceso a la abogacía, situándose entre el 10% de los mejores (GPT-3.5 quedó por detrás de los humanos en un 17%). En muchas pruebas, el modelo supera incluso a los humanos. En concreto, en las pruebas de matemáticas, física y química, GPT-4 superó al 88% de los examinados.

 GPT-3.5GPT-4
Fecha de lanzamiento inicial15 de marzo de 202214 de marzo de 2023
Conocimiento de los acontecimientos mundialesHasta septiembre de 2021Hasta abril de 2023
Parámetros175 000 millones100 billones
EntradaSólo textoTexto e imágenes
Ventana de contexto16 000 tokens*128 000 tokens*
Respuestas factualesErrores ocasionales40% más preciso

*1000 tokens equivalen a unas 750 palabras

GPT-4 supera a GPT-3.5 en muchas áreas diferentes: desde composición de canciones y guiones hasta redacción técnica y traducciones de idiomas.

Críticas a GPT-4

La GPT-4 no es perfecta ni mucho menos. Nos parece que las redes neuronales solo mejoran día a día, pero un estudio de Stanford de junio de 2023 demostró que los resultados de GPT-4 se han deteriorado desde marzo.

Pruebas de GPT-4 y GPT-3.5 en marzo y junio de 2023

Pruebas de GPT-4 y GPT-3.5 en marzo y junio de 2023

El modelo mostró una degradación significativa del rendimiento en la resolución de problemas matemáticos y la generación de código:

  • por ejemplo, tuvo dificultades para determinar si el número 17077 era primo,
  • y sólo el 10% de las veces fue capaz de escribir código funcional en tareas clasificadas como fáciles por LeetCode.

Al mismo tiempo, el GPT-4 mostró mejoras en el razonamiento visual y en la respuesta a preguntas delicadas (en las que la respuesta podría causar daño o infringir la ley).

Los críticos de este estudio señalaron posibles errores de metodología y observaron que la dinámica resultante debería considerarse un cambio de comportamiento y no un deterioro.