Resumen de los modelos GPT-5 en ChatGPT
Te cuento los modelos GPT-5 que existen en ChatGPT, cómo funcionan y qué diferencias hay entre ellos.
OpenAI ha dado un paso más en la evolución de la IA conversacional con la llegada de GPT-5 y sus variantes.
Modelos GPT-5 disponibles
- RÁPIDO: GPT-5 (gpt-5-main): El modelo principal, rápido y equilibrado, ideal para la mayoría de tareas cotidianas.
- RAZONA: GPT-5 Thinking (gpt-5-thinking): Diseñado para problemas complejos, aplica razonamiento avanzado antes de responder.
- RAZONA: GPT-5 Pro (gpt-5-thinking-pro): Ofrece la máxima precisión para tareas críticas, utilizando computación paralela en tiempo de prueba. Tarda un poco más, pero el resultado lo vale.
Cómo acceder a GPT-5 Thinking
- Selección manual: Escoge GPT-5 Thinking con esfuerzo de razonamiento medio.
- Usa créditos de GPT-5 Thinking.
- Instrucciones en el prompt: Añade “think harder” para activar razonamiento adicional.
- Puede cambiar a GPT-5 Thinking y usar sus créditos para procesar el prompt; sino usa créditos de GPT-5.
- Comando del sistema: Usa la herramienta “Think longer” para razonamiento medio.
- Usa créditos de GPT-5 Thinking.
- Autoenrutado: ChatGPT decide cuándo usar GPT-5 Thinking para tareas complejas.
- Usa créditos de GPT-5.
Planes y diferencias
- ChatGPT Plus: Acceso a GPT-5 y GPT-5 Thinking..
- GPT-5 Thinking: 3.000 mensajes por semana.
- GPT-5: 160 mensajes cada 3 horas.
- En el futuro podría recibir algunos créditos para usar GPT-5 Pro.
- Antes del lanzamiento de GPT-5 estos eran los límites (máximo teórico de 1.240 mensajes por día):
- o3: 200/semana
- o4-mini-high: 100/día
- o4-mini: 300/día
- 4o: 80/cada 3 horas
- ChatGPT Pro y Team: Acceso completo a GPT-5, GPT-5 Thinking y GPT-5 Pro, con menos restricciones y mayor capacidad de razonamiento.
- GPT-5: sin restricciones; sujeto a políticas para evitar abusos.
Próximas novedades
- Versiones mini de GPT-5 y GPT-5 Thinking para mantener la productividad cuando se alcancen los límites.
- Funciones avanzadas como Deep Research, Agent Mode y Codex seguirán usando modelos específicos.
Información basada en la publicación