El nuevo prompting no va de escribir más, sino de pensar mejor
Cambios en el prompting de OpenAI y Anthropic: menos prompts heredados, más claridad, mejores criterios y menos scaffolding innecesario.
Durante años, mucha gente aprendió a mejorar prompts añadiendo capas: más pasos, más recordatorios, más disclaimers, más reglas en mayúsculas, más “piensa paso a paso”. Ese patrón tenía sentido cuando los modelos necesitaban más guía para no perderse. Pero las guías oficiales recientes de OpenAI y Anthropic dejan claro que ese hábito ya no escala igual de bien. El problema ya no es solo escribir un prompt largo o corto: es escribir el tipo correcto de claridad para el modelo correcto.
En Claude Opus 4.7, la gran novedad no es que el modelo “se haya vuelto peor”, sino que se ha vuelto más literal. Anthropic dice que ya no generaliza en silencio una instrucción de una parte a otra, que no infiere peticiones que no has formulado y que, en low y medium effort, se limita mucho más a lo que se le pidió. Traducido a lenguaje práctico: si quieres que aplique una regla a todo el documento, dilo; si quieres que vaya más allá de lo mínimo, dilo; si quieres un formato concreto, dilo. Claude ya no compensa con tanta generosidad el pensamiento borroso de quien escribe el prompt.
GPT-5.5 cambia la ecuación desde otro ángulo. OpenAI no te pide menos precisión; te pide precisión mejor colocada. Su guía recomienda prompts outcome-first: define el resultado esperado, los criterios de éxito, las restricciones, el contexto disponible y la forma de salida, pero evita micromanagear el proceso si el camino exacto no importa. También advierte que arrastrar intactas las instrucciones heredadas de modelos anteriores puede meter ruido, estrechar innecesariamente el espacio de búsqueda y producir respuestas más mecánicas. El mensaje no es “sé vago”; el mensaje es “deja de confundir control con sobreinstrucción”.
Por eso las dos guías, leídas juntas, son más compatibles de lo que parece. Anthropic te pide especificidad sobre alcance, formato y restricciones. OpenAI te pide especificidad sobre destino, criterios y condiciones de parada. En ambos casos, el castigo recae sobre el mismo defecto de fondo: prompts escritos sin una idea clara de qué constituye un buen resultado. La lección no es que una compañía quiera “más prompt” y la otra “menos prompt”. La lección es que ambas penalizan la falta de pensamiento estructurado previa al prompt.
Hay otro punto importante: el coste. Anthropic documenta que Opus 4.7 puede usar hasta un 35% más de tokens para el mismo texto por su nuevo tokenizer. OpenAI, por su parte, afirma que GPT-5.5 alcanza resultados fuertes con menos reasoning tokens que modelos anteriores al mismo nivel de esfuerzo. Eso significa que la calidad del prompting ya no solo afecta a la salida; también afecta a la economía de uso. Un prompt mal planteado no solo empeora el resultado: también puede gastar más de la cuenta o forzarte a subir effort donde no hace falta.
En la práctica, el nuevo prompting se parece menos a “escribir hechizos” y más a diseñar contratos de trabajo. Con Claude, conviene explicitar el alcance, el formato y la cobertura que esperas. Con GPT-5.5, conviene declarar el objetivo, qué significa haber terminado, qué límites no puede cruzar y qué evidencia basta para responder. En ambos, los ejemplos valen más que grandes listas de prohibiciones, y el ajuste de effort vale más que añadir relleno verbal porque sí.
La conclusión de fondo es sencilla: el prompt sigue importando, pero cada vez se parece menos a un truco y más a la salida visible de un proceso de pensamiento. Si el encargo está mal definido, el modelo ya no siempre lo va a arreglar por ti. Operativamente, el cuello de botella parece desplazarse cada vez más hacia la persona que formula la tarea. No porque los modelos hagan menos, sino porque hacen mejor, y con más disciplina, exactamente lo que se les pide.
Resumiendo….
- Claude Opus 4.7 no “lee la mente” con la misma alegría que antes: sigue instrucciones de forma más literal, no generaliza peticiones implícitas y en
low/mediumse ciñe mucho más al alcance exacto de lo pedido. - GPT-5.5 funciona mejor con prompting orientado al resultado: objetivo, criterios de éxito, constraints, contexto y stop rules; menos micromanagement del proceso salvo que el camino importe de verdad.
- Los ejemplos pesan más que las murallas de prohibiciones: Anthropic lo dice de forma explícita y OpenAI sigue recomendando ejemplos y few-shot prompting cuando hace falta guiar comportamiento o formato, además de evitar reglas absolutas innecesarias.
Effortes ya una palanca de primer nivel. En GPT-5.5,lowencaja con extracción, routing o reescrituras simples; en Opus 4.7,xhighes el punto de partida recomendado para coding y agentes.- No mezcles “menos scaffolding1” con “menos rigor”: lo que sobra es la instrucción de proceso que no cambia nada; lo que sigue importando son los criterios de éxito, la evidencia mínima, los tests y la validación concreta.
- El impacto ya no es solo de calidad, también de coste: Anthropic documenta hasta un 35% más de tokens con el mismo texto en Opus 4.7, mientras OpenAI dice que GPT-5.5 logra buenos resultados con menos reasoning tokens al mismo esfuerzo.
Información basada en las publicaciones oficiales: Anthropic Claude Opus 4.7 migration guide, OpenAI GPT-5.5 prompting guide y OpenAI “Using GPT-5.5”.
- “Menos scaffolding” significa quitar del prompt las muletas de proceso que antes añadíamos para ayudar a modelos más antiguos, cuando esas muletas ya no aportan valor o incluso empeoran la respuesta. Antes esto ayudaba porque el modelo necesitaba más guía para organizarse. Ahora, en muchos casos, ese exceso de instrucciones mete ruido, consume tokens y puede hacer que la respuesta salga más mecánica. ↩︎
