1 millón de tokens en Claude Sonnet 4
Los tokens de contexto de Claude Sonnet 4 se han multiplicado por 5 y ahora admite 1 millón en la API de Anthropic.
Con este cambio se pueden procesar más de 75.000 líneas de código o docenas de artículos de investigación en una sola solicitud. Además de por la API también está disponible en Amazon Bedrock, y próximamente en Vertex AI de Google Cloud.
¿Cuánto es un millón de tokens?
1 millón de tokens en el contexto de los modelos de lenguaje de gran tamaño (LLMs) representa una cantidad considerable de texto. Basándonos en las reglas estándar de tokenización (como las que utilizan modelos de OpenAI, Google u otros similares), podemos hacer la siguiente equivalencia aproximada:
- 1 token ≈ 3,5 caracteres de texto (incluyendo espacios).
- 1 token ≈ 0,6 palabras.
- 1 millón de tokens en español ≈ 600.000 palabras.
- 1 millón de tokens en español ≈ 3,5 millones de caracteres (con espacios incluidos).
- Si asumimos 500 palabras por página, serían unas 1.200 páginas de un libro estándar.
Contexto más largo, más casos de uso
Con una ventana de contexto más amplia, los desarrolladores pueden ejecutar casos de uso más completos e intensivos en datos con Claude, incluyendo:
- Análisis de código a gran escala: Cargar bases de código completas, incluidos archivos fuente, pruebas y documentación. Claude puede comprender la arquitectura del proyecto, identificar dependencias entre archivos y sugerir mejoras teniendo en cuenta el diseño completo del sistema.
- Síntesis de documentos: Procesar grandes conjuntos de documentos como contratos legales, artículos científicos o especificaciones técnicas. Analizar relaciones entre cientos de documentos manteniendo el contexto completo.
- Agentes con conciencia de contexto: Crear agentes que mantengan el contexto a lo largo de cientos de llamadas a herramientas y flujos de trabajo de varios pasos. Incluir documentación completa de APIs, definiciones de herramientas e historiales de interacción sin perder coherencia.
Precios de la API
Para tener en cuenta los mayores requisitos computacionales, los precios se ajustan para prompts superiores a 200.000 tokens:
Tipo de Prompt | ≤ 200K tokens | > 200K tokens |
---|---|---|
Entrada | $3 / MTok | $6 / MTok |
Salida | $15 / MTok | $22.50 / MTok |
Con el uso de caché de prompts, los usuarios pueden reducir la latencia y los costes al trabajar con contexto largo. Además, la ventana de 1 millón de tokens puede utilizarse con procesamiento por lotes para un ahorro adicional del 50%.
Casos de éxito
Bolt.new
Esta plataforma de desarrollo web basada en navegador ha integrado Claude en sus flujos de trabajo de generación de código.
“Claude Sonnet 4 sigue siendo nuestro modelo de referencia para generación de código, superando constantemente a otros modelos líderes en producción. Con la ventana de contexto de 1M, los desarrolladores pueden trabajar en proyectos mucho más grandes manteniendo la precisión que necesitamos para programación real.»
Eric Simons, CEO y cofundador de Bolt.new.
iGent AI
La empresa londinense iGent AI ha desarrollado Maestro, un agente de ingeniería de software que convierte conversaciones en código ejecutable.
“Lo que antes era imposible ahora es realidad: Claude Sonnet 4 con 1M de contexto ha potenciado las capacidades autónomas de Maestro. Este avance desbloquea ingeniería a escala de producción real: sesiones de varios días sobre bases de código reales, estableciendo un nuevo paradigma en la ingeniería de software basada en agentes.”
Sean Ward, CEO y cofundador de iGent AI.
Información basada en la publicación oficial Claude Sonnet 4 now supports 1M tokens of context y en las tarifas de precios oficiales: Pricing.