Qué es un tokenizador y por qué importa. Los grandes modelos de lenguaje (LLM) no procesan texto directamente, sino que lo convierten en unidades llamadas tokens, que son fragmentos de palantas, símbolos o caracteres. El tokenizador es el mecanismo que hace esa conversión. Anthropic ha decidido actualizar el tokenizador en Opus 4.7, argumentando que su nuevo sistema mejora cómo se procesa el texto. La consecuencia directa: el prompt que antes generaba 1.000 tokens ahora genera hasta 1.350. Y como se factura por token, el coste
Confirmado por terceros. Simon Willison, conocido analista y divulgador en este terreno, creó una herramienta para medir la diferencia de consumo de tokens con la API de Claude Opus 4.6 y 4.7. Cogió el ‘system prompt’ oficial de Opus 4.7 y lo pasó por ambos modelos:
- Con Opus 4.6 generó 5.039 tokens de salida
- Con Opus 4.7 generó 7.335 tokens de salida
Eso represnta un crecimiento de 1,46x tokens entre Opus 4.6 y Opus 4.7, mayor aún que el que indicaba Anthropic (1,35x). Para imágenes la diferencia es aún más extrema ya que el consumo de tokens es de hasta 3,01x. Aquí hay una aclaración importante, porque hay soporte para imágenes de hasta 3,75 Mpíxeles y esa mayor resolución hace que el consumo aumente de forma notable.



GIPHY App Key not set. Please check settings