El Observatorio de la IA
Conceptos fundamentales

Token

Un token es la unidad mínima en la que un modelo de IA divide el texto para procesarlo. No equivale a una palabra: puede ser una palabra entera, parte de una palabra, un signo de puntuación o un espacio. En español, un token equivale aproximadamente a 0,75 palabras de media. Importa porque los modelos cobran y limitan su uso por tokens, no por palabras.

Por Ana María González Actualizado: 30 de abril de 2026

Definición rápida

Respuesta directa

Un token es la unidad mínima en la que un modelo de IA divide el texto para procesarlo. No equivale a una palabra: puede ser una palabra entera, parte de una palabra, un signo de puntuación o un espacio. En español, un token equivale aproximadamente a 0,75 palabras de media. Importa porque los modelos cobran y limitan su uso por tokens, no por palabras.

Explicación ampliada

Cuando un usuario envía un texto a ChatGPT, Claude o Gemini, el sistema primero lo descompone en una secuencia de tokens según un diccionario interno llamado tokenizador. Palabras frecuentes ("casa", "hola") suelen ser un único token; palabras técnicas o poco habituales se dividen en varios fragmentos. Por eso un texto en español consume típicamente más tokens por palabra que el mismo texto en inglés (los tokenizadores se entrenaron principalmente con texto en inglés). Esto tiene tres consecuencias prácticas. Primero, el coste vía API se calcula en tokens de entrada y de salida con precios distintos: hay que estimarlos para presupuestar. Segundo, los modelos tienen una ventana de contexto limitada en tokens (por ejemplo, 1 millón de tokens en Claude Sonnet 4.6 estándar (caso único entre los grandes proveedores), y también en Opus 4.7 sin recargo) que define cuánto texto pueden procesar de una vez; superado ese límite, "olvidan" lo del principio. Tercero, los planes empresariales suelen tener cuotas mensuales en tokens. Para hacerse una idea: una página A4 a espacio simple son alrededor de 500-800 tokens; un libro corto puede pasar de 80.000 tokens.

Por qué importa para tu empresa

Aplicación práctica

Si tu empresa va a integrar IA en procesos repetitivos vía API, los tokens son el principal driver de coste y hay que dimensionarlo antes de comprometer presupuesto. Si solo usáis ChatGPT o Claude por la web con un plan plano, el concepto sigue siendo útil para entender por qué documentos muy largos a veces "se cortan" o el modelo "olvida" el principio.

Ejemplo concreto

Caso real

Una asesoría quiere automatizar el resumen de actas de reunión vía API. Cada acta tiene ~3.000 palabras (≈4.000 tokens de entrada) y el resumen sale en ~500 palabras (≈700 tokens de salida). A precios actuales de Claude Sonnet 4.6 (3 USD por millón de tokens entrada y 15 USD por millón de salida, abril 2026), procesar 200 actas al mes cuesta unos 4,5 USD. Pero si en vez de Sonnet se usa Claude Opus 4.6 (5 USD entrada / 25 USD salida), el coste casi se duplica. Y con Gemini 2.5 Flash-Lite (0,10 USD entrada / 0,40 USD salida), bajaría a menos de 0,30 USD al mes. Calcular antes y elegir modelo segun tarea evita sustos.