Stax

Contador de Tokens

Cuenta tokens para GPT-4, Claude, Gemini y Llama.

~Tokens
29
Words
18
Characters
101
Sentences
2
Context window usage for GPT-4o mini29 / 128,000 tokens (0.0%)
Estimated API cost (GPT-4o mini)
Input cost: $0.000004($0.15/M tokens)
Output cost: $0.000017($0.6/M tokens)

Token count is approximate (GPT BPE-style). Actual counts may vary ±10–15% per model.

¿Qué es el contador de tokens?

Esta herramienta cuenta tokens de texto para modelos GPT-4, Claude, Gemini y Llama. Esencial para estimar costos de API y rastrear límites de ventana de contexto.

Cómo contar tokens

  1. Pega texto.
  2. Selecciona modelo (GPT-4, Claude, etc.).
  3. Ve conteo de tokens y costo estimado.
  4. Compara con el límite de ventana de contexto.

Límites de tokens

  • GPT-4 Turbo: 128,000 tokens
  • Claude 3.5 Sonnet: 200,000 tokens
  • Gemini 1.5 Pro: 1,000,000+ tokens
  • GPT-3.5: 16,000 tokens
  • 1 token ≈ 4 caracteres (inglés)

Preguntas frecuentes

¿Qué es un token?
Los modelos de IA procesan texto en tokens — mezcla de palabras/sub-palabras/caracteres. Promedio: 1 token ≈ 4 caracteres o 0.75 palabras en inglés. En hindi los caracteres por token son menos — los costos pueden ser mayores.
¿Por qué importa el límite de tokens?
Cada modelo tiene su propio límite de ventana de contexto. GPT-4 Turbo: 128K, GPT-3.5: 16K, Claude 3.5: 200K, Gemini Pro: 1M+. Si excedes el límite, el texto anterior se "olvida". Para documentos largos la elección de modelo es esencial.
¿Cómo se calcula el precio por tokens?
Las APIs cobran por 1K tokens (input + output separados). GPT-4: ~$0.03 input, $0.06 output por 1K. Claude 3.5: ~$3 por 1M input. En uso a granel se acumula rápidamente. La estimación de tokens es esencial para planificación de costos.
¿La tokenización es diferente en cada modelo?
Sí — OpenAI (tiktoken), Claude, Gemini todos usan tokenizers diferentes. El mismo texto da diferente conteo de tokens. Para aproximación tiktoken es opción segura en la mayoría de casos.

Herramientas relacionadas