टोकन काउंटर
GPT-4, Claude, Gemini और Llama के लिए टोकन गिनें।
~Tokens
29
Words
18
Characters
101
Sentences
2
Context window usage for GPT-4o mini29 / 128,000 tokens (0.0%)
Estimated API cost (GPT-4o mini)
Input cost: $0.000004($0.15/M tokens)
Output cost: $0.000017($0.6/M tokens)
Token count is approximate (GPT BPE-style). Actual counts may vary ±10–15% per model.
टोकन काउंटर क्या है?
यह टूल GPT-4, Claude, Gemini, और Llama models के लिए text के tokens count करता है। API costs estimate करने और context window limits track करने के लिए ज़रूरी।
Token count कैसे करें
- Text paste करें।
- Model चुनें (GPT-4, Claude, etc.)।
- Token count और estimated cost देखें।
- Context window limit के against compare करें।
Token limits
- GPT-4 Turbo: 128,000 tokens
- Claude 3.5 Sonnet: 200,000 tokens
- Gemini 1.5 Pro: 1,000,000+ tokens
- GPT-3.5: 16,000 tokens
- 1 token ≈ 4 characters (English)
अक्सर पूछे जाने वाले प्रश्न
- Token क्या है?
- AI models text को tokens में process करते हैं — words/subwords/characters का mix। Average: 1 token ≈ 4 characters या 0.75 words English में। हिंदी में characters per token कम होते हैं — costs ज्यादा लग सकते हैं।
- Token limit क्यों matter करती है?
- हर model का context window limit है। GPT-4 Turbo: 128K, GPT-3.5: 16K, Claude 3.5: 200K, Gemini Pro: 1M+। Limit cross करें तो earlier text "forgotten" हो जाती है। Long documents के लिए model choice ज़रूरी।
- Pricing tokens से कैसे calculate होती है?
- API charges per 1K tokens (input + output अलग)। GPT-4: ~$0.03 input, $0.06 output per 1K। Claude 3.5: ~$3 per 1M input। Bulk usage में jaldi से जोड़ता है। Token estimation cost-planning के लिए ज़रूरी।
- अलग models में tokenization अलग है?
- हाँ — OpenAI (tiktoken), Claude, Gemini सब अलग tokenizers use करते हैं। Same text अलग token counts देगा। Approximate करना है तो tiktoken safe choice है most cases में।