Nutze alle Modelle in Chat, Assistants, Agents oder über die API.
Die Preise gelten nur für unser API-Produkt. Chat und Assistenten haben bei Kauf inklusive KI-Modellen keine nutzungsbasierte Kostenkomponente. Langdock berechnet 15% auf den Preis des Modellanbieters. Die Modellpreise stammen von den Modellanbietern in USD. Alle Preise exklusive Mehrwertsteuer.
Modell | API-Preise Input-Token | API-Preise Output-Token | Region |
---|---|---|---|
OpenAI | |||
GPT-4 Turbo | 10.96€ / 1M Token | 32.87€ / 1M Token | |
GPT-4o | 5.48€ / 1M Token | 10.96€ / 1M Token | |
GPT-4o mini | 0.16€ / 1M Token | 0.66€ / 1M Token | |
o1-preview | 18.08€ / 1M Token | 72.31€ / 1M Token | |
o1-mini | 3.62€ / 1M Token | 14.46€ / 1M Token | |
Anthropic | |||
Claude 3.5 Sonnet | 3.29€ / 1M Token | 16.43€ / 1M Token | |
Claude 3 Haiku | 0.27€ / 1M Token | 1.37€ / 1M Token | |
Claude 3 Opus | 16.43€ / 1M Token | 82.17€ / 1M Token | |
Gemini 1.5 Pro | 8.22€ / 1M Token | 23.01€ / 1M Token | |
Gemini 1.5 Flash | 0.16€ / 1M Token | 0.66€ / 1M Token | |
Meta | |||
Llama 3.1 70B | 2.94€ / 1M Token | 3.88€ / 1M Token | |
Llama 3.1 8B | 0.33€ / 1M Token | 0.67€ / 1M Token | |
Mistral | |||
Mistral Large 2 | 3.29€ / 1M Token | 9.86€ / 1M Token | |
Mistral Nemo | 0.38€ / 1M Token | 0.38€ / 1M Token | |
Codestral | 0.22€ / 1M Token | 0.66€ / 1M Token |
Die Preise gelten nur für unser API-Produkt. Chat und Assistenten haben bei Kauf inklusive KI-Modellen keine nutzungsbasierte Kostenkomponente. Langdock berechnet 15% auf den Preis des Modellanbieters. Die Modellpreise stammen von den Modellanbietern in USD. Alle Preise exklusive Mehrwertsteuer.
Fortschrittliche Sprachmodelle verarbeiten Text mithilfe von Tokens, die häufige Zeichenfolgen in Texten darstellen. Diese Modelle lernen die statistischen Beziehungen zwischen Tokens, um den nächsten in einer Sequenz vorherzusagen.
Die Tokenisierung ist entscheidend dafür, wie diese Modelle Text interpretieren und generieren. Sie zerlegt den Eingabetext in kleinere Einheiten (Tokens), die das Modell verarbeiten kann.
Der Tokenisierungsprozess kann zwischen verschiedenen Modellen variieren. Neuere Modelle verwenden möglicherweise andere Tokenizer als ältere, was zu unterschiedlichen Tokens für denselben Eingabetext führen kann. Dies kann beeinflussen, wie das Modell Text verarbeitet und sich auf die Token-Anzahl auswirken.
Das Verständnis der Tokenisierung ist hilfreich bei der Arbeit mit diesen Modellen, insbesondere wenn es um Eingabelängenbeschränkungen oder die Optimierung der Textverarbeitungseffizienz geht.
Tokens
Zeichen
Hinweis: Dies ist eine vereinfachte Tokenisierungsmethode und spiegelt möglicherweise nicht genau die exakte Token-Anzahl wider, die von Sprachmodellen verwendet wird. Für eine präzise Tokenisierung solltest du modellspezifische Tokenizer verwenden.
Für typischen englischen Text entspricht ein Token oft etwa 4 Zeichen oder ¾ eines Wortes. Als grobe Schätzung gilt: 100 Token ≈ 75 Wörter.
Für eine präzise Tokenisierung können Entwickler Programmierbibliotheken verwenden. In Python steht das tiktoken-Paket zur Tokenisierung von Text zur Verfügung. Für JavaScript funktioniert das von der Community unterstützte @dbdq/tiktoken-Paket mit vielen fortschrittlichen Sprachmodellen. Diese Tools sind wertvoll für genaue Token-Zählung und Textverarbeitungsaufgaben.