Token

Token

Fortgeschrittene KI Einsteiger Aktualisiert: 14.01.2026
Auch bekannt als: Texttoken

Tokens sind die Grundbausteine der Textverarbeitung in LLMs.

Tokenisierung

  • Text wird in Tokens zerlegt
  • Ein Token entspricht ca. 3-4 Zeichen oder einem Wort
  • Kontextfenster = maximale Tokenanzahl

Beispiel

„Künstliche Intelligenz“ = ca. 3-4 Tokens

Unsere Lösungen zu diesem Thema

Möchten Sie Token in Ihrem Unternehmen einsetzen?

Unsere Experten beraten Sie gerne zu den Möglichkeiten und Vorteilen.

Kostenlose Beratung anfragen