Context Window

Kontextfenster

Maximale Textmenge, die ein LLM auf einmal verarbeiten kann. GPT-4: 128k Tokens, Claude: 200k Tokens.

Context Window: Das Kurzzeitgedachtnis der KI

Das Context Window bestimmt, wie viel Text ein LLM auf einmal "sehen" kann – Prompt + Kontext + bisherige Antwort.

Aktuelle Groessen

ModellContextWoerter
GPT-4128k~96.000
Claude 3200k~150.000
Gemini1M+~750.000

Faustregel

1 Token entspricht etwa 0,75 Woertern (Englisch) oder 0,5 Woertern (Deutsch). 100k Tokens entspricht etwa 75.000 Woertern oder 150 Seiten Text.

Lost in the Middle

LLMs beachten Anfang und Ende staerker als die Mitte. Wichtige Informationen nicht in der Mitte verstecken! Bei zu wenig Kontext: RAG nutzen.

← Zurueck zum Glossar