GPT

Generative Pre-trained Transformer

Modellfamilie von OpenAI. GPT-4 ist die Basis von ChatGPT. "Pre-trained" = auf riesigen Textmengen vortrainiert.

Was ist GPT?

GPT steht für "Generative Pre-trained Transformer" und bezeichnet eine Familie von großen Sprachmodellen, die von OpenAI entwickelt wurden. Der Name beschreibt die drei Kerneigenschaften: Das Modell ist generativ (es erzeugt Texte), vortrainiert (pre-trained auf riesigen Textmengen aus dem Internet) und basiert auf der Transformer-Architektur. GPT-4 ist das Modell hinter ChatGPT und gilt als eines der leistungsfähigsten kommerziellen Sprachmodelle.

Wie funktioniert GPT?

GPT-Modelle werden in zwei Phasen erstellt. Im Pre-Training liest das Modell Milliarden von Textdokumenten und lernt, das jeweils nächste Wort vorherzusagen. Dabei entwickelt es ein breites Verständnis von Sprache, Fakten und logischen Zusammenhängen. In der zweiten Phase -- dem Fine-Tuning -- wird das Modell mit menschlichem Feedback (RLHF) auf hilfreiche, sichere und präzise Antworten optimiert. Im Betrieb generiert GPT Text, indem es Wort für Wort die wahrscheinlichste Fortsetzung berechnet. Die Qualität der Antworten hängt stark vom sogenannten Prompt ab -- der Eingabe, die der Nutzer formuliert.

Warum ist GPT wichtig?

GPT hat die öffentliche Wahrnehmung von KI grundlegend verändert. Mit der Veröffentlichung von ChatGPT Ende 2022 wurde generative KI erstmals für Millionen von Menschen zugänglich und praktisch nutzbar. Für Unternehmen bietet die GPT-Familie über die OpenAI-API eine leistungsfähige Grundlage für Chatbots, automatische Texterstellung, Zusammenfassungen, Übersetzungen und Datenanalyse. Gleichzeitig existieren Alternativen wie Claude von Anthropic, Gemini von Google und Open-Source-Modelle wie Llama, sodass Unternehmen heute aus einem breiten Angebot wählen können.

Verwandte Begriffe

Transformer · Large Language Model (LLM) · Pre-Training · Fine-Tuning · Generative AI · NLP

Mehr dazu in unserem Blogartikel: ChatGPT Tipps & Tricks

← Zurück zum Glossar