Wissen

KI-Glossar

Das umfassende Nachschlagewerk: Über 100 KI-Begriffe von A bis Z – verständlich erklärt für Einsteiger und Entscheider.

100+
Begriffe
A-Z
Sortiert
Praxisnah

A

Accuracy Genauigkeit

Metrik, die angibt, wie oft ein KI-Modell korrekte Vorhersagen trifft. 95% Accuracy = 95 von 100 Antworten richtig. Mehr →

Agent AI Agent

KI-System, das selbstständig Aufgaben ausführt – nicht nur Fragen beantwortet, sondern auch E-Mails sendet, Termine bucht oder Daten ändert. Mehr →

AGI Artificial General Intelligence

Hypothetische KI mit menschenähnlicher Allgemeinintelligenz. Existiert noch nicht – aktuelle KI ist "narrow AI" für spezifische Aufgaben. Mehr →

Alignment

Das Ausrichten von KI-Systemen an menschlichen Werten und Zielen. Soll sicherstellen, dass KI hilfreich und sicher handelt. Mehr →

Annotation

Das manuelle Markieren von Trainingsdaten, z.B. Texte als "positiv/negativ" labeln. Grundlage für überwachtes Lernen. Mehr →

Anthropic

KI-Unternehmen, das das Modell Claude entwickelt. Fokus auf KI-Sicherheit. Gegründet von ehemaligen OpenAI-Mitarbeitern. Mehr →

API Application Programming Interface

Schnittstelle, über die Programme kommunizieren. Ermöglicht anderen Anwendungen, KI-Anfragen zu senden und Antworten zu erhalten. Mehr →

Attention Aufmerksamkeit

Mechanismus in Transformer-Modellen, der bestimmt, welche Teile des Inputs für die Ausgabe wichtig sind. Basis moderner Sprachmodelle. Mehr →

Autoencoder

Neuronales Netz, das Daten komprimiert und wieder rekonstruiert. Nützlich für Dimensionsreduktion und Anomalieerkennung. Mehr →

AutoML

Automatisiertes Machine Learning – Tools, die automatisch das beste Modell und die optimalen Parameter finden. Mehr →

B

Backpropagation

Algorithmus zum Training neuronaler Netze. Berechnet, wie stark jedes Gewicht zum Fehler beiträgt, und passt es an. Mehr →

Batch Processing

Verarbeitung vieler Anfragen auf einmal statt einzeln. Günstiger und effizienter für große Datenmengen. Mehr →

Batch Size

Anzahl der Trainingsbeispiele, die gleichzeitig verarbeitet werden. Größere Batches = schneller, aber mehr Speicherbedarf. Mehr →

BERT Bidirectional Encoder Representations from Transformers

Sprachmodell von Google (2018), das Text in beide Richtungen liest. Basis für viele NLP-Anwendungen. Mehr →

Bias Verzerrung

Systematische Fehler in KI-Modellen, oft durch unausgewogene Trainingsdaten. Kann zu unfairen Ergebnissen führen. Mehr →

Benchmark

Standardisierter Test zur Messung der Leistung von KI-Modellen. Ermöglicht Vergleiche zwischen verschiedenen Modellen. Mehr →

C

Chain-of-Thought CoT

Prompting-Technik, bei der die KI Schritt für Schritt denkt. Verbessert Ergebnisse bei komplexen Aufgaben deutlich. Mehr →

Chatbot

Programm, das per Text oder Sprache kommuniziert. Moderne KI-Chatbots verstehen natürliche Sprache und führen echte Gespräche. Mehr →

Checkpoint

Gespeicherter Zustand eines Modells während des Trainings. Ermöglicht Wiederaufnahme bei Abbruch oder Zurückrollen bei Problemen. Mehr →

Classification Klassifikation

KI-Aufgabe, Daten in vordefinierte Kategorien einzuordnen. Beispiel: E-Mail als Spam oder Nicht-Spam klassifizieren. Mehr →

Claude

KI-Modell von Anthropic. Bekannt für besonders sichere, hilfreiche und ehrliche Antworten. Verfügbar als API. Mehr →

Clustering

Unüberwachte Lernmethode, die ähnliche Datenpunkte gruppiert, ohne vorgegebene Kategorien. Mehr →

CNN Convolutional Neural Network

Neuronales Netz, das besonders gut für Bildverarbeitung geeignet ist. Erkennt Muster wie Kanten, Formen, Objekte. Mehr →

Completion

Die Ausgabe eines Sprachmodells – der generierte Text als Antwort auf einen Prompt. Mehr →

Context Window Kontextfenster

Maximale Textmenge, die ein Modell gleichzeitig verarbeiten kann. Gemessen in Tokens. Größer = längere Dokumente möglich. Mehr →

Corpus

Große Textsammlung, die zum Training von Sprachmodellen verwendet wird. Wikipedia, Bücher, Webseiten etc. Mehr →

CUDA

NVIDIAs Plattform für GPU-Computing. Ermöglicht schnelle Berechnungen für KI-Training und -Inferenz. Mehr →

D

Data Augmentation

Künstliche Vergrößerung von Trainingsdaten durch Variationen (Bilder drehen, Text umformulieren). Verbessert Modellqualität. Mehr →

Dataset Datensatz

Strukturierte Sammlung von Daten für KI-Training oder -Evaluation. Qualität des Datasets bestimmt Modellqualität. Mehr →

Deep Learning

Bereich des Machine Learning mit tiefen neuronalen Netzen (viele Schichten). Grundlage moderner KI-Durchbrüche. Mehr →

Diffusion Model

KI-Architektur für Bildgenerierung. Lernt, Rauschen schrittweise zu entfernen. Basis von DALL-E, Stable Diffusion, Midjourney. Mehr →

Distillation Destillation

Übertragung des Wissens eines großen Modells auf ein kleineres. Das kleine Modell wird vom großen "unterrichtet". Mehr →

Docker

Container-Technologie zum Paketieren von Software. Ermöglicht einfache Installation und Betrieb von KI-Systemen. Mehr →

Dropout

Regularisierungstechnik: Zufälliges Deaktivieren von Neuronen während des Trainings. Verhindert Overfitting. Mehr →

E

Edge AI

KI-Verarbeitung auf lokalen Geräten statt in der Cloud. Schneller, privater, offline-fähig. Mehr →

Embedding

Mathematische Darstellung von Text als Zahlenvektor. Ermöglicht der KI, Bedeutung zu verstehen und ähnliche Inhalte zu finden. Mehr →

Embedding Model

Spezialisiertes Modell zur Erzeugung von Embeddings. Beispiele: OpenAI text-embedding-ada, Sentence-BERT. Mehr →

Emergent Behavior

Fähigkeiten, die bei größeren Modellen plötzlich auftauchen, ohne explizit trainiert worden zu sein. Mehr →

Encoder

Teil eines neuronalen Netzes, der Eingaben in eine interne Repräsentation umwandelt. Mehr →

Epoch

Ein kompletter Durchlauf durch alle Trainingsdaten. Training läuft oft über mehrere Epochen. Mehr →

Evaluation

Bewertung der Modellleistung mit Testdaten, die nicht im Training verwendet wurden. Mehr →

F

Feature

Einzelne messbare Eigenschaft der Daten. Bei Text: Wörter, Satzlänge, Sentiment. Bei Bildern: Pixel, Kanten, Farben. Mehr →

Feature Engineering

Manuelle Erstellung von Features aus Rohdaten. Bei Deep Learning oft weniger nötig, da das Modell Features selbst lernt. Mehr →

Feedback Loop

Kreislauf, bei dem Modellausgaben zur Verbesserung genutzt werden. Nutzer-Feedback → bessere Trainingsdaten → besseres Modell. Mehr →

Few-Shot Learning

Lernen aus wenigen Beispielen. Dem Modell werden im Prompt 2-5 Beispiele gezeigt, dann folgt die eigentliche Aufgabe. Mehr →

Fine-Tuning

Nachtrainieren eines vortrainierten Modells mit eigenen Daten für spezifische Aufgaben. Anpassung der Gewichte. Mehr →

Foundation Model

Großes, vortrainiertes Modell als Basis für verschiedene Anwendungen. GPT-4, Llama, Claude sind Foundation Models. Mehr →

FP16/FP32

Zahlenformate für Modellgewichte. FP16 (16-bit) braucht weniger Speicher als FP32 (32-bit), bei minimalem Qualitätsverlust. Mehr →

G

GAN Generative Adversarial Network

Architektur mit zwei Netzen: Generator erzeugt Fakes, Discriminator erkennt sie. Wettkampf führt zu realistischen Ergebnissen. Mehr →

Gemini

Multimodales KI-Modell von Google. Kann Text, Bilder, Audio und Video verarbeiten. Mehr →

Generative AI

KI, die neue Inhalte erzeugt: Texte, Bilder, Musik, Code. Im Gegensatz zu analytischer KI, die nur klassifiziert. Mehr →

GGUF

Dateiformat für quantisierte Modelle, optimiert für CPU-Inferenz. Nachfolger von GGML. Standard bei Ollama. Mehr →

GPT Generative Pre-trained Transformer

Modellfamilie von OpenAI. GPT-4 ist die Basis von ChatGPT. "Pre-trained" = auf riesigen Textmengen vortrainiert. Mehr →

GPU Graphics Processing Unit

Prozessor für parallele Berechnungen, ideal für KI. NVIDIA dominiert den Markt mit Chips wie A100, H100, RTX 4090. Mehr →

Gradient

Mathematische Größe, die angibt, wie Gewichte angepasst werden müssen, um den Fehler zu reduzieren. Mehr →

Gradient Descent

Optimierungsalgorithmus: Folgt dem Gradienten "bergab" zum Minimum des Fehlers. Mehr →

Grounding

Verankerung von KI-Antworten in echten Fakten und Quellen. Reduziert Halluzinationen. Mehr →

Guardrails

Sicherheitsmechanismen, die unerwünschte KI-Ausgaben verhindern: Gewalt, Hate Speech, gefährliche Anleitungen. Mehr →

H

Halluzination

Wenn KI Informationen erfindet, die plausibel klingen, aber falsch sind. Hauptproblem bei Sprachmodellen. RAG reduziert dies. Mehr →

Hugging Face

Plattform für KI-Modelle und Datasets. "GitHub für Machine Learning". Größte Sammlung von Open-Source-Modellen. Mehr →

Hyperparameter

Einstellungen, die vor dem Training festgelegt werden: Learning Rate, Batch Size, Anzahl Schichten. Beeinflussen Trainingserfolg. Mehr →

I

In-Context Learning

Fähigkeit von LLMs, aus Beispielen im Prompt zu lernen, ohne Gewichte zu ändern. Basis für Few-Shot Learning. Mehr →

Inference Inferenz

Anwendung eines trainierten Modells auf neue Daten. Im Gegensatz zum Training wird hier nichts gelernt. Mehr →

Instruction Tuning

Fine-Tuning auf Anweisungen und deren Befolgung. Macht Basismodelle zu hilfreichen Assistenten. Mehr →

INT4/INT8

Ganzzahl-Formate für Quantisierung. INT8 = 8-bit Integer, INT4 = 4-bit. Drastisch reduzierter Speicherbedarf. Mehr →

J

Jailbreak

Versuch, KI-Sicherheitsmechanismen zu umgehen, um verbotene Inhalte zu generieren. Ethisch problematisch. Mehr →

JSON Mode

Modus bei Sprachmodellen, der strukturierte JSON-Ausgabe erzwingt. Wichtig für API-Integration. Mehr →

K

Keras

Benutzerfreundliche Deep-Learning-Bibliothek für Python. Läuft auf TensorFlow, PyTorch oder JAX. Mehr →

Knowledge Base Wissensbasis

Strukturierte Informationssammlung für KI-Zugriff: Dokumente, FAQs, Anleitungen. Basis für RAG-Systeme. Mehr →

Knowledge Cutoff

Datum, bis zu dem ein Modell Informationen kennt. Danach erschienene Informationen sind dem Modell unbekannt. Mehr →

Knowledge Graph

Wissensnetz aus Entitäten und deren Beziehungen. Kann KI mit strukturiertem Wissen anreichern. Mehr →

KV-Cache

Speicher für berechnete Key-Value-Paare bei der Attention. Beschleunigt Textgenerierung erheblich. Mehr →

L

Label

Markierung/Kategorie eines Datenpunkts im überwachten Lernen. "Diese E-Mail ist Spam" – "Spam" ist das Label. Mehr →

Langchain

Framework zum Bau von KI-Anwendungen mit Sprachmodellen. Verbindet LLMs mit Datenquellen, Tools, Agenten. Mehr →

Latency Latenz

Verzögerung zwischen Anfrage und Antwort. Niedrige Latenz = schnelle Antworten. Wichtig für Echtzeit-Anwendungen. Mehr →

Latent Space

Komprimierte, abstrakte Repräsentation von Daten im Inneren eines Modells. Enthält die "gelernten Konzepte". Mehr →

Learning Rate

Schrittgröße beim Gradient Descent. Zu groß = instabil. Zu klein = langsam. Wichtigster Hyperparameter. Mehr →

Llama

Open-Source-Modellfamilie von Meta. Llama 3 ist aktuell. Kann frei genutzt und auf eigenen Servern betrieben werden. Mehr →

LLM Large Language Model

Großes Sprachmodell, trainiert auf riesigen Textmengen. Versteht und generiert menschenähnliche Texte. Mehr →

LLMOps

Best Practices für Entwicklung und Betrieb von LLM-Anwendungen. Analog zu DevOps/MLOps. Mehr →

LoRA Low-Rank Adaptation

Effiziente Fine-Tuning-Methode. Trainiert nur kleine Adapter statt des ganzen Modells. Schneller, günstiger. Mehr →

Loss Function

Mathematische Funktion, die den Fehler des Modells misst. Ziel des Trainings: Loss minimieren. Mehr →

M

Machine Learning ML

Teilgebiet der KI: Computer lernen aus Daten, ohne explizit programmiert zu werden. Mehr →

Memorization

Wenn ein Modell Trainingsdaten auswendig lernt statt zu generalisieren. Problematisch für Datenschutz. Mehr →

Mistral

Französisches KI-Unternehmen und deren Open-Source-Modelle. Bekannt für gute Leistung bei kompakter Größe. Mehr →

Mixture of Experts MoE

Architektur mit vielen spezialisierten Sub-Modellen. Nur relevante Experten werden aktiviert. Effizient für große Modelle. Mehr →

MLOps

Praktiken für Entwicklung, Deployment und Betrieb von ML-Systemen. DevOps für Machine Learning. Mehr →

Model Card

Dokumentation eines KI-Modells: Fähigkeiten, Limitierungen, Trainingsdata, ethische Überlegungen. Mehr →

Multimodal

KI-Modelle, die verschiedene Medientypen verarbeiten: Text, Bilder, Audio, Video. GPT-4V, Gemini sind multimodal. Mehr →

N

Named Entity Recognition NER

Erkennung und Klassifikation von Entitäten im Text: Personen, Orte, Unternehmen, Daten. Mehr →

Neural Network Neuronales Netz

Mathematisches Modell aus verbundenen "Neuronen", die Informationen verarbeiten. Basis für Deep Learning. Mehr →

NLP Natural Language Processing

Verarbeitung natürlicher Sprache durch Computer: Verstehen, Generieren, Übersetzen von Text. Mehr →

Normalization

Standardisierung von Daten auf einheitlichen Wertebereich. Verbessert Trainingsstabilität. Mehr →

NVIDIA

Führender Hersteller von GPUs für KI. Chips wie A100, H100 dominieren den Markt für KI-Training und -Inferenz. Mehr →

O

Ollama

Software zum einfachen Betrieb von Open-Source-Modellen lokal. "ollama run llama3" startet ein Modell in Sekunden. Mehr →

On-Premise

Betrieb im eigenen Unternehmen statt in der Cloud. Bei KI: Ihre Daten verlassen niemals das Haus. Mehr →

One-Shot Learning

Lernen aus einem einzigen Beispiel. Schwieriger als Few-Shot, erfordert gute Verallgemeinerung. Mehr →

OpenAI

Unternehmen hinter ChatGPT und GPT-4. Bietet KI-Modelle als Cloud-Dienst und API. Mehr →

Open Source

Software mit öffentlichem Quellcode. Llama, Mistral sind Open-Source-Modelle – kostenlos nutzbar. Mehr →

Overfitting

Modell lernt Trainingsdaten auswendig, generalisiert aber schlecht auf neue Daten. Häufiges Problem. Mehr →

P

Parameter

Die "Stellschrauben" eines Modells – Zahlen, die beim Training gelernt werden. GPT-4 hat ~1,7 Billionen Parameter. Mehr →

Perplexity

Metrik für Sprachmodelle: Wie "überrascht" ist das Modell vom nächsten Wort? Niedriger = besser. Mehr →

Pipeline

Verkettung mehrerer Verarbeitungsschritte: Daten laden → Vorverarbeiten → Modell → Nachverarbeiten → Ausgabe. Mehr →

Pre-Training

Erstes Training auf riesigen Datenmengen. Modell lernt allgemeines Sprachverständnis. Basis für Fine-Tuning. Mehr →

Prompt

Eingabe/Anweisung an ein KI-Modell. Promptqualität beeinflusst maßgeblich die Antwortqualität. Mehr →

Prompt Engineering

Kunst, Prompts optimal zu formulieren: Beispiele geben, Schritte vorgeben, Rolle zuweisen, Format definieren. Mehr →

Prompt Injection

Angriff, bei dem bösartige Anweisungen im Prompt versteckt werden, um KI-Verhalten zu manipulieren. Mehr →

PyTorch

Open-Source Deep-Learning-Framework von Meta. Neben TensorFlow das meistgenutzte Framework. Mehr →

Q

QLoRA

Quantisiertes LoRA – Fine-Tuning auf quantisierten Modellen. Ermöglicht Anpassung großer Modelle auf Consumer-Hardware. Mehr →

Quantization Quantisierung

Reduzierung der Präzision von Modellgewichten (z.B. 32-bit → 4-bit). Kleinere Modelle, schnellere Inferenz. Mehr →

Query

Suchanfrage oder Frage an ein System. Bei RAG: Die Nutzerfrage, die relevante Dokumente abruft. Mehr →

R

RAG Retrieval Augmented Generation

Technik: Erst relevante Dokumente abrufen, dann Antwort generieren. Reduziert Halluzinationen, ermöglicht aktuelles Wissen. Mehr →

Recall

Metrik: Wie viele relevante Ergebnisse wurden gefunden? Recall 80% = 8 von 10 relevanten Dokumenten gefunden. Mehr →

Reasoning

Logisches Schlussfolgern. Neuere Modelle wie o1 von OpenAI sind speziell für Reasoning optimiert. Mehr →

Regularization

Techniken gegen Overfitting: Dropout, Weight Decay, Early Stopping. Verbessert Generalisierung. Mehr →

Reinforcement Learning RL

Lernen durch Belohnung und Bestrafung. Agent probiert Aktionen, lernt aus Feedback. Mehr →

RLHF Reinforcement Learning from Human Feedback

Training mit menschlichem Feedback: Menschen bewerten Antworten, Modell lernt Präferenzen. Mehr →

RNN Recurrent Neural Network

Neuronales Netz mit Gedächtnis für Sequenzen. Weitgehend von Transformern abgelöst. Mehr →

Rope Rotary Position Embedding

Moderne Methode zur Positionskodierung in Transformern. Ermöglicht längere Kontextfenster. Mehr →

S

Sampling

Methode zur Auswahl des nächsten Tokens bei Textgenerierung. Top-p, Top-k, Temperature steuern die Zufälligkeit. Mehr →

Self-Attention

Aufmerksamkeitsmechanismus, bei dem jedes Token auf alle anderen Tokens im Kontext "achtet". Mehr →

Self-Supervised Learning

Training ohne manuelle Labels. Modell lernt aus der Struktur der Daten selbst (z.B. nächstes Wort vorhersagen). Mehr →

Semantic Search

Suche nach Bedeutung statt Schlüsselwörtern. Findet "Mitarbeiter kündigt" auch bei Suche nach "Arbeitnehmer verlässt Firma". Mehr →

Sentiment Analysis

Erkennung von Stimmung/Meinung in Text: positiv, negativ, neutral. Nützlich für Kundenfeedback-Analyse. Mehr →

Sequence-to-Sequence

Modellarchitektur, die Sequenzen in andere Sequenzen umwandelt. Basis für Übersetzung, Zusammenfassung. Mehr →

Softmax

Funktion, die Zahlen in Wahrscheinlichkeiten umwandelt (Summe = 1). Letzte Schicht in Klassifikationsmodellen. Mehr →

Stable Diffusion

Open-Source-Modell für Bildgenerierung. Kann lokal betrieben werden. Basis vieler Bildgeneratoren. Mehr →

Streaming

Token-für-Token-Ausgabe statt komplette Antwort am Ende. Fühlt sich schneller an, verbessert UX. Mehr →

Supervised Learning

Überwachtes Lernen mit gelabelten Daten. Modell lernt Zusammenhang zwischen Input und Label. Mehr →

System Prompt

Versteckte Anweisung, die Modellverhalten grundlegend steuert: Rolle, Tonfall, Einschränkungen. Mehr →

T

Temperature

Parameter für "Kreativität". Niedrig (0) = vorhersagbar. Hoch (1+) = kreativer, aber auch ungenauer. Mehr →

TensorFlow

Open-Source Deep-Learning-Framework von Google. Neben PyTorch das meistgenutzte Framework. Mehr →

Text-to-Speech TTS

Umwandlung von Text in gesprochene Sprache. Moderne TTS klingt sehr natürlich. Mehr →

Throughput

Anzahl verarbeiteter Anfragen pro Zeiteinheit. Wichtig für Produktionssysteme mit vielen Nutzern. Mehr →

Token

Kleinste Texteinheit für KI-Verarbeitung. Oft Wort oder Wortteil. 1 Token ≈ 4 Zeichen im Englischen, 2-3 im Deutschen. Mehr →

Tokenizer

Algorithmus, der Text in Tokens zerlegt. Verschiedene Modelle nutzen verschiedene Tokenizer. Mehr →

Top-k Sampling

Auswahl des nächsten Tokens nur aus den k wahrscheinlichsten. k=50: Nur Top-50-Kandidaten werden betrachtet. Mehr →

Top-p Sampling Nucleus Sampling

Auswahl aus kleinster Menge von Tokens, deren Wahrscheinlichkeiten p überschreiten. Dynamischer als Top-k. Mehr →

Training

Prozess, bei dem ein Modell aus Daten lernt. Anpassung der Gewichte zur Fehlerminimierung. Mehr →

Transfer Learning

Nutzung eines vortrainierten Modells für neue Aufgaben. Basis für Fine-Tuning. Mehr →

Transformer

Architektur moderner Sprachmodelle (2017). Basiert auf Self-Attention. Das "T" in GPT und BERT. Mehr →

U

Underfitting

Modell ist zu einfach, lernt auch Trainingsdaten nicht gut. Gegenteil von Overfitting. Mehr →

Unsupervised Learning

Unüberwachtes Lernen ohne Labels. Modell findet selbst Muster und Strukturen in Daten. Mehr →

V

Validation

Bewertung während des Trainings mit separatem Datensatz. Erkennt Overfitting frühzeitig. Mehr →

Vanishing Gradient

Problem bei tiefen Netzen: Gradienten werden in frühen Schichten zu klein zum Lernen. Gelöst durch moderne Architekturen. Mehr →

Vector Database Vektordatenbank

Datenbank für Embeddings mit schneller Ähnlichkeitssuche. Pinecone, Weaviate, Chroma, Milvus sind Beispiele. Mehr →

Vision Transformer ViT

Transformer-Architektur für Bildverarbeitung. Zerlegt Bilder in Patches und verarbeitet sie wie Tokens. Mehr →

VRAM Video RAM

Grafikspeicher. Bestimmt maximale Modellgröße. RTX 4090: 24GB. A100: 80GB. H100: 80GB. Mehr →

W

Weight Gewicht

Lernbare Parameter eines neuronalen Netzes. Training = Anpassung der Gewichte zur Fehlerminimierung. Mehr →

Whisper

OpenAIs Open-Source-Modell für Speech-to-Text. Sehr gute Transkription in vielen Sprachen. Mehr →

Word Embedding

Vektorrepräsentation einzelner Wörter. Word2Vec, GloVe sind klassische Methoden. Heute meist kontextuell. Mehr →

Z

Zero-Shot Learning

Aufgaben lösen ohne Beispiele im Prompt. Modell nutzt nur die Aufgabenbeschreibung. Mehr →

Zero-Shot Classification

Klassifikation in Kategorien, die beim Training nicht vorkamen. Modell versteht Kategorienamen und ordnet zu. Mehr →