Das umfassende Nachschlagewerk: Über 100 KI-Begriffe von A bis Z – verständlich erklärt für Einsteiger und Entscheider.
Metrik, die angibt, wie oft ein KI-Modell korrekte Vorhersagen trifft. 95% Accuracy = 95 von 100 Antworten richtig. Mehr →
KI-System, das selbstständig Aufgaben ausführt – nicht nur Fragen beantwortet, sondern auch E-Mails sendet, Termine bucht oder Daten ändert. Mehr →
Hypothetische KI mit menschenähnlicher Allgemeinintelligenz. Existiert noch nicht – aktuelle KI ist "narrow AI" für spezifische Aufgaben. Mehr →
Das Ausrichten von KI-Systemen an menschlichen Werten und Zielen. Soll sicherstellen, dass KI hilfreich und sicher handelt. Mehr →
Das manuelle Markieren von Trainingsdaten, z.B. Texte als "positiv/negativ" labeln. Grundlage für überwachtes Lernen. Mehr →
KI-Unternehmen, das das Modell Claude entwickelt. Fokus auf KI-Sicherheit. Gegründet von ehemaligen OpenAI-Mitarbeitern. Mehr →
Schnittstelle, über die Programme kommunizieren. Ermöglicht anderen Anwendungen, KI-Anfragen zu senden und Antworten zu erhalten. Mehr →
Mechanismus in Transformer-Modellen, der bestimmt, welche Teile des Inputs für die Ausgabe wichtig sind. Basis moderner Sprachmodelle. Mehr →
Neuronales Netz, das Daten komprimiert und wieder rekonstruiert. Nützlich für Dimensionsreduktion und Anomalieerkennung. Mehr →
Algorithmus zum Training neuronaler Netze. Berechnet, wie stark jedes Gewicht zum Fehler beiträgt, und passt es an. Mehr →
Verarbeitung vieler Anfragen auf einmal statt einzeln. Günstiger und effizienter für große Datenmengen. Mehr →
Anzahl der Trainingsbeispiele, die gleichzeitig verarbeitet werden. Größere Batches = schneller, aber mehr Speicherbedarf. Mehr →
Sprachmodell von Google (2018), das Text in beide Richtungen liest. Basis für viele NLP-Anwendungen. Mehr →
Prompting-Technik, bei der die KI Schritt für Schritt denkt. Verbessert Ergebnisse bei komplexen Aufgaben deutlich. Mehr →
Programm, das per Text oder Sprache kommuniziert. Moderne KI-Chatbots verstehen natürliche Sprache und führen echte Gespräche. Mehr →
Gespeicherter Zustand eines Modells während des Trainings. Ermöglicht Wiederaufnahme bei Abbruch oder Zurückrollen bei Problemen. Mehr →
KI-Aufgabe, Daten in vordefinierte Kategorien einzuordnen. Beispiel: E-Mail als Spam oder Nicht-Spam klassifizieren. Mehr →
KI-Modell von Anthropic. Bekannt für besonders sichere, hilfreiche und ehrliche Antworten. Verfügbar als API. Mehr →
Unüberwachte Lernmethode, die ähnliche Datenpunkte gruppiert, ohne vorgegebene Kategorien. Mehr →
Neuronales Netz, das besonders gut für Bildverarbeitung geeignet ist. Erkennt Muster wie Kanten, Formen, Objekte. Mehr →
Die Ausgabe eines Sprachmodells – der generierte Text als Antwort auf einen Prompt. Mehr →
Maximale Textmenge, die ein Modell gleichzeitig verarbeiten kann. Gemessen in Tokens. Größer = längere Dokumente möglich. Mehr →
Künstliche Vergrößerung von Trainingsdaten durch Variationen (Bilder drehen, Text umformulieren). Verbessert Modellqualität. Mehr →
Strukturierte Sammlung von Daten für KI-Training oder -Evaluation. Qualität des Datasets bestimmt Modellqualität. Mehr →
Bereich des Machine Learning mit tiefen neuronalen Netzen (viele Schichten). Grundlage moderner KI-Durchbrüche. Mehr →
KI-Architektur für Bildgenerierung. Lernt, Rauschen schrittweise zu entfernen. Basis von DALL-E, Stable Diffusion, Midjourney. Mehr →
Übertragung des Wissens eines großen Modells auf ein kleineres. Das kleine Modell wird vom großen "unterrichtet". Mehr →
KI-Verarbeitung auf lokalen Geräten statt in der Cloud. Schneller, privater, offline-fähig. Mehr →
Mathematische Darstellung von Text als Zahlenvektor. Ermöglicht der KI, Bedeutung zu verstehen und ähnliche Inhalte zu finden. Mehr →
Spezialisiertes Modell zur Erzeugung von Embeddings. Beispiele: OpenAI text-embedding-ada, Sentence-BERT. Mehr →
Fähigkeiten, die bei größeren Modellen plötzlich auftauchen, ohne explizit trainiert worden zu sein. Mehr →
Ein kompletter Durchlauf durch alle Trainingsdaten. Training läuft oft über mehrere Epochen. Mehr →
Bewertung der Modellleistung mit Testdaten, die nicht im Training verwendet wurden. Mehr →
Einzelne messbare Eigenschaft der Daten. Bei Text: Wörter, Satzlänge, Sentiment. Bei Bildern: Pixel, Kanten, Farben. Mehr →
Manuelle Erstellung von Features aus Rohdaten. Bei Deep Learning oft weniger nötig, da das Modell Features selbst lernt. Mehr →
Kreislauf, bei dem Modellausgaben zur Verbesserung genutzt werden. Nutzer-Feedback → bessere Trainingsdaten → besseres Modell. Mehr →
Lernen aus wenigen Beispielen. Dem Modell werden im Prompt 2-5 Beispiele gezeigt, dann folgt die eigentliche Aufgabe. Mehr →
Nachtrainieren eines vortrainierten Modells mit eigenen Daten für spezifische Aufgaben. Anpassung der Gewichte. Mehr →
Großes, vortrainiertes Modell als Basis für verschiedene Anwendungen. GPT-4, Llama, Claude sind Foundation Models. Mehr →
Architektur mit zwei Netzen: Generator erzeugt Fakes, Discriminator erkennt sie. Wettkampf führt zu realistischen Ergebnissen. Mehr →
KI, die neue Inhalte erzeugt: Texte, Bilder, Musik, Code. Im Gegensatz zu analytischer KI, die nur klassifiziert. Mehr →
Dateiformat für quantisierte Modelle, optimiert für CPU-Inferenz. Nachfolger von GGML. Standard bei Ollama. Mehr →
Modellfamilie von OpenAI. GPT-4 ist die Basis von ChatGPT. "Pre-trained" = auf riesigen Textmengen vortrainiert. Mehr →
Prozessor für parallele Berechnungen, ideal für KI. NVIDIA dominiert den Markt mit Chips wie A100, H100, RTX 4090. Mehr →
Mathematische Größe, die angibt, wie Gewichte angepasst werden müssen, um den Fehler zu reduzieren. Mehr →
Optimierungsalgorithmus: Folgt dem Gradienten "bergab" zum Minimum des Fehlers. Mehr →
Verankerung von KI-Antworten in echten Fakten und Quellen. Reduziert Halluzinationen. Mehr →
Sicherheitsmechanismen, die unerwünschte KI-Ausgaben verhindern: Gewalt, Hate Speech, gefährliche Anleitungen. Mehr →
Wenn KI Informationen erfindet, die plausibel klingen, aber falsch sind. Hauptproblem bei Sprachmodellen. RAG reduziert dies. Mehr →
Plattform für KI-Modelle und Datasets. "GitHub für Machine Learning". Größte Sammlung von Open-Source-Modellen. Mehr →
Einstellungen, die vor dem Training festgelegt werden: Learning Rate, Batch Size, Anzahl Schichten. Beeinflussen Trainingserfolg. Mehr →
Fähigkeit von LLMs, aus Beispielen im Prompt zu lernen, ohne Gewichte zu ändern. Basis für Few-Shot Learning. Mehr →
Anwendung eines trainierten Modells auf neue Daten. Im Gegensatz zum Training wird hier nichts gelernt. Mehr →
Fine-Tuning auf Anweisungen und deren Befolgung. Macht Basismodelle zu hilfreichen Assistenten. Mehr →
Benutzerfreundliche Deep-Learning-Bibliothek für Python. Läuft auf TensorFlow, PyTorch oder JAX. Mehr →
Strukturierte Informationssammlung für KI-Zugriff: Dokumente, FAQs, Anleitungen. Basis für RAG-Systeme. Mehr →
Datum, bis zu dem ein Modell Informationen kennt. Danach erschienene Informationen sind dem Modell unbekannt. Mehr →
Wissensnetz aus Entitäten und deren Beziehungen. Kann KI mit strukturiertem Wissen anreichern. Mehr →
Markierung/Kategorie eines Datenpunkts im überwachten Lernen. "Diese E-Mail ist Spam" – "Spam" ist das Label. Mehr →
Framework zum Bau von KI-Anwendungen mit Sprachmodellen. Verbindet LLMs mit Datenquellen, Tools, Agenten. Mehr →
Verzögerung zwischen Anfrage und Antwort. Niedrige Latenz = schnelle Antworten. Wichtig für Echtzeit-Anwendungen. Mehr →
Komprimierte, abstrakte Repräsentation von Daten im Inneren eines Modells. Enthält die "gelernten Konzepte". Mehr →
Schrittgröße beim Gradient Descent. Zu groß = instabil. Zu klein = langsam. Wichtigster Hyperparameter. Mehr →
Open-Source-Modellfamilie von Meta. Llama 3 ist aktuell. Kann frei genutzt und auf eigenen Servern betrieben werden. Mehr →
Großes Sprachmodell, trainiert auf riesigen Textmengen. Versteht und generiert menschenähnliche Texte. Mehr →
Best Practices für Entwicklung und Betrieb von LLM-Anwendungen. Analog zu DevOps/MLOps. Mehr →
Effiziente Fine-Tuning-Methode. Trainiert nur kleine Adapter statt des ganzen Modells. Schneller, günstiger. Mehr →
Mathematische Funktion, die den Fehler des Modells misst. Ziel des Trainings: Loss minimieren. Mehr →
Teilgebiet der KI: Computer lernen aus Daten, ohne explizit programmiert zu werden. Mehr →
Wenn ein Modell Trainingsdaten auswendig lernt statt zu generalisieren. Problematisch für Datenschutz. Mehr →
Französisches KI-Unternehmen und deren Open-Source-Modelle. Bekannt für gute Leistung bei kompakter Größe. Mehr →
Architektur mit vielen spezialisierten Sub-Modellen. Nur relevante Experten werden aktiviert. Effizient für große Modelle. Mehr →
Praktiken für Entwicklung, Deployment und Betrieb von ML-Systemen. DevOps für Machine Learning. Mehr →
Dokumentation eines KI-Modells: Fähigkeiten, Limitierungen, Trainingsdata, ethische Überlegungen. Mehr →
KI-Modelle, die verschiedene Medientypen verarbeiten: Text, Bilder, Audio, Video. GPT-4V, Gemini sind multimodal. Mehr →
Erkennung und Klassifikation von Entitäten im Text: Personen, Orte, Unternehmen, Daten. Mehr →
Mathematisches Modell aus verbundenen "Neuronen", die Informationen verarbeiten. Basis für Deep Learning. Mehr →
Verarbeitung natürlicher Sprache durch Computer: Verstehen, Generieren, Übersetzen von Text. Mehr →
Standardisierung von Daten auf einheitlichen Wertebereich. Verbessert Trainingsstabilität. Mehr →
Software zum einfachen Betrieb von Open-Source-Modellen lokal. "ollama run llama3" startet ein Modell in Sekunden. Mehr →
Betrieb im eigenen Unternehmen statt in der Cloud. Bei KI: Ihre Daten verlassen niemals das Haus. Mehr →
Lernen aus einem einzigen Beispiel. Schwieriger als Few-Shot, erfordert gute Verallgemeinerung. Mehr →
Software mit öffentlichem Quellcode. Llama, Mistral sind Open-Source-Modelle – kostenlos nutzbar. Mehr →
Modell lernt Trainingsdaten auswendig, generalisiert aber schlecht auf neue Daten. Häufiges Problem. Mehr →
Die "Stellschrauben" eines Modells – Zahlen, die beim Training gelernt werden. GPT-4 hat ~1,7 Billionen Parameter. Mehr →
Metrik für Sprachmodelle: Wie "überrascht" ist das Modell vom nächsten Wort? Niedriger = besser. Mehr →
Verkettung mehrerer Verarbeitungsschritte: Daten laden → Vorverarbeiten → Modell → Nachverarbeiten → Ausgabe. Mehr →
Erstes Training auf riesigen Datenmengen. Modell lernt allgemeines Sprachverständnis. Basis für Fine-Tuning. Mehr →
Eingabe/Anweisung an ein KI-Modell. Promptqualität beeinflusst maßgeblich die Antwortqualität. Mehr →
Kunst, Prompts optimal zu formulieren: Beispiele geben, Schritte vorgeben, Rolle zuweisen, Format definieren. Mehr →
Angriff, bei dem bösartige Anweisungen im Prompt versteckt werden, um KI-Verhalten zu manipulieren. Mehr →
Quantisiertes LoRA – Fine-Tuning auf quantisierten Modellen. Ermöglicht Anpassung großer Modelle auf Consumer-Hardware. Mehr →
Reduzierung der Präzision von Modellgewichten (z.B. 32-bit → 4-bit). Kleinere Modelle, schnellere Inferenz. Mehr →
Technik: Erst relevante Dokumente abrufen, dann Antwort generieren. Reduziert Halluzinationen, ermöglicht aktuelles Wissen. Mehr →
Metrik: Wie viele relevante Ergebnisse wurden gefunden? Recall 80% = 8 von 10 relevanten Dokumenten gefunden. Mehr →
Logisches Schlussfolgern. Neuere Modelle wie o1 von OpenAI sind speziell für Reasoning optimiert. Mehr →
Techniken gegen Overfitting: Dropout, Weight Decay, Early Stopping. Verbessert Generalisierung. Mehr →
Lernen durch Belohnung und Bestrafung. Agent probiert Aktionen, lernt aus Feedback. Mehr →
Training mit menschlichem Feedback: Menschen bewerten Antworten, Modell lernt Präferenzen. Mehr →
Methode zur Auswahl des nächsten Tokens bei Textgenerierung. Top-p, Top-k, Temperature steuern die Zufälligkeit. Mehr →
Aufmerksamkeitsmechanismus, bei dem jedes Token auf alle anderen Tokens im Kontext "achtet". Mehr →
Training ohne manuelle Labels. Modell lernt aus der Struktur der Daten selbst (z.B. nächstes Wort vorhersagen). Mehr →
Suche nach Bedeutung statt Schlüsselwörtern. Findet "Mitarbeiter kündigt" auch bei Suche nach "Arbeitnehmer verlässt Firma". Mehr →
Erkennung von Stimmung/Meinung in Text: positiv, negativ, neutral. Nützlich für Kundenfeedback-Analyse. Mehr →
Modellarchitektur, die Sequenzen in andere Sequenzen umwandelt. Basis für Übersetzung, Zusammenfassung. Mehr →
Funktion, die Zahlen in Wahrscheinlichkeiten umwandelt (Summe = 1). Letzte Schicht in Klassifikationsmodellen. Mehr →
Open-Source-Modell für Bildgenerierung. Kann lokal betrieben werden. Basis vieler Bildgeneratoren. Mehr →
Token-für-Token-Ausgabe statt komplette Antwort am Ende. Fühlt sich schneller an, verbessert UX. Mehr →
Überwachtes Lernen mit gelabelten Daten. Modell lernt Zusammenhang zwischen Input und Label. Mehr →
Versteckte Anweisung, die Modellverhalten grundlegend steuert: Rolle, Tonfall, Einschränkungen. Mehr →
Parameter für "Kreativität". Niedrig (0) = vorhersagbar. Hoch (1+) = kreativer, aber auch ungenauer. Mehr →
Open-Source Deep-Learning-Framework von Google. Neben PyTorch das meistgenutzte Framework. Mehr →
Umwandlung von Text in gesprochene Sprache. Moderne TTS klingt sehr natürlich. Mehr →
Anzahl verarbeiteter Anfragen pro Zeiteinheit. Wichtig für Produktionssysteme mit vielen Nutzern. Mehr →
Kleinste Texteinheit für KI-Verarbeitung. Oft Wort oder Wortteil. 1 Token ≈ 4 Zeichen im Englischen, 2-3 im Deutschen. Mehr →
Algorithmus, der Text in Tokens zerlegt. Verschiedene Modelle nutzen verschiedene Tokenizer. Mehr →
Auswahl des nächsten Tokens nur aus den k wahrscheinlichsten. k=50: Nur Top-50-Kandidaten werden betrachtet. Mehr →
Auswahl aus kleinster Menge von Tokens, deren Wahrscheinlichkeiten p überschreiten. Dynamischer als Top-k. Mehr →
Prozess, bei dem ein Modell aus Daten lernt. Anpassung der Gewichte zur Fehlerminimierung. Mehr →
Nutzung eines vortrainierten Modells für neue Aufgaben. Basis für Fine-Tuning. Mehr →
Architektur moderner Sprachmodelle (2017). Basiert auf Self-Attention. Das "T" in GPT und BERT. Mehr →
Modell ist zu einfach, lernt auch Trainingsdaten nicht gut. Gegenteil von Overfitting. Mehr →
Unüberwachtes Lernen ohne Labels. Modell findet selbst Muster und Strukturen in Daten. Mehr →
Bewertung während des Trainings mit separatem Datensatz. Erkennt Overfitting frühzeitig. Mehr →
Problem bei tiefen Netzen: Gradienten werden in frühen Schichten zu klein zum Lernen. Gelöst durch moderne Architekturen. Mehr →
Datenbank für Embeddings mit schneller Ähnlichkeitssuche. Pinecone, Weaviate, Chroma, Milvus sind Beispiele. Mehr →
Transformer-Architektur für Bildverarbeitung. Zerlegt Bilder in Patches und verarbeitet sie wie Tokens. Mehr →
Lernbare Parameter eines neuronalen Netzes. Training = Anpassung der Gewichte zur Fehlerminimierung. Mehr →
OpenAIs Open-Source-Modell für Speech-to-Text. Sehr gute Transkription in vielen Sprachen. Mehr →
Vektorrepräsentation einzelner Wörter. Word2Vec, GloVe sind klassische Methoden. Heute meist kontextuell. Mehr →
Aufgaben lösen ohne Beispiele im Prompt. Modell nutzt nur die Aufgabenbeschreibung. Mehr →
Klassifikation in Kategorien, die beim Training nicht vorkamen. Modell versteht Kategorienamen und ordnet zu. Mehr →