RAG - Retrieval Augmented Generation

Kernkonzept

RAG verbindet ein Large Language Model mit einer externen Wissensdatenbank. So kann die KI Fragen zu Ihren eigenen Dokumenten beantworten - mit Quellenangabe.

Warum RAG?

LLMs haben zwei grundlegende Probleme:

  • Wissens-Cutoff: Sie kennen nur Informationen aus dem Training, nichts Aktuelles
  • Halluzinationen: Sie "erfinden" plausibel klingende, aber falsche Antworten

RAG loest beide Probleme: Die KI sucht zuerst in Ihren Dokumenten und generiert dann eine Antwort basierend auf den gefundenen Informationen.

So funktioniert RAG

  1. Dokumente vorbereiten: Ihre Dokumente werden in kleine Abschnitte zerlegt und in Embeddings umgewandelt
  2. Vektordatenbank speichern: Die Embeddings werden in einer Vektordatenbank gespeichert
  3. Nutzeranfrage verarbeiten: Die Frage wird in einen Vektor umgewandelt
  4. Relevante Dokumente abrufen: Die aehnlichsten Dokumentenabschnitte werden abgerufen
  5. Antwort generieren: Das LLM formuliert eine Antwort mit Quellenangabe

Der entscheidende Unterschied

Ohne RAG: "Welche Garantiebedingungen haben wir?" → LLM erfindet etwas oder sagt "Ich weiss es nicht".
Mit RAG: Die KI findet den relevanten Vertrag und zitiert die genauen Bedingungen.

Anwendungsfaelle

  • Technische Dokumentation: Service-Techniker fragen das System statt Handbuecher zu waelzen
  • Wissensmanagement: Neue Mitarbeiter durchsuchen das gesammelte Firmenwissen
  • Kundenservice: Support-Mitarbeiter finden schnell die richtige Antwort
  • Vertragsanalyse: Juristen durchsuchen Vertraege nach spezifischen Klauseln
← Zurueck zum Glossar