RAG - Retrieval Augmented Generation
KernkonzeptRAG verbindet ein Large Language Model mit einer externen Wissensdatenbank. So kann die KI Fragen zu Ihren eigenen Dokumenten beantworten - mit Quellenangabe.
Warum RAG?
LLMs haben zwei grundlegende Probleme:
- Wissens-Cutoff: Sie kennen nur Informationen aus dem Training, nichts Aktuelles
- Halluzinationen: Sie "erfinden" plausibel klingende, aber falsche Antworten
RAG loest beide Probleme: Die KI sucht zuerst in Ihren Dokumenten und generiert dann eine Antwort basierend auf den gefundenen Informationen.
So funktioniert RAG
- Dokumente vorbereiten: Ihre Dokumente werden in kleine Abschnitte zerlegt und in Embeddings umgewandelt
- Vektordatenbank speichern: Die Embeddings werden in einer Vektordatenbank gespeichert
- Nutzeranfrage verarbeiten: Die Frage wird in einen Vektor umgewandelt
- Relevante Dokumente abrufen: Die aehnlichsten Dokumentenabschnitte werden abgerufen
- Antwort generieren: Das LLM formuliert eine Antwort mit Quellenangabe
Der entscheidende Unterschied
Ohne RAG: "Welche Garantiebedingungen haben wir?" → LLM erfindet etwas oder sagt "Ich weiss es nicht".
Mit RAG: Die KI findet den relevanten Vertrag und zitiert die genauen Bedingungen.
Anwendungsfaelle
- Technische Dokumentation: Service-Techniker fragen das System statt Handbuecher zu waelzen
- Wissensmanagement: Neue Mitarbeiter durchsuchen das gesammelte Firmenwissen
- Kundenservice: Support-Mitarbeiter finden schnell die richtige Antwort
- Vertragsanalyse: Juristen durchsuchen Vertraege nach spezifischen Klauseln