Feedback Loop

Begriff

Kreislauf, bei dem Modellausgaben zur Verbesserung genutzt werden. Nutzer-Feedback → bessere Trainingsdaten → besseres Modell.

Was ist ein Feedback Loop?

Ein Feedback Loop (deutsch: Rückkopplungsschleife) ist ein Kreislauf, bei dem die Ausgaben eines KI-Systems gesammelt, bewertet und zur Verbesserung des Modells zurückgeführt werden. Das Grundprinzip ist einfach: Nutzer interagieren mit dem System, ihr Verhalten und ihre Rückmeldungen werden erfasst, und diese Informationen fließen als neue Trainingsdaten oder Korrektursignale zurück in das Modell. So entsteht ein kontinuierlicher Verbesserungsprozess.

Wie funktioniert ein Feedback Loop?

In der Praxis gibt es verschiedene Formen von Feedback Loops. Bei explizitem Feedback bewerten Nutzer die KI-Ausgaben direkt, etwa durch Daumen-hoch/Daumen-runter-Bewertungen bei einem Chatbot. Implizites Feedback entsteht durch beobachtetes Nutzerverhalten: Klickt ein Nutzer auf ein empfohlenes Produkt, gilt das als positives Signal. Dieses gesammelte Feedback kann dann für Fine-Tuning, RLHF (Reinforcement Learning from Human Feedback) oder die Anpassung von Systemregeln genutzt werden. Bei großen Sprachmodellen wie GPT oder Claude spielen Feedback Loops eine zentrale Rolle bei der Verbesserung von Antwortqualität und Sicherheit.

Risiken negativer Feedback Loops

Nicht jeder Feedback Loop ist positiv. Wenn ein System voreingenommene Empfehlungen ausgibt und die Nutzer nur zwischen diesen voreingenommenen Optionen wählen können, bestätigt das Feedback den bestehenden Bias und verstärkt ihn. Ein Recruiting-Tool, das bevorzugt bestimmte Bewerberprofile vorschlägt, erhält nur Feedback zu diesen Profilen und vertieft die Einseitigkeit. Filterblasen in Empfehlungssystemen sind ein weiteres bekanntes Beispiel: Das System zeigt immer ähnlichere Inhalte, weil es nur noch bestätigtes Feedback erhält.

Warum sind Feedback Loops wichtig?

Feedback Loops sind der Motor hinter sich selbst verbessernden KI-Systemen. Unternehmen, die sie gezielt einsetzen, können ihre Modelle mit der Zeit immer besser an die tatsächlichen Anforderungen ihrer Nutzer anpassen. Gleichzeitig erfordert der Einsatz von Feedback Loops eine bewusste Gestaltung und regelmäßige Überwachung, um negative Verstärkungseffekte frühzeitig zu erkennen und zu unterbinden.

Verwandte Begriffe

RLHF · Fine-Tuning · Bias · Evaluation · Instruction Tuning

← Zurück zum Glossar