Bias
VerzerrungSystematische Fehler in KI-Modellen, oft durch unausgewogene Trainingsdaten. Kann zu unfairen Ergebnissen führen.
Bias: Wenn KI diskriminiert
Bias in KI bezeichnet systematische Verzerrungen, die zu unfairen Ergebnissen führen – meist übernommen aus den Trainingsdaten.
Bekannte Beispiele
- Amazons Bewerbungs-KI benachteiligte Frauen
- Gesichtserkennung: Höhere Fehler bei dunkler Hautfarbe
- LLMs reproduzieren Geschlechter-Stereotypen
Bias reduzieren
Diverse Trainingsdaten, Bias-Audits, RLHF für Korrektur. Aber: Völlige Fairness ist ein Ideal, kein erreichbarer Zustand.
← Zurück zum Glossar