Bias

Verzerrung

Systematische Fehler in KI-Modellen, oft durch unausgewogene Trainingsdaten. Kann zu unfairen Ergebnissen führen.

Bias: Wenn KI diskriminiert

Bias in KI bezeichnet systematische Verzerrungen, die zu unfairen Ergebnissen führen – meist übernommen aus den Trainingsdaten.

Bekannte Beispiele

  • Amazons Bewerbungs-KI benachteiligte Frauen
  • Gesichtserkennung: Höhere Fehler bei dunkler Hautfarbe
  • LLMs reproduzieren Geschlechter-Stereotypen

Bias reduzieren

Diverse Trainingsdaten, Bias-Audits, RLHF für Korrektur. Aber: Völlige Fairness ist ein Ideal, kein erreichbarer Zustand.

← Zurück zum Glossar