Underfitting

Training

Modell ist zu einfach fuer die Daten. Lernt weder Trainingsdaten noch generalisiert es.

Was ist Underfitting?

Underfitting tritt auf, wenn ein KI-Modell zu einfach ist, um die zugrundeliegenden Muster in den Daten zu erfassen. Das Modell liefert sowohl auf den Trainingsdaten als auch auf neuen, unbekannten Daten schlechte Ergebnisse. Man kann sich das vorstellen wie den Versuch, einen komplexen Zusammenhang mit einer geraden Linie zu beschreiben, obwohl die Daten eine Kurve bilden. Underfitting ist das Gegenstück zu Overfitting, bei dem das Modell die Trainingsdaten auswendig lernt, aber nicht verallgemeinern kann.

Wie funktioniert Underfitting?

Underfitting hat mehrere typische Ursachen: Das Modell hat zu wenige Parameter (zu wenige Schichten oder Neuronen), um die Komplexität der Daten abzubilden. Das Training wurde zu früh abgebrochen, bevor das Modell die Muster ausreichend lernen konnte. Die Lernrate ist zu hoch, sodass das Modell über das Optimum hinausschießt. Oder die verwendeten Features (Eingabemerkmale) sind nicht aussagekräftig genug für die Aufgabe.

Underfitting lässt sich an charakteristischen Anzeichen erkennen: Sowohl der Trainingsfehler als auch der Validierungsfehler sind hoch und verbessern sich kaum. Im Gegensatz zu Overfitting, wo der Trainingsfehler niedrig ist, aber der Validierungsfehler steigt, sind beim Underfitting beide Werte schlecht. Gegenmaßnahmen umfassen die Vergrößerung des Modells, längeres Training, Verringerung der Regularisierung, Hinzufügen besserer Features oder den Wechsel zu einer komplexeren Architektur.

Warum ist Underfitting wichtig?

Für Unternehmen, die KI-Projekte evaluieren, ist Underfitting ein wichtiges Warnsignal. Wenn ein Modell selbst auf den Trainingsdaten keine guten Ergebnisse erzielt, liegt das Problem oft nicht an den Daten, sondern an der Modellwahl oder der Trainingskonf iguration. Das Verständnis von Underfitting hilft, realistische Erwartungen an KI-Projekte zu setzen und die richtigen Fragen an Entwicklerteams zu stellen. Manchmal zeigt Underfitting auch, dass die gewählte Aufgabe mit den verfügbaren Daten schlicht nicht lösbar ist.

Verwandte Begriffe

Overfitting · Training · Validation · Weight · Regularisierung

← Zurück zum Glossar