Was ist Underfitting?
Underfitting bezeichnet einen Zustand im maschinellen Lernen, bei dem ein Modell zu einfach ist, um die zugrunde liegenden Muster in den Trainingsdaten ausreichend zu erfassen. Das Modell lernt dabei weder die Trainingsdaten noch neue, unbekannte Daten zuverlässig zu verarbeiten – es generalisiert schlecht und liefert durchgehend ungenaue Vorhersagen. Underfitting wird auch als Unteranpassung bezeichnet und steht als konzeptionelles Gegenstück zum Overfitting (Überanpassung).
Wie funktioniert Underfitting?
Underfitting entsteht, wenn ein Modell nicht genügend Kapazität besitzt, um die Komplexität der Daten abzubilden. Die häufigsten Ursachen sind:
- Zu geringe Modellkomplexität: Ein lineares Modell versucht beispielsweise, nichtlineare Zusammenhänge zu beschreiben – und scheitert strukturell daran.
- Zu wenige Trainingsiterationen: Das Modell wird zu früh gestoppt, bevor es relevante Muster erkennen konnte.
- Unzureichende Features: Wenn wichtige Eingabevariablen fehlen oder irrelevante dominieren, kann das Modell keine sinnvollen Zusammenhänge erlernen.
- Zu starke Regularisierung: Maßnahmen, die Overfitting verhindern sollen, können bei übermäßigem Einsatz das Modell zu stark einschränken.
Das Ergebnis ist ein hoher Bias (systematischer Fehler) bei gleichzeitig geringer Varianz. Das Modell trifft sowohl auf Trainings- als auch auf Testdaten konsistent schlechte Entscheidungen.
Unterschied zwischen Underfitting und Overfitting
Underfitting und Overfitting beschreiben entgegengesetzte Probleme beim Training von KI-Modellen. Ein underfittendes Modell ist zu simpel: Es erkennt keine ausreichenden Muster und versagt auf allen Datensätzen. Ein overfittendes Modell hingegen ist zu komplex: Es hat die Trainingsdaten zu stark auswendig gelernt, inklusive Rauschen und Ausreißern, und generalisiert deshalb schlecht auf neue Daten. Das Ziel beim Modelltraining ist die Balance zwischen beiden Extremen – bekannt als Bias-Varianz-Tradeoff. Underfitting entspricht einem hohen Bias und geringer Varianz, Overfitting einer geringen Bias und hoher Varianz.
Warum ist Underfitting für Unternehmen relevant?
Für Unternehmen, die KI-Modelle oder Large Language Models (LLMs) einsetzen, ist Underfitting ein praxisrelevantes Risiko, das sich direkt auf die Qualität von Entscheidungen und Automatisierungen auswirkt. Ein unterangepasstes Modell könnte beispielsweise im Kundenservice relevante Anfragen falsch klassifizieren, in der Produktempfehlung keine sinnvollen Vorschläge liefern oder in der Textanalyse wichtige Signale übersehen.
Besonders in Bereichen wie Predictive Analytics, Content-Personalisierung oder automatisierter Qualitätssicherung würde ein Modell mit Underfitting-Problemen kaum verwertbare Ergebnisse liefern. Unternehmen sollten daher bei der Modellentwicklung und -bewertung systematisch auf Leistungskennzahlen wie Trainings- und Validierungsfehler achten, um Unteranpassung frühzeitig zu erkennen und zu beheben.
Praxisbeispiel
Angenommen, der K-Beauty-Shop koreanische-kosmetik-shop.de möchte ein Empfehlungsmodell einsetzen, das Kunden passende Produkte vorschlägt. Wenn das Modell dabei nur ein einziges Feature berücksichtigt – etwa die zuletzt angesehene Produktkategorie – könnte es zu Underfitting kommen: Das Modell wäre zu simpel, um individuelle Kaufmuster, Preisvorlieben oder Hauttypen zu berücksichtigen. Die Empfehlungen wären für alle Nutzer ähnlich generisch und würden weder die Trainingsdaten noch das tatsächliche Nutzerverhalten sinnvoll widerspiegeln. Eine Erweiterung um relevante Features sowie ein komplexeres Modell könnte in einem solchen Szenario Abhilfe schaffen.
Verwandte Begriffe
- Overfitting
- Bias-Varianz-Tradeoff
- Regularisierung
- Modellkomplexität
- Generalisierung
FAQ
Woran erkennt man Underfitting technisch?
Ein typisches Anzeichen ist ein hoher Fehler sowohl auf dem Trainings- als auch auf dem Validierungsdatensatz. Wenn das Modell schon auf den Daten, mit denen es trainiert wurde, schlechte Ergebnisse liefert, ist Underfitting wahrscheinlich. Metriken wie Accuracy, Mean Squared Error oder F1-Score helfen dabei, diesen Zustand zu identifizieren.
Ist Underfitting oder Overfitting das größere Problem in der Praxis?
Beide Phänomene sind kontextabhängig problematisch. In der Praxis wird Overfitting häufig stärker diskutiert, weil komplexe Modelle – etwa tiefe neuronale Netze – dazu neigen. Underfitting tritt jedoch häufig auf, wenn Modelle zu früh vereinfacht werden oder wenn zu wenig Aufwand in das Feature Engineering geflossen ist. Beide Zustände sind gleichermaßen zu vermeiden.
Wie lässt sich Underfitting beheben?
Mögliche Maßnahmen sind die Erhöhung der Modellkomplexität (z. B. mehr Schichten in einem neuronalen Netz), längeres Training, die Aufnahme zusätzlicher oder aussagekräftigerer Features sowie eine Reduzierung übermäßiger Regularisierung. Welche Maßnahme sinnvoll ist, hängt vom jeweiligen Modell und Anwendungsfall ab.