NN04 - Overfitting und Regularisierung
Kurze Übersicht
Nichtlineare Modelle
- Einführung von neuen Merkmalen in Form von nichtlienaren Kombinationen der ursprünglichen Merkmale
- Erhöhung der Komplexität des Modells ermöglicht das Erfassen von nichtlinearen Beziehungen
- Bemerkung: Die Hypothesenfunktion bleibt linear in den Gewichten, es wird weiterhin logistische Regression in einem erweiterten Merkmalraum durchgeführt.
Überanpassung und Regularisierung
- Die Überanpassung (engl. Overfitting) ist eines der häufigsten und wichtigsten Probleme in ML und DL
- "Was im Bereich des maschinellen Lernens Professionelle von Amateuren unterscheidet, ist ihre Fähigkeit mit Überanpassung umzugehen." [AbuMostafa2012, S. 119]
- Anzeichen von Überanpassung sind geringe Trainingskosten und hohe Testkosten (Kosten auf nicht-gesehenen Daten).
- Regularisierung ist eine Maßnahme gegen Überanpassung. Man kann es sich als eine Reduktion in der Komplexität des Modells vorstellen.
- Der Regularisierungsparameter
ist ein Hyperparameter. Je größer der -Wert, desto größer der Regularisierungseffekt. - Die Kostentenfunktion bei regulariserter logistischer Regression:
- Die Gewichtsaktualisierung mit Regularisierungsterm:
Übungsblätter/Aufgaben
Lernziele
- (K2) Erhöhung der Modell-Komplexität durch Einführung von Merkmalen höherer Ordnung
- (K2) Unter- und Überanpassung
- (K2) Regularisierung (Auswirkung auf Gewichte und Modell)
- (K3) Gradientenabstieg für regularisierte logistische Regression
Quizzes
Quellen
- [AbuMostafa2012] Learning From Data
Abu-Mostafa, Y. S. und Magdon-Ismail, M. und Lin, H., AMLBook, 2012. ISBN 978-1-6004-9006-4.
Kapitel 4