NN04 - Overfitting und Regularisierung

Kurze Übersicht

Nichtlineare Modelle

  • Einführung von neuen Merkmalen in Form von nichtlienaren Kombinationen der ursprünglichen Merkmale
  • Erhöhung der Komplexität des Modells ermöglicht das Erfassen von nichtlinearen Beziehungen
  • Bemerkung: Die Hypothesenfunktion bleibt linear in den Gewichten, es wird weiterhin logistische Regression in einem erweiterten Merkmalraum durchgeführt.

Überanpassung und Regularisierung

  • Die Überanpassung (engl. Overfitting) ist eines der häufigsten und wichtigsten Probleme in ML und DL
  • "Was im Bereich des maschinellen Lernens Professionelle von Amateuren unterscheidet, ist ihre Fähigkeit mit Überanpassung umzugehen." [AbuMostafa2012, S. 119]
  • Anzeichen von Überanpassung sind geringe Trainingskosten und hohe Testkosten (Kosten auf nicht-gesehenen Daten).
  • Regularisierung ist eine Maßnahme gegen Überanpassung. Man kann es sich als eine Reduktion in der Komplexität des Modells vorstellen.
  • Der Regularisierungsparameter λ ist ein Hyperparameter. Je größer der λ-Wert, desto größer der Regularisierungseffekt.
  • Die Kostentenfunktion bei regulariserter logistischer Regression: (1)J=1m[i=1m(y[i]log(a[i])(1y[i])log(1a[i]))+λ2j=1n(wj2)]
  • Die Gewichtsaktualisierung mit Regularisierungsterm: (2)wj:=wjαm[i=1m((a[i]y[i])xj[i])+λwj]
Übungsblätter/Aufgaben
Lernziele
  • (K2) Erhöhung der Modell-Komplexität durch Einführung von Merkmalen höherer Ordnung
  • (K2) Unter- und Überanpassung
  • (K2) Regularisierung (Auswirkung auf Gewichte und Modell)
  • (K3) Gradientenabstieg für regularisierte logistische Regression
Quellen