NN02 - Lineare Regression und Gradientenabstieg
Videos
Folien
Kurze Übersicht
Formalisierung
- Ausgabe
ist reelle Zahl aus einem stetigen Bereich (zum Beispiel Hauspreis) - Die Hypothesenfunktion ist eine gewichtete Summe der Merkmale
plus eine Konstante : - Der Verlust (engl. loss) für einen Datenpunkt
ist das Fehlerquadrat: - Die Kosten (engl. cost) sind der durchschnittliche Verlust über alle Datenpunkte:
Der Gradient
- Der Gradientenvektor
setzt sich zusammen aus den partiellen Ableitungen der Kostenfunktion nach den Gewichten und zeigt in jedem Punkt in die Richtung des steilsten Aufstiegs: - Schlussfolgerung: In die entgegengesetzte Richtung, i.e. in Richtung
geht es am steilsten bergab! - IDEE: Bewege
in Richtung , um die Kosten möglichst schnell zu senken.
Der Gradientenabstieg (engl. Gradient Descent)
- Starte mit zufälligen Gewichten
- Berechne den Gradientenvektor im aktuellen Punkt
- Gewichtsaktualisierung: Gehe einen kleinen Schritt in Richtung
( : Lernrate/Schrittweite). - Wiederhole Schritte 2-3, bis das globale Minimum von
erreicht ist.
Graphische Übersicht
Übungsblätter/Aufgaben
Lernziele
- (K2) Lineare Regression aus Sicht neuronaler Netze: Graphische Darstellung, Vergleich mit Perzeptron
- (K2) Formalisierung
- (K2) Verlust- und Kostenfunktion
- (K2) Gradientenvektor
- (K2) Lernrate
- (K3) Gradientenabstieg
Challenges
Skalierung der Merkmale
Abbildung 1 und Abbildung 2 zeigen die Höhenlinien (Contour Lines) von zwei Kostenfunktionen.

Abbildung 1

Abbildung 2
- Erklären Sie, welcher der beiden Fälle nachteilhaft für den Gradientenabstieg Algorithmus ist. Wo liegt der Nachteil? Wie kann die Merkmalskalierung dem genannten Nachteil entgegenwirken?
- Zeigen Sie unter Verwendung Ihrer eigenen, zufällig generierten Datenpunkte aus dem Bereich
, wie sich Standardisierung, Min-Max Skalierung und Normalisierung auf die Daten auswirken. Vergleichen Sie dazu die jeweiligen Streudiagramme (scatterplots). Sie können hierzu das folgende Jupyter Notebook als Startpunkt benutzen.