NN03 - Logistische Regression
Videos
Kurze Übersicht
Formalisierung
-
Ausgabe
ist reelle Zahl aus dem stetigen Bereich -
Die Hypothesenfunktion ist:
-
Der Kreuzentropie Verlust (engl. Cross-Entropy) für einen Datenpunkt
: wobei hier die Vorhersage ist. -
Die Kosten als durchschnittlicher Verlust über alle Datenpunkte
:
Gradientenabstieg
- Der Gradient für einen Datenpunkt
: - Der Gradient für alle Datenpunkte
in Matrix-Notation:
Graphische Übersicht
Übungsblätter/Aufgaben
Lernziele
- (K2) Logistische Regression aus Sicht neuronaler Netze: Graphische Darstellung, Vergleich mit Perzeptron und linearer Regression
- (K2) Formalisierung
- (K2) Sigmoid-Aktivierungsfunktion
- (K2) Verlust- und Kosten (Cross-Entropy Loss)
- (K3) Gradientenabstieg für logistische Regression