NN03 - Logistische Regression

Kurze Übersicht

Formalisierung

  • Ausgabe y ist reelle Zahl aus dem stetigen Bereich (0,1)

  • Die Hypothesenfunktion ist: (1)h(x)=σ(wTx)=σ(w0+w1x1+w2x2++wnxn)

  • Der Kreuzentropie Verlust (engl. Cross-Entropy) für einen Datenpunkt x: (2)L(a,y)=ylog(a)(1y)log(1a) wobei hier a:=y^ die Vorhersage ist.

  • Die Kosten als durchschnittlicher Verlust über alle Datenpunkte x(1),,x(m): (3)J=1mi=1mL(a(i),y(i))

Gradientenabstieg

  • Der Gradient für einen Datenpunkt x: (4)Lw=(ay)x
  • Der Gradient für alle Datenpunkte X in Matrix-Notation: (5)J=Jw=1mX(AY)T

Graphische Übersicht

  • Logistische Regression
  • Lineare Regression
  • Perzeptron
Lernziele
  • (K2) Logistische Regression aus Sicht neuronaler Netze: Graphische Darstellung, Vergleich mit Perzeptron und linearer Regression
  • (K2) Formalisierung
  • (K2) Sigmoid-Aktivierungsfunktion
  • (K2) Verlust- und Kosten (Cross-Entropy Loss)
  • (K3) Gradientenabstieg für logistische Regression