NN06 - Backpropagation
Kurze Übersicht
Forwärts- und Rückwärtslauf
-
Im Forwärtslauf (engl. forward pass oder forward propagation) wird ein einzelner Forwärtsschritt von Schicht
auf Schicht wie folgt berechnet: Dabei bezeichnet die Aktivierungsfunktion (z.B. Sigmoid oder ReLU). -
Im Rückwärtslauf (engl. backpropagation) werden in einem einzelnen Rückwärtsschritt von Schicht
auf Schicht die folgenden Gradienten berechnet:Dabei steht "
" für die elementweise Multiplikation. -
Beachten Sie:
- Der Forwärtsschirtt übernimmt
von dem vorherigen Schritt und gibt an den nächsten Schritt weiter. - Der Rückwärtschritt übernimmt
von dem vorherigen Schritt und gibt an den nächsten Rückwärtsschritt weiter.
- Der Forwärtsschirtt übernimmt
Parameteraktualisierung
- Die Aktualisierung der Parameter in Schicht
erfolgt wie gewohnt durch: Dabei bezeichnet die Lernrate.
Übungsblätter/Aufgaben
Lernziele
- (K2) Forwärts- und Rückwärtslauf in Matrix Notation mit mehreren Datenpunkten als Eingabe
- (K2) Ableitung der Aktivierungsfunktionen
- (K3) Berechnung der partiellen Ableitungen
- (K3) Rückwärtslauf (backpropagation) für ein gegebenes MLP