Was ist Backpropagation?
Backpropagation ist eine Technik, die verwendet wird, um bestimmte Klassen neuronaler Netzwerke zu trainieren – es ist im Wesentlichen ein Prinzip, das es dem maschinellen Lernprogramm ermöglicht, sich selbst entsprechend seiner Vergangenheitsfunktion anzupassen.
Backpropagation wird manchmal als ‚Backpropagation von Fehlern‘ bezeichnet.
Die Rückpropagation als eine Technik verwendet Gradientenabstieg: Sie berechnet den Gradienten der Verlustfunktion am Ausgang und verteilt ihn zurück durch die Schichten eines tiefen neuronalen Netzwerks. Das Ergebnis sind angepasste Gewichte für Neuronen. Obwohl Backpropagation sowohl in überwachten als auch in unbeaufsichtigten Netzwerken verwendet werden kann, wird dies als überwachte Lernmethode angesehen.
Nach dem Aufkommen von einfachen neuronalen Vorwärtsnetzen, bei denen Daten nur in eine Richtung gehen, fanden Ingenieure heraus, dass sie Backpropagation verwenden konnten, um die neuronalen Eingangsgewichte nachträglich einzustellen. Backpropagation kann als eine Möglichkeit betrachtet werden, ein System basierend auf seiner Aktivität zu trainieren, um einzustellen, wie genau oder genau das neuronale Netzwerk bestimmte Eingaben verarbeitet oder wie es zu einem anderen gewünschten Zustand führt.