Was ist Gradientenabstiegsalgorithmus?
Der Gradientenabstiegsalgorithmus ist eine Strategie, die dabei hilft, Maschinenlernvorgänge zu verfeinern. Der Gradienten-Abstiegsalgorithmus arbeitet in Richtung des Anpassens der Eingangsgewichte von Neuronen in künstlichen neuronalen Netzen und des Findens von lokalen Minima oder globalen Minima, um ein Problem zu optimieren.
Der Gradientenabstiegsalgorithmus ist auch einfach als Gradientenabstieg bekannt.
Um zu verstehen, wie der Gradientenabstieg funktioniert, denken Sie zunächst an einen Graphen vorhergesagter Werte neben einem Graphen tatsächlicher Werte, die möglicherweise nicht einem streng vorhersagbaren Pfad entsprechen. Bei der Gradientenabsenkung wird der Vorhersagefehler oder die Lücke zwischen den theoretischen Werten und den beobachteten tatsächlichen Werten oder beim maschinellen Lernen, dem Trainingssatz, durch Anpassen der Eingangsgewichte verkleinert.
Der Algorithmus berechnet den Gradienten oder die Veränderung und schrumpft diese prädiktive Lücke allmählich, um die Ausgabe des maschinellen Lernsystems zu verfeinern. Gradientenabstieg ist eine beliebte Methode, um die Ausgabe von KNNs zu verfeinern, wenn wir untersuchen, was sie in allen möglichen Softwarebereichen tun können.