Was ist Gated Recurrent Unit (GRU)?
Eine Gated Recurrent Unit (GRU) ist Teil eines spezifischen Modells eines rekurrenten neuronalen Netzwerks, das Verbindungen über eine Sequenz von Knoten verwenden möchte, um maschinelle Lernaufgaben im Zusammenhang mit Speicher und Clusterbildung, beispielsweise bei der Spracherkennung, auszuführen. Gated Recurrent Units helfen dabei, die Eingangsgewichte der neuronalen Netze anzupassen, um das Problem des verschwindenden Gradienten zu lösen, das bei wiederkehrenden neuronalen Netzen häufig auftritt.
Als eine Verfeinerung der allgemeinen rekurrenten neuralen Netzwerkstruktur haben getastete rekurrente Einheiten ein sogenanntes Update-Gate und ein Reset-Gate. Unter Verwendung dieser beiden Vektoren verfeinert das Modell Ausgaben, indem es den Informationsfluss durch das Modell steuert. Wie andere Arten von wiederkehrenden Netzwerkmodellen können Modelle mit getasteten wiederkehrenden Einheiten Informationen über einen bestimmten Zeitraum hinweg speichern.
Aus diesem Grund ist eine der einfachsten Möglichkeiten, diese Art von Technologien zu beschreiben, dass sie ein ’speicherzentriertes‘ neuronales Netzwerk sind . Im Gegensatz dazu haben andere Arten von neuronalen Netzen ohne gesteuerte wiederkehrende Einheiten oft nicht die Fähigkeit, Information zu behalten.
Zusätzlich zur Spracherkennung können neuronale Netzwerkmodelle, die getastete wiederkehrende Einheiten verwenden, für die Erforschung des menschlichen Genoms, Handschriftanalyse und vieles mehr verwendet werden. Einige dieser innovativen Netzwerke werden in der Börsenanalyse und der Regierungsarbeit eingesetzt. Viele von ihnen nutzen die simulierte Fähigkeit von Maschinen, sich Informationen zu merken.