Rekurrente Neuronale Netze (RNN) sind mächtige Sequenzlerner. Sie können flexibel mit zeitlich gedehnten Kontexten umgehen und sind robust gegenüber lokalen Eingabestörungen. Dies empfiehlt sie für Sequenzannotationsprobleme, bei denen Eingabeströme auf Reihen symbolischer Markierungen abzubilden sind. Das Ziel dieser Arbeit ist es, den aktuellen Stand der Forschung bei überwachter Sequenzannotation mit RNN voranzubringen. Die Arbeit liefert hierzu zwei wichtige Beiträge: (1) Durch die Einführung einer neuartigen Ausgabeschicht wird es möglich, RNN direkt daraufhin zu trainieren, Sequenzen zu annotieren, auch wenn nur die Reihenfolge, nicht jedoch die exakten Positionen der Markierungen bekannt sind. (2) Die "Long Short-Term Memory" Netzwerkarchitektur wird auf mehrdimensionale Daten wie Bilder und Videos erweitert.
«
Rekurrente Neuronale Netze (RNN) sind mächtige Sequenzlerner. Sie können flexibel mit zeitlich gedehnten Kontexten umgehen und sind robust gegenüber lokalen Eingabestörungen. Dies empfiehlt sie für Sequenzannotationsprobleme, bei denen Eingabeströme auf Reihen symbolischer Markierungen abzubilden sind. Das Ziel dieser Arbeit ist es, den aktuellen Stand der Forschung bei überwachter Sequenzannotation mit RNN voranzubringen. Die Arbeit liefert hierzu zwei wichtige Beiträge: (1) Durch die Einführun...
»