Für neuronale Netze führen wir stochastische, parameterfreie Aktivierungsfunktionen ein, die lernbar und jedem Neuron individuell sind.
Überanpassung wird durch Verwendung einer Gauß-Prozess a-priori-Wahrscheinlichkeitsverteilung verhindert.
Das Model kann mit Unsicherheiten in seinen Eingaben umgehen und schätzt die Zuverlässigkeit seiner Vorhersagen.
Durch Verwendung von Variationsrechnung und dem zentralen Grenzwertsatz wird eine deterministische Zielfunktion hergeleitet, die es erlaubt das Model genauso effizient wie ein konventionelles neuronales Netz durch Gradientenabstieg zu trainieren.
«
Für neuronale Netze führen wir stochastische, parameterfreie Aktivierungsfunktionen ein, die lernbar und jedem Neuron individuell sind.
Überanpassung wird durch Verwendung einer Gauß-Prozess a-priori-Wahrscheinlichkeitsverteilung verhindert.
Das Model kann mit Unsicherheiten in seinen Eingaben umgehen und schätzt die Zuverlässigkeit seiner Vorhersagen.
Durch Verwendung von Variationsrechnung und dem zentralen Grenzwertsatz wird eine deterministische Zielfunktion hergeleitet, die es erlaubt da...
»