Neural networks usually require vast amounts of labeled training data. In this dissertation, we propose an approach to solve this problem: "Learning bay Association". This training schedule is suitable for any embedding learning task such as classification, domain adaptation or clustering. The key idea is to “associate” training examples for which labels are known with unlabeled examples. A novel cost function facilitates state-of-the-art results with significantly less labeled training data.
Übersetzte Kurzfassung:
Neuronale Netzwerke erfordern in der Regel große Mengen an annotierten Trainingsdaten. In dieser Dissertation stellen wir einen Lösungsansatz vor: "Assoziatives Lernen". Dieses Verfahren eignet sich für jede Aufgabe, bei der Darstellungen gelernt werden: Klassifizierung, Domänenanpassung oder Clustering. Die Kernidee ist es, annotierte Daten mit solchen ohne Beschriftung zu "assoziieren". Eine neue Kostenfunktion ermöglicht erstklassige Ergebnisse mit deutlich weniger annotierten Trainingsdaten.