In dieser Arbeit wurde die audio-visuelle Datenfusion beim Menschen untersucht. Mit verschiedenen Verfahren aus der Signalverarbeitung als auch mit einem kognitiven Modell zur Evidenzkombination wurden die experimentellen Ergebnisse modelliert. Zuerst wurde gezeigt, welche Methoden zur Datenfusion bei verschiedenen technischen Systemen angewendet werden. Anschließend wurden wichtige Erkenntnisse zur multimodalen Signalverarbeitung bei biologischen Systemen dargestellt. In einer Computersimulation wurde untersucht, welche statistischen Kovariationen im auditiven und visuellen Kanal bei typischen Relativbewegungen zwischen einem Beobachter und mehreren Objekten auftreten. Das sich dabei ergebende Muster war von der Relativbewegung zwischen Beobachter und Objekten in seiner Struktur unabhängig und zeigte eine statistische Redundanz bei gleich sinnigen Stimuluskombinationen. Die Hypothese, dass die menschliche Signalverarbeitung an dieses spezielle Muster angepasst ist, wurde in den Detektionsexperimenten überprüft. Das erste Experiment war eine Diskriminanzschwellenmessung mit einem sich in der Größe verändernden Quadrat und einem sich in der Amplitude ändernden 1 kHz Ton. Im zweiten Experiment wurden die aus den ersten Experiment verwendeten Stimuli gegen einen Tigerkopf und ein Tigergebrüll ausgetauscht, um den Einfluss der Stimulusart auf die Wahrnehmungsleistung zu testen. Das nachfolgende Experiment bestand aus einer Absolutschwellenmessung mit einer seitlichen, globalen, nicht lokalisierbaren Bewegung mit abstrakten Stimuli. Die Ergebnisse zeigen, dass die Stärke der Datenfusion von der statistischen Kovariation der physikalischen Signale beeinflusst wird und von der Kohärenz der Stimuli abhängig ist. Bei der Modellierung der Datenfusion konnte mit der Dempster-Shafer-Methode eine bessere Vorhersage der Daten erreicht werden als mit dem hybriden Modell aus Wahrscheinlichkeitssummation und linearer Summation. Bei den beiden Prädiktionsexperimenten wurde die Präzision der Vorhersage über das Auftauchen eines bewegten lokalisierbaren Stimulus an einer bestimmten Position gemessen. Die gemessenen Fusionseffekte zeigten deutliche Unterschiede. Wenn die Unsicherheit der Stimuli erhöht wurde, war der Fusionseffekt deutlich stärker als bei den stark überschwelligen Stimuli. Bei der Modellierung des Fusionseffekts konnte mit dem Minimum-Modell eine bessere Vorhersage der Daten erreicht werden als mit einer gewichteten Mittelwertschätzung.
«
In dieser Arbeit wurde die audio-visuelle Datenfusion beim Menschen untersucht. Mit verschiedenen Verfahren aus der Signalverarbeitung als auch mit einem kognitiven Modell zur Evidenzkombination wurden die experimentellen Ergebnisse modelliert. Zuerst wurde gezeigt, welche Methoden zur Datenfusion bei verschiedenen technischen Systemen angewendet werden. Anschließend wurden wichtige Erkenntnisse zur multimodalen Signalverarbeitung bei biologischen Systemen dargestellt. In einer Computersimulatio...
»