Es muss sichergestellt werden, dass die eingesetzten autonomen Fahrsysteme so robust, zuverlässig und sicher wie möglich sind. Die meisten Forschungsarbeiten konzentrieren sich heute auf das autonome Fahren im Fahrzeug. Dieser Ansatz ist von Natur aus schwach gegenüber Verdeckungen. Kooperatives Fahren, bei dem Fahrzeug- und Infrastruktursensoren kombiniert werden, mildert diese Schwäche. Die Kamera-LiDAR-Fusion wird eingesetzt, um die Schwächen der einzelnen Sensormodalitäten auszugleichen. Dies erhöht jedoch die zu verarbeitende Datenmenge. Daher ist es notwendig, eine Fusionsmethode zu finden, die den besten Kompromiss zwischen Genauigkeit und Geschwindigkeit bietet. Aus diesem Grund wird in dieser Arbeit eine tiefe, kooperative Kamera-LiDAR-Fusionsmethode in einer einheitlichen Vogelperspektive zur 3D-Objekterkennung vorgeschlagen. Außerdem wurde ein neuer TUMTraf Cooperative Dataset erstellt. Die vorgeschlagene kooperative multimodale Methode bietet die beste Leistung im Vergleich zu allen anderen Kombinationen, die nicht alle Kameras und LiDARs sowohl am Fahrzeug als auch an der Infrastruktur verwenden, für den TUMTraf Cooperative Dataset. Die vorgeschlagene Methode erweist sich auch im reinen Infrastruktur-, Kamera-LiDAR-Fusionsmodus als besser als die InfraDet3DMethode für den TUMTraf-Kreuzungsdatensatz. Schließlich gibt diese Arbeit Empfehlungen zur weiteren Verbesserung der vorgeschlagenen Methode in der Zukunft.
«
Es muss sichergestellt werden, dass die eingesetzten autonomen Fahrsysteme so robust, zuverlässig und sicher wie möglich sind. Die meisten Forschungsarbeiten konzentrieren sich heute auf das autonome Fahren im Fahrzeug. Dieser Ansatz ist von Natur aus schwach gegenüber Verdeckungen. Kooperatives Fahren, bei dem Fahrzeug- und Infrastruktursensoren kombiniert werden, mildert diese Schwäche. Die Kamera-LiDAR-Fusion wird eingesetzt, um die Schwächen der einzelnen Sensormodalitäten auszugleichen. Die...
»