KIT | KIT-Bibliothek | Impressum | Datenschutz

Multimodal Panoptic Segmentation of 3D Point Clouds

Dürr, Fabian ORCID iD icon 1
1 Institut für Anthropomatik und Robotik (IAR), Karlsruher Institut für Technologie (KIT)

Abstract (englisch):

The understanding and interpretation of complex 3D environments is a key challenge of autonomous driving. Lidar sensors and their recorded point clouds are particularly interesting for this challenge since they provide accurate 3D information about the environment. This work presents a multimodal approach based on deep learning for panoptic segmentation of 3D point clouds. It builds upon and combines the three key aspects multi view architecture, temporal feature fusion, and deep sensor fusion.


Volltext §
DOI: 10.5445/KSP/1000161158
Veröffentlicht am 09.10.2023
Die gedruckte Version dieser Publikation können Sie hier kaufen.
Cover der Publikation
Zugehörige Institution(en) am KIT Institut für Anthropomatik und Robotik (IAR)
Publikationstyp Hochschulschrift
Publikationsjahr 2023
Sprache Englisch
Identifikator ISBN: 978-3-7315-1314-8
ISSN: 1863-6489
KITopen-ID: 1000161158
Umfang XV, 213 S.
Serie Karlsruher Schriften zur Anthropomatik / Lehrstuhl für Interaktive Echtzeitsysteme, Karlsruher Institut für Technologie ; Fraunhofer-Inst. für Optronik, Systemtechnik und Bildauswertung IOSB Karlsruhe ; 63
Art der Arbeit Dissertation
Fakultät Fakultät für Informatik (INFORMATIK)
Institut Institut für Anthropomatik und Robotik (IAR)
Prüfungsdaten 22.06.2023
Prüfungsdatum 22.06.2023
Schlagwörter Deep Learning, Panoptische Segmentierung, Semantische Segmentierung, Sensorfusion, Zeitliche Fusion, Deep Learning, Panoptic Segmentation, Semantic Segmentation, Sensor Fusion, Temporal Fusion
Relationen in KITopen
Referent/Betreuer Beyerer, Jürgen
Zöllner, Marius
KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft
KITopen Landing Page