Modellbasierte visuelle Wahrnehmung zur autonomen Fahrzeugführung (bibtex)

Copyright Notice: The papers listed below have been published and the copyrights have been transferred to the respective publishers. Therefore, these papers cannot be duplicated for commercial purposes. The following are IEEE's and SPIE's copyright notice; other publishers have similar ones.

by Michael Manz
Abstract:
Bei der Entwicklung von unbemannten Landfahrzeugen besteht eine der größten Herausforderungen in der Wahrnehmung der lokalen Umgebung. In dieser Arbeit wird daher ein Verfahren vorgestellt, dass mittels modellbasierter Wahrnehmung ein vollständig autonomes Fahren auch in schwierigem Gelände wie z. B. in Feldund Waldgebieten erlaubt. Der Schwerpunkt der Arbeit liegt auf der Schätzung der 3D-Lage, Dynamik und Form von Objekten in komplexen Umgebungsbedingungen und Wetterverhältnissen durch monokulares Sehen. Zusätzlich werden Möglichkeiten einer Fusion der visuellen Information mit den Daten eines LIDAR-Sensors auf Daten- und Merkmalsebene aufgezeigt. Grundlage der Wahrnehmung bildet der 4D-Ansatz (siehe Dickmanns [2007]) und dessen Formulierung durch einen Partikelfilter. Unter anderem werden neuartige Vorgehensweisen vorgestellt, die es ermöglichen, bekannte Systemgrenzen probabilistisch im Wahrnehmungsprozess zu berücksichtigen. Zusätzlich werden - im Gegensatz zu anderen Ansätzen - die Likelihood-Funktionen der Messung nicht mehr manuell vorgegeben, sondern es werden Techniken des überwachten Lernens eingesetzt, um geeignete Likelihood-Funktionen für alle an der Objektwahrnehmung beteiligten Merkmale zu finden. Letzteres ist insbesondere von Interesse, da dadurch das ansonsten sehr zeitaufwendige Tuning des Filter-Messmodells verkürzt und für beliebige Wahrnehmungsaufgaben automatisiert werden kann. Die Merkmalsextraktion der Objektwahrnehmung basiert dabei nicht nur auf Kantensignaturen, sondern auch auf punkt- und flächenartigen Signaturen in den Sensordaten, welche über ein räumlich-zeitliches Objektmodell miteinander fusioniert werden. Das vorgestellte Verfahren zur modellbasierten Wahrnehmung dient im Weiteren zur Lösung von zwei komplexen Wahrnehmungsaufgaben. Die erste Aufgabe besteht in der Wahrnehmung von Wegen und Kreuzungen in ländlichem Gebiet. Um für die Wahrnehmung eine möglichst reichhaltige Repräsentation der Umgebung zu generieren, werden die Daten einer beweglichen Kamera mit den Daten eines 3D-LIDAR fusioniert und zeitlich in einem farbigen Geländemodell akkumuliert. Zusätzlich werden topologische Informationen aus einer Karte zur Stützung der Kreuzungserkennung eingesetzt. Die zweite Aufgabe beschäftigt sich mit der Wahrnehmung von Fahrzeugen mit Hilfe einer beweglichen Kamera. Neben der Fahrzeugposition, die in allen sechs Freiheitsgraden geschätzt wird, werden auch Lenkwinkel und Geschwindigkeit des Fahrzeuges durch die monokulare Wahrnehmung bestimmt. Die Wahrnehmung ist auf dem Versuchsfahrzeug MuCAR-3 (Munich Cognitive Autonomous Robot Car, 3rd Generation) implementiert worden. MuCAR-3 ist somit in der Lage, vollständig autonom anderen Fahrzeugen auch in anspruchsvollem Gelände zu folgen und selbständig entlang von Wegenetzen zu navigieren.
Reference:
Modellbasierte visuelle Wahrnehmung zur autonomen Fahrzeugführung (Michael Manz), PhD thesis, Universität der Bundeswehr München, Fakultät für Luft- und Raumfahrttechnik, 2013.
Bibtex Entry:
@PhdThesis{bib:manz2013dissertation,
  author     = {Michael Manz},
  school     = {Universität der Bundeswehr München, Fakultät für Luft- und Raumfahrttechnik},
  title      = {Modellbasierte visuelle Wahrnehmung zur autonomen Fahrzeugführung},
  year       = {2013},
  address    = {Neubiberg},
  abstract   = {Bei der Entwicklung von unbemannten Landfahrzeugen besteht eine der größten Herausforderungen in der Wahrnehmung der lokalen Umgebung. In dieser Arbeit wird daher ein Verfahren vorgestellt, dass mittels modellbasierter Wahrnehmung ein vollständig autonomes Fahren auch in schwierigem Gelände wie z. B. in Feldund Waldgebieten erlaubt. Der Schwerpunkt der Arbeit liegt auf der Schätzung der 3D-Lage, Dynamik und Form von Objekten in komplexen Umgebungsbedingungen und Wetterverhältnissen durch monokulares Sehen. Zusätzlich werden Möglichkeiten einer Fusion der visuellen Information mit den Daten eines LIDAR-Sensors auf Daten- und Merkmalsebene aufgezeigt. Grundlage der Wahrnehmung bildet der 4D-Ansatz (siehe Dickmanns [2007]) und dessen Formulierung durch einen Partikelfilter. Unter anderem werden neuartige Vorgehensweisen vorgestellt, die es ermöglichen, bekannte Systemgrenzen probabilistisch im Wahrnehmungsprozess zu berücksichtigen. Zusätzlich werden - im Gegensatz zu anderen Ansätzen - die Likelihood-Funktionen der Messung nicht mehr manuell vorgegeben, sondern es werden Techniken des überwachten Lernens eingesetzt, um geeignete Likelihood-Funktionen für alle an der Objektwahrnehmung beteiligten Merkmale zu finden. Letzteres ist insbesondere von Interesse, da dadurch das ansonsten sehr zeitaufwendige Tuning des Filter-Messmodells verkürzt und für beliebige Wahrnehmungsaufgaben automatisiert werden kann. Die Merkmalsextraktion der Objektwahrnehmung basiert dabei nicht nur auf Kantensignaturen, sondern auch auf punkt- und flächenartigen Signaturen in den Sensordaten, welche über ein räumlich-zeitliches Objektmodell miteinander fusioniert werden. Das vorgestellte Verfahren zur modellbasierten Wahrnehmung dient im Weiteren zur Lösung von zwei komplexen Wahrnehmungsaufgaben. Die erste Aufgabe besteht in der Wahrnehmung von Wegen und Kreuzungen in ländlichem Gebiet. Um für die Wahrnehmung eine möglichst reichhaltige Repräsentation der Umgebung zu generieren, werden die Daten einer beweglichen Kamera mit den Daten eines 3D-LIDAR fusioniert und zeitlich in einem farbigen Geländemodell akkumuliert. Zusätzlich werden topologische Informationen aus einer Karte zur Stützung der Kreuzungserkennung eingesetzt. Die zweite Aufgabe beschäftigt sich mit der Wahrnehmung von Fahrzeugen mit Hilfe einer beweglichen Kamera. Neben der Fahrzeugposition, die in allen sechs Freiheitsgraden geschätzt wird, werden auch Lenkwinkel und Geschwindigkeit des Fahrzeuges durch die monokulare Wahrnehmung bestimmt. Die Wahrnehmung ist auf dem Versuchsfahrzeug MuCAR-3 (Munich Cognitive Autonomous Robot Car, 3rd Generation) implementiert worden. MuCAR-3 ist somit in der Lage, vollständig autonom anderen Fahrzeugen auch in anspruchsvollem Gelände zu folgen und selbständig entlang von Wegenetzen zu navigieren.},
  identifier = {urn:nbn:de:bvb:706-3218},
  keywords   = {visuelle Wahrnehmung, Datenfusion, Partikel Filter, Fahrzeugerkennung, Wegerkennung, Kreuzungserkennung, überwachtes Lernen, Mustererkennung, visuelle Objektverfolgung, autonome Fahrzeugführung},
  url        = {https://athene-forschung.unibw.de/node?id=90737},
}
Powered by bibtexbrowser