• Medientyp: E-Book; Hochschulschrift
  • Titel: Robot perception for indoor navigation
  • Beteiligte: Endres, Felix [Verfasser]; Burgard, Wolfram [Akademischer Betreuer]
  • Erschienen: Freiburg: Universität, 2015
  • Umfang: Online-Ressource
  • Sprache: Englisch
  • DOI: 10.6094/UNIFR/10239
  • Identifikator:
  • Schlagwörter: Autonomer Roboter ; Maschinelles Lernen ; SLAM-Verfahren ; (local)doctoralThesis ; Hochschulschrift
  • Entstehung:
  • Hochschulschrift: Dissertation, Albert-Ludwigs-Universität Freiburg, 2015
  • Anmerkungen:
  • Beschreibung: Zusammenfassung: Roboter wurden in der Vergangenheit hauptsächlich im Bereich der Automatisierung der industriellen Fertigung eingesetzt, in Deutschland z.B. in der Automobilindustrie. Solche Roboter sind jedoch nur sehr eingeschränkt autonom -im Normalfall können sie lediglich sehr begrenzt auf ihre Umgebung reagieren und folgen einer strikten Programmroutine. Daher ist es notwendig beim Einsatz solcher Roboter die Arbeitsumgebung stark an diese anzupassen. In der industriellen Fertigung werden daher speziell strukturierte Bereiche eingerichtet, in denen Roboter am Fließband oder der Fertigungsstraße eindeutig vordefinierte Bedingungen vorfinden. So wird zum Beispiel die Position eines Werkstücks auf dem Förderband so kontrolliert, dass der Erfolg des vorprogrammierten Bewegungsablaufs garantiert werden kann.Autonome Roboter hingegen setzen ihre Sensoren ein, um ihre Umgebung wahrzunehmen und sich so ein Modell ihrer Umwelt zu verschaffen. Anhand des Modells können autonome Roboter dann Entscheidungen über ihre Aktionen treffen. Die Forschung an solchen autonomen, intelligenten Systemen hat in den letzten Jahrzehnten große Fortschritte gemacht. Besonders die Weiterentwicklung probabilistischer Verfahren hat den Erfolg im Umgang mit Sensormessungen und dem zugehörigen Messrauschen vorangetrieben. Dadurch wurden spannende neue Anwendungen wie z.B. Häfen mit automatisierter Schiffsbe- und entladung ermöglicht. In den letzten Jahren sind auch erste autonome Roboter für den nicht-industriellen Bereich auf den Markt gekommen, z.B. in Form von autonomen Staubsaugern und -wischern, Rasenmähern und Telepräsenzrobotern. Insgesamt ist davon auszugehen, dass Roboter in Zukunft immer mehr Arbeiten übernehmen können.Das Ziel dieser Arbeit ist es, die Grundlagen der Autonomie von mobilen Robotern weiter zu entwickeln. Unser Fokus liegt dabei auf Robotern, die innerhalb von Gebäuden eingesetzt werden, wie z.B. Haushaltsroboter. Eine wichtiges Fundament für einen mobilen Roboter ist die Möglichkeit in der Umgebung zu navigieren. Dazu muss sich der Roboter einerseits lokalisieren können, andererseits sollte er seine Umgebung kartieren können. Wurde der Roboter nicht im Vorfeld mit einer Karte seines Einsatzorts ausgestattet -- was gerade im Konsumentenbereich kaum möglich ist -- muss er gleichzeitig eine Karte erstellen, während er sich anhand dieser lokalisiert. Im Englischen wird dieses Problem "simultaneous localization and mapping", kurz SLAM, genannt. Die Forschung des letzten Jahrzehnts hat viele Ansätze zur Lösung des SLAM-Problems hervorgebracht. Für diese Ansätze wurden meist Laserscanner oder Kameras verwendet, um die Umgebung wahrzunehmen. Laserscanner tasten die Umgebung mit einem rotierenden Strahl ab, so dass z.B. ein horizontaler Schnitt des Gebäudes aus Sicht des Roboters vermessen wird. Aus einer Serie solcher Messungen kann mittels SLAM-Verfahren eine konsistente zweidimensionale Karte erstellt werden. Alternative können SLAM-Verfahren auch andere Sensoren wie Kameras verwenden. Bei einzelnen Kameras ist es dabei schwierig genaue metrische Informationen zu gewinnen, weswegen für SLAM häufig Stereokameras verwendet werden. Mit diesen können metrische Informationen für die Pixel durch Triangulation berechnet werden. Dazu ist es notwendig die jeweiligen Pixel einander zuzuordnen, auf die ein Punkt in den beiden Kameras projiziert wird. Dies ist gerade im Innenbereich oft problematisch, da diese Zuordnung über die Textur des Bildes geschieht. Auf einfarbigen Wänden, Decken oder auch Böden ist eine eindeutige Zuordnung daher kaum möglich. Neuartige RGB-D Kameras, die in der Unterhaltungselektronikbranche entwickelt wurden, umgehen dieses Problem, indem die Triangulation nicht zwischen zwei Bildern geschieht, sondern zwischen einem aktiv projizierten Infrarotmuster und dessen Abbildung in einer Infrarotkamera. Zusätzlich wird mit einer regulären Kamera ein Farbbild aufgenommen. In den aktuellen Modellen funktionieren die Distanzmessungen für den Bereich von ca. 0,6 bis 5m. Im Nahbereich erreichen die Distanzmessungen dabei eine Genauigkeit im Bereich weniger Millimeter, allerdings nimmt der Messfehler bedingt durch die Funktionsweise quadratisch mit der Distanz zu. Mit diesen Eigenschaften sind RGB-D Kameras besonders zum Erstellen von dreidimensionalen Umgebungsmodellen in Innenräumen geeignet.
  • Zugangsstatus: Freier Zugang