Udvidet returret til d. 31. januar 2025

Visuelle Programmierung von Greiffertigkeiten durch Demonstration im Kontext eines Serviceroboters - Markus Huser - Bog

Bag om Visuelle Programmierung von Greiffertigkeiten durch Demonstration im Kontext eines Serviceroboters

Objekte greifen zu können ist eine grundlegende Fertigkeit für einen Serviceroboter. Sie ist entscheidend für viele Manipulationsaufgaben sowie für die Interaktion mit der Umgebung. Die Programmierung solcher Greiffertigkeiten mittels klassischer Roboterprogrammierung ist für einen Menschen nicht intuitiv und verlangt Expertenwissen. In einem Serviceroboterszenario, das robustes und adaptives Verhalten des Serviceroboters in einer nicht-statischen Umgebung erfordert, wie z.B. in einem Büroszenario, ist es jedoch wichtig, die Interaktion zwischen Roboter und Mensch und damit auch die Programmierung von Greiffertigkeiten zu vereinfachen. Menschen können komplexe Bewegungsabläufe durch die Beobachtung eines Instrukteurs erlernen, der die Bewegung mehrmals wiederholt. Basierend auf dieser Beobachtung wird in dieser Arbeit ein Ansatz zur Programmierung von Greiffertigkeiten durch Demonstration für einen Serviceroboter mit visuellen Sensoren vorgestellt, der dem Prinzip der Programmierung durch Demonstration folgt. Der entwickelte Ansatz ist nicht nur intuitiv und schnell einsetzbar, sondern die Genauigkeit der rekonstruierten Bewegungsabläufe konvergiert gegen die intendierte Bewegung des Instrukteurs. Das vorgeschlagene Verfahren wurde auf der experimentellen Forschungsplattform TASER des Arbeitsbereiches TAMS der Universität Hamburg implementiert. TASER ist ein mobiler Serviceroboter mit multimodalen Fähigkeiten zur Interaktion zwischen Mensch und Maschine. Der Ansatz wurde sowohl auf synthetisch generierten Bewegungssequenzen als auch auf realen Sensordaten evaluiert, die vom Serviceroboter TASER in einem alltäglichen Szenario aufgenommen wurden. Ground-Truth Daten wurden mit Hilfe synthetischer Bewegungssequenzen zur quantitativen Messung der Abweichung zwischen intendierter Trajektorie des Instrukteurs und rekonstruierter Trajektorie des Roboters generiert. Abhängig von der Anzahl der Demonstrationen und der Art der Trajektorie wird gezeigt, dass die intendierte Trajektorie bis auf wenige Millimeter rekonstruiert werden kann. Reale Sensordaten verwendend, wurden mehrere Greiffertigkeiten durch einen menschlichen Instrukteur programmiert, die anschließend autonom durch den Serviceroboter angewandt wurden und so das erfolgreiche Greifen der korrespondierenden Objekte ermöglichten.

Vis mere
  • Sprog:
  • Tysk
  • ISBN:
  • 9783849537494
  • Indbinding:
  • Hardback
  • Sideantal:
  • 252
  • Udgivet:
  • 26. marts 2013
  • Størrelse:
  • 254x178x16 mm.
  • Vægt:
  • 653 g.
  • 2-3 uger.
  • 5. december 2024

Normalpris

  • BLACK NOVEMBER

Medlemspris

Prøv i 30 dage for 45 kr.
Herefter fra 79 kr./md. Ingen binding.

Beskrivelse af Visuelle Programmierung von Greiffertigkeiten durch Demonstration im Kontext eines Serviceroboters

Objekte greifen zu können ist eine grundlegende Fertigkeit für einen Serviceroboter. Sie ist entscheidend für viele Manipulationsaufgaben sowie für die Interaktion mit der Umgebung. Die Programmierung solcher Greiffertigkeiten mittels klassischer Roboterprogrammierung ist für einen Menschen nicht intuitiv und verlangt Expertenwissen. In einem Serviceroboterszenario, das robustes und adaptives Verhalten des Serviceroboters in einer nicht-statischen Umgebung erfordert, wie z.B. in einem Büroszenario, ist es jedoch wichtig, die Interaktion zwischen Roboter und Mensch und damit auch die Programmierung von Greiffertigkeiten zu vereinfachen.
Menschen können komplexe Bewegungsabläufe durch die Beobachtung eines Instrukteurs erlernen, der die Bewegung mehrmals wiederholt. Basierend auf dieser Beobachtung wird in dieser Arbeit ein Ansatz zur Programmierung von Greiffertigkeiten durch Demonstration für einen Serviceroboter mit visuellen Sensoren vorgestellt, der dem Prinzip der Programmierung durch Demonstration folgt. Der entwickelte Ansatz ist nicht nur intuitiv und schnell einsetzbar, sondern die Genauigkeit der rekonstruierten Bewegungsabläufe konvergiert gegen die intendierte Bewegung des Instrukteurs.
Das vorgeschlagene Verfahren wurde auf der experimentellen Forschungsplattform TASER des Arbeitsbereiches TAMS der Universität Hamburg implementiert. TASER ist ein mobiler Serviceroboter mit multimodalen Fähigkeiten zur Interaktion zwischen Mensch und Maschine.
Der Ansatz wurde sowohl auf synthetisch generierten Bewegungssequenzen als auch auf realen Sensordaten evaluiert, die vom Serviceroboter TASER in einem alltäglichen Szenario aufgenommen wurden. Ground-Truth Daten wurden mit Hilfe synthetischer Bewegungssequenzen zur quantitativen Messung der Abweichung zwischen intendierter Trajektorie des Instrukteurs und rekonstruierter Trajektorie des Roboters generiert. Abhängig von der Anzahl der Demonstrationen und der Art der Trajektorie wird gezeigt, dass die intendierte Trajektorie bis auf wenige Millimeter rekonstruiert werden kann. Reale Sensordaten verwendend, wurden mehrere Greiffertigkeiten durch einen menschlichen Instrukteur programmiert, die anschließend autonom durch den Serviceroboter angewandt wurden und so das erfolgreiche Greifen der korrespondierenden Objekte ermöglichten.

Brugerbedømmelser af Visuelle Programmierung von Greiffertigkeiten durch Demonstration im Kontext eines Serviceroboters



Find lignende bøger
Bogen Visuelle Programmierung von Greiffertigkeiten durch Demonstration im Kontext eines Serviceroboters findes i følgende kategorier:

Gør som tusindvis af andre bogelskere

Tilmeld dig nyhedsbrevet og få gode tilbud og inspiration til din næste læsning.