Institut für Mechatronische Systeme Forschung Forschungsprojekte
"3. Arm" - Handwerker-Kraftassistenzsystem mit adaptiver Mensch-Technik-Interaktion

"3. Arm" - Handwerker-Kraftassistenzsystem mit adaptiver Mensch-Technik-Interaktion

Team:  Dipl.-Ing. Kathrin Nülle
Jahr:  2014
Datum:  29-08-14
Förderung:  Bundesministerium für Bildung und Forschung (BMBF)
Laufzeit:  3 Jahre
Ist abgeschlossen:  ja
Weitere Informationen https://www.imes.uni-hannover.de/3armvideos

Beschreibung

 

Das Projektvorhaben widmet sich der Entwicklung eines Assistenzsystems zur Unterstützung bei Arbeiten mit schweren Elektrowerkzeugen. Grundlage ist dabei eine mechatronische Konstruktion ("3. Arm"), die am Körper des Nutzers über eine Tragekonstruktion befestigt ist. Neben der physischen Unterstützung erfüllt das System kognitive Assistenzfunktionen. Somit dient das System einerseits der Arbeitserleichterung (Reduktion der auf Arme und Schulter wirkenden Kräfte) und andererseits der Steigerung der Arbeitseffizienz und Arbeitsqualität.

Das Konsortium setzt sich aus insgesamt fünf Projektpartnern zusammen:

Das imes ist zusammen mit dem Institut für Regelungstechnik unter dem Dach des Mechatronik-Zentrum Hannover mit einem gemeinsamen Teilvorhaben beteiligt. Das Teilvorhaben widmet sich folgenden wissenschaftlichen Herausforderungen: Einerseits werden Methoden zur 3D-Lokalisierung erarbeitet, die auch unter den Randbedingungen unsicherer Modelle, Sensorabschattung und Messungen in einem bewegten Referenzsystem hochgenaue Ergebnisse liefern. Andererseits werden Konzepte erforscht, die es erlauben, eine robuste Situations- und Absichtserkennung für eine anwenderorientierte Assistenzfunktion mit Anpassung an den gewünschten/erforderlichen Unterstützungsgrad darzustellen. Die Ergebnisse finden Anwendung in einem Handwerker-Assistenzsystem, das das Arbeiten mit Elektrowerkzeugen erleichtert, die Effizienz erhöht und die Qualität verbessert. Für das Gesamtsystem "3. Arm" sollen folgende Funktionen umgesetzt werden:

  • Kraftunterstützungsfunktion mittels einer mechatronischen Konstruktion zur Lastreduktion und zur Verringerung der Ermüdung. Um eine lange Energieautonomie des Systems zu erreichen und die Zusatzbelastung des Nutzers durch das System gering zu halten, müssen sowohl das Eigengewicht des Unterstützungssystems minimiert werden (Stichwort Leichtbau) als auch die Einhaltung ergonomischer Randbedingungen sichergestellt werden.
  • Augmentierungsfunktion mittels Projektion relevanter Nutzdaten (z. B. Unterputzobjekte) und Handlungsanweisungen (z. B. Bohrlochschablone) im Arbeitsraum des Nutzers.
  • Führungsfunktion mittels Fusion proprio- und exterozeptischer Messdaten, eines haptischen Interfaces, adaptiven Regelungs- und Interaktions-Funktionen (z. B. Positionierungshilfe zur Einhaltung von Bohrlochabständen /-höhen).

Während sich das Institut für Regelungstechnik insbesondere der Kraftunterstützungsfunktion sowie der Mensch-Technik-Interaktion widmet, befasst sich das imes im Wesentlichen mit der Erforschung, Umsetzung und Implementierung der Augmentierungs- und Führungsfunktion.

Ergebnisse

Zum Einblenden von Zusatzinformationen und zur visuellen Führung von Handwerkern ist im Rahmen dieses Projekts ein mobiles und selbstlokalisierendes Augmented-Reality (AR) System entwickelt und evaluiert worden. Zur Erprobung der Augmentierungsfunktion ist ein Versuchsstand aufgebaut worden, der aus dem PicoPro-Laserprojektor von Celluon, einer Microsoft Kinect One als Kamera, dem Inertialsensor (IMU) BNO055 von Bosch mit integriertem Sensorboard, welches unterhalb des Projektors angeordnet ist, und einem eigens entworfenen Gehäuse besteht.

Um eine lagerichtige Projektion von Zusatzinformationen zu ermöglichen, wird angenommen, dass ein dreidimensionales CAD-Modell der Umgebung existiert, in dem die Positionen des Meterrisses und einzublendender Zusatzinformationen bekannt sind. Der Meterriss markiert auf Baustellen üblicherweise die Ein-Meter-Höhe und wird zur Referenzierung verwendet. Um die relative Lage der Zusatzinformation im CAD-Modell zum AR-System zu bestimmen, muss das System mithilfe der Sensorinformationen seine Position und Orientierung innerhalb der Karte bestimmen. Dieser Schritt wird Lokalisierung genannt und ist essentiell für die Augmentierungs- und die Führungsfunktion. Zur Lokalisierung des Systems in der Umgebung wurden insgesamt drei verschiedene Varianten umgesetzt und evaluiert: ein featurebasierter SLAM (Algorithmus zur gleichzeitigen Lokalisierung und Kartenerstellung) Ansatz für rgb-d Kameras mit Registrierung der Punktewolke zum CAD-Modell, die Monte-Carlo-Lokalisation basierend auf Tiefendaten mit integrierter Sensordatenfusion und einem AR-Marker-Tracking zur Evaluation des Systems. Neben der Lokalisierung wird mithilfe der Kamera- und Projektorkalibrierung die statische Transformation zwischen Projektor und Kamera sowie dessen Parameter bestimmt. Die Lage von Objekten aus dem CAD-Plan wird mittels Koordinatentransformation (durch Multiplikation der einzelnen Transformationsmatrizen) in Projektorkoordinaten umgerechnet. Anschließend wird ein Projektorbild generiert, dass eine 2D-Projektion des darzustellenden Objekts auf der Projektionsoberfläche abbildet. Das Augmented Reality System wurde in diesem Projekt nach technischen Gesichtspunkten und in eine Nutzerstudie evaluiert. Die Ergebnisse sind in zwei Publikationen veröffentlicht.

Hier geht es zu den Ergebnisvideos: Videos