Fachgebiet Neuro-Informationstechnik

Mobile Roboter

In vielen Anwendungen können sich mobile intelligente Roboter zur Orientierung nicht auf das Vorwissen über ihre Umgebung verlassen. Die Fähigkeit zur Lokalisierung in undefinierter Umgebung und die genaue Abbildung der Umgebung ist daher für mobile Roboter von entscheidender Bedeutung. Dieses Projekt befasst sich mit der Entwicklung eines mobilen Robotersystems, das in der Lage ist, in unbekannten Außenumgebungen autonom zu navigieren, um mit menschlichen Interaktionspartnern zu kooperieren. Interaktionen werden vom Roboter proaktiv initiiert, indem potenzielle Kommunikationspartner auf ihre Interaktionsbereitschaft hin analysiert werden.

Die Fähigkeiten des Roboters umfassen

  • Kartierung, Lokalisierung und Navigation in unbekannten Umgebungen
  • Bewegungsabschätzung und -verfolgung dynamischer Objekte
  • Erkennung und Identifizierung von Interaktionspartnern
  • Erfassung der Interaktionsbereitschaft durch Analyse der Körper- und Kopfhaltung sowie der Gesichtsausdrücke

 

Simultane Lokalisierung und Mapping

  • Kartierung, Lokalisierung und Navigation in unbekannten Umgebungen
  • Karte und geschätzte Position müssen robust sein, um zeitlichen Drift zu minimieren

Visualisierung des Tiago-Roboters, der eine 2D-Gitterkarte (laserbasiert) und eine 3D-Punktwolkenkarte (kamerabasiert) seiner Umgebung (ein Labor) erstellt.

 

Kollisionsvermeidung

  • Dynamische Umgebungen sind natürliche Bedingungen in Szenarien der realen Welt
  • Daher ist es von entscheidender Bedeutung, mögliche Kollisionsgefahren zu erkennen und entsprechend zu handeln

6D Rotation Representation for Unconstrained Head Pose Estimation

Abstract: In this paper, we present a method for unconstrained end-to-end head pose estimation. We address the problem of ambiguous rotation labels by introducing the rotation matrix formalism for our ground truth data and propose a continuous 6D rotation matrix representation for efficient and robust direct regression. This way, our method can learn the full rotation appearance which is contrary to previous approaches that restrict the pose prediction to a narrow-angle for satisfactory results. In addition, we propose a geodesic distance-based loss to penalize our network with respect to the manifold geometry. Experiments on the public AFLW2000 and BIWI datasets demonstrate that our proposed method significantly outperforms other state-of-the-art methods by up to 20%.
Github: https://github.com/thohemp/6DRepNet

Arxiv: https://arxiv.org/abs/2202.12555

 

 L2CS-Net: Fine-Grained Gaze Estimation in Unconstrained Environments

Abstract: Human gaze is a crucial cue used in various applications such as human-robot interaction and virtual reality. Recently, convolution neural network (CNN) approaches have made notable progress in predicting gaze direction. However, estimating gaze in-the-wild is still a challenging problem due to the uniqueness of eye appearance, lightning conditions, and the diversity of head pose and gaze directions. In this paper, we propose a robust CNN-based model for predicting gaze in unconstrained settings. We propose to regress each gaze angle separately to improve the per-angel prediction accuracy, which will enhance the overall gaze performance. In addition, we use two identical losses, one for each angle, to improve network learning and increase its generalization. We evaluate our model with two popular datasets collected with unconstrained settings. Our proposed model achieves state-of-the-art accuracy of 3.92 and 10.41 on MPIIGaze and Gaze360 datasets, respectively.
Github: https://github.com/Ahmednull/L2CS-Net
Arxiv: https://arxiv.org/abs/2203.03339

Publikationen

 

Kontakt:

Thorsten Hempel, Marc-André Fiedler, Ayoub Al-Hamadi, Magnus Jung, Basheer Al-Tawil

Letzte Änderung: 13.06.2024 - Ansprechpartner: Webmaster