HS Fulda auf der German Robotics Conference 2026

Lehre trifft Forschung

Nachdem die erste German Robotics Conference 2025 großen Anklang fand, lud das Robotics Institute Germany (RIG) vom 11. bis 13. März 2026 zur zweiten Ausgabe der Konferenz ein – diesmal in der Koelnmesse in Köln. Mit dabei: die Hochschule Fulda, die mit mehreren Projektteams aus Forschung und Laborpraxis aktuelle Entwicklungen in der Robotik präsentierte.

Die German Robotics Conference bringt Akteure aus Wissenschaft, Industrie, Politik und der Gründerszene zusammen. Im Mittelpunkt steht der Austausch darüber, wie sich Robotik-Innovationen schneller von der Forschung in die Anwendung überführen lassen – also die Stärkung von Innovation und Technologietransfer durch Vernetzung und Sichtbarkeit.

Die Hochschule Fulda präsentiert Robotik-Projekte aus zwei Fachbereichen

Vertreten war die Hochschule Fulda mit Teams aus dem Fachbereich Angewandte Informatik (u. a. Prof. Dr. Thomas Wiemann, Prof. Dr. Jan-Torsten Milde, Jan Kuhlmann) sowie aus dem Fachbereich Elektro- und Informationstechnik (Prof. Dr. Tobias Müller, Marius Schultheis). In einer Poster-Session stellten die Forschenden und Entwicklerinnen und Entwickler ihre Arbeiten einem Fachpublikum vor – von Navigation und 3D-Mapping bis zur Mensch-Roboter-Interaktion und Greifsystemen.

 

Im Folgenden ein Überblick über die präsentierten Innovationen.

CampusEye: Visuelle Selbstlokalisierung für Roboter auf dem Fulda Campus

Mit CampusEye untersucht das Team um Prof. Dr. Jan-Torsten Milde die visuelle Orientierungsfähigkeit autonomer mobiler Roboter (AMRs) in un- und teilstrukturierten Umgebungen. Gerade Außenbereiche gelten für AMRs weiterhin als anspruchsvoll: Uneinheitliche Oberflächen, wechselnde Lichtverhältnisse, dynamische Hindernisse sowie Interaktionen mit Menschen erhöhen die Komplexität.

Ein Campus ist dabei eine typische teilstrukturierte Umgebung – und zugleich ein realistisches Einsatzfeld, etwa für Transportaufgaben, Campusführungen oder Überwachungs- und Servicefunktionen.

Der Ansatz von CampusEye setzt bewusst auf kosteneffiziente Sensorik: Statt LiDAR, Radar oder RTK-GPS wird eine monokulare Kamera genutzt. Dabei genügt eine grobe Lokalisierung: Der Roboter navigiert reaktiv, indem er zwischen visuellen Wegpunkten „hüpft“ – ein pragmatischer Ansatz, der Robustheit und Einfachheit verbindet.

Multimodale Human-Cobot-Interaktion für kollaborative Aufgaben

Ein weiteres Projekt widmet sich der Frage, wie Roboter Menschen in variablen Arbeitsprozessen flexibel unterstützen können – der Roboter als Assistent, als „helfende Hand“. Das Team forscht und entwickelt dazu an einem innovativen Ansatz für die Mensch-Roboter-Interaktion, bei dem ein kollaborativer Roboter (Cobot) nicht nur vordefinierte Abläufe abarbeitet, sondern sich dynamisch an wechselnde Anforderungen anpasst.

Kern der Präsentation auf der Konferenz war die entwickelte Steuerungsarchitektur auf Basis von Verhaltensbäumen, erweitert um einen dynamischen „Subtree-Loader“. Damit lassen sich Teilfähigkeiten situationsabhängig kombinieren – ein wichtiger Schritt, um mit modularen Robotik-Funktionen komplexe Aufgaben flexibel und dynamisch im Zusammenspiel mit einer menschlichen Arbeitskraft abzuarbeiten.

Die Mensch-Roboter-Interaktion erfolgt über eine multimodale Benutzerschnittstelle: 

  • Sprache und Gesten als direkte Eingabekanäle 
  • Berücksichtigung von Blickrichtung und Körperhaltung zur Kontextinterpretation 

So kann der Cobot in Echtzeit auf direkte Anweisungen und auf das Verhalten der Arbeitskraft reagieren – besonders geeignet für dynamische Umgebungen, in denen Arbeitsabläufe nicht starr vorab definiert sind, sondern sich aus der jeweiligen Arbeitssituation ergeben.

Chad TSDF: Effizientere Datenstrukturen für TSDF-SLAM

Doktorand Jan Kuhlmann präsentierte mit Chad TSDF eine Methode zur Optimierung von TSDF-Mappings, beispielsweise auf Basis von Daten eines Laserscanners. Beim TSDF-Mapping (Truncated Signed Distance Field) handelt es sich um eine etablierte, effiziente 3D-Volumendarstellung zur Umgebungskartierung und Rekonstruktion in der Robotik.

Der Fokus der Arbeit liegt auf einer zentralen praktischen Herausforderung: Speicherbedarf. Ziel ist eine deutliche Reduktion des Speicherverbrauchs durch intelligentes Hashing innerhalb der zugrunde liegenden Baumstrukturen – eine Verbesserung, die insbesondere für größere Szenen und längere Einsatzzeiten relevant ist.

Mesh-basierte Costlayers für bessere Navigation in 3D-Terrain

Das Projekt von Prof. Dr. Thomas Wiemann und Team adressiert die Navigation von AMRs in komplexen Umgebungen. Viele verbreitete Navigationsverfahren gehen implizit von einer flachen Welt aus und arbeiten mit zweidimensionalen Repräsentationen. Das begrenzt die Einsatzfähigkeit deutlich, sobald Terrain nicht mehr flach ist – etwa bei Rampen, Kanten, unebenem Untergrund oder übereinanderliegenden Bereichen wie Parkhäusern oder mehrstöckigen Gebäuden.

Der Ansatz kombiniert Model Predictive Path Integral Control (MPPI) mit Cost-layered Triangle Meshes. Dadurch kann die Pfadverfolgung auf komplexem Gelände gegenüber klassischen Verfahren gezielt optimiert werden – ein Schritt hin zu AMRs, die sich sicherer und souveräner in realitätsnahen Umgebungen bewegen.

Kraftverstärkter Finger für humanoide Roboterhände: modular, kompakt, robust

Das Mechatronik-Labor des Fachbereichs Elektro- und Informationstechnik (Prof. Dr. Tobias Müller und Marius Schultheis) stellte einen funktionalen Prototypen eines modularen Fingerkonzepts für eine humanoide Roboterhand vor: A force-amplified Tendon-Pulley Finger.

Der Fokus liegt auf einer Kombination, die in der Praxis entscheidend ist: hohe Griffkraft bei kompaktem Design. Damit eröffnet der Prototyp Perspektiven für Anwendungen in Montage, Handhabung und allgemein für flexible Greifaufgaben.

Das übergeordnete Ziel des Projekts ist ein robuster, kompakter „Greifer“, der auch bei wechselnden Objekten und Aufgaben zuverlässig funktioniert – ein Baustein auf dem Weg zu praxistauglichen humanoiden Assistenzsystemen.

Fazit: Sichtbarkeit, Austausch und Transfer

Die German Robotics Conference ist eine der zentralen nationalen Plattformen, die Forschung, Anwendung und Transfer zusammenbringen. Für die Hochschule Fulda bot die Konferenz die Möglichkeit, aktuelle Arbeiten einem interdisziplinären Fachpublikum vorzustellen, Feedback zu erhalten und neue Anknüpfungspunkte für Kooperationen zu schaffen.

 

Hier geht es zur Webseite des German Robotics Institute: https://robotics-institute-germany.de/