Sprunghaft
Die ETH Zürich forscht seit Jahren im Bereich der Robotik und intelligenten Systeme an Lösungen, die autonom in geschlossenen Räumen agieren können und hat hierfür mit dem „Autonomous Systems Lab“ ein eigenes Labor. In vielen Master- und Bachelorarbeiten konnten bereits unterschiedliche Lösungen präsentiert werden, wie beispielsweise der schlangenartige Suchroboter namens „traloc“. Die Kunst der Forschung ist es jedoch, sich nicht auf dem Erreichten auszuruhen, sondern sich mit anderen Herangehensweisen neu zu erfinden, um so eine Basis für eventuell bessere Lösungen für das gleiche Problem zu schaffen. So wurde mit „Entwicklung eines Roboters mit einer maximalen Mobilität und Manövrierbarkeit im Indoor-Bereich“ ein Thema vorgegeben, welches sich zwar bekannt anhörte, aber dennoch anders war. Die Aufgabenstellung beinhaltete zusätzlich, dass der Roboter erstens Treppen überwinden, zweitens auf der Stelle wenden und drittens durch ein kompaktes Design auch enge Räume erreichen können sollte.
Neun Studenten fanden sich zusammen und gründeten ein Team mit dem Namen „Ascento“; ein Hinweis auf das Überwinden der Treppen. Als technische Basis entschied sich das Team für ein auf zwei Beinen balancierendes System mit Rädern. Damit sollten ein kompaktes Design und das Wenden auf engstem Raum möglich sein. Bleibt noch ein Problem übrig: Wie kann man eine Treppe auf zwei Rädern überwinden? Per Sprung! Was sich leicht gesagt hatte, erwies sich in Verbindung mit dem balancierenden System als größte Herausforderung, da kaum vergleichbare Roboter existierten und das Team deshalb bezüglich Sprungdynamik komplettes Neuland betrat.
Auch mit dem Sprung alleine ist es nicht getan. Um sich in unbekanntem Terrain autonom bewegen zu können, benötigt der Roboter das Wissen über die eigene Umgebung inklusive vorhandener Objekte. Ein Rechner mit angeschlossenen Sensoren und High-End Kameras, so der Plan des Teams, sollen das bewerkstelligen. Genauer gesagt, zwei Industriekameras agieren als Stereokamerapaar und erfassen die Umgebung dreidimensional. Da im Katastrophenfall bei zerstörten Objekten jedoch kein Kartenmaterial vorhanden ist, muss der Roboter gleichzeitig seine Position bestimmen als auch eine Karte erstellen können – ein typisches Henne-Ei-Problem.
Dieses Problem kommt im „Alltag“ häufiger vor, als man denkt: Mähroboter, Saugroboter, Luftüberwachung mit unbemannten Drohnen, Landfahrzeuge in der Raumfahrt, Riffüberwachung, die Erforschung von Minen, etc. Aus diesem Grund haben sich viele Wissenschaftler mit dem Problem beschäftigt und mit dem SLAM-Algorithmus (Simultaneous Localization and Mapping) die Möglichkeit geschaffen, simultan Positionen zu bestimmen und Karten zu erstellen. SLAM in Verbindung mit den Kameras und einer inertialen Messeinheit (IMU) zur Bewegungsdetektion ermöglichte es den Studenten der ETH Zürich, den Roboter im Raum anhand visueller Daten zu lokalisieren. Die Kameras zeichnen ferner die Umgebung des Roboters in Form von „Sparse Maps“, also digitale Karten, auf und verzeichnen darin vereinzelte markante Orientierungspunkte. Dank diesen ist wiederum ein Wiedererkennen bereits befahrener Strecken möglich.
Als Kameras nutzen die Studenten zwei mvBlueFOX-MLC200wG Industriekameras mit USB 2.0 Schnittstelle. Die kompakten Kameras konnten, da sie kaum Platz einnahmen, einfach integriert werden. Über die digitalen Schnittstellen konnte eine gleichzeitige (Stereo-)Aufnahme beider Kameras gewährleistet werden. Die Auflösung von 752 x 480 Pixeln, die Bildwiederholrate von 93 Bildern pro Sekunde gemeinsam mit dem Bildspeicher von 8 MPixeln schafften die Basis für ein ausreichend großes Sichtfeld und eine zuverlässige Bildaufnahme ohne Bildverluste.