Von Haushaltsrobotern und autonomen Fahrzeugen

Von Thomas Gith |
Noch bis Samstag treffen sich in Hannover weltweit führende IT- und Kommunikationsunternehmen, um neueste Trends vorzustellen. Neben den großen Industrieunternehmen sind auf der "CeBIT lab" auch Forschungsinstitute vertreten, wobei in diesem Jahr unter anderem die Robotik im Fokus steht.
Auf der CeBIT lab in Halle 26 herrscht reges Treiben: Tausende Besucher laufen umher, bleiben an Ständen stehen, lassen sich neue Software und Computertechnik erklären. In der lichtdurchfluteten Halle, die fast so groß ist wie ein überdachtes Fußballstadion, gibt es auch einen kleinen Bereich für Robotik. Am Stand des Fraunhofer-Instituts für Bildauswertung etwa rotiert ein rund zweieinhalb Meter langer Roboterarm. Der ist am Boden befestigt, hat in der Mitte ein Gelenk und an der Spitze eine Kamera und einen Filzstift, erklärt Fraunhofer-Forscherin Karin Stein.

"Also hier das ist ein portraitierender Roboter. Ein Roboter, der von einem Menschen ein Bild kurz aufzeichnet und dann portraitiert. Die Aufnahme dauert nur einige Sekunden aber das Bild zu malen dann 10 Minuten etwa."

Messe-Besucher Christian Böge ist an einem Portrait interessiert: Er lässt sich von Karin Stein zu einem Hocker führen und setzt sich.

"Ich werde das jetzt machen, um mich einfach mal überraschen zu lassen, ob der das überhaupt kann. Ich hab es jetzt noch nicht gesehen und bin mal sehr gespannt."

Christian Böge rückt sein Brille zurecht, streicht sich über die dunklen, kurzen Haare und den Vollbart – und lächelt in Richtung Roboter. Los geht’s.

"Also der Arm kommt jetzt auf sie zu. So, jetzt sehen sie die kleine Kamera. Lächeln! Okay, das wars schon."

Und dann dreht sich der Roboterarm zu einer Metalltafel und fängt mit kantigen Bewegungen an zu zeichnen: Langsam entstehen die Konturen von Christian Böges Gesicht, seine Augen, seine Brille. Einige Minuten dauert es, dann ist das mit schwarzem Filzstift gezeichnete Bild fertig.

"Ja, nicht hübsch aber selten. Ich würde sagen, ich kann mich gut wiedererkennen. Die Brille ist nicht gut abgebildet worden aber trotzdem kann man eigentlich das wesentlich gut erkennen."

Für das Bild hat sich der Roboter an den Hell-Dunkel-Kontrasten im Gesicht orientiert, dadurch Konturen erkannt und diese gezeichnet. Auf die gleich Art erkennt der Roboter auch die Reflexionseigenschaften von anderen Gegenständen: Von metallenen Straßenschildern etwa, die normalerweise mit dem Roboter untersucht werden, erklärt Karin Stein.

"Sie kennen ja das, das man nachts auf einer Autobahn fährt und ganz schlecht das sieht, was da auf dem Schild drauf steht. Und wir können zum Beispiel vermessen die Reflexion eines solchen Schildes. Welches Material ist besonders geeignet und reflektiert die Schrift in ihr Augen anstatt einfach ins Feld."

Ein Roboter, der seine Umgebung automatisch analysiert und sich in ihr orientiert also. Nach dem gleichen Prinzip funktioniert auch ein futuristisch anmutendes Auto – entwickelt vom Deutschen Forschungszentrum für künstliche Intelligenz. Es besitzt einen Elektromotor, eine eiförmige Karosserie aus Glas und nur zwei Sitzen. Informatiker Timo Birnschein.

"Hier vor uns sehen wir das Exponat EO Smart Connecting Car. Und dieses Fahrzeug ist quasi designt um die Idee herum, mehrere Fahrzeuge oder Module miteinander verbinden zu können. Wir können also den Wagen in der Höhe verstellen, wir können ihn neigen, wir können einzelne Räder anheben, also sehr unterschiedliche Bewegungen ausführen mit der Idee im Kopf, das man eben am Ende das alles autonom steuern kann."

Und dann greift Timo Birnschein in die automatische Steuerung ein, lässt die Räder um 90 Grad zur Seite drehen, so dass der Wagen seitlich in eine Parklücke reinfahren kann. Der EO Smart soll möglichst flexibel sein, damit er sich selbstständig Straßen- und Geländeverhältnissen anpassen kann. Und: Mehrere Fahrzeuge sollen automatisch hintereinander angekoppelt werden – wie bei einem Zug. Einsatzmöglichkeiten lassen sich bereits vorstellen.

"Also zunächst einmal denken wir an Gated-Areas. Das bedeutet, wir möchten so was wie hier auf dem Messezentrum, die großen Fahrzeuge mit Chauffeur ersetzen durch autonome Fahrzeuge. Ich setze mich also ins Fahrzeug und kann dem Wagen Kommandos geben. Zum Beispiel fahr mich zur Halle 22, Eingang Nord. Und dann fährt mich das Fahrzeug eben genau da hin unter der Betrachtung das da Personen rumlaufen oder weitere Fahrzeuge unterwegs sind."

In einem nächsten Schritt soll der EO Smart unter anderem mit Infrarotsensoren und Kameras ausgestattet werden – damit er seine Umgebung scannen und selbstständig in ihr umherfahren kann. In etwa fünf Jahren könnten die ersten Fahrzeuge unterwegs sein, schätzt Timo Birnschein.

Etwas länger wird wohl der Praxiseinsatz von ARMAR auf sich warten lassen: Dem Haushaltsroboter, den das Karlsruher Institut für Technologie derzeit entwickelt. Kosta Schinarakis.

"ARMAR bewegt sich in seiner eigenen Küche: Hat eine Spüle, eine Anrichte, ein Kühlschrank, eine Spülmaschine. Und kann sich dank seiner Kamera und seiner Sensoren in dieser Umgebung bewegen und Objekte greifen und Objekte dann einem Nutzer übergeben."

Damit der rund 1 Meter 80 große ARMAR selbstständig handeln kann, besitzt er zwei bewegliche Metallarme, metallene Hände, zwei hervorstehende Kameraaugen und – wie unter einem Rock aus Plastik versteckt - einen fahrbaren Untersatz. Armar reagiert dabei auf Sprachbefehle.

"”Befehl: Bring me the Mulitvitamine-Juice from the Sideboard!”
"ARMAR: Going to bring the Multivitamine-Juice.”"

Und dann macht sich ARMAR an die Arbeit: Fokussiert mit seinen Kameraaugen den Mulitvitaminsaft auf der Anrichte, fährt nach vorne, streckt seine Arme etwas ungelenk aus – und scheitert.

"”The Object is to close to the fridge. I tried with my left Hand.”"

ARMAR dreht sich etwas zur Seite und versucht es erneut – diesmal klappt es fast, doch dann fällt die Saftpackung um. Für den Einsatz als Haushaltshilfe nicht wirklich überzeugend – doch noch ist ja auch alles Grundlagenforschung, sagt Kosta Schinarakis.

"Der Roboter ARMAR ist ein Forschungsprojekt. An ihm werden neue Methoden erforscht, unter anderem die Bilderkennung, die Spracherkennung, das Handeln in Umgebung, die für Menschen gemacht sind und die jetzt nicht auf einen Roboter optimiert sind. Und deshalb wird’s sicherlich noch zehn Jahre dauern, bis diese Algorithmen in eine wirtschaftliche, industrielle Anwendung übergehen können."

Und auch soziale Fragen stellen sich: Die nach der Geselligkeit eines Roboters etwa. Denn schließlich könnte es mit ihm in der eigenen Wohnung schon etwas einsam werden.


Mehr Infos im Netz:

CeBIT
Karlsruher Institut für Technologie
Mehr zum Thema