Hi-Tech: Eyetracking lenkt Rollstuhl & Ein gefühlvoller Roboter

Eyetracking lenkt Rollstuhl in gewünschte Richtung

Forscher am Londoner Imperial College arbeiten an einem Rollstuhl, der sich mit Hilfe von Augensteuerung lenken lässt. Das Eyetracking-System mit zwei Kameras verfolgt die Augenbewegungen des Users und schlägt die gewünschte Richtung ein. Eine Software setzt die Augenbewegungen in Sekundenschnelle in Befehle um.

Aldo Faisal, Projektleiter: “Unsere Augen sind nicht nur der Spiegel unserer Seele, sondern auch unserer Intentionen. Wenn Sie sie sich in eine bestimmte Richtung bewegen wollen, hierhin oder dorthin, schauen Sie auf eine ganz bestimmte Weise. Und wir können ein Computersystem bauen, das unsere Augenbewegungen erkennt, auswertet und in Befehle umwandelt, um den Rollstuhl zu steuern.”

Ähnliche Lenksysteme, die die Gehirnströme von Rollstuhlfahrern auswerten, gibt es bereits. Sie sind aber komplizierter in der Anwendung, meint das Londoner Forscherteam, weil sie ein gutes Konzentrationsvermögen voraussetzen und die Anpassung an das System viel Zeit beanspruchen kann.

Eyetracking sei zudem eine relativ preiswerte Technologie, die das Leben vieler Rollstuhlfahrer verändern könnte.

Kirubin Pillay, Mitglied des Forscherteams: “Aktuelle Tracking- Systeme basieren meist auf einer Bildschirm-orientierten Anwendung. Der User blickt auf bestimmte Punkte auf dem Bildschirm. Das ist jedoch problematisch, weil er dabei nicht auf die Außenwelt achtet und in Gefahr läuft, gegen Hindernisse zu stoßen.”

Das System wurde bislang nur an Testpersonen ohne körperliche Behinderung ausprobiert, mit positiver Bilanz. Nun sollen Studien mit Rollstuhlfahrern folgen.

Ein gefühlvoller Roboter

Pepper ist humanoider Roboter und für den Einsatz an der Seite des Menschen konzipiert. Er ist nicht nur niedlich, sondern dazu imstande, Emotionen zu erkennen. Dabei helfen zwei herkömmliche Kameras, eine 3D-Kamera und vier Mikrofone im Kopf der Maschine. Die französische Firma Aldebaran hat den einfühlsamen Roboter gebaut.

Bruno Maisonnier, CEO Aldebaran: “Unsere Roboter erkennen, ob sie es mit einem positiven oder negativen Gefühl zu tun haben, so weit sind wir bereits. Der Roboter weiß, ob sein Gegenüber zufrieden ist oder nicht. Zwischen traurig oder gestresst, kann er nicht unterscheiden, aber immerhin zwischen positiv und negativ. Das eröffnet weitere Möglichkeiten. Mit der Zeit werden wir in unserem Labor oder auch in der Forschergemeinschaft die Brandbreite der Gefühle erweitern.”

Pepper ist weitgehend autonom und kann sich daheim unfallfrei zurechtfinden. Im Haushalt übernimmt er keine großen Aufgaben, dafür ist er ein geselliger Zeitgenosse. Bruno Maisonnier träumt von einem ganzen Heer von Familienrobotern.

Bruno Maisonnier, CEO Aldebaran: “Es entsteht eine echte Beziehung, aber zu einem Objekt. Das wirft die grundsätzliche Frage auf, ob wir Gefühle zu Objekten entwickeln, ob wir sie lieben können. Denn ein Roboter ist ein Objekt, eine künstliche Kreatur. Können wir Objekte lieben? Wenn wir uns anschauen, welch innige Verbindung Kinder zu Kuscheltieren haben, lautet die Antwort ja, natürlich, können wir Gefühle für ein Objekt empfinden. Aber nur, wenn es einen affektiven Hintergrund, eine gemeinsame emotionale Geschichte gibt.”

Pepper soll unter anderem in der Altenpflege und der Kinderbetreuung eingesetzt werden. Anfang 2015 soll er in Japan auf den Markt kommen und rund 1500 Euro kosten.
Dieses Video empfehlen
Jetzt einen Kommentar schreiben
 
Rollstuhl-Steuerung per Eye-Tracker gibt es schon seit einigen Jahren am Lehrstuhl für Automation der Uni Heidelberg (früher Mannheim): http://www.campus-tv.uni-mannheim.de/fileadmin/videos/rollstuhl.wmv
Kommentar abgeben Netiquette beachten!
Einloggen