Vertrau mir!
Roboter können schon laufen, sprechen und den Tisch abräumen. Nun sollen sie menschlich werden.
QT-1 ist ein Roboter. Er sitzt unbeweglich vor zwei Ingenieuren. Die beiden haben ihm gerade eröffnet, dass sie ihn vor einer Woche gebaut haben. Die Maschine ist irritiert. Sie sagt: „Dass Sie mich hergestellt haben sollen, scheint reichlich unglaubhaft.“ Warum? „Nennen Sie es Intuition“, antwortet QT-1. „Bis jetzt habe ich keine anderen Gründe. Ich beabsichtige aber, mir die ganze Sache mithilfe meiner Vernunft klarzumachen.“
Die Szene stammt aus Isaac Asimovs Kurzgeschichte „Vernunft“. QT-1 ist die erste Maschine in Asimovs Roboter-Erzählungen, die etwas über sich selbst wissen möchte. Der Roboter kommt durch Beobachtung und Selbstreflexion zu einem naheliegenden Schluss: Es widerspreche allem logischen Denken, dass Menschen ihn geschaffen haben könnten. „Schauen Sie sich doch selber an! Das Material, aus dem Sie hergestellt sind, ist weich und schlaff, ihm fehlt alle Dauerhaftigkeit und Stärke.“ Menschen seien ein lächerlicher Notbehelf, er hingegen ein vollendetes Produkt.
In der Wirklichkeit sind solche Dialoge zwischen Maschine und Mensch unvorstellbar. Dennoch glauben viele Forscher, die Zeit sei gekommen, um das Verhältnis grundsätzlich zu überdenken. Hod Lipson, Robotiker am Creative Machines Lab (CCML) der Universität Cornell, plädierte bereits 2007 für einen Paradigmenwechsel in der künstlichen Intelligenz (KI). Man sei schon sehr weit gekommen, schrieb er in einem Beitrag zu dem Sammelband „50 Jahre KI“. Aber immer hatte er das Gefühl, dass etwas fehlte: die Neugier. „Das passive Suchen nach Mustern in Daten ist keine“, so Lipson. Ihm schweben Roboter vor, die ihre Umwelt beharrlich erforschen, um unentwegt Informationen daraus zu extrahieren – wie ein Kind, das ständig Fragen stellt. Aus passiv lernenden sollen neugierige, kreative Maschinen werden. Bevor sich allerdings Roboter von Befehlsempfängern zu intelligenten Partnern wie QT-1 entwickeln, muss der Mensch einen intuitiven Zugang zu ihnen finden.
Im Humanoid Robots Lab der Universität Freiburg wacht gerade der kniehohe Nao auf. Er ist in seiner Entwicklung weit von QT-1 entfernt. Sein Körper ähnelt einem Kind in American-Football-Montur. Der Kleine setzt einen Fuß vor den anderen und schwingt seine Arme eifrig mit. Seine Motoren brummen. Sein ovaler Kopf blickt eilig nach links, nach rechts, nach unten. Er scheint seine Umgebung zu beobachten.
Hinter ihm steht Maren Bennewitz und sieht dem Treiben gelassen zu. Die Informatikerin leitet als Juniorprofessorin das Labor. Sie hat Mathematik studiert, aber die war ihr zu theoretisch, also wechselte sie zur Informatik. Die Neugierde trieb sie zur künstlichen Intelligenz und zur Robotik. Sie wollte wissen, was die von ihr entwickelten Algorithmen in Maschinen auslösen – ob die Humanoiden so menschlich werden können wie in Asimovs Geschichten.
Wozu sollte das überhaupt gut sein? Der japanische Androiden-Entwickler Hiroshi Ishiguro brachte es 2006 in der Zeitschrift „Scientific American Mind“ auf den Punkt: „Mein Gehirn ist nicht dafür geschaffen, auf einen Bildschirm zu schauen, und meine Finger nicht, um auf einer Tastatur herumzutippen. Mein Körper ist für die Kommunikation mit anderen Menschen gemacht. Das ideale Medium, um mit einem Computer zu kommunizieren, ist ein humanoider Roboter – was im Grunde genommen ein Computer mit einer menschenähnlichen Schnittstelle ist.“
Es ist also Absicht, dass uns Naos Kopfbewegungen vertraut erscheinen. Wir wissen intuitiv, was er gerade macht, obwohl Nao reine Technik ist – ein Produkt der französischen Firma Aldebaran Robotics. Er ist 57 Zentimeter groß und wiegt sechs Kilogramm. Im Kopf stecken ein 1,6-Gigahertz-Intel-Prozessor, zwei hochauflösende Kameras, vier Mikrofone, zwei Lautsprecher, Sonar- und Infrarotsensoren. Wenn Nao den Kopf bewegt, sucht er nach Hindernissen und erstellt eine dreidimensionale Karte der Umgebung. Mit den Kameras kann er nur sehen, was sich vor seinem Kopf befindet – ähnlich wie menschliche Augen nur einen Winkel von etwa 180 Grad erfassen.
Robotiker müssen bei jeder Bewegung von Kopf, Armen und Beinen ihrer Geschöpfe bedenken, dass sie das Gleichgewicht der Maschine stören. Dank der von Motoren und Aktoren gesteuerten Gelenke hat Naos Körper 25 Freiheitsgrade. Die Zahl beschreibt die voneinander unabhängigen Bewegungsmöglichkeiten. Ein Gelenk, das sich nur horizontal bewegen lässt, hat einen Freiheitsgrad von eins. Der menschliche Körper hat mehr als 1 000. „Alles, was Nao beim Gehen macht, dient auch einem funktionellen Zweck“, sagt Bennewitz. Wenn er seine Arme bewegt, sieht das menschlich aus. Er gleicht damit aber auch Gewichtsverlagerungen aus.
Während Nao durch das Labor zuckelt, führt Maren Bennewitz ein Video vor. Es zeigt den Studenten Jonas Könemann mit Kabeln und Sensoren an seinem Körper. Nao steht daneben auf einem Tisch. Könemann führt fließende Bewegungen aus, als trainierte er Thai Chi. Der Roboter macht sie fast in Echtzeit nach. Er fällt dabei kein einziges Mal um.
Die Sensoren erfassen Daten an Könemanns Gelenken. Über die sogenannte inverse Kinematik ermittelt der Roboter daraus die entsprechende Stellung. Er geht von der stabilen Fußposition aus und berechnet einen Gelenkwinkel nach dem anderen als Kompromiss zwischen perfekter Imitation und Standfestigkeit. „Mit dieser Methode kann uns ein Roboter nachahmen, ohne vorher seine Grenzen durch Ausprobieren erfahren zu müssen“, sagt Bennewitz.
Roboter sind per Definition mobile Maschinen, die ihre Umwelt manipulieren können. Sie suchen den kürzesten Weg zum Kühlschrank, umgehen Hindernisse, öffnen die Tür, holen ein Getränk und bringen es dem Auftraggeber. Sie räumen Geschirr vom Tisch ab, werfen Müll in die korrekte Tonne. Die Robotik hat sich lange Zeit darauf konzentriert, ihnen diese Aktivitäten beizubringen. Inzwischen meistern Roboter viele solcher Aufgaben, ohne ihre menschliche Aura zu verlieren. Die Hauptprobleme aber: Es fehlt der von Hod Lipson geforderte Forscherdrang und die Fähigkeit, sich selbstständig in eine fremde Umwelt einzufügen.
Wenn Maren Bennewitz mit dem Finger auf ein Bauklötzchen deutet, weiß Nao, dass er es nehmen soll. Zeigt sie auf eine Kommode, bringt er es auf sicherem Weg dorthin. Wenn die Ingenieurin aber möchte, dass Nao in einer unbekannten Wohnung einen Tisch abräumt und das Geschirr in die Spülmaschine stellt, versagt er. Dafür braucht der Roboter soziale Fähigkeiten.
Cynthia Breazeal, Leiterin der Personal Robots Group am MIT Media Lab in Cambridge, Massachusetts, ist eine Pionierin der sozialen Robotik. Sie kam 2001 an das Labor und sammelt seither alle Forschungsergebnisse, die sich mit verbaler und nicht verbaler Kommunikation zwischen Mensch und Maschine beschäftigen. Wie sich Roboter einer Person nähern sollen, ohne aufdringlich zu wirken; wie sie Menschen sanft an der Hand führen sollen; was Fingerzeig, Schulterzucken, Händeschütteln vermitteln; oder was Gesichtsausdrücke über Gefühle verraten. Je mehr das Verhalten des Roboters dem des Menschen ähnelt, desto intuitiver funktioniert die Zusammenarbeit.
Bei Robotern ist dieser Zusammenhang wenig erforscht. Anders im Cyberspace: Die Psychologen Jeremy Bailenson vom Virtual Human Interaction Lab der Universität Stanford und James J. Blascovich von der Universität Kalifornien in Santa Barbara beobachten das menschliche Verhalten im virtuellen Raum. Sie machten folgendes Experiment: Studenten der Universität Stanford sollten sich von einer computergesteuerten Intelligenz – einem virtuellen Agenten – neue, unpopuläre Campus-Sicherheitsrichtlinien erklären lassen, zum Beispiel die Pflicht, auf dem Campus stets einen Studentenausweis bei sich zu tragen.
Eine Tiefenkamera zeichnete die Gestik und Mimik der Probanden während des Gesprächs auf. Nach einiger Verzögerung ahmte der virtuelle Agent tatsächlich die Gestik und Mimik einiger Stundenten nach. „Wir wissen aus Studien, dass ein Mensch seinen Gesprächspartner sympathischer empfindet, wenn dieser ihn unbewusst imitiert“, sagt Blascovich. In dem Experiment befürworteten die Probanden die Regeln eher, wenn der Agent ihre Gestik und Mimik übernommen hatte. Blascovich: „Die Leute waren sogar überrascht, dass sie es nicht bemerkt hatten.“
Cynthia Breazeal macht sich die Erfahrungen aus der Virtual Reality zunutze. Sie entwickelte Nexi, einen rollenden Roboter mit großen blauen Augen. Allein durch Bewegung von Augenbrauen, Augenlidern und Mund beherrscht er ein immenses Repertoire an Gesichtsausdrücken. Forscher um den Psychologen David DeSteno von der Northeastern Universität in Boston erstellten mit Nexi eine Studie. Sie baten 86 Studenten, mit je einem Kommilitonen über alltägliche Dinge zu sprechen. Anschließend spielten diese Paare ein Spiel. Jeder bekam vier Karten im Wert von je einem Dollar. Wer seinem Spielpartner eine Karte abgab, verdoppelte ihren Wert. Wenn sich beide Teilnehmer vertrauten, gaben sie sich alle Karten, und jeder ging mit acht Dollar nach Hause. Wenn sie sich misstrauten, behielt jeder die sicheren vier Dollar.
Tatsächlich vertrauten die Spieler ihrem Gegenüber weniger, wenn sie beim Small Talk eine misstrauische Körpersprache wahrnahmen – wenn sich zum Beispiel jemand zurücklehnte oder seine Arme kreuzte. Die Forscher wiederholten den Versuch mit Nexi. Er zeigte bei einem Teil der Probanden im Gespräch die gleichen ablehnenden Gesten. Die Studenten trauten ihm beim Spiel ums Geld nicht über den Weg. „Das Experiment beweist, dass Roboter Vertrauen und soziale Bindung mit Menschen aufbauen können. Unser Bewusstsein unterstellt technischen Gebilden eine moralische Absicht“, sagt DeSteno.
Der Roboter hat nichts gegen Fremde – er versteht sie nur nicht so gut
Auch zwischen Lehrer und Schüler spielt die Körpersprache eine große Rolle. Schüler suchen zum Beispiel den Augenkontakt und heben ihre Augenbrauen, um zu signalisieren, dass sie den Lehrer unterbrechen möchten. Sie nicken, wenn sie eine Lektion verstanden haben. Cynthia Breazeal bringt ihren Robotern diese Gesten bei. Leonardo, eine weitere Kreation der Forscherin, sollte lernen, verschiedenfarbige Knöpfe in einer bestimmten Reihenfolge zu drücken. Eine Probandin machte es vor. Der Roboter folgte ihrem Blick und bestätigte durch Nicken, dass er die Aufgabe verstanden hatte. Die Probandin passte ihr Verhalten unbewusst dem Roboter an. Sie wartete mit der nächsten Lektion, bis der Roboter den Augenkontakt hergestellt hatte, wenn der ein unschlüssiges Verhalten signalisierte, etwa indem er die Augen hin und her bewegte. Damit ist erreicht, was Robotiker als intuitive Kommunikation verstehen. Die Maschine lernt durch eine natürliche Schüler-Lehrer-Beziehung.
Allerdings gibt es ein Problem: Gesichtsausdrücke und Körpersprache haben nicht überall auf der Welt dieselbe Bedeutung. Die Forscher am Hiroshi Ishiguro Laboratory (HIL) haben wegen ihrer Arbeit an Androiden ein gutes Gespür dafür. Androiden laufen immer Gefahr, bei Menschen ein unheimliches Empfinden hervorzurufen, wenn sie ihnen zu ähnlich, aber nicht ähnlich genug sind. Wissenschaftler nennen den Effekt Uncanny Valley. Horrorfans kennen das Gruselgefühl beim Anblick eines Zombies.
„Bei Basisemotionen wie Freude oder Angst wäre alles relativ einfach“, sagt Nishio Shuichi, einer der Wissenschaftler des HIL. „Aber bei den Feinheiten, die bei der alltäglichen Kommunikation unabdingbar sind, gibt es viele kulturelle Unterschiede.“ Einen davon kenne er aus eigener Erfahrung: „Ich höre oft Menschen aus westlichen Ländern sagen, dass Japaner immer freundlich lächeln“, sagt Shuichi. „Aber unsere mimische Expressivität unterscheidet sich erheblich. Für Menschen aus dem Westen ist es schwierig, sie richtig zu deuten. Das gilt umgekehrt für uns, wenn wir chinesische Mimik interpretieren.“ Es sei wichtig, dass Roboter die Gesichtsausdrücke in Beziehung zu anderen Personen in ihrem Umfeld setzen und durch Vergleiche analysieren.
Im Freiburger Labor bewegt sich Nao inzwischen in Richtung einer Holztreppe, die über eine Kurve auf eine Plattform führt. Oben steht eine Kommode, dahinter geht es über eine Rampe wieder von der Plattform herunter. Maren Bennewitz‘ Team gelang es erstmals, einen Roboter eine Wendeltreppe besteigen zu lassen. Als Nao bei seinen ersten Versuchen das Ende der Treppe erreichte, streckte er seine Arme in die Luft: Hurra, ich hab’s geschafft!
Auf der Holzterrasse hat er ein weiteres Problem zu lösen: Er soll die Tür eines kleinen Schranks öffnen. Er zieht, positioniert sich neu, weicht zurück, zieht weiter. Der Roboter möchte weder den Schrank umwerfen, noch selbst dabei umkippen. Auch das meistert Nao.
Der Traum des Forschers: Wenn er Durst hat, bringt Nao ihm ein Bier
Die Statistikabteilung des Industrieverbandes International Federation of Robotics (IFR) ermittelte, dass im Jahr 2011 rund 2,5 Millionen Service-Roboter für Haushalte verkauft wurden – allerdings hauptsächlich Staubsauger- und Reinigungsroboter, Rasenmäher- und Spielzeugroboter. Die IFR schätzt, dass zwischen 2012 und 2015 rund 15,6 Millionen weitere der menschlichen Automaten für solche Zwecke abgesetzt werden. Nao, Leonardo und Nexi werden nicht dabei sein. Auf die Frage, wann die lernfähigen, humanoiden Roboter den Markt erobern, zögert Maren Bennewitz. „Ich bin nicht sicher, ob schon in den nächsten Jahren, vielleicht in zehn Jahren. Andererseits hätte ich nicht damit gerechnet, dass ich so schnell die ersten autonomen Autos auf unseren Straßen sehen würde.“
Viel später, wenn sich Nao und seine Geschwister einmal im Haushalt eingelebt haben, werden sie vielleicht direkt mit dem Gehirn der Menschen verbunden sein. In dem Freiburger Exzellenz-Cluster BrainLinks-Brain-Tools, in dem Maren Bennewitz mitarbeitet, erforscht ein interdisziplinäres Team solche Schnittstellen: winzige Gehirnimplantate, die neurologische Signale aufzeichnen. Mit ihnen können Körperbehinderte bereits ansatzweise eine intelligente Prothese steuern. Bennewitz kann sich vorstellen, die Tools für ihre Humanoiden zu nutzen. Der Gedanke an Durst würde bei solch einer Verbindung reichen, und Nao käme mit einem Getränk um die Ecke.
Isaac Asimovs Roboter QT-1 geht in der Erzählung übrigens davon aus, dass ihn eine große Maschine geschaffen haben muss. Der Roboter nennt sie Meister und sich selbst einen Propheten. QT-1 macht fortan seine Arbeit zum Wohle des Meisters, und zwar besser als je zuvor. Die Ingenieure müssen sich mit seinen Ansichten abfinden – wie Eltern von Kindern, wenn sie erwachsen werden.
Dieser Text erschien in brand eins.