Die Anthropomorphismus-Falle

Nicht nur in Japan wird an der Entwicklung hochgradig menschenähnlicher Roboter gearbeitet. Um sich im Alltag durchzusetzen, steht ihnen allerdings etwas im Weg: Sie sind gruselig.

Von Dr. Martina Mara (09/2016)

Im Wochenendhaus meiner Tante kam mir kürzlich folgender Dialog zu Ohren: "Ist er eigentlich schon fertig?" fragte die Tante. "Ja, er schläft schon, dort im Eck", deutete meine Großmutter in Richtung eines dunkleren Winkels im Garten. "Brav", resümierten sie. Es dauerte einen längeren Moment, bis ich begriff, dass die beiden über den Rasenroboter sprachen. Dieser hatte gerade eben seine Mäh-Tour beendet und ein hübsch gestutztes Gartenquadrat hinterlassen. Ich musste schmunzeln darüber, wie sehr der Roboter vermenschlicht wurde. Ein schwarz-grüner Kasten auf zwei Rädern – und doch konnte er "schlafen" und war "brav".

In leblosen Objekten allerhand Lebendiges zu sehen, das kommt längst nicht nur in meiner Familie vor. Anthropomorphismus wird diese Zuschreibung menschlicher Eigenschaften und Bedürfnisse auch genannt. Ein hochgradig alltägliches – eben menschliches – Phänomen: Millionenfach erhalten Autos Spitznamen, werden Handys gestreichelt oder Computer als launisch beschimpft. Gerade wenn, wie bei dem Staubsauger-Roboter Roomba oder dem Rasenroboter, auch noch autonome Bewegung im Spiel ist, entsteht schnell der Eindruck intentionalen Handelns.

Mit dem Eintritt digitaler Medien in unser Leben hat die Neigung zum Anthropomorphisieren allerdings nur wenig zu tun. Bereits im Jahr 1944 führten die Psychologen Fritz Heider und Marianne Simmel ein spannendes Experiment zur Wahrnehmung sozialer Muster bei einfachen geometrischen Figuren durch. Sie präsentierten einen Zeichentrickfilm, in dem sich ein kleines Dreieck, ein größeres Dreieck und ein Kreis in unterschiedlichen Weisen zueinander bewegten. Nach der Vorführung sollten Studierende beschreiben, was sie im Film gesehen hatten. Der Großteil von ihnen schilderte dabei nicht etwa die zweidimensionalen Positionsänderungen der Figuren, sondern begab sich sofort auf die Ebene sozialer Interaktionen, Motive und Ziele. Und so handelten die Nacherzählungen der Studierenden überwiegend von einer Liebesbeziehung zwischen dem kleinen Dreieck und dem Kreis, die vom großen Dreieck auf perfide Weise torpediert wurde.

Es braucht also gar nicht viel, um in Objekten so etwas wie eine Seele wahrzunehmen. Und doch wollen sich einige Robotiker mit solch simplem Anthropomorphismus nicht zufriedengeben. Sie arbeiten an Maschinen, die auch menschlich aussehen sollen – in Einzelfällen sogar so lebensecht, dass man sie mit realen Personen verwechseln könnte. Roboter mit Silikonhaut, Kunsthaar und Händen, deren Finger selbst im Standby-Modus ganz leicht vor sich hin vibrieren, um die natürlichen Mikrobewegungen von uns Menschen bestmöglich zu imitieren. Bekannt ist das Konzept der androiden Menschmaschine ja aus Filmen wie "Blade Runner" und "Ex Machina" oder durch die Figur des Commander Data in "Star Trek". Und rein optisch sind existierende Prototypen heute gar nicht mehr weit weg davon. Die sogenannten Geminoids, mit denen Robotik-Professor Hiroshi Ishiguro ferngesteuerte Doppelgänger von sich selbst und anderen Personen schafft, sind ein anschauliches Beispiel dafür. Genauso wie die Roboterdamen Kodomoroid und Otonaroid, die im japanischen Technologiemuseum Miraikan als Guides arbeiten.

Nun stellt sich die Frage: Welcher Antrieb steckt eigentlich hinter der Entwicklung hochgradig menschenähnlicher Roboter? Darauf habe ich bis dato unterschiedliche Antworten erhalten:

  • Weil die intuitivste und empathischste Form der Kommunikation die zwischenmenschliche ist und man diese nur mit Androiden nachbilden könne.
  • Weil unsere Arbeits- und Wohnumwelt auf die menschliche Körperform ausgerichtet ist und nur Roboter in dieser Gestalt ähnlich gut in ihr navigieren und für den Mensch gemachte Werkzeuge benutzen können.
  • Weil die Erforschung künstlich-menschenähnlicher Intelligenz im Sinne moderner Embodiment-Ansätze einen entsprechenden physischen Körper bedingt.

Aus einer technischen Perspektive mag das alles relevant und richtig sein. Und man muss der Finesse so manchen Roboterlabors auch wirklich Hochachtung aussprechen. Aus dem Blickwinkel der Psychologie ist es aber nicht ganz so einfach. Nur weil ein Roboter in Erscheinungsbild und Verhalten sehr nah an seinen menschlichen Interaktionspartnern gebaut ist, wird er nicht automatisch besonders gern gemocht. Im Gegenteil: Es zeigt sich, dass hochgradig menschenähnliche Roboter zwar auf reges Interesse und Faszination, genauso aber auf Ablehnung stoßen, ja, häufig sogar als unheimlich beschrieben werden. In der Forschung wird dieses Gruselphänomen unter dem Terminus "Uncanny Valley" (Unheimliches Tal) diskutiert.

Die Uncanny-Valley-Hypothese, erstmals 1970 von Masahiro Mori skizziert, besagt Folgendes: Solange wir uns im Spektrum einer generell niedrigen Menschenähnlichkeit befinden, haben wir mit steigendem Realismus kein Problem: Ein Roboter mit angedeutetem Kopf- und Rumpfbereich – Typ R2-D2 etwa – führt zu positiverer Resonanz als ein industrieller Schwenkarm. Wird ein Level sehr hoher, aber nicht perfekter Menschenähnlichkeit erreicht, sinkt die Akzeptanz jedoch im Sturzflug ab: Wachsfiguren, Prothesen, Frankensteins Monster und Androide landen hier im besagten unheimlichen Tal. Erst wenn ein Roboter durch bravouröse Menschengleichheit vollends täuschen könnte, würde er das Tal überspringen und wiederum hohe Akzeptanzwerte erreichen. Von diesem Bestreben hat allerdings bereits Mori selbst abgeraten.

Empirische Studien deuten darauf hin, dass hinter dem Grusel ein Kategorisierungsproblem steckt. Unser Gehirn tut sich schwer, das widersprüchliche Gegenüber einer Schublade zuzuordnen (Mensch? Computer? Etwas ganz anderes?) und dementsprechend eine Vorhersage über sein zu erwartendes Verhalten zu treffen. Dazu kommt die alte Angst vor dem Ersetztwerden durch die Maschine – sei es aus einer ethischen oder ökonomischen Sorge –, die im Angesicht des Androiden Gestalt annimmt. Das heißt nicht, dass der Uncanny-Valley-Effekt nicht reduziert werden könnte: Jüngere Forschungsergebnisse zeigen, dass die richtige Einführung eines Androiden, nonverbale Verhaltensstrategien oder bloße Gewöhnung zu höherer Akzeptanz führen können. Doch macht das in der Breite auch Sinn, wo klar als Maschinen identifizierbare Roboter doch ohnedies besser ankommen?

Ich will nicht abstreiten, dass Androide in manchen Einsatzfeldern durchaus ihren Platz haben: Als Trainingsgeräte in der Medizin etwa, im Kunst- und Unterhaltungsbereich, unter Umständen auch im Sexgewerbe. Geht es aber um andere Arten "sozialer" Roboter, die im Alltag der Zukunft Assistenz- und Transportaufgaben übernehmen sollen, die in Firmenfoyers, Krankenhäusern, in Haushalten und auf Straßen auftauchen sollen, dürften sich allzu menschengleiche Designs auf lange Sicht kaum durchsetzen. Die Idee mag naheliegend sein und im Sci-Fi-Kino gut funktionieren. In der Realausführung wird sie aber deutlich skeptischer aufgenommen. Und abgesehen davon wissen wir spätestens seit unserem Umgang mit Rasenroboter und Co.: Für eine empathische Interaktion zwischen Mensch und Maschine braucht es gar kein künstliches Abbild unserer Selbst.

Über die Autorin

Credit: Dominik Gigler

Dr. Martina Mara ist Roboterpsychologin. Am Ars Electronica Futurelab in Linz untersucht sie, wie Roboter gestaltet werden können, damit wir Menschen uns mit ihnen wohlfühlen und autonome Maschinen nicht als Bedrohung erleben. In ihrer Kolumne "Schöne neue Welt" schreibt sie daneben wöchentlich über die sozialen Implikationen neuer Technologien.

Mehr zum Thema

„Wir sind ‘Robotic Immigrants‘“ [Interview]

"Wir sind 'Robotic Immigrants'"

Interview mit Dominik Bösl, Corporate Innovation Manager der KUKA Group, über den Alltag in einer robotisierten, automatisierten Zukunft.

„Wir sind ‘Robotic Immigrants‘“ [Interview]

"Wir sind 'Robotic Immigrants'"

Interview mit Dominik Bösl, Corporate Innovation Manager der KUKA Group, über den Alltag in einer robotisierten, automatisierten Zukunft.

Künstliche Intelligenz: K.O. durch KI

Künstliche Intelligenz: K.O. durch KI

Die Angst vor der Machtübernahme durch Maschinen ist ein Produkt der Science-Fiction-Kultur – und verstellt den Blick auf die wahren Potenziale Künstlicher Intelligenz.

Empfehlen Sie diesen Artikel!