Astrid Weiss, Roboterexpertin an der TU Wien, kennt die menschlichen Ängste vor künstlichen Wesen. Im Gespräch erklärt sie zentrale Aspekte der sozialen Akzeptanz von humanoiden Robotern. Und wagt einen Blick in die Zukunft der Robotik.
Interview: Sandra Wobrazek
Zu ähnlich ist auch nicht gut
Di 11. Januar 2022
Frau Weiss, was fasziniert Sie an Robotern?
Ich habe ursprünglich Soziologie studiert und über eine Forschungsgruppe für Mensch-Computer-Interaktion an der Uni Salzburg an einem EU-Projekt über „soziale Akzeptanz humanoider Roboter“ mitgearbeitet. Schlussendlich ist es auch das Thema meiner Dissertation geworden und ich habe es so spannend gefunden, dass ich dabeigeblieben bin. Besonders interessant finde ich die Zuschreibungen, die wir Robotern geben – in der Science-Fiction ebenso wie der Wissenschaft. Der Traum von der autonomen Maschine stammt nicht erst vom postmodernen Menschen, es gibt ihn schon viel länger. Ich finde auch die Frage spannend, was den Menschen zum Menschen und die Maschine zur Maschine macht.
Ich habe ursprünglich Soziologie studiert und über eine Forschungsgruppe für Mensch-Computer-Interaktion an der Uni Salzburg an einem EU-Projekt über „soziale Akzeptanz humanoider Roboter“ mitgearbeitet. Schlussendlich ist es auch das Thema meiner Dissertation geworden und ich habe es so spannend gefunden, dass ich dabeigeblieben bin. Besonders interessant finde ich die Zuschreibungen, die wir Robotern geben – in der Science-Fiction ebenso wie der Wissenschaft. Der Traum von der autonomen Maschine stammt nicht erst vom postmodernen Menschen, es gibt ihn schon viel länger. Ich finde auch die Frage spannend, was den Menschen zum Menschen und die Maschine zur Maschine macht.
Astrid Weiss: „Roboter können nur so weit mit uns kommunizieren, wie weit wir es ihnen beibringen.“
© Luiza Puiu
Was sind die größten Erwartungen, aber auch Ängste, die Menschen bei Robotern haben?
Ich bin unter anderem auch in Industrieprojekte involviert, in denen Roboter für die Fertigung oder den autonomen Transport in Lagerhallen eingesetzt werden. Dort begegnet man vorrangig der Angst, dass durch sie Arbeitsplätze verloren gehen oder dass bestimmte Berufsprofile an Bedeutung verlieren und Berufe abgewertet werden.
Woran liegt das?
Die Forschung zielt darauf ab Mensch-Roboter-Interaktionen immer intuitiver zu gestalten und zu vereinfachen, damit weniger teure Expert_innen benötigt werden, die Roboter steuern. Zukünftig soll jeder/jede in der Produktionslinie in der Lage sein, einen Cobot (Anm. kollaborativer Roboter) zu programmieren – auch das schürt Ängste. In Nutzer_innen-Studien wird auch ein Thema angesprochen, das vor 15 Jahren noch keine Relevanz hatte: Privacy & Security. Sprich welche Daten der Roboter von mir aufzeichnet, wenn ich mit ihm interagiere, wo sie gespeichert sind und was damit geschieht.
Welche Rolle spielen Ängste im sozialen Bereich?
Es wurde, auch in EU-Forschungsprojekten, schon viel Geld in Pflegerobotik investiert. Das schürt Sorgen, dass alte Menschen nur noch abgeschoben und von Robotern gepflegt werden. Das EU-Projekt Hobbit, in das ich an der TU involviert war, hatte etwa die Zielsetzung, einen Pflegeroboter zu entwickeln, der es Menschen ermöglicht, so lange wie möglich zu Hause alt werden zu können.
Ich bin unter anderem auch in Industrieprojekte involviert, in denen Roboter für die Fertigung oder den autonomen Transport in Lagerhallen eingesetzt werden. Dort begegnet man vorrangig der Angst, dass durch sie Arbeitsplätze verloren gehen oder dass bestimmte Berufsprofile an Bedeutung verlieren und Berufe abgewertet werden.
Woran liegt das?
Die Forschung zielt darauf ab Mensch-Roboter-Interaktionen immer intuitiver zu gestalten und zu vereinfachen, damit weniger teure Expert_innen benötigt werden, die Roboter steuern. Zukünftig soll jeder/jede in der Produktionslinie in der Lage sein, einen Cobot (Anm. kollaborativer Roboter) zu programmieren – auch das schürt Ängste. In Nutzer_innen-Studien wird auch ein Thema angesprochen, das vor 15 Jahren noch keine Relevanz hatte: Privacy & Security. Sprich welche Daten der Roboter von mir aufzeichnet, wenn ich mit ihm interagiere, wo sie gespeichert sind und was damit geschieht.
Welche Rolle spielen Ängste im sozialen Bereich?
Es wurde, auch in EU-Forschungsprojekten, schon viel Geld in Pflegerobotik investiert. Das schürt Sorgen, dass alte Menschen nur noch abgeschoben und von Robotern gepflegt werden. Das EU-Projekt Hobbit, in das ich an der TU involviert war, hatte etwa die Zielsetzung, einen Pflegeroboter zu entwickeln, der es Menschen ermöglicht, so lange wie möglich zu Hause alt werden zu können.
Hobbit ist ein Hilfsroboter, der eigenständig Dinge finden, aufheben und den Nutzer:innen bringen kann
© TU Wien
Wie lassen sich diese Bedenken überwinden? Was müssen humanoide Roboter haben, um akzeptiert zu werden?
Ich verstehe unter sozialer Akzeptanz, dass sie nachhaltig in den Alltag integriert werden – sowohl im beruflichen Alltag in der Fabrik als auch im privaten zu Hause. Vor Kurzem habe ich ein Projekt mit Anki Vektor durchgeführt. Da ist ein kleiner, sozialer Roboter, der sich leider als nicht nachhaltig erfolgreich gezeigt hat. Im Rahmen einer sieben Monate dauernden Studie haben wir in verschiedenen Wiener Haushalten getestet, wie der Roboter integriert wurde – und wann der Bruch gekommen ist.
Was löst so einen Bruch aus?
Wenn ich nichts finde, was er für mich übernehmen kann, was nicht anders leichter oder effizienter machbar ist. Lange Zeit wurde vermutet, dass der Akzeptanzprozess von Robotern anders abläuft als bei anderen Technologien. Ich habe aber den Verdacht, dass er, zumindest mit dem, was bisher robotisch möglich ist, gleich abläuft wie mit anderen innovativen Technologien: Wenn ich einen Nutzen finde, wird die Technologie nachhaltig angenommen – und dann schwinden Bedenken zu Aspekten wie Privacy & Security.
Der japanische Robotiker Hiroshi Ishiguro hat täuschend echte Androiden entwickelt. Wenn man sie betrachtet, entsteht ein gewisses Unbehagen. Ist die Grenze der Akzeptanz überschritten, wenn Roboter uns zu ähnlich sehen?
Der sogenannte „Uncanny Valley“-Effekt entsteht, wenn etwas sehr menschenähnlich aussieht, aber kein Mensch ist. Das fühlt sich unheimlich an und es wird gerne in Science-Fiction- oder Horror-Filmen thematisiert: Auch Zombies sind nichts anderes – sie sehen menschenähnlich aus, sind aber keine Menschen, das ist derselbe Effekt. Das kennen wir auch von Robotern. Dass sie aufgrund bestimmter Gestaltungsmerkmale unheimlich wirken. Alle Studien, die es dazu gibt, sind jedoch nur Momentaufnahmen.
Ich verstehe unter sozialer Akzeptanz, dass sie nachhaltig in den Alltag integriert werden – sowohl im beruflichen Alltag in der Fabrik als auch im privaten zu Hause. Vor Kurzem habe ich ein Projekt mit Anki Vektor durchgeführt. Da ist ein kleiner, sozialer Roboter, der sich leider als nicht nachhaltig erfolgreich gezeigt hat. Im Rahmen einer sieben Monate dauernden Studie haben wir in verschiedenen Wiener Haushalten getestet, wie der Roboter integriert wurde – und wann der Bruch gekommen ist.
Was löst so einen Bruch aus?
Wenn ich nichts finde, was er für mich übernehmen kann, was nicht anders leichter oder effizienter machbar ist. Lange Zeit wurde vermutet, dass der Akzeptanzprozess von Robotern anders abläuft als bei anderen Technologien. Ich habe aber den Verdacht, dass er, zumindest mit dem, was bisher robotisch möglich ist, gleich abläuft wie mit anderen innovativen Technologien: Wenn ich einen Nutzen finde, wird die Technologie nachhaltig angenommen – und dann schwinden Bedenken zu Aspekten wie Privacy & Security.
Der japanische Robotiker Hiroshi Ishiguro hat täuschend echte Androiden entwickelt. Wenn man sie betrachtet, entsteht ein gewisses Unbehagen. Ist die Grenze der Akzeptanz überschritten, wenn Roboter uns zu ähnlich sehen?
Der sogenannte „Uncanny Valley“-Effekt entsteht, wenn etwas sehr menschenähnlich aussieht, aber kein Mensch ist. Das fühlt sich unheimlich an und es wird gerne in Science-Fiction- oder Horror-Filmen thematisiert: Auch Zombies sind nichts anderes – sie sehen menschenähnlich aus, sind aber keine Menschen, das ist derselbe Effekt. Das kennen wir auch von Robotern. Dass sie aufgrund bestimmter Gestaltungsmerkmale unheimlich wirken. Alle Studien, die es dazu gibt, sind jedoch nur Momentaufnahmen.
Seit Jahrzehnten gilt das Hauptaugenmerk seiner Forschung den humanoiden Robotern:
Mit Geminoid hat sich der Robotiker Hiroshi Ishiguro seinen eigenen Doppelgänger geschaffen
© Everett Kennedy Brown/EPA/picturedesk.com
Wie ist das zu verstehen?
Eine Person sitzt da und sieht sich Bilder oder Videosequenzen von Robotern an, die sie als „unheimlich“ oder „nicht unheimlich“ einordnen muss. Meine deutsche Kollegin Astrid Rosenthal-von der Pütten hat bei Proband_innen mittels Gehirnscans nachgewiesen, dass der „Uncanny Valley“-Effekt tatsächlich existiert und dabei etwas in bestimmen Hirnregionen ausgelöst wird. Denn Roboter, die menschenähnlich aussehen, können wir nicht gut kategorisieren. Und das löst Unbehagen aus – doch Menschen können lernen, damit umzugehen.
Was bedeutet das für das Design zukünftiger Roboter?
Ich kann mir überlegen, ob ich diese Einstiegshürde zu meiner Roboter-Technologie haben möchte. Wenn die erste Reaktion beim Anblick eines Roboters Unbehagen ist, kann ich es mir einfacher machen, indem ich sie angenehmer gestalte. Ein Beispiel ist der Roboter Pepper von SoftBank Mobile Corp., der so freundlich und harmlos gestaltet wurde, dass ich ihm gerne helfen möchte, weil er nicht „überlegen“ aussieht. Der PR2-Roboter ist ein weiteres Beispiel. Sein Kopf, das was wir sofort als menschlich erkennen, wurde sehr flach gestaltet, damit er nicht zu intelligent und wenig einschüchternd wirkt.
Eine Person sitzt da und sieht sich Bilder oder Videosequenzen von Robotern an, die sie als „unheimlich“ oder „nicht unheimlich“ einordnen muss. Meine deutsche Kollegin Astrid Rosenthal-von der Pütten hat bei Proband_innen mittels Gehirnscans nachgewiesen, dass der „Uncanny Valley“-Effekt tatsächlich existiert und dabei etwas in bestimmen Hirnregionen ausgelöst wird. Denn Roboter, die menschenähnlich aussehen, können wir nicht gut kategorisieren. Und das löst Unbehagen aus – doch Menschen können lernen, damit umzugehen.
Was bedeutet das für das Design zukünftiger Roboter?
Ich kann mir überlegen, ob ich diese Einstiegshürde zu meiner Roboter-Technologie haben möchte. Wenn die erste Reaktion beim Anblick eines Roboters Unbehagen ist, kann ich es mir einfacher machen, indem ich sie angenehmer gestalte. Ein Beispiel ist der Roboter Pepper von SoftBank Mobile Corp., der so freundlich und harmlos gestaltet wurde, dass ich ihm gerne helfen möchte, weil er nicht „überlegen“ aussieht. Der PR2-Roboter ist ein weiteres Beispiel. Sein Kopf, das was wir sofort als menschlich erkennen, wurde sehr flach gestaltet, damit er nicht zu intelligent und wenig einschüchternd wirkt.
Der humanoide Roboter Pepper (rechts) kann Emotionen zeigen sowie Objekte, Gesichter und Gegenstände erkennen
© Aldebaran
Inwiefern können Roboter bereits mit uns kommunizieren – und wo liegen ihre Grenzen?
Roboter können nur so weit mit uns kommunizieren, wie weit wir es ihnen beibringen. Wo wir hinwollen, ist, dass es ein flüssiger Interaktionsablauf zwischen Roboter und Mensch, ist. Wichtige Schlüsseltechnologien sind Sprach-, Gesten- und Emotionserkennung, aber auch Emotionsdarstellung. Ich kann mit einem Roboter aber auch über einen Joystick, ein Bedienpanel oder ein grafisches User Interface interagieren.
Mit welchen Entwicklungen werden wir bei der Mensch-Roboter-Interaktion zukünftig rechnen können?
In der Zukunft müssen wir uns mehr anschauen, wie Nutzer_innen selbst noch mehr Nützlichkeit für ihren Roboter erzeugen können. Schlagworte sind Anpassung, Personalisierung und das Trainieren von Robotern. Denn Roboter müssen zukünftig viel besser mit der Dynamik unseres Alltags umgehen können. Wenn sich meine Bedürfnisse ändern, etwa bei Pflegerobotern, muss ich auch ändern können, was der Roboter für mich tut.
Was wird dabei einer der relevantesten Schritte sein?
Wir haben in den unterschiedlichsten Bereichen unseres Alltags einiges an Robotik. Es gibt nicht nur Industrieroboter, sondern auch fahrerlose Transportfahrzeuge, Rasenmäher-, Fensterputz- und Staubsaugerroboter. Bereits 15 Prozent aller Haushalte haben einen dieser Haushaltshelfer. Auch in Gastronomie, Landwirtschaft und der Medizin gibt es schon lange Serviceroboter. Was wir aber noch nicht erreicht haben, sind multifunktionale Serviceroboter, die eine Vielzahl unterschiedlicher Dinge können.
Roboter können nur so weit mit uns kommunizieren, wie weit wir es ihnen beibringen. Wo wir hinwollen, ist, dass es ein flüssiger Interaktionsablauf zwischen Roboter und Mensch, ist. Wichtige Schlüsseltechnologien sind Sprach-, Gesten- und Emotionserkennung, aber auch Emotionsdarstellung. Ich kann mit einem Roboter aber auch über einen Joystick, ein Bedienpanel oder ein grafisches User Interface interagieren.
Mit welchen Entwicklungen werden wir bei der Mensch-Roboter-Interaktion zukünftig rechnen können?
In der Zukunft müssen wir uns mehr anschauen, wie Nutzer_innen selbst noch mehr Nützlichkeit für ihren Roboter erzeugen können. Schlagworte sind Anpassung, Personalisierung und das Trainieren von Robotern. Denn Roboter müssen zukünftig viel besser mit der Dynamik unseres Alltags umgehen können. Wenn sich meine Bedürfnisse ändern, etwa bei Pflegerobotern, muss ich auch ändern können, was der Roboter für mich tut.
Was wird dabei einer der relevantesten Schritte sein?
Wir haben in den unterschiedlichsten Bereichen unseres Alltags einiges an Robotik. Es gibt nicht nur Industrieroboter, sondern auch fahrerlose Transportfahrzeuge, Rasenmäher-, Fensterputz- und Staubsaugerroboter. Bereits 15 Prozent aller Haushalte haben einen dieser Haushaltshelfer. Auch in Gastronomie, Landwirtschaft und der Medizin gibt es schon lange Serviceroboter. Was wir aber noch nicht erreicht haben, sind multifunktionale Serviceroboter, die eine Vielzahl unterschiedlicher Dinge können.
OP-Roboter: Auch am AKH Wien werden bereits mithilfe von Robotern Operationen durchgeführt; im Bild ein auf HNO-Eingriffe spezialisiertes Modell
© MedUni Wien/Kawka
Woran liegt das?
Diese Multifunktionalität zu erreichen, ist eine hochkomplexe Angelegenheit. Hobbit, der Roboter aus einem unserer EU-Projekte, konnte lernen und Objekte, die er kennt, in der Wohnung finden und mir bringen. Aber man musste diese Objekte erst einlernen und es funktionierte für bestimmte besser als für andere, abhängig von Lichtverhältnissen und Oberflächenbeschaffenheit. Derzeit sind multifunktionale Roboter noch sehr limitiert – aber die Ideen sind bereits da. Ich bin mir sicher, dass wir in den kommenden zwei Jahrzehnten mit den nächsten großen Schritten in diesem Bereich rechnen können.
Vielen Dank für das Gespräch!
Literaturhinweis:
Astrid Weiss: What Do You Mean by “Trust”? Establishing Shared Meaning in Interdisciplinary Design for Assistive Technology. In: International Journal of Social Robotics/Special Issue on Trust, Acceptance and Social Cues, hg. von I. Schwaninger, F. Güldenpfennig, A. Weiss, G. Fitzpatrick (2021).
Sandra Wobrazek ist Autorin und freie Redakteurin.
Diese Multifunktionalität zu erreichen, ist eine hochkomplexe Angelegenheit. Hobbit, der Roboter aus einem unserer EU-Projekte, konnte lernen und Objekte, die er kennt, in der Wohnung finden und mir bringen. Aber man musste diese Objekte erst einlernen und es funktionierte für bestimmte besser als für andere, abhängig von Lichtverhältnissen und Oberflächenbeschaffenheit. Derzeit sind multifunktionale Roboter noch sehr limitiert – aber die Ideen sind bereits da. Ich bin mir sicher, dass wir in den kommenden zwei Jahrzehnten mit den nächsten großen Schritten in diesem Bereich rechnen können.
Vielen Dank für das Gespräch!
Literaturhinweis:
Astrid Weiss: What Do You Mean by “Trust”? Establishing Shared Meaning in Interdisciplinary Design for Assistive Technology. In: International Journal of Social Robotics/Special Issue on Trust, Acceptance and Social Cues, hg. von I. Schwaninger, F. Güldenpfennig, A. Weiss, G. Fitzpatrick (2021).
Sandra Wobrazek ist Autorin und freie Redakteurin.