FORSCHER NEWS

Wenn Menschen mit Robotern in Interaktion treten, sind ihre Gehirne dabei anders aktiviert, als wenn Menschen die gleiche Aufgabe mit anderen Menschen lösen sollen. Das ist das Ergebnis einer experimentellen internationalen Studie, die Kognitionswissenschaftler der Universität Osnabrück federführend durchgeführt haben. Sie ist unter dem Titel „Coordinating With a Robot Partner Affects Neural Processing Related to Action Monitoring“ in Frontiers erschienen: https://www.frontiersin.org/articles/10.3389/fnbot.2021.686010

Wenn Menschen mit Robotern in Interaktion treten, sind ihre Gehirne dabei anders aktiviert, als wenn Menschen die gleiche Aufgabe mit anderen Menschen lösen sollen. Das ist das Ergebnis einer experimentellen internationalen Studie. Foto: Universität Osnabrück

 

Unser Gehirn unterscheidet, ob sozialer Partner ein Mensch oder ein Roboter ist
Kognitionswissenschaftler der Uni Osnabrück identifizieren neurophysiologische Grundlagen der Mensch-Maschine-Interaktion

Wenn Menschen mit Robotern in Interaktion treten, sind ihre Gehirne dabei anders aktiviert, als wenn Menschen die gleiche Aufgabe mit anderen Menschen lösen sollen. Das ist das Ergebnis einer experimentellen internationalen Studie, die Kognitionswissenschaftler der Universität Osnabrück federführend durchgeführt haben. Sie ist unter dem Titel „Coordinating With a Robot Partner Affects Neural Processing Related to Action Monitoring“ in Frontiers erschienen: https://www.frontiersin.org/articles/10.3389/fnbot.2021.686010

Erstautoren sind Artur Czeszumski, Anna Lisa Gert und Ashima Keshava, zwei Doktorandinnen und ein Doktorand in der Arbeitsgruppe für Neurobiopsychologie von Prof. Dr. Peter König an der Universität Osnabrück.

Das Team interessierte sich dafür, welche kognitiven Prozesse stattfinden, wenn Menschen mit Robotern interagieren. „Roboter spielen zunehmend eine Rolle in unserer sozialen Landschaft. Sie reagieren auf das Verhalten des Menschen. Wir wollten wissen, ob der das menschliche Gehirn Interaktionen mit einem Roboter anders verarbeitet, als Interaktionen mit einem anderen Menschen“, so Artur Czeszumski.

Dazu baten die Forschenden Studienteilnehmerinnen und -teilnehmer, eine Aufgabe in Interaktion mit einem Roboter und die gleiche Aufgabe auch gemeinsam mit einem anderen Menschen zu lösen. Es galt, als Duo einen virtuellen Ball auf einem Tablett beständig im Kreis rollen zu lassen. Bei der Bewältigung der Aufgabe wurden die Hirnaktivität über EEG gemessen und ausgewertet. 

Mit dem Roboter fand die Aufgabenbewältigung insgesamt langsamer und kontrollierter statt. Besonders hervor stach die kognitive Aktivität der Teilnehmenden während entstehender Fehler: Wich der Ball stark von der Kreisbahn ab, mussten sich Mensch und Roboter wieder neu koordinieren, um den Ball auf die Bahn zurück zu bringen. Die gemessene Hirnaktivität bei den Probanden war dabei während der Koordination mit dem Roboter stärker. Die Ergebnisse in der Aufgabe, den entstandenen Fehler mit dem Roboter zusammen zu beheben, ähnelten den Hirnaktivitäten, wie sie beim „Aktionsmonitoring“ bekannt sind. Dies ist ein kognitiver Prozess, der kontinuierlich die erwarteten Ergebnisse einer Aktion mit den beabsichtigten Ergebnissen der Aktion vergleicht. 

„An diesem Ergebnis sehen wir, dass Menschen Interaktionen mit einem Roboter beziehungsweise einer Künstlichen Intelligenz systematisch anders repräsentieren, als solche mit einem Menschen“, so Czeszumski. „Unsere Erkenntnis über die im menschlichen Hirn aktivierte Ergebnisorientierung ist ein wichtiger Schritt für die Weiterentwicklung von sozialen Robotern und die passgenaue Programmierung der Interaktionsoberfläche in der Mensch-Maschine-Interaktion.“

Die EEG-Studie wurde gemeinsam mit Partnern in Stockholm/Schweden und der Universität Stuttgart durchgeführt.