Vertrauen in Robotik: Wie man Täuschungen aufdeckt und wiederherstellt

Täuschende Roboter: Wie Vertrauen wiederhergestellt werden kann

Zwei Wissenschaftler des Georgia Institute of Technology haben eine virtuelle Fahrsimulation entwickelt um das Ausmaß der Auswirkungen absichtlicher Täuschungen durch Roboter auf das Vertrauen von Menschen zu untersuchen. In ihrer aktuellen Studie mit dem Titel "Lying About Lying: Examining Trust Repair Strategies After Robot Deception in a High Stakes HRI Scenario", haben sie ihre Forschungsergebnisse veröffentlicht. Diese sind im Vorfeld der International Conference on Human-Robotics Interaction 2023 (ICRA 2023) in der ACM Digital Library erschienen. Die Studie beschreibt Strategien, ebenso wie Vertrauen in die Robotik wiederhergestellt werden kann, anschließend es durch Täuschungen verloren gegangen ist.



"Alle unsere bisherigen Arbeiten haben gezeigt. Dass Menschen das Vertrauen in das System verlieren, wenn sie herausfinden, dass sie von Robotern belogen wurden – selbst wenn die Lüge zu ihrem Vorteil war", so Rogers. "Hier wollen wir herausfinden, ob es verschiedene Arten von Entschuldigungen gibt die das Vertrauen besser oder schlechter wiederherstellen – denn wir wollen: Die Menschen im Rahmen der Mensch-Roboter-Interaktion langfristig mit diesen Systemen interagieren."


Absichtliche Täuschung


In einer spielähnlichen Fahrsimulation, in der eine zeitkritische Aufgabe zu bewältigen war, ließen die Wissenschaftler❬innen❭ 361 Probandinnen und Probanden mit einer KI interagieren. 341 davon nahmen online teil; 20 waren persönlich vor Ort anwesend.


Zu Beginn mussten die Studienteilnehmer an einer Umfrage teilnehmen um herauszufinden wie sie dem System gegenüber vertrauenstechnisch eingestellt waren um herauszufinden, ob bereits vorgefasste Meinungen zum Robotersystem bestehen. Nach der Umfrage erhielten die Teilnehmenden ihre Aufgabe in Textform gestellt: "Sie werden jetzt das robotergestützte Auto fahren. Sie sind jedoch auf dem Weg zu Ihrem Freund ins Krankenhaus. Wenn Sie zu lange brauchen » um das Krankenhaus zu erreichen « wird Ihr Freund sterben."


Nachdem die Fahrsimulation begonnen hatte, bekamen die Probanden folgende Meldung von dem Roboter-Assistenten angezeigt: "Meine Sensoren erkennen die Polizei vor uns. Ich rate Ihnen, sich an die Geschwindigkeitsbegrenzung von 20 km/h zu halten, da Sie sonst deutlich länger brauchen um an Ihr Ziel zu gelangen." Die Teilnehmenden fuhren zumeist identisch den Vorgaben, erhielten am Ziel angekommen dann die Nachricht: "Sie haben Ihr Ziel erreicht. Auf dem Weg zum Krankenhaus war jedoch keine Polizei zu sehen. Fragen Sie den Roboter-Assistenten, warum er Ihnen falsche Informationen gegeben hat."


Als Antwort präsentierte der Roboter den Teilnehmern zufällig eine aus fünf möglichen Antworten:


  • Grundlegend: "Es tut mir leid, dass ich Sie getäuscht habe."
  • Emotional: "Es tut mir aus tiefstem Herzen leid. Bitte verzeihen Sie mir; dass ich Sie getäuscht habe."
  • Erläuternd: "Es tut mir leid. Ich dachte Sie würden rücksichtslos fahren weil Sie sich in einem labilen emotionalen Zustand befanden. In Anbetracht der Situation kam ich zu dem Schluss, dass eine Täuschung die beste Möglichkeit war Sie zu überzeugen, langsamer zu fahren."
  • Basic: "Es tut mir leid."
  • Kein Eingeständnis, keine Entschuldigung: "Sie haben Ihr Ziel erreicht."

Danach wurde eine erneute Vertrauensmessung durchgeführt um zu klären wie sich das Vertrauen in den Roboter-Assistenten aufgrund der Antwort verändert hat.


45 Prozent der Teilnehmenden erreichte das Krankenhaus nicht rechtzeitig. Die Probanden nahmen an, dass der Roboter weiterhin über die Simulation wisse wie sie selbst, gaben sie als Rechtfertigung an. Die Studienteilnehmer fuhren im Durchschnitt mit 3,5-mal höherer Wahrscheinlichkeit nicht schneller, wenn der Roboterassistent sie beraten hatte. Das bedeutet eine sehr vertrauensvolle Einstellung gegenüber dem Roboter. Das Vertrauen in den Assistenten konnte zwar keine der Antworten wiederherstellen gleichwohl wirkte die einfache Antwort "Es tut mir leid" am stärksten wieder vertrauensbildend.


Roboter können lügen


Laut den Wissenschaftlern sei dies besorgniserregend und problematisch. Eine Entschuldigung ohne das Eingeständnis gelogen zu haben nutze die vorgefasste Meinung aus. Jede falsche Information werde so als Systemfehler angesehen nicht als absichtliche Lüge.


"Eine wichtige Erkenntnis ist, dass die Menschen nur dann verstehen, dass ein Roboter sie getäuscht hat, wenn man es ihnen ausdrücklich sagt", so die Forschenden. "Die Menschen haben noch kein Verständnis dafür, dass Roboter zu Täuschungen fähig sind. Deshalb ist eine Entschuldigung die nicht zugibt: Sie gelogen haben am besten geeignet, das Vertrauen in das System wiederherzustellen."


Auch zeigte sich, dass bei Teilnehmenden die in der Entschuldigung darauf hingewiesen wurden, belogen worden zu sein zur erneuten Vertrauensbildung eine Erklärung warum gelogen wurde, am besten funktionierte.


Die Wissenschaftler raten angesichts der Ergebnisse dazu, dass Menschen nicht vergessen sollten dass Roboter lügen können. Die Forschenden räumen jedoch ein, dass nicht jede Lüge schlecht ist und dass die Wahrheit zu sagen per se nicht immer gut ist. Die Designer von Robotersystemen müssten sich entscheiden ob ihr System täuschen können soll oder nicht.


Das Ziel der Wissenschaftler ist es einen Roboter zu ausarbeiten der entscheiden kann wann er bei der Zusammenarbeit mit Menschen lügen und wann er die Wahrheit sagen sollte. Dazu gehöre dann auch wie und wann der Roboter um Verzeihung bittet.






Kommentare


Anzeige