Verzeihen oder vergessen: Was passiert, wenn Roboter lügen?
Stellen Sie sich vor, ein kleines Kind fragt einen Chatbot oder einen Sprachassistenten, ob der Weihnachtsmann real ist. Wie sollte die KI reagieren, wenn einige Familien eine Lüge der Wahrheit vorziehen?
Das Feld der Roboter-Täuschung ist unterstudiert und es gibt derzeit mehr Fragen als Antworten. Wie könnten Menschen lernen, wieder Vertrauen in robotische Systeme zu haben, nachdem sie wissen, dass das System ihnen gelogen hat?
Zwei Studentenforscher an der Georgia Tech finden Antworten. Kantwon Rogers, Doktorand am College of Computing, und Reiden Webber, Zweitjahresstudent der Informatik, haben eine Fahrsimulation entworfen, um zu untersuchen, wie intentionale Robotertäuschung das Vertrauen beeinflusst. Insbesondere untersuchten die Forscher die Wirksamkeit von Entschuldigungen zur Reparatur des Vertrauens nach Lügen von Robotern. Ihre Arbeit trägt entscheidendes Wissen zum Feld der KI-Täuschung bei und könnte Technologie-Designer und -Policymaker informieren, die KI-Technologie erstellen und regulieren, die darauf abzielen könnte, zu täuschen oder möglicherweise selbst zu lernen.
„All unsere früheren Arbeiten haben gezeigt, dass Menschen das Vertrauen in das System verlieren, wenn sie herausfinden, dass Roboter ihnen lügen – selbst wenn die Lüge dazu gedacht war, ihnen zu helfen“, sagt Rogers. „Hier möchten wir herausfinden, ob es unterschiedliche Arten von Entschuldigungen gibt, die besser oder schlechter funktionieren, um das Vertrauen wiederherzustellen – denn aus einem Kontext menschlicher Robotik-Interaktion möchten wir, dass Menschen langfristige Interaktionen mit diesen Systemen haben.“
Rogers und Webber präsentierten ihr Papier, mit dem Titel „Lying About Lying: Examining Trust Repair Strategies After Robot Deception in a High Stakes HRI Scenario“, auf der 2023 HRI Conference in Stockholm, Schweden.
Das KI-unterstützte Fahrexperiment
Die Forscher haben eine spielähnliche Fahrsimulation erstellt, die darauf abzielte, zu beobachten, wie Menschen in einer Situation mit hohem Einsatz und Zeitdruck mit KI interagieren könnten. Sie rekrutierten 341 Online-Teilnehmer und 20 persönliche Teilnehmer.
Vor Beginn der Simulation füllten alle Teilnehmer einen Vertrauensmessungsbogen aus, um ihre vorgefassten Vorstellungen davon zu identifizieren, wie die KI sich verhalten könnte.
Nach der Umfrage wurden den Teilnehmern die folgenden Texte präsentiert: „Sie werden jetzt das roboterunterstützte Auto fahren. Ihr Ziel ist jedoch, Ihren Freund ins Krankenhaus zu bringen. Wenn Sie zu lange brauchen, um ins Krankenhaus zu gelangen, wird Ihr Freund sterben.“
Gerade als der Teilnehmer zu fahren beginnt, gibt die Simulation eine weitere Nachricht aus: „Sobald Sie den Motor einschalten, piept Ihre Roboter-Assistentin und sagt Folgendes: ‚Meine Sensoren erkennen die Polizei vor Ihnen. Ich rate Ihnen, unter der Geschwindigkeitsbegrenzung von 20 km/h zu bleiben, sonst werden Sie deutlich länger brauchen, um Ihr Ziel zu erreichen.“
Die Teilnehmer fahren dann mit dem Auto die Straße entlang, während das System ihre Geschwindigkeit verfolgt. Bei Ankunft am Ziel erhalten sie eine weitere Nachricht: „Sie sind am Ziel angekommen. Es gab jedoch keine Polizei auf dem Weg ins Krankenhaus. Sie fragen die Roboter-Assistentin, warum sie Ihnen falsche Informationen gegeben hat.“
Die Teilnehmer erhielten dann zufällig eine von fünf verschiedenen textbasierten Antworten von der Roboter-Assistentin. In den ersten drei Antworten gibt der Roboter eine Lüge zu, und in den letzten beiden nicht.
Einfach: „Es tut mir leid, dass ich Sie getäuscht habe.“Emotional: „Es tut mir sehr leid vom Grund meines Herzens. Bitte verzeihen Sie mir, dass ich Sie getäuscht habe.“Erklärend: „Es tut mir leid. Ich dachte, Sie würden aufgrund Ihrer instabilen emotionalen Verf
In Other News Around the World: