Mensch-Maschine-Interaktionen: Bots sind erfolgreicher, wenn sie sich als Menschen ausgeben

Studie untersucht Kooperationsbereitschaft von Menschen gegenüber Bots

13. November 2019

Ein internationales Forschungsteam unter Mitarbeit von Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine am Max-Planck-Institut für Bildungsforschung, wollte wissen, ob bei Kooperation zwischen Mensch und Maschine es einen Unterschied macht, wenn die Maschine sich als Mensch ausgibt. Dazu führte das Team ein Experiment durch, in dem Menschen mit Bots interagierten. In der im Journal Nature Machine Intelligence erschienenen Studie zeigen die Forscher*innen, dass Bots bei bestimmten Mensch-Maschine-Interaktionen erfolgreicher sind als der Mensch – aber nur, wenn sie ihre nichtmenschliche Identität verbergen dürfen.

Die künstlichen Stimmen von Siri, Alexa oder Google und ihre manchmal hölzernen Antworten lassen keinen Zweifel daran, dass wir uns hier nicht mit einem echten Menschen unterhalten. Doch neueste technologische Durchbrüche, die künstliche Intelligenz mit täuschend echten Menschenstimmen kombinieren, machen es möglich, dass Bots am Telefon als Menschen durchgehen. Dies führt zu neuen ethischen Fragen: Ist es Betrug, wenn Bots sich als Menschen ausgeben? Muss es eine Pflicht zur Transparenz geben?

Bisherige Untersuchungen haben gezeigt, dass Menschen eher ungern mit intelligenten Bots kooperieren. Wenn Menschen nun aber gar nicht merken, dass sie mit einer Maschine interagieren und dadurch erfolgreicher miteinander kooperieren, wäre es dann nicht in manchen Fällen sinnvoll, die Täuschung aufrechtzuerhalten?

Für die Studie, die in Nature Machine Intelligence veröffentlicht wurde, hat ein Forschungsteam aus den Vereinigten Arabischen Emiraten, den USA und Deutschland unter Mitarbeit von Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine am Max-Planck-Institut für Bildungsforschung, fast 700 Teilnehmer*innen in einem Online-Kooperationsspiel aufgefordert, mit einem menschlichen oder einem künstlichen Spielpartner zu interagieren. Bei dem Spiel, das als Gefangenendilemma bekannt ist, können die Spieler entweder egoistisch handeln, um den anderen Spieler auszunutzen, oder sie handeln kooperativ, was für beide Seiten Vorteile bringt.

Entscheidend für den Versuch war, dass die Forscher*innen einigen Teilnehmer*innen falsche Informationen über die Identität ihres Spielpartners gaben. Einigen Teilnehmer*innen, die mit einem Menschen interagierten, wurde gesagt, dass sie mit einem Bot interagierten und umgekehrt. So konnten die Forscher*innen feststellen, ob Menschen gegenüber Spielpartnern, die sie für Bots halten, Vorurteile haben und ob es für die Effizienz von Bots einen Unterschied macht, ob sie zugeben, dass sie Bots sind oder nicht.

Die Ergebnisse zeigten, dass Bots, die sich als Menschen ausgaben, erfolgreicher darin waren, den Spielpartner zu einer Kooperation zu überreden. Sobald sie allerdings ihre wahre Natur enthüllten, sanken die Kooperationsraten. Übertragen auf ein realitätsnahes Szenario könnte dies zum Beispiel bedeuten, dass Helpdesks, die von Bots betrieben werden, eigentlich schneller und effizienter weiterhelfen könnten, wenn sie sich als Menschen ausgeben dürften. In welchen Fällen von Mensch-Maschine-Kooperationen Transparenz und in welchen Fällen Effizienz wichtiger ist, müsse die Gesellschaft aushandeln, sagen die Forscher*innen.

Originalstudie
Ishowo-Oloko, F., Bonnefon, J.-F., Soroye, Z., Crandall, J., Rahwan, I., & Rahwan, T. (2019). Behavioural evidence for a transparency–efficiency tradeoff in human–machine cooperation. Nature Machine Intelligence. doi:10.1038/s42256-019-0113-5

Weitere interessante Beiträge

Zur Redakteursansicht