Algorithmen zur Lügendetektion verlocken nur wenige Nutzer*innen, erhöhen aber die Rate der Anschuldigungen deutlich.
Menschen sind nicht sehr gut darin, Lügen als solche zu erkennen. Das könnte erklären, warum sie ihre Mitmenschen nicht der Lüge bezichtigen, denn falsche Anschuldigungen sind verbunden mit sozialen Risiken – sowohl für die anklagende als auch für die beschuldigte Person. Im Rahmen des Projekts “Algorithmische Lügenerkennung” untersuchen wir, wie die Verfügbarkeit von KI-basierten Algorithmen zur Lügenerkennung dieses soziale Gleichgewicht beeinflusst. Werden Menschen zur Erkennung von Lügen Algorithmen nutzen, die Menschen überlegen sind? Und wenn ja, werden sie bei ihren Anschuldigungen weniger Zurückhaltung üben? Wir haben einen Algorithmus zur Klassifikation entwickelt, dessen Genauigkeit (67 %) in der Erkennung von Lügen deutlich besser war als die des Menschen (50 %), und ein Experiment zur Erkennung von Lügen mit Anreizen durchgeführt, bei dem wir die Bereitschaft der Teilnehmenden, den Algorithmus zu verwenden, sowie die Auswirkungen dieser Verwendung auf die Rate der Anschuldigungen gemessen haben (vgl. Abbildung 1 für einen Überblick über das Studiendesign).
Unsere Ergebnisse zeigen, dass nur wenige Personen (33 %), die sich für die Nutzung des Algorithmus entscheiden, ihre Anschuldigungsrate drastisch erhöhen (ausgehend von 25 % auf 86 %, wenn der Algorithmus eine Aussage als Lüge kennzeichnet). Sie machen mehr falsche Anschuldigungen (Anstieg um 18 Prozentpunkte), während die Wahrscheinlichkeit, dass eine Lüge unentdeckt bleibt, in dieser Gruppe viel geringer ist (Rückgang um 36 Prozentpunkte). Wir untersuchen die individuellen Beweggründe für die Verwendung von Algorithmen zur Erkennung von Lügen und die sozialen Auswirkungen dieser Algorithmen (siehe Abbildung 2 für die Ergebnisse).
Publikationen
von Schenk, A., Klockmann, V., Bonnefon, J. F., Rahwan, I., & Köbis, N. (2022). Lie detection algorithms attract few users but vastly increase accusation rates. arXiv preprint arXiv:2212.04277.