Beispielprojekt: Erkennung von maschinell manipulierten Medien durch den Menschen
Jüngste Fortschritte im Bereich neuronaler Netze zur Generierung von Inhalten ermöglichen es Modellen der künstlichen Intelligenz (KI), hochwertige Medienmanipulationen zu erzeugen. Hier berichten wir über ein randomisiertes Experiment, bei dem die Auswirkung von Medienmanipulationen auf die Fähigkeit von mehr als 15 000 Personen untersucht wurde, maschinell manipulierte Medien zu erkennen. Wir haben ein neuronales Netzwerk entwickelt, um bestimmte Objekte auf plausible Weise automatisch aus Bildern zu entfernen, und setzen dieses neuronale Netzwerk online in einem randomisierten Experiment ein, bei dem die Teilnehmenden einschätzen sollen, welches Einzelbild eines Bildpaares manipuliert wurde. Das System gibt den Teilnehmenden eine Rückmeldung über die Genauigkeit der einzelnen Vermutungen. Im Experiment wird die Reihenfolge, in der die Bilder präsentiert werden, randomisiert, so dass die Lernkurve der Teilnehmenden bei der Erkennung gefälschter Inhalte kausal bestimmt werden kann. Wir finden deutliche und belastbare Belege dafür, dass Individuen durch den Kontakt mit manipulierten Medien lernen, gefälschte Inhalte zu erkennen, wenn sie iteratives Feedback zu ihren Erkennungsversuchen bekommen. Bei einer Folge von nur zehn Bildern steigerten die Teilnehmenden die Genauigkeit ihrer Bewertung um über zehn Prozentpunkte. Unsere Studie liefert erste Hinweise darauf, dass die menschliche Fähigkeit, gefälschte maschinell erzeugte Inhalte zu erkennen, mit der Verbreitung solcher Medien im Internet zunehmen könnte.
Webseite: http://deepangel.media.mit.edu/
Publikationen
Groh, M., Epstein, Z., Obradovich, N., Cebrian, M., & Rahwan, I. (2019). Human detection of machine manipulated media. Communications of the ACM, October 2021, Vol. 64 No. 10, Pages 40-47.
[Published paper, Free pre-print]
Medien