Mensch versus Internet: Was können wir tun, um uns vor Manipulation, Fake News und Co. zu schützen?

Erkenntnisse aus den Verhaltenswissenschaften bieten konkrete Tipps

12. Februar 2021

Im Gegensatz zur Offline-Welt funktioniert die Online-Welt weitgehend nach der Logik der Aufmerksamkeitsökonomie. Die kostbarste Währung ist unsere Aufmerksamkeit, die nicht nur erlangt, sondern auch gesteuert werden soll. Kontrolle und Regulation liegen in den Händen weniger, aber nicht in den Händen der Gesetzgeber und noch weniger in den Händen der Nutzer*innen. Doch was können Nutzer*innen tun, um mit diesen Herausforderungen umzugehen und wie könnte die Online-Welt besser gestaltet werden? Mit diesen Fragen beschäftigen sich Forscher*innen des Max-Planck-Instituts für Bildungsforschung und der University of Bristol aus verhaltenswissenschaftlicher Perspektive. Mögliche Antworten geben Sie in ihrem Artikel in Psychological Science in the Public Interest.

Das Internet ist aus unserem Alltag längst nicht mehr wegzudenken. Ganz gleich, ob es sich um die digitale Arbeitswelt, die individuelle Informationssuche, mediale Unterhaltung, soziale Interaktion oder um den Einkauf von Waren handelt. Die Online-Welt erleichtert so manches und bietet Möglichkeiten, die sonst nicht denkbar wären. Gleichzeitig stellt sie Einzelpersonen und Gesellschaften vor große Herausforderungen. Denn die dahinterstehenden Technologien werden nicht nur zum Vorteil ihrer Nutzer*innen eingesetzt.

„Die Fragen mit denen wir uns beschäftigen lauten: Wie müssen Online-Umgebungen aussehen, sodass sie die menschliche Autonomie respektieren und die Wahrheit fördern? Und was können die Menschen selbst tun, um sich nicht so leicht leiten und in ihrem Verhalten beeinflussen zu lassen?“, sagt Anastasia Kozyreva, Erstautorin und Wissenschaftlerin im Forschungsbereich Adaptive Rationalität am Max-Planck-Institut für Bildungsforschung. Mit ihren Kollegen untersuchte sie zunächst die spezifischen Unterschiede zwischen On- und Offline-Welt und identifizierte vier große Herausforderungen.

(1) Das Verhalten von Nutzer*innen wird durch manipulative Auswahlarchitekturen, sogenannte „Dark Patterns“, beeinflusst, die diese oft zu eigentlich ungewolltem Verhalten verleiten – wie zum Beispiel die Werbung, die als Inhalt der Seite oder der Navigationsführung erscheint, so dass man auf diese klickt oder auch verwirrende Privatsphäre-Einstellungen, die einen dazu bringen, mehr Informationen zu teilen als man eigentlich will.

(2) KI-gestützte Informationsarchitekturen präsentieren uns Inhalte nicht neutral, sondern auf Basis der über uns gesammelten Daten personalisiert. Das heißt, dass zwei Personen, die den gleichen Begriff bei einer Suchmaschine eingeben, sehr wahrscheinlich unterschiedliche Ergebnisse gezeigt bekommen. Das kann hilfreich sein, wenn wir ein bestimmtes Restaurant in unserer Nähe suchen und die Suchmaschine zuerst Treffer in unserer Nachbarschaft anzeigt – statt ein Restaurant gleichen Namens am anderen Ende der Welt. Wenn wir jedoch Nachrichten oder politische Inhalte auf Basis unserer Nutzerpräferenzen angezeigt bekommen, drohen sich Filterblasen zu bilden, in denen wir keine andere Meinung mehr angezeigt bekommen.

(3) Das Forscherteam sieht in falschen und irreführenden Informationen eine weitere Herausforderung für Menschen im Netz. Videos und Posts mit Verschwörungsideologien und unbestätigten Gerüchten können sich über soziale Medien schnell verbreiten und Schaden anrichten. So zum Beispiel, wenn sich Menschen aufgrund von Falschinformationen rund um Impfstoffe nicht impfen lassen und so Gefahr laufen, zu erkranken und andere zu gefährden.

(4) Ablenkende Online-Umgebungen versuchen stetig die Aufmerksamkeit der Nutzer*innen auf sich zu ziehen. Ob mit Push-Benachrichtigungen, blinkenden Displays, aufpoppenden Werbebotschaften oder der Präsentation immer neuer Inhalte. Es geht darum die Aufmerksamkeit zu erlangen und so lange wie möglich aufrechtzuerhalten. Das ist das Geschäftsmodell und davon profitieren die Dienste. Gleichzeig erwischen wir uns dabei, dass unsere Bildschirmzeit wieder viel länger war als eigentlich gewollt – ohne, dass wir einen wirklichen Nutzen davon hatten und zulasten unserer Aufmerksamkeit für andere Dinge.  

Um diese vier Herausforderungen bewältigen zu können, zeigen die Forscher*innen konkrete Möglichkeiten aus verhaltenswissenschaftlicher Perspektive auf. Mit sogenannten “Boosting-Tools”, also kompetenzfördernden kognitiven Werkzeugen, sollen neue Fähigkeiten geschult und bessere autonome Entscheidungen in der Online-Welt gefördert werden.

Self-Nudging ist eines der kognitiven Werkzeuge aus der Verhaltenswissenschaft, die Menschen nutzen können, um sich „gesündere“ Wahl- und Informationsumgebungen zu schaffen. Beim Self-Nudging können die Nutzer*innen selbstbestimmt ihre digitale Umwelt gestalten. Neben dem Stummschalten von Apps könnte es helfen, den Startbildschirm des Smartphones aufzuräumen und nur die gewünschten Anwendungen sichtbar zu lassen: Kalender, Kamera und Kartendienst, die Meditations-App oder das Wetter dürften bleiben. Alles was zu sehr ablenkt, wie soziale Medien und Spiele, verschiebt man besser in Ordner. Für die Nutzung sozialer Medien empfehlen die Forscher*innen darüber hinaus bewusst Zeitbeschränkungen festzulegen.

„Die digitale Welt ist voller Fallen, die uns gestellt werden. Aber wir können uns vor den Fallen schützen. So wie wir Süßigkeiten im Schrank verstecken und uns eine Schale Äpfel auf den Tisch stellen, können wir auch Benachrichtigungen von Apps ausschalten, um uns vor permanenter Ablenkung und Überflutung zu schützen. Aus den Augen, aus dem Sinn. Das funktioniert auch in der digitalen Welt“, sagt Ralph Hertwig, Direktor des Forschungsbereichs Adaptive Rationalität am Max-Planck-Institut für Bildungsforschung.

Genauso, wie wir vor dem Überqueren einer Straße nach rechts und links schauen, sollten wir es uns zur Gewohnheit machen, bestimmte Fragen zu stellen, um Online-Inhalte einzuordnen. Dazu zählen: Woher kommt die Information ursprünglich? Welche Quellen werden angegeben? Finde ich ähnliche Inhalte auf mir bekannten, seriösen Internetseiten? Dadurch kann die eigene digitale Kompetenz mit Blick auf den Wahrheitsgehalt von Informationen geschult werden. Doch auch die Internetdienste könnten bei der besseren Einordnung von Inhalten helfen. So zum Beispiel durch Entscheidungsbäume, die vor dem Teilen eines Inhalts erscheinen und daran erinnern, zunächst die Quelle und die Fakten zu überprüfen.

Generell müssten aber auch politische Entscheidungsträger*innen stärker regulatorische Maßnahmen in Betracht ziehen, die sicherstellen, dass Internetnutzer*innen Kontrolle über ihre digitale Umgebung und ihre persönlichen Daten haben – zum Beispiel durch voreingestellten Datenschutz. Und nicht zu vergessen: Das Thema kluge und selbstbestimmte Nutzung digitaler Technologien muss Teil der Schul- wie auch Erwachsenenbildung sein. Je früher, desto besser. 

Die Forscher*innen betonen, dass keines der von ihnen vorgeschlagenen Werkzeuge allein ausreicht, um Online-Manipulation zu entgehen oder die Verbreitung von falschen Informationen zu verhindern. „Im Zusammenspiel kluger kognitiver Werkzeuge, früher Bildung in Medienkompetenz sowie einer Einschränkung der Möglichkeiten der kommerziellen Lenkung unserer Aufmerksamkeit kann die Online-Welt ein demokratischerer und wahrhaftigerer Ort werden“, sagt Stephan Lewandowsky, Professor für Kognitionswissenschaften an der britischen University of Bristol.

Originalpublikation

Kozyreva, A., Lewandowsky, S., & Hertwig, R. (2020). Citizens versus the Internet: Confronting digital challenges with cognitive tools. Psychological Science in the Public Interest, 21(3), 103–156. https://doi.org/10.1177/1529100620946707

Weitere interessante Beiträge

Zur Redakteursansicht