Ungleichheiten im Online-Diskurs 

Forschende nutzen Reddit-Feldexperiment, um Dynamik von Online-Debatten besser zu verstehen.

Wer online durch Kommentarspalten scrollt, mag das kennen: Ein paar sehr aktive Stimmen dominieren die Debatte, während die Mehrheit still mitliest. Dieses Ungleichgewicht kann den Eindruck erwecken, dass extreme Meinungen weiter verbreitet sind, als sie tatsächlich sind – und Polarisierung befördern. Ein aufwendiges Reddit-Feldexperiment von Forschenden des Max-Planck-Instituts für Bildungsforschung, der TU Dresden und der Universität Stanford mit 520 Teilnehmenden wirft nun Licht auf diese Dynamik – und was man tun kann, um das zu ändern. 

Gemeinsam mit ihrem Team hat Lisa Oswald vom Forschungsbereich Adaptive Rationalität ein aufwendiges Feldexperiment zu politischen Online-Diskussionen durchgeführt: sechs große, eigens erstellte Diskussionsräume auf Reddit, 520 informiert zustimmende Teilnehmende aus den USA, vier Wochen intensiver Austausch über 20 politische Themen. Ihr Ziel war es, nicht Posts und individuelle Effekte zu messen, sondern die Gruppendynamik, die entsteht, wenn viele Menschen gleichzeitig reden – oder schweigend mitlesen. Die Ausgangsfrage war grundlegend: Warum tragen in Online-Debatten wenige sehr aktive Nutzende (“Power-User”) den Großteil der Diskussion, während die Mehrheit stumm bleibt? Und lässt sich dieses Ungleichgewicht mit realistischen Eingriffen verändern? 

„Es war ein aufwendiges Feldexperiment, sagt Oswald. „Aber Kleinstgruppen im Labor fangen den Öffentlichkeitscharakter sozialer Medien nicht ein“, so Oswald weiter, die sich mit öffentlichem Diskurs in digitalen Räumen und der Rolle sozialer Medien für die Demokratie beschäftigt.  „Man braucht eine gewisse Größe, damit Ungleichheiten in der Beteiligung sichtbar werden – jene Dynamik, die wir alle aus Klassenzimmern und Hörsälen kennen.“ 

Ein Labor im echten Leben 

Für das im Rahmen von Horizon Europe “Social Media for Democracy” (Some4Dem) geförderte Projekt, baute Oswald gemeinsam mit Philipp Lorenz-Spreen (TU Dresden + MPI für Bildungsforschung) und William Small Schulz (Stanford University) sechs private, eigens erstellte Subreddits mit jeweils bis zu 100 Personen auf. Jeden Tag erhielten die Gruppen einen kurzen Diskussionsanstoß, hinzu kamen wöchentliche Check-ins sowie Befragungen vor und nach der Studie. Transparent war, dass die Forschenden beobachteten und ggf. selbst moderierten.  

Die Forschenden trennten die Entscheidung, überhaupt zu posten, von der Frage, wer unter den Aktiven besonders viel schreibt. Die Analyse von 5.819 Kommentaren in den Studienforen und weiteren 62.000 Beiträgen der Teilnehmenden außerhalb der Subreddits zeichnete ein klares Bild. 

Schweigen oder Schreiben – und warum 

Wer die Diskussionsumgebung als toxisch, respektlos, polarisiert oder wenig konstruktiv wahrnahm, blieb eher stumm. Ein überraschender Befund aber lautet: Unter denen, die sich überhaupt äußerten, sagten genau diese Wahrnehmungen höhere Kommentarzahlen voraus. Das heißt: Für manche sind toxisch wirkende Räume eine Hürde, für andere möglicherweise eine Art Ansporn. 

Zu den besonders Aktiven gehörten vor allem Männer, politisch stärker Interessierte und Menschen, die ohnehin häufig online kommentieren. Auch wahrgenommene Polarisierung sowie eine größere Distanz zwischen eigener Meinung und vermuteter Gruppenmeinung gingen mit höherer Aktivität einher.  

Inhaltlich verliefen viele Debatten sachlich, doch bestimmte Themen stachen heraus: Der Konflikt Israel–Gaza war am toxischsten, gefolgt von Genderthemen, Prostitution und Waffenpolitik. Wirtschafts- und Klimathemen wurden entspannter diskutiert. 

Anreize, Normen, Moderation – was wirklich wirkt 

Die Studie testete zwei Arten gezielter Eingriffe in verschiedenen Gruppen, welche entweder toxische Kommentare reduzieren oder stumme Mitlesende zu Kommentaren ermutigen sollten: einerseits Normappelle („Bitte bleibt zivil, respektvoll und on-topic“), ergänzt durch striktere Spamfilter, andererseits finanzielle Anreize – zwei US-Dollar pro Tag für mindestens einen ernsthaften Kommentar, maximal 40 Dollar. Das Ergebnis: Das Geld wirkte. Die Beteiligung verteilte sich messbar breiter, stille Mitlesende wurden aktiver. Doch eine starke Ungleichheit blieb bestehen. „Es hat sich etwas reduziert, aber nicht enorm“, sagt Oswald. „Das spricht dafür, dass Rollen in Diskussionen erstaunlich stabil sind.“  

Da sich monetäre Anreize nicht so ohne weiteres umsetzen ließen, seien symbolische Belohnungen realistischer, wie etwa mehr Sichtbarkeit für Erstkommentierende, „Danke“-Funktionen, Kennzeichnungen qualitativ hochwertiger Beiträge oder gezielte Hervorhebung diverser Stimmen. Technisch ließen sich auch Obergrenzen pro Nutzer einführen, um die Dominanz einzelner Vielschreiber zu begrenzen, ohne Inhalte zu bewerten. 

„Leichtgewichtige“ Interventionen – schlichte Normapelle, um zunächst den Ton und damit die wahrgenommene Sicherheit eines Diskussionsraums spürbar zu verbessern – reichten hier nicht, um die stille Mehrheit zum Sprechen zu bewegen. Angesichts des insgesamt niedrigen Toxizitätsniveaus in der Studie sei ihr Spielraum allerdings grundsätzlich begrenzt gewesen. 

Einen beobachtbaren Einfluss hatten hingegen soziale Rückmeldungen. Wer mehr Up- als Downvotes erhielt, schrieb am Folgetag eher – und mehr. Sichtbares positives Feedback hing also unmittelbar mit höherer Beteiligung zusammen.  

Online-Diskurs kein Abbild der Mehrheitsmeinungen 

Der implizite Reflex, Debatten „retten“ zu wollen, greift für Oswald zu kurz. „Es ist eine schwierige Annahme zu sagen, jeder sollte sich online beteiligen“, sagt sie. Ihr Anliegen sei ein anderes: zu verstehen, warum wenige sehr aktiv sind und viele schweigen – und was das für die Sichtbarkeit öffentlicher Meinung bedeutet. Die Beteiligungslücke verzerrt Wahrnehmungen. Wer die Kommentarspalte unter einem Nachrichtenartikel liest und denkt „so denkt die Öffentlichkeit“, irre oft gewaltig. 

Überraschend war auch ein Nebeneffekt: Nach den vier Diskussions-Wochen korrigierten Teilnehmende ihr selbst eingeschätztes Wissen zu den Themen nach unten. Oswald vermutet eine Art „epistemische Demut“ und soziale Vergleichsprozesse. „Man merkt im Austausch, wie komplex Themen sind und wie viel andere wissen – und korrigiert möglicherweise die eigene Selbsteinschätzung nach unten.“ In einem Folgeprojekt will sie die Texte der Diskussionen feingranular analysieren, um diese Dynamik besser zu verstehen. 

Plattformzugänge und Forschung unter schwierigen Bedingungen 

Dass die Studie in den USA und auf Reddit stattfand, war keine inhaltliche Entscheidung, sondern eine pragmatische. „Social-Media-Forschung ist derzeit schwer, weil API-Zugänge versiegt sind“, sagt Oswald. Twitter/X sei „praktisch unmöglich“ für experimentelle Forschung, Mastodon oft zu nischig. Reddit biete noch Werkzeuge und die Möglichkeit, Communities forschungsnah aufzubauen. Der Digital Services Act solle zwar den Zugang zu Plattformdaten für die Forschung stärken. “Doch diese neuen Zugänge müssen sich erst noch in der Praxis etablieren – und selbst dann werden sie sich voraussichtlich auf reine Beobachtungsdaten beschränken. Das gezielte Erstellen eigener Communities oder experimentelle Interventionen wird damit nicht oder nur sehr eingeschränkt möglich sein”, so Oswald weiter. 

Die Daten und der Code zur Studie sind öffentlich zugänglich. Es ist eine interessante Quelle für weitere Forschungen, weil sich selten Social-Media-Diskurse mit so viel Kontext zu den Menschen dahinter beobachten lassen. 

Was die Ergebnisse für das Plattformdesign bedeuten 

Was folgt daraus? Es gibt nicht die eine Maßnahme. Eher eine Sammlung jeweils begrenzter Interventionen: positive, nicht-monetäre Verstärker für Erstbeiträge und qualitativ gute Kommentare; konsequent durchgesetzte Regeln, die die sichtbare Toxizität senken und die Eintrittsschwelle für zögerliche Stimmen verringern; Kommentarobergrenzen, die die Dominanz einzelner Power-User mindern, ohne Inhalte zu bewerten. Aus einer Medienkompetenz- Perspektive drängt sich allerdings vor allem aber eines auf: es braucht einen reflektierten Blick auf das, was wir online sehen und ein Verständnis, dass verzerrte Debatten auf Social Media oft durch wenige, sehr aktive geprägt sind. „Man kann nicht einfach einen Regler drehen, um mehr Beteiligung zu erreichen“, resümiert Oswald. „Aber man kann Rahmen schaffen, die das Sprechen leichter zu machen – gerade für diejenigen, die bisher nur mitlesen.“  

Auf einen Blick: 

  • Online-Diskurse werden von wenigen sehr aktiven Nutzenden getragen; die Mehrheit bleibt stumm – das verzerrt die Wahrnehmung öffentlicher Meinung und kann Polarisierung fördern. 

  • Feldexperiment (6 Subreddits, 520 Personen, 4 Wochen) zeigt:  Wer die Diskussion als toxisch, respektlos oder polarisiert empfand, schwieg eher. Überraschend aber: Unter den Aktiven gingen damit höhere Kommentarzahlen einher. Vielschreiber sind häufiger Männer, politisch besonders Interessierte und erfahrene Kommentierende. 

  • Interventionen: Finanzielle Anreize verbreitern die Beteiligung, reduzieren die Ungleichheit aber nur moderat; reine Normappelle ohne konsequente Durchsetzung wirken (in dieser grundsätzlich eher sachlichen Umgebung) wenig. Sichtbares positives Feedback (mehr Up- als Downvotes) hängt mit verstärkter zukünftiger Beteiligung zusammen. 

  • Implikationen fürs Plattformdesign: Keine Einzellösung, sondern mehrere begrenzte Hebel – positive, nicht-monetäre Verstärker für Erst- und Qualitätsbeiträge, klare und durchgesetzte Regeln zur Senkung sichtbarer Toxizität sowie mögliche Kommentarobergrenzen, um die Dominanz von extrem aktiven zu begrenzen. 

Originalpublikation:

Oswald, L., Schulz, W. S., & Lorenz-Spreen, P. (2025). Disentangling participation in online political discussions with a collective field experiment. Science Advances, 11(50), Article eady8022. https://doi.org/10.1126/sciadv.ady8022

Weitere interessante Beiträge

Zur Redakteursansicht