EnglishDeutsch

Unstatistik des Monats

Gemeinsam mit dem RWI-Vizepräsidenten Thomas Bauer (Rheinisch-Westfälisches-Institut für Wirtschaftsforschung) und dem Dortmunder Statistiker Walter Krämer (TU Dortmund) hat der Berliner Psychologe Gerd Gigerenzer, Direktor des Harding-Zentrums für Risikokompetenz am Max-Planck-Institut für Bildungsforschung (MPIB) in Berlin, im Jahr 2012 die Aktion „Unstatistik des Monats“ ins Leben gerufen. Seit August 2018 ist zudem Katharina Schüller, Geschäftsleiterin und Gründerin von STAT-UP, Mitglied des Unstatistik-Teams.

Mit der Unstatistik des Monats hinterfragen sie jeden Monat sowohl jüngst publizierte Zahlen als auch deren Interpretationen. Die Aktion will so dazu beitragen, mit Daten und Fakten vernünftig umzugehen, in Zahlen gefasste Abbilder der Wirklichkeit korrekt zu interpretieren und eine immer komplexere Welt und Umwelt sinnvoller zu beschreiben. 

„Es gibt eine Art Analphabetismus im Umgang mit Wahrscheinlichkeiten und Risiken.“ (Gerd Gigerenzer)

Im Harding Zentrum für Risikokompetenz am Max-Planck-Institut für Bildungsforschung steht die Vision eines mündigen Bürgers im Fokus der Forschung, der mit den Risiken einer modernen, technologischen Welt informiert umzugehen versteht. Ergebnisse aus Studien und Experimenten sowie aus Umfragen in der Bevölkerung sollen dabei helfen, Risiken kompetent und richtig zu beurteilen. Fort- und Weiterbildungen für Ärzte sowie für Journalisten, für deren Arbeit eine korrekte Interpretation sowie eine transparente und verständliche Kommunikation von statistischen Daten essentiell sind, bietet das Harding Zentrum ebenfalls an.

Mehr Unfälle durch vereinfachten Motorradführerschein?

Presseinformation vom 28.06.2019

Die Unstatistik des Monats Juni ist die Interpretation der österreichischen Unfallstatistik durch die Bundesanstalt für Straßenwesen (BASt). Die BASt stellt fest, dass sich die Verkehrssicherheit in Österreich erkennbar verschlechtert habe, seit im Jahr 1997 eine Regelung zum vereinfachten Erwerb der Fahrerlaubnis für Leichtkrafträder eingeführt wurde. Österreich hatte den „Code 111“, der eine Person zum Lenken eines Motorrads der Klasse A1 berechtigt und ohne zusätzliche Fahrprüfung im B-Führerschein eingetragen wird, 1997 eingeführt.

Diese Interpretation wird von zahlreichen Medien in Deutschland zitiert, darunter „Spiegel online“ und „Der Tagesspiegel“. Anlass sind die Pläne von Bundesverkehrsminister Andreas Scheuer, eine vergleichbare Regelung in Deutschland einzuführen. Nach sechs Übungsstunden und 90 Minuten Theorie sollen Autofahrer, die seit mindestens fünf Jahren einen Führerschein der Klasse B besitzen, zukünftig die Fahrerlaubnis für Krafträder der Klasse A1 mit einem Hubraum von bis zu 125 Kubikzentimeter und einer Motorleistung von nicht mehr als 11 Kilowatt, also 15 PS, ohne zusätzliche Fahrprüfung erhalten dürfen. Wer seinen Führerschein der Klasse B vor dem 1. April 1980 erworben hat, der darf diese Motorräder bereits fahren.

Deutsche Experten reagieren „entsetzt“, wie zahlreiche Medien von „AutoBILD“ bis „ZEIT“ einhellig berichten. Das hatten ihre österreichischen Kollegen 1997 allerdings auch schon getan. Von einer „dramatischen Trendumkehr in der Motorrad-Unfallstatistik“ war in einer Pressemitteilung des Kuratoriums für Verkehrssicherheit (KfV) zu lesen. Man befürchtete katastrophale Folgen, wenn ungeübte Autofahrer plötzlich aufs Motorrad umstiegen. Denn die meisten Motorrad-Unfälle seien Folge von Fahrfehlern. (Dass aktuell fast drei Viertel aller Motorradunfälle in Deutschland gar nicht selbstverschuldet sind, fällt gern unter den Tisch.)

Statistiken zeigen keine längerfristige Trendwende in der Verkehrssicherheit durch erleichterten Zugang zu Leichtkrafträdern

Natürlich sind mehr Motorradunfälle zu erwarten, wenn mehr Menschen mit dem Motorrad unterwegs sind. Das zu begreifen, dafür reicht gesunder Menschenverstand. Mit der Interpretation von Statistiken hingegen ist es nicht ganz so einfach. So behauptet der Deutsche Verkehrssicherheitsrat (DVR), dass nach der Einführung des Code 111 die Zahl der Zulassungen und der Unfälle zugenommen habe. Die BASt kommt zum bereits zitierten Ergebnis, die Verkehrssicherheit in Österreich habe sich erkennbar verschlechtert. Stimmt das wirklich?

Es lohnt die Mühe, die Studien und Statistiken selbst zu lesen. Ausgerechnet das KfV hat im Jahr 2017 eine detaillierte Analyse der Unfallursachen bei Motorradunfällen vorgenommen, die die Statistiken seit 1990 genauestens unter die Lupe nimmt. In der Tat gab es in Österreich 1997 ein gutes Viertel mehr zugelassene Motorräder und ein knappes Drittel mehr Motorradunfälle als im Vorjahr. Im Verhältnis stieg die Zahl der Toten je 100.000 Motorräder sprunghaft um rund 20 Prozent an.

Aber eine Trendwende der Verkehrssicherheit lässt sich aus diesen Daten eben nicht ableiten. Erstens ist die Zahl zugelassener Motorräder Jahr für Jahr kontinuierlich gestiegen. Zweitens hat sich die Rate der durch Motorräder zu Tode gekommenen Verkehrsteilnehmer, also die absolute Zahl der Getöteten geteilt durch die zugelassenen Motorräder, seit 1990 um ganze 80 Prozent verringert. Schon 1998 lag diese Rate wieder deutlich unter dem Niveau von 1996. Drittens schließlich ist selbst die absolute Anzahl der Motorrad-Toten zurückgegangen; sie lag 2015 immerhin fast ein Fünftel unter der Zahl von 1990.

Das bedeutet keinesfalls, dass Fahrsicherheit und damit Verkehrssicherheit keine Übung erfordern. Wer mit der besonderen Fahrphysik eines Zweirads und dem durch einen Helm eingeschränkten Sichtfeld nicht vertraut ist, der gefährdet sich und andere. Das spräche aber eher dafür, jeden Motorradfahrer zum regelmäßigen Nachweis seiner Fahrsicherheit zu verpflichten, als eine Regelung zu verhindern, die in vielen europäischen Ländern längst gängige Praxis ist.

„Zuverlässiger“ Bluttest aus Heidelberg – jede zweite gesunde Frau würde falschen Krebsbefund erhalten

Presseinformation vom 07.06.2019

Die Unstatistik des Monats Mai ist die Falsch-Alarm-Rate des Heidelberger Bluttests für Brustkrebs.

Dieser Test wurde in einer Pressemitteilung des Universitätsklinikums Heidelberg als „Meilenstein in der Brustkrebsdiagnostik“ gepriesen und auf der Titelseite der BILD-Zeitung als „Weltsensation aus Deutschland“ gefeiert. In beiden Fällen wurde die Sensation mit einer Trefferrate von 75 Prozent begründet und davon gesprochen, dass der Test marktfähig sei. Wir hatten in der Unstatistik vom Februar 2019 bereits erklärt, dass die Trefferrate allein nichts über die Zuverlässigkeit eines Tests aussagt. Man muss immer zugleich die Falsch-Alarm-Rate kennen, das heißt, wie häufig der Test bei gesunden Frauen fälschlicherweise einen Verdacht auf Krebs feststellt. Diese wurde aber nicht kommuniziert.

Warum muss man beides wissen? Ein einfaches Beispiel verdeutlicht das. Wenn man schlicht bei jeder Frau einen Tumor diagnostiziert, dann wird jeder Tumor gefunden, aber auch jede gesunde Frau wird falsch diagnostiziert – also erzielt man eine Falsch-Alarm-Rate von 100 Prozent. Wenn man zwei Münzen wirft und immer Krebs diagnostiziert, sofern man keine Doppel-Zahl hat, dann hat man – wie beim Bluttest – eine Trefferrate von 75 Prozent, aber auch eine Falsch-Alarm-Rate von 75 Prozent. Also ist eine hohe Trefferrate nur beeindruckend, wenn die Falsch-Alarm-Rate niedrig ist. Das Mammographie-Screening hat beispielsweise eine Trefferrate von etwa 80 Prozent bei einer Falsch-Alarm-Rate von 5 bis 10 Prozent, je nach Alter der Frau.

Inzwischen ist es uns gelungen, Information über die Falsch-Alarm-Rate des Bluttests zu finden. Uns liegen die Folien eines Vortrags „Liquid Biopsy in der gynäkologischen Onkologie“ von Professor Christof Sohn vor, der den Bluttest vorgestellt hatte. Dort ist die Falsch-Alarm-Rate angegeben. Über alle getesteten Frauen hinweg betrug sie 46 Prozent. Kein Wunder, dass die Pressemitteilung und die BILD-Zeitung sich darüber ausschwiegen.

Was bedeutet eine Falsch-Alarm-Rate von 46 Prozent? Wenn ein solcher Test zum Brustkrebs-Screening eingeführt werden würde, dann würden knapp die Hälfte aller gesunden Frauen in Deutschland einen verdächtigen Befund erhalten. Einen derart schlechten Test zu vermarkten und von den Krankenkassen bezahlen zu lassen, wie die Heidelberger Forscher ankündigten, wäre unverantwortlich. Gerade bei einem Bluttest sollte man Frauen ehrlich über dessen Zuverlässigkeit informieren, da diese mit einem falschen Befund bis zu fünf Jahre leben müssen. Erst dann werden Tumore so groß, dass man mit einem bildgebenden Verfahren untersuchen kann, ob wirklich ein Tumor vorliegt. 

Bei der Pressekonferenz im Februar saß auch der Geschäftsführer der HeiScreen GmbH mit auf dem Podium, der den Bluttest auf den Markt bringen sollte. Inzwischen ermittelt die Staatsanwaltschaft für Wirtschaftskriminalität in Mannheim, die Universität Heidelberg entschuldigte sich und hat eine Untersuchungskommission eingesetzt.

Die Heidelberger Forscherinnen und Forscher haben die wissenschaftlichen Standards verletzt. Sie sind direkt zur BILD-Zeitung gegangen, ohne dass zuvor die Studie begutachtet und veröffentlicht wurde. Sie haben mit der Sensation von „75 Prozent“ tausende von Frauen in die Irre geführt, die dann bei Ärzten hoffnungsvoll nach dem Bluttest fragten. Und sie scheinen in Kauf genommen zu haben, dass im Falle einer gelungenen Vermarktung des Tests Millionen von Frauen unnötigerweise eine falsche Krebsdiagnose erhalten hätten.

Gelsenkirchen #401

Presseinformation vom 17.04.2019

Im April 2019 wurde eine Studie aus dem Mai 2018 als Unstatistik virulent: Wie u.a. die WAZberichtet, weigern sich mehrere Oberbürgermeister und Landräte des Ruhrgebiets, an zwei vom ZDF geplanten Ranglisten, dem „Familienatlas“ und dem „Seniorenatlas“, teilzunehmen. Hintergrund ist die Verärgerung der Lokalpolitiker über die Studie „Wo lebt es sich am besten? Die große Deutschland-Studie“aus der Dokumentations-Reihe ZDFzeit vom Mai 2018, die von der Prognos AG im Auftrag des ZDF erstellt wurde.

Auf Basis von 53 Indikatoren, die den Kategorien „Arbeit und Wohnen“, „Gesundheit und Sicherheit“ sowie „Freizeit und Natur“ zugeordnet wurden, kam die Prognos-Studie 2018 zu dem Ergebnis, dass Gelsenkirchen im Ranking der lebenswertesten Regionen Deutschlands den letzten Platz einnimmt. Im Anschluss wurde dieses Ergebnis unter dem Hashtag #401 im Ruhrgebiet breit diskutiert. Die Aufregung der Oberbürgermeister und Landräte wäre wohl sehr viel kleiner, wenn Sie das Städteranking von ZDF als das nehmen würden, was es ist – eine Unstatistik.

Sicherlich betrachtet die Studie von ZDF und Prognos einzelne wichtige Indikatoren zur ökonomischen und kulturellen Situation der Regionen in Deutschland. Diese können auch für Lokalpolitiker sehr hilfreich sein. Aus den Indikatoren jedoch ein allumfassendes Ranking der Lebensqualität in den Regionen abzuleiten, ist zumindest fraglich und birgt eine Vielzahl von Problemen.

Die weitgehend willkürliche Gewichtung der einzelnen Indikatoren, die das Ergebnis dieses Rankings erheblich beeinflussen, wollen wir an dieser Stelle nicht im Detail thematisieren. Denn das viel grundlegendere Problem derartiger Rankings liegt in der Auswahl der dem Ranking zugrundeliegenden Indikatoren und deren Zuordnung zu einzelnen Kategorien.

Regionen mit strukturellen ökonomischen Problemen haben in diesem Ranking keine Chance

Viele der vom ZDF verwendeten Indikatoren sind hoch miteinander korreliert. So verwendete das ZDF in der Kategorie „Arbeit und Wohnen“ die Indikatoren Arbeitslosenquote, verfügbares Einkommen, Anteil der Einwohner in Bedarfsgemeinschaften und Anzahl der privaten Schuldner je 100 volljährige Einwohner. Da eine hohe Arbeitslosenquote üblicherweise mit einem geringeren durchschnittlichen Einkommen, einem hohen Anteil von Einwohnern in Bedarfsgemeinschaften und vielen privaten Schuldner einhergeht, werden Regionen mit strukturellen ökonomischen Problemen automatisch ans Ende des Städterankings katapultiert. Daran können die in diesen Regionen üblicherweise geringeren Mieten aufgrund ihrer geringen Gewichtung im Ranking nichts ändern.

Zudem ist die Zuordnung der Indikatoren zu den einzelnen Kategorien durchaus diskussionswürdig. Man kann sich schon fragen, was die Schulabbrecherquote oder der Frauenanteil in Kreistagen, Stadt- oder Gemeinderäten mit „Arbeit und Wohnen“, das Verhältnis der Abfälle pro Haushalt zu ihren Konsumausgaben mit „Gesundheit und Sicherheit“ oder die Studierendendichte mit „Freizeit und Natur“ zu tun hat. Es ist sicherlich nicht auszuschließen, dass ein kleiner Teil der Studierenden ihr Studium als Freizeit ansehen – für die überwiegende Mehrzahl ist das Studium aber eine Investition in ihre Zukunft.

Nicht zuletzt ist die holzschnittartige Interpretation einiger Indikatoren als „gut“ oder „schlecht“ problematisch. Führen mehr Sonnenstunden pro Jahr wirklich zu einer höheren Lebensqualität? Noch im Rekordsommer 2018 haben viele Medien über die zahlreichen „vorzeitigen Todesfälle“ aufgrund der Hitze berichtet. Und warum führt nur die Anzahl klassischer Kulturveranstaltungen mit eigenem Ensemble und institutioneller Förderung zu einer höheren Lebensqualität, nicht aber die Existenz eines traditionellen Fußballvereins in der 1. Bundesliga? Die Gemeinde Wacken, in der jedes Jahr eines der weltweit größtes Heavy-Metal-Festivals mit über 80.000 Teilnehmern stattfindet, würde den dazugehörigen Kreis Steinburg in Schleswig-Holstein in der Kategorie „Freizeit und Natur“ sicherlich von einem unteren in die oberen Ränge schieben, wenn auch Rockmusik als Kultur angesehen würde.

Rankings setzen falsche Anreize für die Lokalpolitik

Solche Rankings lenken die Anreize für Lokalpolitiker daher tendenziell in die vollkommen falsche Richtung. Um im Ranking möglichst schnell nach oben zu kommen, dürften ineffiziente Krankenhäuser nicht geschlossen werden (obwohl die Notfallversorgung weiterhin gewährleistet wäre) oder es würde das x-te hochsubventionierte Theater eröffnet. Maßnahmen, die sich nur sehr langfristig positiv auf das Ranking auswirken, wie beispielsweise die nachhaltige Ertüchtigung der Schulen, könnten hingegen in der Dringlichkeitsliste nach unten rücken.

Also liebe Oberbürgermeister und Landräte: Nehmt dieses Ranking als das, was es ist – statistischer Unfug – und konzentriert euch auf die in eurem Zuständigkeitsbereich drängendsten Probleme. Das hilft allen Bürgerinnen und Bürgern weit mehr als ein Top-Platz in einem fragwürdigen Städte-Ranking. Liegt das primäre Interesse des vom ZDF geplanten „Familienatlas“ und „Seniorenatlas“ in einem erneuten Ranking, kann man diese Pläne durchaus boykottieren.

Digitaler Scheinenthusiasmus

Presseinformation vom 29.03.2019

Die Unstatistik des Monats ist eine im März publizierte Studie der Firma Duden Learnattack, nach der sich deutsche Lehrer und Schüler mehr digital geprägten Unterricht wünschen. Neun von zehn Lehrern hätten demnach gerne digitale Technologien zur Unterstützung des Unterrichts, 83% wünschen, dass ihren Schülern Online-Material zur Vor- und Nachbereitung des Unterrichts zur Verfügung steht, und 87% erwarten von der Digitalisierung ganz generell große Chancen für ein nachhaltiges und erfolgreiches Lernen.

Diese Zahlen sind Hochrechnungen aus einer Online-Umfrage des Marktforschungsinstituts YouGov unter 1.111 Schülern und Schülerinnen, Lehrern und Lehrerinnen sowie Eltern von Schulkindern, durchgeführt im Januar und Februar. Diese Stichprobe ist aber nicht repräsentativ. Vielmehr zieht YouGov seine Stichprobe zufällig aus einem Pool internet-affiner Zeitgenossen – Menschen mit Rechnerallergien kommen darin nicht vor. Damit sind aber daraus abgeleitete Schlüsse auf die Grundgesamtheit aller Lehrer und Schüler in Deutschland der gleiche Unfug, als würde man aus einer Stichprobe von Gottesdienstbesuchern im Kölner Dom auf die Religionszugehörigkeit aller Bundesbürger schließen.

Dergleichen Online-Umfragen sind preiswert und werden unter anderem auch deshalb in der Politikberatung immer beliebter – ungeachtet einer oft mangelnden Repräsentativität. So ist nach einer Studie des Bundesministeriums für Arbeit und Soziales (BMAS) vom Oktober 2018 das Ausmaß von Plattformarbeit in Deutschland (das sog. Crowdworking) sehr viel höher als erwartet: Rund 5 % der deutschen Erwachsenen wären auf Plattformen aktiv, 70 % davon würden ein Erwerbseinkommen erzielen. Grundlage ist eine Online-Stichprobe der Firma Civey, die auf einer Vielzahl von Interseiten sogenannte „Widgets“ schaltet, auf die man klicken kann, um an der Umfrage teilzunehmen. Damit werden an dieser Umfrage überproportional viele „Crowdworker“ teilgenommen haben, und das vom BMAS kommunizierte Ausmaß von „Crowdworking“ ist vollkommen bedeutungslos.

Weltsensation – Bluttest erkennt Brustkrebs!

Presseinformation vom 28.02.2019

Die Unstatistik des Monats Februar ist eine Pressemitteilung der Universitätsklinik Heidelberg. Sie berichtet über einen neuen „marktfähigen“ Bluttest für Brustkrebs, der eine Trefferrate (Sensitivität) von 75 Prozent hat. Die Heidelberger Forscher gaben der BILD-Zeitung ein Exklusiv-Interview, die dann schrieb: „Neuer Bluttest erkennt zuverlässig Brustkrebs - Warum dieser Test eine Weltsensation ist“.

Nach üblichen wissenschaftlichen Standards veröffentlichen Forscher zuerst eine Studie in einer Fachzeitschrift, die dort begutachtet wird, und gehen erst dann an die Presse. Beim Bluttest wurde dieser Standard nicht eingehalten. Die Heidelberger Forscher sind zuerst medienwirksam zur BILD-Zeitung gegangen. Eine wissenschaftliche Veröffentlichung liegt nicht vor.

Was bedeutet eine Trefferrate von 75 Prozent? Laut Pressemitteilung wurde der Bluttest an über 900 Frauen erprobt, von denen über 500 Brustkrebspatientinnen waren. Bei 75 Prozent der Frauen mit Brustkrebs war der Test positiv (Verdacht auf Brustkrebs) und bei 25 Prozent dieser Frauen wurde der Krebs übersehen. 

Erst die Falsch-Alarm-Rate macht die Trefferrate aussagekräftig

Ist 75 Prozent nun gut oder schlecht? Diese Frage kann niemand beantworten, da die Pressemitteilung die dazu notwendige Information unerwähnt gelassen hat: die Falsch-Alarm Rate des Bluttests. Denn jeder Test dieser Art macht zweierlei Fehler: erstens, einen Krebs zu übersehen (wie gesagt, der Bluttest übersieht dies bei 25 Prozent der Frauen), und zweitens, bei Frauen ohne Krebs fälschlicherweise Krebs zu diagnostizieren. Die Falsch-Alarm Rate gibt an, wie oft dieser zweite Fehler passiert. Gerade bei einem Bluttest sollten Frauen diese Information ehrlich und verständlich erhalten, da sie mit einem verdächtigen Befund noch bis zu fünf Jahre leben müssen – erst dann sind Tumore in der Regel so groß, dass man mit bildgebenden Verfahren wie Mammographie prüfen kann, ob es wirklich einen Tumor gibt oder es sich um einen falschen Alarm handelt. Und je höher die Falsch-Alarm Rate ist, desto mehr gesunde Frauen müssen mit Verdacht auf einen Krebs leben, den sie gar nicht haben. Man muss sich ernsthaft fragen, warum die Pressemitteilung diese wichtige Information der Öffentlichkeit vorenthalten hat.

Ein einfaches Beispiel verdeutlicht, warum die Trefferrate allein nicht zeigt, wie gut ein Test ist. Nehmen wir eine Gruppe von Frauen, 10 mit Krebs und 100 ohne Krebs. Man kann eine Trefferrate von 100 Prozent erreichen, wenn man einfach bei jeder Frau Verdacht auf Krebs feststellt. Diese Methode „erkennt“ alle Frauen mit Brustkrebs, aber alle 100 Frauen ohne Krebs erhalten fälschlicherweise einen verdächtigen Befund.  Mit dieser Methode würde man keinen einzigen Krebs übersehen, aber eine Falsch-Alarm Rate von 100 Prozent haben. Eine Trefferrate von 100 Prozent wäre dagegen beeindruckend, wenn zugleich die Falsch-Positiv Rate bei 1 Prozent läge. Dieser Test erkennt alle Frauen mit Brustkrebs richtig, und nur eine der Frauen ohne Brustkrebs wird fälschlicherweise alarmiert. Eine Trefferrate kann man also nur bewerten, wenn man die Falsch-Alarm Rate kennt. Die Mammographie hat beispielsweise eine Trefferrate von etwa 80 Prozent und eine Falsch-Alarm Rate von fünf bis zehn Prozent.

Das Problem liegt hier nicht erst bei der BILD Zeitung, sondern bereits in der Pressemitteilung. Dank BILD wissen zwar jetzt viele Frauen von dem Test, ohne aber wissen zu können, wie gut er ist. Pressemitteilungen mancher Universitäten sind in den vergangenen Jahren zurecht kritisiert worden, weil sie Schlagzeilen oder Vermarktung statt dem Ziel verständlicher Information dienen. So saß bei der Pressekonferenz auch der Geschäftsführer der HeiScreen GmbH auf dem Podium, der den Bluttest auf den Markt bringen soll. Gerade bei so angstbesetzten Themen wie Krebs sollten Pressestellen jedoch dafür sorgen, dass die Standards guter wissenschaftlicher Information wieder eingehalten werden.

Berichterstattung in der Tagesschau über den Zusammenhang von Feinstaub und vorzeitigen Todesfällen

Presseinformation vom 04.02.2019

Schweine sind gefährlicher als Diesel-Autos: Rund 50.000 Menschen sterben vorzeitig Jahr für Jahr in Deutschland an den Emissionen der Landwirtschaft (insbesondere der Massentierhaltung) errechnet das Mainzer Max-Planck-Institut für Chemie. Das seien 45 Prozent und damit der größte Teil der jährlich knapp 120.000 vorzeitigen Todesfälle durch Feinstaub – doppelt so viele wie bisher angenommen. Für die Tagesschau ist damit klar, dass Feinstaub ebenso gefährlich ist wie Rauchen.

Doch das Konzept der „Anzahl vorzeitiger Todesfälle“ ist ein Musterbeispiel einer Unstatistik. Zunächst stirbt in Deutschland kein einziger Mensch an Feinstaub, sondern an Erkrankungen, die durch Feinstaub (mit) verursacht sein können, es aber nicht sein müssen. Das Max-Planck-Institut untersucht in dieser Studie auch gar nicht, ob Feinstaub die Gesundheit von Menschen beeinflusst, sondern setzt voraus, dass dies der Fall ist und darüber hinaus sogar quantifiziert werden kann. Dabei handelt es sich aber nicht um gemessene Fakten, sondern um Modellergebnisse, die auf Annahmen beruhen und eine hohe Unsicherheit von mindestens +/- 50 Prozent aufweisen. Warum ist das so?

Der Grund ist, dass man nicht weiß, wie viele Menschen vorzeitig verstorben sind, sondern nur, um wieviel kürzer sie im Schnitt gelebt haben. Man kann lediglich versuchen, die Anzahl der vorzeitig Verstorbenen herzuleiten. Hierzu sucht man eine Formel, die ein plausibles Ergebnis für den beobachteten Unterschied der Lebensdauer liefert.

Es bleibt unklar, wie Unterschiede in der Lebensdauer zustande kommen

Diese Formel ist die „Attributable Fraktion“. Sie wird oft verwendet, sieht kompliziert aus und mag in manchen Situationen auch zu den Daten passen. Nur – niemand weiß, ob sie tatsächlich stimmt. Die Datenbasis solcher epidemiologischen Studien sind zusammenfassende Statistiken über Gruppen von Menschen, die zeigen, dass (manche, nicht alle) Gruppen mit hoher Feinstaub-Exposition im Durchschnitt kürzer gelebt haben als (manche, nicht alle) Gruppen mit niedriger Exposition. Selbst wenn diese Gruppen in allen anderen Merkmalen identisch wären, so wie Zwillinge, gibt es immer noch verschiedene Möglichkeiten, wie der Unterschied zustande kommen kann.

Stirbt jeder Mensch in der belasteten Gruppe um ein Jahr früher, so lebt die belastete Gruppe auch im Durchschnitt ein Jahr kürzer. Nehmen wir beispielsweise drei Zwillingspärchen: Zwillingspaar eins stirbt mit 79 bzw. 78 Jahren, Paar zwei mit 80 bzw. 79 Jahren und Paar drei mit 81 bzw. 80 Jahren. Drei Personen leben kürzer und im Durchschnitt lebt die belastete Gruppe ein Jahr kürzer. Nehmen wir nun alternativ an, dass die belasteten und unbelasteten Zwillinge der Paare eins und zwei exakt gleichlang leben. Nur Paar drei unterscheidet sich: Einer stirbt mit 81 Jahren, der andere mit 78. Dann gibt es nicht drei vorzeitige Todesfälle, sondern nur einen, aber im Durchschnitt lebt die belastete Gruppe ebenfalls ein Jahr kürzer. Bei Tausenden oder gar Millionen von Menschen steigt die Zahl möglicher Kombinationen massiv an.

Deshalb ist zwar eine Aussage über die durchschnittliche Zahl verlorener Lebensjahre pro Person vernünftig, aber eine Aussage über die Zahl vorzeitiger Todesfälle durch Feinstaub ist es nicht. Denn letztere kann viel kleiner sein oder auch viel größer, als uns diese Unstatistik glauben macht. Wer wie die Tagesschau suggeriert, das Max-Planck-Institut hätte nun durch präzise Berechnungen widerlegt, was man zuvor nur angenommen hat, der handelt mindestens grob fahrlässig.

Zum Weiterlesen:
– Morfeld P., Erren T. (2019): Warum ist die „Anzahl vorzeitiger Todesfälle durch Umweltexpositionen“ nicht angemessen quantifizierbar? Erscheint demnächst in: „Das Gesundheitswesen“
– Die Studie des Max-Planck-Instituts für Chemie gibt an, die Methodik nach Lim et al. zu verwenden; dies ist die Attributable Fraction, siehe: www.ncbi.nlm.nih.gov/pmc/articles/PMC4156511/

„Sie sind wahrscheinlich HIV-Positiv“

Presseinformation vom 08.01.2019

Am 1. Dezember war Welt-AIDS-Tag. Das Motto lautete im Jahr 2018 „Know your status“. Ziel ist, dass bis zum Jahr 2020 90 Prozent aller Menschen ihren Immunstatus kennen. Seit Oktober dürfen dazu in Deutschland HIV-Schnelltests frei verkauft werden, die man in Apotheken, Drogerien oder über das Internet bestellen und anonym selbst durchführen kann. Man muss nur die Gebrauchsanweisung lesen, mit einer Lanzette die Haut an der Fingerspitze durchstechen und das Blut in ein Teströhrchen füllen. Dann wartet man 10 bis 15 Minuten und erhält schließlich das Ergebnis: positiv oder negativ. Leider wird aber nicht verständlich erklärt, was das Ergebnis bedeutet. Das wäre jedoch  insbesondere für alle diejenigen wichtig, die ohne Arzt einen HIV-Selbsttest durchführen.

Angenommen, man möchte seinen Status wissen und bestellt online den von der Deutschen AIDS-Hilfe empfohlenen „autotest VIH“, der mit dem CE-Prüfzeichen der EU versehen ist, welches die Eignung für Laien bestätigt (www.autotest-sante.com). Das Testergebnis fällt positiv aus. Man liest in der Gebrauchsanweisung nach, was es bedeutet. Dort steht: „Sie sind wahrscheinlich HIV-positiv.“ Der gleiche Wortlaut findet sich bei anderen zertifizierten Schnelltests wie „INSTI“ und „Exacto.“ Ist ein positiver Test ein Todesurteil? Wie wahrscheinlich ist wahrscheinlich? Viele Menschen denken, das bedeutet, eher infiziert zu sein als nicht. Die Gebrauchsanweisung gibt zusätzlich auch in Zahlen an wie gut der Test ist: Sensitivität: 100%, Spezifität: 99,8%.  

Von 13 Personen mit positivem HIV-Test ist nur eine infiziert

Die Sensitivität ist die Wahrscheinlichkeit dafür, dass eine Person positiv testet, falls sie HIV-infiziert ist. Die Spezifität ist die Wahrscheinlichkeit dafür, dass eine Person negativ testet, falls sie nicht HIV-infiziert ist. In anderen Worten, die Falsch-Alarm-Rate beträgt nur 0,2%. Diese beeindruckende Genauigkeit beweist also, dass ein positives Ergebnis so gut wie sicher ist. So scheint es.

Wie hoch ist nun wirklich die Wahrscheinlichkeit HIV-infiziert zu sein, wenn ein positives Testergebnis vorliegt? Diese ist nicht 100% und auch nicht 99,8%. Sie ist auch nicht in der Gebrauchsanweisung zu finden, noch wird dort erklärt, wie man sie bestimmen könnte.

Eine Überschlagsrechnung kann die Antwort geben. In Deutschland leben laut dem Statistischen Bundesamt etwa 69 Millionen Menschen, die älter als 18 Jahre sind. Von ihnen sind geschätzt etwa 11.400 infiziert, ohne es zu wissen: davon 2.700 durch heterosexuelle Kontakte, die anderen durch Sex zwischen Männern oder intravenösem Drogengebrauch (www.rki.de). Von je 6.000 Deutschen ist also etwa einer infiziert (69 Millionen dividiert durch 11.400). Dieser wird mit Sicherheit (100 Prozent) positiv testen. Unter den 5.999 Personen, welche nicht infiziert sind, erwarten wir jedoch weitere 12, die ebenfalls positiv testen. Das folgt aus der Falsch-Alarm-Rate von 0,2 Prozent.  Das heißt, von insgesamt 13 Personen,  die positiv testen, ist nur einer tatsächlich infiziert ist. „Sie sind wahrscheinlich HIV-positiv“ bedeutet also, dass die Wahrscheinlichkeit bei nur etwa 8 Prozent liegt, dass man infiziert ist. Anders ausgedrückt, die Wahrscheinlichkeit beträgt 92 Prozent, dass man nicht infiziert ist, wenn man im Schnelltest positiv testet. Bei Heterosexuellen ohne Risikoverhalten, dem größten Teil der Deutschen, ist die Wahrscheinlichkeit infiziert zu sein nochmals deutlich kleiner, sie liegt unter 5 Prozent.

Verständliche Aufklärung rettet Leben

Die Gebrauchsanweisung sagt, dass man sich bei einem positiven Test man so schnell wie möglich an einen Arzt wenden soll. Das ist sinnvoll. Nur zeigen Studien in Deutschland, dass beispielsweise die Mehrzahl der AIDS-Berater an Gesundheitsämtern selbst nicht gelernt haben, Gesundheitsstatistiken zu verstehen und glauben, dass es keine „Falsch-Positive“ gäbe (europepmc.org/abstract/med/26149159). Deshalb wäre es umso wichtiger, in der Kommunikation und vor allem in der Gebrauchsanweisung klar zu sagen, was ein positives Ergebnis im Schnelltest wirklich bedeutet. In ähnlichen Situationen haben Menschen über Suizid nachgedacht und auch begangen ­­­– obgleich sie tatsächlich nicht infiziert waren ­– um Stigma und sozialer Diskriminierung zu entgehen, die immer noch mit AIDS verbunden sind.

HIV-Schnelltests können sinnvoll sein. Zum verantwortungsvollen Umgang mit ihnen gehört aber, den Menschen verständlich zu erklären, was ein positives Testergebnis wirklich bedeutet.

Das Buch zur "Unstatistik des Monats"

Buchcover

Warum dick nicht doof macht und Genmais nicht tötet - Über Risiken und Nebenwirkungen der Unstatistik

216 S., zahlreiche Tabellen und Grafiken, Klappenbroschur
EUR 16,99/EUA 17,50/sFr 24,90
ISBN 978-3-593-50030-0
 

Siehe auch

Beteiligte Personen

Prof. Dr. Gerd Gigerenzer
Direktor des Forschungsbereichs "Adaptives Verhalten und Kognition"
Max-Planck-Institut für Bildungsforschung
sekgigerenzer [at] mpib-berlin [dot] mpg [dot] de

Prof. Dr. Thomas Bauer
Vizepräsident Rheinisch-Westfälisches Institut für Wirtschaftsforschung
(0201) 81 49-264
www.rwi-essen.de

Prof. Dr. Walter Krämer
TU Dortmund
Institut für Wirtschafts- und Sozialstatistik
(0231) 755-31 25
www.tu-dortmund.de