RHI Zukunftsnavigator 2021: In Deutschland neu denken. Группа авторов
laufend veränderten, fand praktisch keine Berücksichtigung. Eine Aufschlüsselung der durchgeführten und positiven Tests nach Anlass und Subgruppen sowie nach Testwiederholungen an denselben Personen blieb weitgehend aus. Die Ergebnisse der Datenanalysen wurden von zahlreichen Medien unmittelbar zu Trends mit teilweise täglichen Richtungswechseln erklärt und dabei mit einer Bedeutung aufgeladen, die in den Daten höchstens ansatzweise enthalten war. Dies im Blick zu behalten ist wesentliches Element des Interpretierens von Daten (nicht: Ergebnissen).
Data Literacy umfasst hier, dass genau verstanden werden muss, wie ein Datum entsteht und welcher räumliche, zeitliche und sachliche Bezug daraus resultiert, um die aufbereiteten Informationen zielgerichtet und handlungsleitend interpretieren zu können. Als im Mai 2020 die Debatte über regional unterschiedliche Lockerungsstrategien in Deutschland geführt wurde, sollten Kenngrößen wie die Reproduktionszahl R und die 7-Tage-Inzidenz dafür die Entscheidungsgrundlage liefern. Doch derartige Kenngrößen, die sich erst mit erheblichem Zeitverzug berechnen lassen und noch dazu auf Daten beruhen, die alles andere als präzise Aussagen erlauben, können Entscheidungen nicht im Voraus stützen. Sie liefern kein Steuerungswissen, sondern ähneln eher dem Autofahren mit Blick in den Rückspiegel. Solange die Straße gerade verläuft, mag das noch angehen, aber nicht, wenn die Straße – bildlich gesprochen – durch die ergriffenen Maßnahmen verändert wird.
Handlungs- und Steuerungswissen erfordert die Interpretation von Daten und ihre Einbindung in einen Kontext. Den Gedanken, dass Wissen aus Daten erst entsteht, formuliert die deutsche Bundesregierung in ihrem Eckpunktepapier zur Datenstrategie folgendermaßen: »Im digitalen Zeitalter sind Daten eine Schlüsselressource für gesellschaftlichen Wohlstand und Teilhabe, für eine prosperierende Wirtschaft und den Schutz von Umwelt und Klima, für den wissenschaftlichen Fortschritt und für staatliches Handeln. Die Fähigkeit, Daten verantwortungsvoll und selbstbestimmt zu nutzen, zu verknüpfen und auszuwerten, ist gleichermaßen Grundlage für technologische Innovation, für das Generieren von Wissen und für den gesellschaftlichen Zusammenhalt.« 4 Die Nähe dieser Formulierung zur hier verwendeten Definition von Data Literacy ist unverkennbar.
Haltung als Kompetenzdimension
In einer als lebensbedrohlich wahrgenommenen Krise verschieben sich Maßstäbe. Im Zusammenhang mit Daten wiegt das Schutzbedürfnis der Gesellschaft unter Umständen schwerer als das Recht auf informationelle Selbstbestimmung. Auch Grundregeln guter wissenschaftlicher Praxis geraten auf den Prüfstand. Dies gilt insbesondere dort, wo der bisherige Konsens – so er denn existiert – nicht kodifiziert ist, etwa weil die Chancen und Risiken neuer Technologien wie Big Data in Zusammenhang mit künstlicher Intelligenz bei weitem nicht erschöpfend verstanden sind. Selbst wenn sich alle darüber einig sind, dass es etwas wie Datenethik braucht, bleibt diffus, wie eine solche Datenethik im konkreten Fall zu operationalisieren sein könnte.
So kommt es beispielsweise zu Diskussionen darüber, ob Mobilfunkdaten zur Überwachung von Corona-Infizierten genutzt werden dürfen, aber auch über die Zulässigkeit einer Corona-App. Während in China eine rigorose Überwachung der Bevölkerung mithilfe von Kameras, fiebermessenden Sensoren und einer verpflichtenden App wohl maßgeblich zur raschen Eindämmung der ersten Pandemie-Welle beitrug, schien ein derartiger Ansatz in Europa ein nicht durchsetzbarer Eingriff in die verfassungsrechtlich garantierten Freiheitsrechte des Individuums. Dass die Abwägung individueller Freiheitsrechte und des gesellschaftlichen Schutzbedürfnisses jedoch keineswegs zu klaren und zeitlich unveränderlichen Ergebnissen führt, belegen die durchaus scharf geführten Debatten über die Registrierungspflicht beim Besuch von Gaststätten oder einen möglichen Immunitätsausweis.
Gleichfalls bezweifelt kaum jemand, dass wissenschaftliche Datenerhebung und -auswertung einen zugrunde liegenden Wertekanon benötigt. Darunter fallen der Verzicht auf unnötige Studien, das wissenschaftlich integre und korrekte Arbeiten und die Interpretation der Ergebnisse unabhängig von persönlichen Vorlieben oder Wünschen. Dem entgegen stehen politische und gesellschaftliche Erwartungen in einer Krise, etwa wenn recht offensichtlich Ergebnisse generiert werden sollen, die bereits getroffene politische Entscheidungen im Nachhinein rechtfertigen. Dem entgegenzutreten erfordert ein hohes Maß an datenethischer Kompetenz.
Dies lässt sich illustrieren an zwei umstrittenen Studien, die hierzulande nicht nur in Fachkreisen, sondern auch in Publikums- und sozialen Medien zahlreich kommentiert wurden. Ein besonders problematisches Beispiel stellt der Zwischenbericht der sogenannten »Heinsberg-Studie« dar, die unter Leitung des Virologen Hendrik Streeck der Universität Bonn in Gangelt im Landkreis Heinsberg (Nordrhein-Westfalen) durchgeführt wurde.5
Sein grundsätzlich sehr lobenswerter Ansatz, eine repräsentative Studie in Angriff zu nehmen, um die Prävalenz der Erkrankung im Hotspot Gangelt systematisch zu erheben, wurde durch die Begleitung einer PR-Agentur erheblich beeinträchtigt. Im Nachhinein stellte sich heraus, dass detaillierte Formulierungen zur Kommunikation der Studienergebnisse bereits im Vorfeld von der Agentur erstellt worden waren, mutmaßlich um politische Entscheidungen des nordrhein-westfälischen Ministerpräsidenten zu legitimieren.6 Einige der Ergebnisse konnten wertvolle Informationen liefern, etwa die empirische Bestätigung der Letalität von Covid-19, mit der eine Hochrechnung auf die damalige Prävalenz in Deutschland zumindest annähernd möglich gewesen wäre. Dieser Aspekt ging weitgehend unter, weil die Empörung über die Instrumentalisierung der Wissenschaft zu politischen Zwecken eine sachliche Bewertung der Ergebnisse fast unmöglich machte.
Wenige Wochen später inszenierte eine große deutsche Boulevardzeitung einen »Wissenschaftler-Streit« um die Studie des Virologen Christian Drosten zur Viruslast und der damit verbundenen Infektiosität unterschiedlicher Altersgruppen. Der Preprint der Studie 7 wurde teils scharf kritisiert, weil die verwendeten Analysemethoden nicht optimal geeignet waren, um die Ausgangsfrage nach einer möglicherweise geringeren Infektiosität von Kindern zu beantworten. Dass verschiedene Analysemethoden zu verschiedenen Ergebnissen führen konnten, hat die wissenschaftliche Auseinandersetzung mit der Studie eindrucksvoll bewiesen.
Ein methodisches Kernproblem war die Tatsache, dass sehr wenige Testergebnisse von Kindern vorlagen und deshalb durchaus relevante Differenzen zwischen den Gruppen nicht nachgewiesen werden konnten. Die fehlende statistische Signifikanz führte Drosten zunächst als Beweis für das Nichtvorhandensein eines Unterschieds und damit als Argument gegen die Öffnung von Kindergärten und Schulen an. Diese Interpretation wurde zu Recht kritisiert, und die Studienautoren zogen in der folgenden Überarbeitung entsprechend vorsichtigere Schlüsse. Das Beispiel verdeutlicht die Problematik, dass nicht nur Studien mit zu großen Stichproben ethisch fragwürdig sein können, wenn unnötig viele Patienten durch noch nicht ausreichend erprobte Medikamente und Untersuchungen belastet werden. Auch zu kleine Stichproben können ethische Probleme aufwerfen, denn wenn aufgrund der mangelnden Fallzahl relevante Effekte nicht nachgewiesen werden können, obwohl sie existieren, erlaubt das Ergebnis keine Aussage.
Data Literacy durch Diversity und Interdisziplinarität
Die deutsche Bundesregierung hat in ihrem Eckpunktepapier zur Datenstrategie als eines von vier zentralen Handlungsfeldern die Erhöhung der Datenkompetenz und die Etablierung einer Datenkultur definiert. Dafür bietet die Corona-Krise eine große Chance, weil aus dem Bewusstsein der Notwendigkeit heraus zunehmend Menschen und Institutionen zusammenarbeiten, die bisher kaum Berührungspunkte aufwiesen. Dieser interdisziplinäre Ansatz ist der größte Hebel, um Datenkompetenz aufzubauen. Denn der Prozess, in dem aus Daten Wissen geschaffen wird, erfordert zuerst die »Übersetzung« einer fachlichen oder gesellschaftlichen Fragestellung in ein Datenmodell. Hierzu gehört zunächst die Festlegung, was eine solche Fragestellung alles umfasst.
Streeck schreibt in seinem Abschlussbericht zur »Heinsberg-Studie«: »Epidemiologische Modellierung ist dringend nötig, um die angemessensten Vorbeugungs- und Kontrollstrategien zu entwickeln, mit denen die Pandemie bekämpft und der Kollateralschaden für die Gesellschaft minimiert werden kann.« 8
Offensichtlich ist die Krise also kein rein medizinisches oder epidemiologisches Problem, sondern auch ein gesellschaftliches. Sie ist ein ökonomisches Problem, ein psychosoziales, sie ist ein Bildungsproblem, vielleicht darüber hinaus sogar eine ökologische Chance. Aber »du kannst nicht