Qualität in der Forschung 

Lösen mehr Daten jedes Problem?

Stuttgart - 09.12.2015, 16:05 Uhr

Auf technologischer Seite entwickelt sich der Fortschritt zu immer höherer Verarbeitungsgeschwindigkeit, die Methodik hinkt hinterher (Foto: Science Photo Fotolia)

Auf technologischer Seite entwickelt sich der Fortschritt zu immer höherer Verarbeitungsgeschwindigkeit, die Methodik hinkt hinterher (Foto: Science Photo Fotolia)


Big Data, Innovation und Personalisierte Medizin: Gerd Antes, Direktor des Cochrane Zentrums Deutschland, schreibt in seinem Gastbeitrag über vermeintliche Markenzeichen einer neuen Wissenschaft-(lichkeit) in der Medizin - Teil 2.


Wir scheinen ganz generell in einer Phase des Übergangs zu leben – zwischen der „Alten Welt“ der Wissenschaft, die sich geradezu lustvoll mit den eigenen Qualitätsmängeln beschäftigt, und einer „Neuen Welt“, in der uns die selbstquälerische Auseinandersetzung mit den Mängeln des Wissenschaftsprozesses erspart bleibt. Wie lassen sich nun die optimistischen Ausblicke in die goldene Zukunft einerseits und der düstere Blick auf die Empirie der Gegenwart unter einen Hut bringen?

Ganz einfach, indem die goldene Zukunft sich zwar als Wissenschaft verkauft, dabei jedoch konsequent auf die üblichen Qualitätsansprüche an Wissenschaft verzichtet und sich auf Versprechungen, Glauben und anekdotische „Beweise” beschränkt. Folgerichtig müssen die heute unter den Schlagworten „Integrität der Wissenschaft“ oder „Good Scientific Practice“ zusammengefassten Grundregeln der Wissenschaftlichkeit, wie sie auf den Webseiten der meisten medizinischen Fakultäten und Großforschungseinrichtungen dargestellt werden, konsequent ignoriert werden, da sie sehr schnell die leuchtenden Perspektiven und den Optimismus trüben würden. Irren – eigentlich das Grundelement von Wissenschaft und Forschung – wird abgeschafft. Evaluation, Validierung, Plausibilität und Qualitätssicherung brauchen wir in Zukunft nicht mehr – was das Leben natürlich enorm erleichtert.

Massendaten, so nicht auswertbar

Besonders eindrücklich wird dieser Kontrast zwischen dem langweiligen und aufwändigen, nie endenden Kampf um mehr Qualität in der Wissenschaft einerseits und der davon unbelasteten Zukunft andererseits, wenn man sich anschaut, mit welch vollmundigen Versprechungen und Zukunftsvisionen „Big Data” daherkommt. Es beginnt mit der Definition, die einerseits sehr schillernd ist (Wikipedia: „Massendaten, die sich mit klassischen Methoden nicht auswerten lassen“) und gleichzeitig als Schlagwort einem steten Wandel unterliegt – womit sie viele Interpretationsmöglichkeiten zulässt und nicht wirklich fassbar ist. Big Data ist einfach alles – die Daten selbst, der Komplex der Technologien, die zum Sammeln und Auswerten dieser Datenmengen verwendet werden, wie auch die Methoden, mit denen die Datenkuh gemolken werden kann.

Kausalität, nicht Korrelation

Während auf technologischer Seite der Fortschritt durch die Weiterentwicklung hin zu immer höherer Verarbeitungsgeschwindigkeit nicht überraschend ist, kann man den methodischen Aussagen nur mit Erstaunen folgen. Das alles dominierende Credo ist der Glaube an die Korrelation als alleinigen Träger von Information. Das Zeitalter der Kausalität ist vorüber, wir sind nun im Zeitalter der Korrelation. Jede Suche nach Begründungen ist überflüssig und Ressourcenverschwendung – vertrauen wir einfach auf die Macht der Daten und die Korrelationen, die daraus entspringen. Dass Korrelationen zwar Zusammenhänge zeigen, hinsichtlich Kausalität jedoch auch extrem irreführend sein können, wird zwar am Rande erwähnt, jedoch nur als Problem angesehen, wenn man nicht genug Daten hat. „Mehr Daten“ löst also jedes Problem.

„Jede unnötig wiederholte Studie ist unethisch“

Dass aber gleichzeitig rückläufige Storchenpopulationen und Geburtsraten nicht den Schluss auf den Storch als Babybringer zulassen, dürfte weithin bekannt sein. Was Scharen von Dozenten anhand dieses Beispiels Generationen von Studenten in Anfänger-Vorlesungen mit auf den Weg gegeben haben, wird von den Vertretern von Big Data im Handstreich einkassiert. Notwendig dafür ist nur der Hinweis auf die neue Philosophie, dass Daten alles sind.
Sucht man nach Belegen für diese alles Alte umstülpende Behauptung, sieht es allerdings mehr als mager aus. Die Argumentation läuft fast immer über Beispiele, in denen Google, Amazon, Yahoo oder andere Konzerne richtige Entscheidungen gefällt haben, gemessen am Zielkriterium „Steigerung des Umsatzes“. Dass die „Beweisführung” anhand einzelner Beispiele und damit fast ausschließlich anekdotisch erfolgt – übrigens ein weiterer zentraler Kritikpunkt orthodoxer Methodik –, zeigt ein weiteres Mal, wie Big Data die Grundsätze des über viele Jahrzehnte entwickelten, wissenschaftlich begründeten methodischen Vorgehens ignoriert oder konterkariert. 

Datenkörper Nationale Kohorte

In Deutschland hat die Diskussion mit der üblichen Verzögerung begonnen. Man spürt die Not, einer Entwicklung so schnell wie möglich hinterherzulaufen (auch wenn „Big Data“ in der Medizin laut „Gartner’s Hype Cycle“ den Höhepunkt der Erwartungen schon deutlich überschritten hat) – und sieht auch hier die großzügige Naivität, Behauptungen zum Erfolgskonzept von Big Data kritiklos zu übernehmen oder selbst dort Big Data zu sehen, wo keine sind. Die Angst, nicht dabei zu sein, scheint alles andere zu überwiegen. Zwar stellen die Rufer fest, dass das Gesundheitswesen eine der Branchen mit dem größten Potential für Big Data ist, worin dieses Potenzial liegen soll, beantworten sie jedoch meist nicht. Vielmehr bedienen auch sie sich des Mantras, dass Big Data eben per se gut sind.

Wo Beispiele genannt werden, sind es meistens sehr große Datenkörper (wie etwa von der Nationalen Kohorte). Diese sind jedoch in der Regel gut strukturiert und damit zwar aufwändig, aber klassisch erfasst und auswertbar – womit sie nicht unter Big Data fallen. Die oft missachtete Grenzziehung liegt einfach zwischen sorgfältig geplanter und strukturierter Datenerfassung und Datenhaltung einerseits und dem Zugriff auf beliebige Daten samt deren Verknüpfung andererseits. Gerade in der Medizin dürfte für die Anhänger von Big Data in Deutschland wenig Freude aufkommen, da hierzulande die rechtlichen Einschränkungen für Datenzugriff und unkontrollierte Datenverwendung eine Realisierung der Versprechungen von Big Data schon auf dieser Ebene verhindern. 

Der Autor

Gerd Antes ist Direktor des Deutschen Cochrane Zentrums am Institut für Medizinische Biometrie und Medizinische Informatik (IMBI) des Universitätsklinikums Freiburg. Die Cochrane Collaboration ist ein weltweites Forschernetzwerk, das sorgfältig recherchierte Übersichtsarbeiten zu wichtigen medizinischen Themen veröffentlicht. Antes gilt als ein Wegbereiter der evidenzbasierten Medizin in Deutschland.



Diesen Artikel teilen:


Das könnte Sie auch interessieren

Big Data ante portas – Nutzen und Risiken

Gute Daten – böse Daten

Personalisierte Medizin – was heißt das eigentlich?

Hype oder Hoffnung?

0 Kommentare

Kommentar abgeben

 

Ich akzeptiere die allgemeinen Verhaltensregeln (Netiquette).

Ich möchte über Antworten auf diesen Kommentar per E-Mail benachrichtigt werden.

Sie müssen alle Felder ausfüllen und die allgemeinen Verhaltensregeln akzeptieren, um fortfahren zu können.