Gastbeitrag

Eine neue Wissenschaft-(lichkeit)?

Stuttgart - 08.12.2015, 15:55 Uhr

Big Data löst nicht jedes Problem: "Eklatant erscheint dieser Mangel bei klinischen Studien". (Foto: WavebreakmediaMicro - Fotolia)

Big Data löst nicht jedes Problem: "Eklatant erscheint dieser Mangel bei klinischen Studien". (Foto: WavebreakmediaMicro - Fotolia)


Big Data, Innovation, Personalisierte Medizin und Co. – sind dies die Markenzeichen einer neuen Wissenschaft-(lichkeit) in der Medizin? Ein Essay von Gerd Antes, Freiburg.

Wenn man Editorials, Kommentare oder Meinungsartikel in wissenschaftlichen Zeitschriften liest und ihnen glaubt, so stehen wir am Beginn eines goldenen Zeitalters für Patienten und Gesunde. Patienten werden viel früher und fehlerfrei diagnostiziert und dann mit personalisierter Medizin zielgenau, wirksam und nebenwirkungsfrei behandelt. Gesunde kommen erst gar nicht in die Gefahr, weil sie durch perfekte Vorsorge vor dem Schritt geschützt werden, überhaupt erst krank zu werden.

Biga Data als Universalwerkzeug

Erreicht wird dies mit „Systemmedizin”, in der die biologischen Mechanismen der Krankheitsentstehung unter Nutzung der Methoden von „Omics”-Forschung, Systembiologie, Informatik und Netzwerktheorie besser verstanden werden – was dann wiederum durch „Translation“ scheinbar wie von selbst in der personalisierten oder individualisierten Medizin genutzt wird. Überall dabei ist „Big Data“ als Universalwerkzeug; Hindernisse und Barrieren gibt es praktisch nicht. Erforderlich sind nur unbegrenzte Rechnerleistung, Datenerfassung ohne Behinderung samt deren Speicherung in grenzenlosen Clouds, sowie freier Zugang zu den Daten und den daraus entstandenen Zeitschriftenartikeln – Open Access macht’s möglich. Die nötigen Ressourcen für all dies sind natürlich selbstverständlich. 

Diesem Schlaraffenland steht allerdings die düstere, konservative Welt der Wissenschaft gegenüber, in der Verzerrungen, Irrwege, Versagen und Verschwendung alltäglich und damit eher die Regel als die Ausnahme sind. Die Schwachstellen erstrecken sich dabei über den gesamten Prozess der Wissensgenerierung – von den ersten Ideen und der Grundlagenforschung bis hin zur entscheidenden klinischen Prüfung am Menschen und der Implementierung des daraus gewonnenen Wissens. Dies beschrieb unter anderem im Januar 2014 der beeindruckende Sonderband „Research: increasing value, reducing waste“ von The Lancet, in dem sich fünf Artikel aus verschiedenen Perspektiven mit den Defiziten des medizinischen Wissenschafts- und Anwendungsprozesses beschäftigten und Vorschläge zu deren Überwindung oder wenigstens deren Reduzierung machten. Im Fokus stand dabei, auf welche Weise mehr Wert und weniger Verschwendung für die Gesundheitsforschung und Patientenversorgung erreicht werden können. 

„Die vielbeschworene ‚Translation‘ funktioniert nicht“

Einige Schwächen stechen besonders hervor, da sie einerseits besonders schädliche Auswirkungen haben und andererseits relativ leicht untersucht werden können – womit sie letztlich als zweifelsfrei nachgewiesen akzeptiert werden müssen. Die größte Quelle der Verschwendung liegt in der systematischen Ignoranz gegenüber dem bereits vorhandenen Wissen bei der Planung, Durchführung und Berichterstattung der nächsten Forschungsschritte. Die vielbeschworene „Translation“ funktioniert daher weder bei der Anwendung, noch innerhalb des Wissenschaftsprozesses.

Zurückliegendes nicht berücksichtigt

Besonders eklatant erscheint dieser Mangel bei klinischen Studien. Eigentlich sollte man davon ausgehen, dass klinische Studien sehr zielgerichtet und sorgfältig geplant genau dort ansetzen, wo für eine relevante Wissenslücke Antworten gesucht werden, die wiederum als Grundlage für diagnostische oder therapeutische Entscheidungen essenziell sind. Zuallererst sollte dabei natürlich die Frage entscheidend sein, ob es schon identische oder ähnliche Studien gab. Doch weit gefehlt – wie eine Fülle tiefgehender methodischer Untersuchungen der letzten Jahrzehnte zeigt. Wissenschaftler, Ethikkommissionen und Behörden übertreffen sich gegenseitig darin, vorhandene Studien nur für einen kurzen, zurückliegenden Zeitraum zu berücksichtigen und alles davor in einer Art kollektivem Gedächtnisschwund zu vergessen.

Besonders die Ethikkommissionen müssten hier in höchstem Maße alarmiert nach Verbesserung streben, da jede unnötig wiederholte Studie unethisch ist und damit schon bei ihrer Beantragung kein positives Votum erhalten dürfte. Auch hier ist die Realität eindeutig: Ethikkommissionen sind in aller Regel weder von ihrer Kapazität her noch hinsichtlich ihrer Kompetenz in der Lage, zu prüfen, ob ein Antrag aufgrund der bereits vorhandenen Studien berechtigt ist. Förderer von Studien sind diesem Lager ebenfalls noch zuzurechnen: Sie hätten die Möglichkeit, wenn nicht die Pflicht, den systematischen Blick auf vorhandenes Studienwissen zur Voraussetzung für die Förderung einer Studie zu machen.

Bias größer als viele vermuten

Das kollektive Wegducken wird begünstigt durch ein Publikationssystem, das bezüglich Vollständigkeit der Präsentation von Studienergebnissen seinen Namen nicht verdient. Eine Fülle von Untersuchungen in den letzten Jahrzehnten zeigt weltweit völlig konsistent eine Publikationsrate von rund 50 Prozent. Das heißt, neben den jährlich in Medline hinzukommenden 20.000 randomisierten klinischen Studien existieren weitere 20.000, die nie öffentlich erscheinen und damit nicht als Wissensgrundlage für Entscheidungen genutzt werden können. Die Auswirkungen sind im wahrsten Sinne des Wortes fatal: Da die „verschwindenden” Studien keine Zufallsauswahl darstellen, sondern im Mittel eher unerwünschte Resultate zeigen, führt der sichtbare Teil der Studienergebnisse zu einer deutlichen Überschätzung der untersuchten Therapien oder diagnostischen Verfahren – und damit zu chronischem Überoptimismus.

Wie groß dieser Bias tatsächlich ist, lässt sich nicht einfach feststellen. Untersuchungen über Antidepressiva zeigen beispielsweise Überschätzungen zwischen 20 und 50 Prozent. Ähnlich sieht es bei potenziellen Nebenwirkungen und Schädigungen aus; hier wird die Berichterstattung möglicher Risiken oft unterschlagen, so dass der Nutzen-Schadens-Abstand im Mittel weit überschätzt wird.

Soweit dieser kleine Auszug aus der dunklen Welt der Defizite.

Lesen Sie morgen in Teil 2: „Offenbar lösen mehr Daten jedes Problem“

Der Autor 

Gerd Antes ist Direktor des Deutschen Cochrane Zentrums am Institut für Medizinische Biometrie und Medizinische Informatik (IMBI) des Universitätsklinikums Freiburg. Die Cochrane Collaboration ist ein weltweites Forschernetzwerk, das sorgfältig recherchierte Übersichtsarbeiten zu wichtigen medizinischen Themen veröffentlicht. Antes gilt als ein Wegbereiter der evidenzbasierten Medizin in Deutschland.


Diesen Artikel teilen:


Das könnte Sie auch interessieren

Qualität in der Forschung 

Lösen mehr Daten jedes Problem?

Physikalische Schutzmaßnahmen bei Viruserkrankungen

Was es bedeutet, wenn Cochrane keine Evidenz für Masken feststellt

Cochrane-Review zeigt verbesserte Lebensqualität bei Zusatz eines inhalativen Glucocorticoids

Schwere COPD behandeln

4. Kongress für Arzneimittelinformation widmet sich dem Apotheker als Wissensmanager

Vom sauberen Wasser zum sauberen Wissen

1 Kommentar

BIG DATA

von Dietmar Bittenbinder am 09.12.2015 um 9:06 Uhr

Vielen Dank für die Veröffentlichung solcher Essays! Bestätigt dessen Inhalt doch das ganze ineffiziente Gehabe vieler Pharmagurus, denen es in vielen Fällen weniger um das Wohl der Kranken und mehr um die eigene Profilierung samt dem damit anwachsenden Bankkonto geht. Angesichts dessen, was wir alles nicht wissen, sollten wir tatsächlich darauf achten, unsere Ressourcen mit mehr Bescheidenheit und Effizienz einzusetzen.

» Auf diesen Kommentar antworten | 0 Antworten

Das Kommentieren ist aktuell nicht möglich.