Gastbeitrag: Neue Wissenschaftlichkeit

„In der Big-Data-Zukunft ist jede Form von stringenter Methodik störend“

Stuttgart - 11.12.2015, 09:50 Uhr

Antes: Unterstützt wird der Hype durch die Forderung nach Innovationen. (Foto: James Thew - Fotolia)

Antes: Unterstützt wird der Hype durch die Forderung nach Innovationen. (Foto: James Thew - Fotolia)



Ist Big Data die Revolution, die unser Leben verändern wird? Gerd Antes über den Umgang mit den Markenzeichen einer neuen Wissenschaft(-lichkeit) in der Medizin, letzter Teil. 

Die systematische „Hyperisierung“ von Big Data ist jedoch zugleich die Grundlage für den Glauben an deren grenzenloses, innewohnendes Potenzial. Dass damit eine teils atemberaubende Kritiklosigkeit einhergeht, überrascht deswegen nicht unbedingt. Überraschend ist jedoch, dass auch aus Kreisen der Wissenschaft eine nicht akzeptable Kompromissfähigkeit zugunsten weniger wissenschaftlicher Qualität gezeigt wird. Die Literatur zeigt, dass Big Data eher ein Marketingkonzept denn ein wissenschaftlich tragfähiger Blick in die Zukunft ist. Besonders deutlich wird das bei der Diskussion um die Grenzen und mögliche Schäden durch Big Data. Mögliche Falschaussagen werden geflissentlich übersehen. Da es Validierung, Goldstandards und ähnlicher methodischer Eckpfeiler nicht bedarf, tauchen entsprechende Limitationen der Methode kaum auf.

Schöne neue Welt

Sehr wohl wird jedoch diskutiert, dass Big Data unbehinderten Zugriff auf Daten braucht, um sich entfalten zu können. Eingestanden wird, dass damit eine Generalattacke auf die Privatheit von Bürgern, Institutionen und Betrieben einhergeht. Die Lösung dafür erstaunt umso mehr: Man muss die Verantwortung für die Daten einfach nur vom Besitzer der Daten auf den Nutzer übertragen, und der Weg in die Big-Data-Zukunft ist frei (entsprechend dem exemplarischen Zitat: „Big Data: Die Revolution, die unser Leben verändern wird”). Diese ungebrochen gestellte Forderung ist entweder von grenzenloser Naivität geprägt oder getrieben vom Wunsch, Datenschutz und Privatheit konsequent aufzuweichen. Wenn man sich die Beispiele für den Nutzen von Big Data ansieht, scheint eher Letzteres der Fall, um immer mehr persönliche Daten für die kommerzielle Nutzung zu erhalten. Es erklärt sich von selbst, dass damit jede Form von stringenter Methodik störend ist.

Unterstützt wird der Hype zugunsten der Schönen Neuen Welt durch die alles durchziehende Forderung nach „Innovation“. Die mantrahafte Wiederholung und Allgegenwärtigkeit scheint zu zeigen, dass es heute schon einer gewissen Portion Mut bedarf, um eine Veranstaltungsankündigung, einen Artikel über eine neue Methode oder eine Pressemitteilung über eine Verfahrensentwicklung ohne die Eigenschaft „innovativ” zu präsentieren („Innovation” hat 391 Mio. Google-Treffer). Auch hier gibt es indes frontale Gegensätze in der Medizin und Gesundheitsversorgung. Die vor allem ökonomisch getriebene Forderung nach Innovation ist gerade nicht automatisch identisch mit dem medizinisch Nützlichen. Im Gegenteil, insbesondere bei neuen diagnostischen oder therapeutischen Verfahren oder medizintechnischen Geräten gilt, dass das Neue seine Überlegenheit gegenüber dem Etablierten beweisen muss, zumindest aber nicht schlechter sein darf. Bei Arzneimitteln, aber auch bei nichtmedikamentösen Verfahren ist das durch den Zulassungsprozess geregelt – in der Medizintechnik bisher nicht. 

„Die ökonomisch getriebene Forderung nach Innovation ist nicht automatisch identisch mit dem medizinisch Nützlichen.“

Wer durch die kompromisslose Anwendung von etablierter Methodik die Einführung neuer Verfahren oder Streben nach mehr Umsatz und Profit behindert, wird demnach schnell zur Behinderung für Innovation. Ein geradezu schulmäßiges Beispiel dafür beschrieb die Süddeutsche Zeitung am 5. September 2015 unter dem Titel „Systemfehler”. Ein Gesetz, das Schein-Innovationen verhindern soll, „versagt” bei einem speziellen Epilepsiemedikament, von dem faktisch viele Patienten „profitieren” könnten – nur weil die Behörden dennoch nicht davon überzeugt waren, dass das Medikament einen eindeutigen Zusatznutzen hat, und die Hersteller dadurch nicht den angemessenen Erlös erzielen können.

Die Ingredienzien sind hier wie üblich: die Beschreibung einzelner Patienten; Missachtung der Relation von Nutzen zu Schaden; die Behauptung, dass diese Krankheit etwas Besonderes sei und damit die gängige Methodik hier nicht angewendet werden könne; das gesetzlich verankerte Regelwerk, das Innovation verhindert. Denn bei Letzterem geht es ja gar nicht darum, ein Medikament zu verhindern – vielmehr droht es zu verschwinden, da der Hersteller nach dem Urteilsspruch nicht die gewünschten Preise dafür verlangen kann. Innovationsverhinderung scheinbar durch methodisch abgeleitete Regeln, tatsächlich jedoch wegen schlichter Ökonomie. 

Die "Omics"-Schiene

Auf der Skala der Übertreibungen verdient die personalisierte oder individualisierte Medizin ebenfalls einen Platz in der Spitzengruppe. Schlagzeilen wie „Personalisierte Medizin als Innovationsstrategie“ und ähnliche Formulierungen zeigen, wie sich die Begriffe auf der Hype-Skala gegenseitig aufbauschen. „Mit Big Data und Medizintechnik zur personalisierten Medizin” ist ein weiteres Beispiel für solche Verbindungen. Google ist sehr hilfreich, die Existenz und Häufigkeit solcher Kombinationen zu prüfen. Das Ergebnis ist überwältigend – es gibt alles, was vorstellbar ist.

Die Verbindung zu Big Data läuft demnach vor allem über die „Omics“-Schiene. Die großteils naiven Erwartungen, dass man über die Identifikation von genetischen Konstellationen eine eindeutige Verbindung zu Krankheitssymptomen findet und daraus leicht therapeutische Ansätze entwickeln kann, ist inzwischen großer Ernüchterung gewichen. Entsprechend hat die Komplexität der Zusammenhänge zwischen genetischer Grundlage und Symptomatik insbesondere zu einem massiv erhöhten Ausbau der Rechnerkapazitäten für die Bioinformatik geführt. Nimmt man noch die sich rapide entwickelnde Gensequenzierungs-Industrie hinzu, ist der Wunsch verständlich, auch hier Big Data haben zu müssen. Tatsächlich liegen hier inzwischen auch große Datenmengen vor, allerdings nur streng strukturierte Daten – also wiederum keine Big Data, gemessen an deren Definition und Ansprüchen. 

Doch zurück zur personalisierten Medizin. Diese erscheint vielfach wie ein Synonym für die Aufweichung von methodischen Anforderungen. Das Zuschneiden einer Therapie auf einzelne Patienten ist ein verständlicher Wunsch, dessen Erfüllung vielleicht in ferner Zukunft möglich ist. Gegenwärtig bedeutet die Realisierung jedoch, für begrenzte Gruppen von ähnlichen Patienten eigene Therapien zu entwickeln. Damit steht man allerdings unmittelbar vor dem Problem, die etablierte Studienmethodik wegen der Knappheit der entsprechenden Patienten nicht mehr routinemäßig nutzen zu können. Die Versuchung, die Anforderungen an Wirksamkeitsnachweise und Unbedenklichkeit daher zu senken, ist naturgemäß groß. Neben den objektiven Herausforderungen an die Methodik schimmert hier jedoch auch der tiefe Wunsch durch, statt biologischer Variabilität, Umgang mit Populationen, Unsicherheit der Aussagen und notwendigen statistischen Analysen zu einer sicheren, deterministischen und wahrlich personalisierten Medizin zu gelangen. Dass das nicht gelingen wird, liegt auf der Hand. 

„Personalisierte Medizin erscheint vielfach wie ein Synonym für die Aufweichung von methodischen Anforderungen.“

Wir beobachten also eine zunehmende Polarisierung zwischen selbstkritischer Reflektion gerade in den Lebenswissenschaften und der Medizinforschung sowie andererseits den Heilsversprechen durch die Revolution, die unter anderem Big Data bringen wird. Die Fortführung der oben erwähnten The Lancet-Initiative durch die „Reward/Equator“-Konferenz Ende September in Edinburgh (http://tiny.cc/rewardequator) wie auch entsprechende Aktivitäten der Zeitschriften Nature und Science zusammen mit den US-National Insitutes of Health (NIH) zeigen jedoch, wie ernst die Krise inzwischen weithin genommen wird.

Auf der anderen Seite jedoch steigt der Druck auf die Wissenschaft durch steigende Ökonomisierung speziell in der Medizin – insbesondere durch das zunehmende Auseinanderdriften von wachsender Biologisierung auf der Forschungsseite und den tatsächlichen Realitäten in der Versorgung. Wenn dies am Ende zu verstärkter Erosion der methodischen Qualität führt, wäre es sicherlich zum Schaden beider Seiten. Kurzfristig mögen hier leicht gewonnene Erkenntnisse und „Innovationen“ beeindrucken, langfristig gibt es jedoch zu rigiden, wissenschaftlich gewonnenen Grundlagen – sowohl aus der Qualitäts- wie auch aus der Ökonomieperspektive – keine Alternative.

Lesen Sie auch: 

Teil 1: Gastbeitrag: Eine neue Wissenschaft-(lichkeit)? 

Teil 2: Qualität in der Forschung: Lösen mehr Daten jedes Problem?

Der Autor 

Gerd Antes ist Direktor des Deutschen Cochrane Zentrums am Institut für Medizinische Biometrie und Medizinische Informatik (IMBI) des Universitätsklinikums Freiburg. Die Cochrane Collaboration ist ein weltweites Forschernetzwerk, das sorgfältig recherchierte Übersichtsarbeiten zu wichtigen medizinischen Themen veröffentlicht. Antes gilt als ein Wegbereiter der evidenzbasierten Medizin in Deutschland.



Diesen Artikel teilen:


Das könnte Sie auch interessieren

Big Data ante portas – Nutzen und Risiken

Gute Daten – böse Daten

Qualität in der Forschung 

Lösen mehr Daten jedes Problem?

Was Digitalisierung und Telematik für Apotheken bedeutet

Telematik – was macht die ABDA?

IQWiG-Vize zu schnellen Zulassungen

EMA darf Zulassungs-Konsens nicht aufkündigen

Digitalisierung des Gesundheitswesens

Ethikrat warnt vor Kontrollverlusten und Entgrenzungen

0 Kommentare

Kommentar abgeben

 

Ich akzeptiere die allgemeinen Verhaltensregeln (Netiquette).

Ich möchte über Antworten auf diesen Kommentar per E-Mail benachrichtigt werden.

Sie müssen alle Felder ausfüllen und die allgemeinen Verhaltensregeln akzeptieren, um fortfahren zu können.