Indikatoren statt Kreativität?

Deutschlands Forschung soll vermessen werden

Stuttgart - 03.04.2016, 09:00 Uhr

Einheitliche Standards: Forscher und ihre Leistungen sollen in Deutschland vermessen werden. (Foto: picture alliance / Ulrich Baumgarten)

Einheitliche Standards: Forscher und ihre Leistungen sollen in Deutschland vermessen werden. (Foto: picture alliance / Ulrich Baumgarten)


Sei es Philosophie oder Pharmazie: Der neue „Kerndatensatz Forschung“ regelt, was über Wissenschaftler und ihre Arbeit gespeichert wird. Kritiker befürchten Fehlanreize – da Forscher sich zunehmend an ihrer zahlenmäßigen „Performance“ orientieren könnten.

Als Ende Januar das wichtigste wissenschaftspolitische Beratungsgremium Deutschlands, der Wissenschaftsrat, die Spezifikation „Kerndatensatz Forschung“ verabschiedete, erregte dies so gut wie keine Aufmerksamkeit. Kaum ein Forscher dürfte wissen, was sich hinter dieser Bezeichnung verbirgt. Doch könnte es mit über ihre Zukunft entscheiden: Er legt die Standards fest, welche Daten über Wissenschaftler und ihre Leistungen zukünftig erfasst werden.

Da diese leichter verglichen werden können als der eigentliche Inhalt wissenschaftlicher Arbeit, könnten Drittmittelanträge schnell anhand der Zahlen vorausgewählt werden – oder bei Berufungen nur diejenigen eingeladen werden, die gut abschneiden.

Praktisch jeder Forscher ist betroffen

„Wahrscheinlich sind alle Akteure des Wissenschaftssystems in irgendeiner Form von diesem Projekt betroffen“, sagte Sophie Biesenbender vom Institut für Forschungsinformation und Qualitätssicherung (iFQ) in Berlin, als sie im Jahr 2013 das Vorhaben vorstellte, Informationen über Universitäten und Forschungsinstitute in ganz Deutschland zu vereinheitlichen.

Schon jetzt wird wissenschaftliche Leistung von einzelnen Professoren, Lehrstühlen und ganzen Hochschulen immer mehr über Zahlen gemessen und verglichen. Beispielsweise ist bei Publikationen oft weniger der Inhalt als ihre Anzahl entscheidend. Bei der Vergabe von Lehrstühlen zählt zunehmend der berechnete „Impact“ von Artikeln, der daran gemessen wird, wie oft andere Beiträge in der jeweiligen Fachzeitschrift zitiert werden. Auch bei der Verteilung von Forschungsgeldern entscheiden oft simple Zahlen – wie die Menge an Drittmitteln einer Arbeitsgruppe oder der Anteil weiblicher Forscher oder die Zahl der Doktoranden. So bei der „Leistungserfassung in Forschung und Lehre“, die an der TU Berlin mit über Ausstattung und Besoldung von Professoren bestimmt.

Die Einführung des neuen Standards erfolgte still und leise. „Klar ist, dass wir zukünftige Wissenschaftsgenerationen so sozialisieren, dass sie kontinuierlich gemessen werden“, sagt Matthias Winterhager von der Uni Bielefeld, der an der Entwicklung des Kerndatensatzes beteiligt war. Die Betroffenen würden kaum erkennen, dass der derzeit unverbindliche Standard bald bindend wird und für Karrieren Folgen haben. Auch Winterhager ist sich sicher, dass neue Vergleichsstandards mächtige Auswirkungen auf das Verhalten von Wissenschaftlern haben wird: Es käme weniger darauf an, gute Forschung zu machen, sondern gute Indikatoren zu erreichen.

Drittmittel und Patente werden erfasst

Inzwischen ist die erste Version des Standards entschieden: Neben Publikationen werden auch Drittmittelprojekte sowie Patente und Firmengründungen erfasst. Vereinfachte Auswerteprogramme werden dort eine scheinbar „bessere“ Forschung anzeigen, wo es beispielsweise viele industrienahe Lehrstühle mit hohen Drittmitteleinnahmen und Patentzahlen gibt. Wird dies Politiker dazu verleiten, Geld vermehrt dorthin zu schieben – oder Wissenschaftler, mehr auf diesen „Output“ zu achten?

Veröffentlicht und ausgetauscht sollen die Daten höchstens auf der Ebene einer einzelnen Abteilung werden. Details zu personenbezogenen Daten sind zwar auch Teil des Standards, doch sollen sie die jeweilige Uni oder das Forschungsinstitut nicht verlassen.

Ohne Paukenschlag zur Rundumvermessung

Tiefgreifende Reformen kommen nicht immer mit einem Paukenschlag. Dieser blieb schon beim Bolognaprozess aus. Als die politisch-administrative Ebene die Reform fast aller Studiengänge in die Wege leitete, erkannte kaum jemand die zukünftigen Folgen. Als die Wissenschaft reagierte, war die Reform nicht mehr rückgängig zu machen. Dasselbe könnte sich bei der Rundumvermessung der Wissenschaft wiederholen, befürchten Kritiker wie Martin Schulze Wessel, Vorsitzender des Historikerverbands.

Ausgangspunkt für den Kerndatensatz war, dass bisher keine Standards für Informationen über Forschungseinrichtungen existierten. Wenn etwa ein Wissenschaftsminister einen Vergleich über alle Universitäten seines Bundeslandes haben möchte, startet ein mühsamer Prozess zur Aufbereitung der Daten. Auch für groß angelegte Evaluationen ganzer Disziplinen, die mit dem „Forschungsrating“ des Wissenschaftsrats verglichen werden sollen, ist die Datenerhebung eine gewaltige Herausforderung. Könnte es nicht einfacher gehen?

Es kann – doch schnell zählt das, was gezählt wird. Nicht jeder Ingenieur kann Radiointerviews vorweisen, und nicht jeder Geisteswissenschaftler Patente. Obwohl der Wissenschaftsrat schon 2013 von unerwünschten Anreizwirkungen sprach und dazu aufforderte, derartige Effekte zu prüfen, pries er gleichzeitig die soliden Standards an. Mit ihnen könnten „verlässliche Indikatoren entwickelt werden, um die Bewertung von Forschungsleistungen durch die Datenabfrager zu unterstützen“. Um Bedenken vorzubeugen, verschob er sogar die Verabschiedung des Kerndatensatzes um drei Monate, um an der Verpackung zu feilen.

Wahrscheinliche Nebenwirkungen

Inzwischen weist er auf mögliche Nebenwirkungen ausdrücklich hin: Die Angaben im Kerndatensatz würden keinesfalls ausreichen, um wissenschaftliche Leistungen zu bewerten. Dazu bedürfe es weiterhin Wissenschaftler, die sich auf dem jeweiligen Gebiet gut auskennen. Doch gleichzeitig legt der Wissenschaftsrat mit seinem neuen Standard die Basis dafür, dass es anders kommt.

 „Der Kerndatensatz ist nicht aufzuhalten, da es viele Argumente gibt, die für ihn sprechen“, sagt Winterhager. „Aber es heißt nicht, dass es gut ist, was da kommt.“ Aus seiner Sicht handelt es sich um ein Experiment am lebenden System, dessen Folgen schwer abzuschätzen sind.

Während die vereinheitlichten Datenstandards den meisten Univerwaltungen gelegen kommen dürfte, sind die Verbände von Wissenschaftlern bisher verhalten bis sehr kritisch, sofern der Kerndatensatz überhaupt auf ihrem Schirm aufgetaucht ist. Um die Akzeptanz zu maximieren, wollte das iFQ eigentlich möglichst viele Akteure mit in das Projekt einbinden, wie Biesenbinder sagte.

Eine öffentliche Debatte fehlte

Doch Forscher waren kaum beteiligt. „Die Fachgesellschaften wurden absolut ungenügend in den Prozess eingebunden“, sagt Betina Hollstein, die im Vorstand der Gesellschaft für Soziologie für Forschung zuständig ist. Dabei versammelt ihr Fachverband auch die deutsche Expertise zur Wissenschaftssoziologie. Auch der Historiker Schulze Wessel kritisiert dies scharf: „Es gab keine öffentliche Debatte zum Kerndatensatz.“

Sein Verband hat sich vergleichsweise früh mit dem Thema beschäftigt und die „große Gefahr“ angeprangert, dass durch die einheitliche Vermessung Unterschiede zwischen Fachkulturen verwischt werden könnten und Fehlanreize geschaffen würden, strategisch nur die Daten zu verbessern – und die Lehre oder andere Tätigkeiten zu vernachlässigen. Viele andere Verbände haben es wohl verschlafen. Der Allgemeine Fakultätentag, ein fächerübergreifendes Gremium, erörtert derzeit immerhin eine mögliche Stellungnahme.

Bei der Entwicklung des Standards, die das Bundesforschungsministerium mit einer Million finanzierte, war eigentlich auch Öffentlichkeitsarbeit vorgesehen. Zur Tagung wurde jedoch nicht einmal eine Pressemitteilung verschickt. Stattdessen wurden Verwaltungsleiter von Hochschulen und Unis direkt eingeladen, wie auch Vertreter der Wissenschaftsorganisationen und Politik. Fachverbände wurden nicht angeschrieben. „Da es sich allerdings um eine öffentliche Veranstaltung handelte, wurde niemand, der sich für die Veranstaltung angemeldet hat, abgewiesen“, so Biesenbender.

Wissenschaft würde in ein Panoptikum eingesperrt

Wissenschaftler kritisieren aber nicht nur die mangelnde Transparenz. „Der Kerndatensatz wird die Wissenschaft nur noch weiter in ein Panoptikum einsperren und jede Kreativität zum Erliegen bringen“, fürchtet der emeritierte Soziologe Richard Münch. An der Universität Bamberg erforscht er, welche unbeabsichtigten Effekte quantitative Bewertungen haben. Ein Ergebnis lautet: Durch die leistungsorientierte Mittelvergabe werde die Forschungsfreiheit von Professoren und Doktoranden eingeschränkt.

Universitäten hängen eh immer stärker von Drittmitteln ab, durch die es immer mehr zu befristeten, prekären Arbeitsbedingungen kommt. Insbesondere kleinere Unis würden sich auf finanziell aussichtsreiche Themen stürzen. Dabei blieben Vielfalt und Qualität von Lehre und Forschung oft auf der Strecke. Auch Unileitungen orientieren sich nach einer aktuellen Studie immer mehr an Indikatoren. „Das geht ganz klipp und klar zu Lasten der Studierenden“, sagt Wieczorek.

Nur „einschlägige“ Experten sollen sich beteiligen

Schon in zwei oder drei Jahre dürfte der Kerndatensatz verbreitet sein. Allerdings – betont der Wissenschaftsrat – sei er kein abgeschlossenes Projekt. Alle fünf Jahre soll der Datensatz angepasst werden. Ob eine künftige Evaluierung jedoch noch dazu führen kann, die verstärkte Quantifizierung der Wissenschaftslandschaft aufzuhalten, darf bezweifelt werden. Zumindest haben die betroffenen Forscher es schwer, sich einzubringen.

Für Änderungsvorschläge aus den Hochschulen hatte es einmalig eine achtwöchige Kommentierungsphase gegeben. Und für die weitere Beurteilung des Datensatzes will der Wissenschaftsrat nur „einschlägige“ Experten befragen.

Der Artikel wurde auch in der „taz“ veröffentlicht.


Hinnerk Feldwisch-Drentrup, Autor DAZ.online
redaktion@daz.online


Diesen Artikel teilen:


0 Kommentare

Das Kommentieren ist aktuell nicht möglich.