Wissenschaftsbetrug im Fokus

Fälle wissenschaftlichen Betrugs steigen angeblich rasant an. Insbesondere Wissenschaftsfachzeitschriften versuchen durch neue Methoden dem zu entgegnen. Und zwei Forscher haben versucht zu errechnen, was ein Betrugsfall kostet.

Daten erfinden, Ergebnisse fälschen, Fälle so auswählen, dass sich das gewünschte Resultat einstellt“ (zit. Plümper 2014), die „Methoden“ wissenschaftlichen Betrugs sind vielfältig (geworden) und werden angeblich immer zahlreicher. Dies zumindest schreibt heute Thomas Plümpler, unter anderem Professor of Government an der Universität Essex in der „Frankfurter Allgemeinen Zeitung„. Der Ruf nach Sanktionierung von Wissenschaftsbetrug zumindest in Deutschland gemäß § 263 Strafgesetzbuch (Betrug) werde deshalb immer lauter – und nütze nichts. Denn der „Alltag wissenschaftlichen Betrugs besteht nicht in der Erfindung von Ergebnissen, sondern darin, Ergebnisse in die gewünschte Richtung zu beeinflussen. Besonders geeignet sind eine selektive Fallauswahl, das Ersetzen fehlender Messungen durch geeignete Werte und die strategische Wahl ‚günstiger‘ Modellspezifikationen. … Diese subtileren Formen wissenschaftlichen Betrugs sind nicht nur weiter verbreitet, sondern letztlich auch sehr viel schwieriger nachzuweisen …“ (zit. Plümler 2014).

Insbesondere der Peer-Review-Prozess wissenschaftlicher Fachzeitschriften als deren angebliches Hauptinstrument der Qualitätssicherung könne derlei Betrug nicht aufdecken. Ein solcher Begutachtungsprozess prüft Veröffentlichungen nur hinsichtlich ihrer Plausibilität, was Redlichkeit der Autoren unterstellt.

Das politikwissenschaftliche Projekt „egap“ und die „RCT Registry“ der American Economic Association versuchen nun in diesem Peer-Review-Prozess neue Wege zu gehen und bieten jeweils eine Plattform zur Vorabregistrierung von Experimenten. Einmal registriert können Forscher derlei Experimente nachträglich nicht mehr verändern – angeblich. Tatsächlich aber werden experimentelle Daten bis heute als Privatbesitz des jeweiligen Forschers angesehen, und ein Forscher muss diese weder veröffentlichen noch Gutachtern weitergeben. Eine solche Registrierung ermöglicht damit weiterhin Teile von Stichproben zu entfernen, wenn sie das eigene Forschungsvorhaben nicht wunschgemäß beeinflussen.

Einen weiterführenden Ansatz verfolgt deshalb die Fachzeitschrift „Political Science Research and Methods„. Fordern die meisten sozialwissenschaftlichen Fachzeitschriften mittlerweile die Bereitstellung von Replikationsdatensätze und Analyse-Codes von den Autoren, so fordert genannte Fachzeitschrift auch die Veröffentlichung der Replikationsdatensätze – und beschäftigt zusätzlich gleich noch einen Statistiker, der vor der Veröffentlichung eines Artikels alle betreffenden Analysen replizieren soll. 10 Prozent aller bereits angenommenen Manuskripte erwiesen sich so als fehlerhaft. Bei 5 Prozenht waren die Ergebnisse überhaupt nicht wieder herstellbar.

Ein weiteres Werkzeug im Kampf gegen Wissenschaftsbetrug sind Robustheitstests. Hier wird vereinfacht gesagt nichts anderes versucht als zu prüfen, ob dieselben Ergebnisse mit einem anderen Modelldesign und anderen ebenso plausibel erscheinenden Annahmen erzielt werden können. Robustheitstest schützen nicht vor Fehlspezifikationen. Aber sie führen die Fragilität empirischer Ergebnisse vor Augen. Doch: Derzeit entscheiden noch die veröffentlichungswilligen Autoren selbst, welche Robustheitstests für ihre eigenen Forschungsergebnisse angewendet werden sollen. Das sollten künftig die Gutachter und Herausgeber der betreffenden Fachzeitschriften entscheiden, so Herr Plümper.

Zum Thema Wissenschaftsbetrug haben zwei Forscher am Beispiel der weltweit größten Förderinstitution in den Lebenswissenschaften, der US-amerikanischen Gesundheitsbehörde National Inistitute of Health (NIH), versucht zu errechnen, wieviel Fördergelder an Wissenschaftsbetrügern „verschwendet“ worden seien. In Zeitraum 1992 bis 2012 kamen sie auf ca. 425.000,- USD pro Betrugsfall. Das hat die beiden Forscher, den Mikrobiologen Ferric Fang von der University of Washington und seinen Mediziner-Kollegen Andrew Stern, enttäuscht. Sie vermuteten einen weit höheren Schaden. Allerdings wurden einfache Plagiate nicht in die Betrachtung mit aufgenommen. Auch der Anteil aller Fälschungsarbeiten von unter 1 Prozent an der Gesamtheit aller erfassten Förderer enttäuschte. Dabei stimmt dieses Ergebnis von den Größenverhältnissen her fast überein mit den Ergebnissen einer Metaanalyse von knapp 20 anonymen Umfragen und Studien unter Wissenschaftlern vor ein paar Jahren: Nur 2 Prozent der befragten Wissenschaftler geben wissenschaftliches Fehlverhalten zu.

Und so können die beiden Forscher Fang und Stern ihre Ergebnisse nicht so richtig interpretieren. Denn einerseits muss nicht jeder Dollar eines geförderten Wissenschaftsbetrugs zum Fenster herausgeschmissen sein, eventuelle Nebenergebnisse und deren Verwertungsmöglichkeiten sind nicht abschätzbar. Andererseits lassen sich die Folgeschäden noch viel weniger abschätzen, von Förderausfällen nach bekanntgewordenem Wissenschaftsbetrug über den Abfluss fachfremder Gelder für Gerichtsprozesse bis hin zu Folgeschäden für die ganze Gesellschaft. Als Beispiel dieser Folgeschäden für eine ganze Gesellschaft wird eine medizinische Forschungsarbeit aus dem Jahr 1998 angeführt, die eine direkte Verbindung von Säuglingsimpfungen und Autismus entdeckt haben wollte. In der Folge wurden tausende von Eltern skeptisch in Bezug auf Masernimpfungen – und tausende von Kindern erkrankten an dieser nicht selten tödlichen Krankheit. Derlei Impfskepsis ist bis heute verbreitet.

Quellen:
Plümper, Thomas: Vertrauen ist gut, Kontrolle ist besser. In: Frankfurter Allgemeine Zeitung vom 20.08.2014, S. N 4 (Forschung und Lehre).
Müller-Jung, Joachim: 425 000 Dollar pro Betrug – ist das viel? In: Frankfurter Allgemeine Zeitung vom 20.08.2014, S. N 4 (Forschung und Lehre).