Zwei Dinge galten bisher als Garant für die Ehrlichkeit und Verlässlichkeit der Wissenschaft: die Peer-Review der Fachjournale und die Reproduzierbarkeit der Ergebnisse. Beides zusammen soll sicherstellen, dass manipulierte oder gefälschte Ergebnisse gar nicht erst publiziert werden – oder zumindest von anderen Forschenden nachvollzogen und damit überprüft werden können.

Qualitätskontrolle in Theorie – und Praxis
„Der Peer-Review-Prozess ist einer der Grundpfeiler der Qualität, Integrität und Reproduzierbarkeit in der Forschung“, konstatiert der wissenschaftliche Springer Verlag in Heidelberg, einer der größten Herausgeber von Fachjournalen. Das Prinzip der Peer-Review ist eigentlich simpel: Jedes bei einem Fachjournal eingereichte Manuskript wird an einen oder mehrere Wissenschaftler weitergeleitet, die im gleichen Fachgebiet arbeiten wie die Autoren. Diese Gutachter prüfen das Paper auf Relevanz, Korrektheit und Plausibilität.
Jeder Fachartikel durchläuft dadurch eine Art Qualitätskontrolle, bevor er erscheint – so jedenfalls die Theorie. Dennoch kommt es immer wieder vor, dass selbst renommierte Fachjournale wie „Nature“ oder Science“ gefälschte oder manipulierte Studien veröffentlichen. Meist kommt der Betrug erst im Nachhinein heraus, so dass die Artikel dann zurückgezogen werden müssen. Seit den 1970er Jahren gab es gut 2.000 solcher Fälle von Retraktionen – zwei Drittel davon wegen Fehlverhaltens, wie Ferric Fang von der University of Washington und seine Kollegen ermittelten.

Überlastet und ausgetrickst
Doch warum versagt die Peer-Review? Einer der Gründe: „Diese Form der Selbstkontrolle stößt langsam an ihre Grenzen“, erklärt Manfred James Müller von der Universität Kiel. „Die Zahl der Experten, die für solche Gutachten in Frage kommen, ist begrenzt und ihre Zeit ist es ebenfalls.“ Als Folge schaffen es die Gutachter oft kaum noch, die Manuskripte und die zugrundeliegenden Daten wirklich gründlich zu prüfen.