Zwei Dinge galten bisher als Garant für die Ehrlichkeit und Verlässlichkeit der Wissenschaft: die Peer-Review der Fachjournale und die Reproduzierbarkeit der Ergebnisse. Beides zusammen soll sicherstellen, dass manipulierte oder gefälschte Ergebnisse gar nicht erst publiziert werden – oder zumindest von anderen Forschenden nachvollzogen und damit überprüft werden können.
Qualitätskontrolle in Theorie – und Praxis
„Der Peer-Review-Prozess ist einer der Grundpfeiler der Qualität, Integrität und Reproduzierbarkeit in der Forschung“, konstatiert der wissenschaftliche Springer Verlag in Heidelberg, einer der größten Herausgeber von Fachjournalen. Das Prinzip der Peer-Review ist eigentlich simpel: Jedes bei einem Fachjournal eingereichte Manuskript wird an einen oder mehrere Wissenschaftler weitergeleitet, die im gleichen Fachgebiet arbeiten wie die Autoren. Diese Gutachter prüfen das Paper auf Relevanz, Korrektheit und Plausibilität.
Jeder Fachartikel durchläuft dadurch eine Art Qualitätskontrolle, bevor er erscheint – so jedenfalls die Theorie. Dennoch kommt es immer wieder vor, dass selbst renommierte Fachjournale wie „Nature“ oder Science“ gefälschte oder manipulierte Studien veröffentlichen. Meist kommt der Betrug erst im Nachhinein heraus, so dass die Artikel dann zurückgezogen werden müssen. Seit den 1970er Jahren gab es gut 2.000 solcher Fälle von Retraktionen – zwei Drittel davon wegen Fehlverhaltens, wie Ferric Fang von der University of Washington und seine Kollegen ermittelten.
Überlastet und ausgetrickst
Doch warum versagt die Peer-Review? Einer der Gründe: „Diese Form der Selbstkontrolle stößt langsam an ihre Grenzen“, erklärt Manfred James Müller von der Universität Kiel. „Die Zahl der Experten, die für solche Gutachten in Frage kommen, ist begrenzt und ihre Zeit ist es ebenfalls.“ Als Folge schaffen es die Gutachter oft kaum noch, die Manuskripte und die zugrundeliegenden Daten wirklich gründlich zu prüfen.
Hinzu kommt: Bei vielen Journalen können Autoren selbst fachlich geeignete Gutachter für ihre Artikel vorschlagen. Doch wie sich 2015 herausstellte, vereinfacht dies den Betrug: Autoren hatten eine eigene E-Mail-Adresse als die des Gutachters angegeben. Die bei den Verlagen zuständige Software schickte ihnen daraufhin ihr eigenes Manuskript zur Peer-Review – eine echte Prüfung entfiel damit. In den letzten Jahren mussten allein deswegen weit mehr als 100 Fachartikel zurückgezogen werden.
Star Wars im Fachjournal
Vollends ad Absurdum geführt wird das Prinzip der Peer-Review bei einigen Open Access-Fachjournalen: Weil sie davon leben, dass ihre Autoren ihnen Geld für das Publizieren zahlen, werden Manuskripte nur pro forma, wenn überhaupt begutachtet. Denn je mehr Artikel erscheinen, desto mehr verdienen auch die Verlage. Die drastische Konsequenz: Im Jahr 2017 wurde ein Pseudo-Fachartikel über die komplett fiktionalen „Midi-Chlorianer“ der Star Wars-Filme von drei dieser „Predatory Journals“ veröffentlicht.
„Aber beweist dies deshalb, dass das gesamte System des wissenschaftlichen Publizierens hoffnungslos versagt? Nein!“, betont der Initiator dieses Tests, der unter dem Pseudonym „Neuroskeptic“ firmiert. Denn auch er ist der Überzeugung, dass sich die meisten Fachmagazine durchaus um seriöse und qualitativ hochstehende Inhalte bemühen – und eine echte Peer-Review betreiben.
Grund zur Sorge?
Gemessen an der gewaltigen Menge der Publikationen ist der Anteil der wegen Betrugs oder Fehlern zurückgezogenen Artikel tatsächlich eher gering: Unter den mehr als 25 Millionen Fachartikeln die bis 2012 im biomedizinischen Bereich publiziert wurden, waren etwa 1.300 Retraktionen wegen Fehlverhaltens, wie Fang und seine Kollegen feststellten.
Dennoch: Gerade in Zeiten von Fake News und alternativen Fakten werfen solche Fälle kein gutes Licht auf die Verlässlichkeit des wissenschaftlichen Publizierens insgesamt. Doch bedeutet dies, dass die Selbstkontrolle der Wissenschaft komplett versagt?
Nadja Podbregar
Stand: 02.02.2018