Fake Science: Der Kampf dagegen

Räuberjournale, Schwindler und Korruption bedrohen die Glaubwürdigkeit der Wissenschaft. Die hat den Kampf gegen Fake Science auf ihre Weise aufgenommen.

Blick auf den layouteten Artikel Fake Science
Der Artikel „Fakten gegen Fake Science“ ist in der Februar-Ausgabe 2019 der Zeitschrift „bild der wissenschaft“ erschienen

„Fake Science – Die Lügenmacher“ lautete der reißerische Titel einer Fernsehreportage der ARD Ende Juli 2018. Sie berichtete über Raubverleger, die es Wissenschaftlern gegen Bezahlung ermöglichen, ihre Studien zu veröffentlichen – ohne Qualitätskontrolle wie etwa einer externen Begutachtung. Weltweit, so das Ergebnis einer gemeinschaftlichen Recherche verschiedener internationaler Sender und Zeitungen, haben rund 400 000 Wissenschaftler von diesem Angebot Gebrauch gemacht – darunter 5000 deutsche. Als Wissenschaftsskandal ordnete die ARD das ein – aufgrund der Vermutung, dass auf diese Weise zweifelhafte oder gefälschte Ergebnisse in die Welt gesetzt werden, die unter anderem die finanziellen Interessen von Unternehmen bedienen.

Die Fälscher sind unter uns

Wer nach Belegen dafür sucht, dass der Wissenschaftsbetrieb dunkle Seiten hat, wird auch sonst fündig: Zu den Forschern, deren Ergebnisse in den Medien Aufsehen erregten, aber gefälscht waren, gehören der deutsche Nanotechnologe Jan Hendrik Schön oder der südkoreanische Stammzellforscher Hwang Woo-suk. Und es gibt Wissenschaftler, die von Energiewirtschaft, Tabak-, Zucker-, Chemie- oder Pharmaindustrie bezahlt wurden, als sie Resultate publizierten, die ihren Geldgebern gelegen kamen. Im Buch „Gekaufte Forschung – Wissenschaft im Dienst der Konzerne“ hat Christian Kreiß, Volkswirt und Professor an der Hochschule Aalen, viele gut belegte Beispiele zusammengetragen.

Von Außenstehenden weniger wahrgenommen, gibt es weiteren Schatten – etwa die „Replikationskrise“: Forscher können die Ergebnisse anderer Wissenschaftler oft nicht nachvollziehen (Fachsprache: replizieren, reproduzieren). So haben etwa Pharmaforscher des Konzerns Bayer 2011 berichtet, dass die Ergebnisse von 67 hauseigenen Projekten in nur etwa einem Viertel der Fälle mit der publizierten Literatur in Einklang standen. Ein aktuelles Beispiel: Wissenschaftler des US-amerikanischen „Centers for Open Science“ wiederholten 21 sozialwissenschaftliche Untersuchungen, deren Ergebnisse es in die zwei weltweit renommiertesten Wissenschaftsjournale Nature und Science geschafft hatten. Resultat: Die beschriebenen Effekte von 13 Originalstudien konnten bestätigt werden – doch von immerhin 8 Studien nicht.

Kontrollen wenig gewürdigt

Hinsichtlich der Replizierbarkeit gibt es einen weiteren Aspekt: Angenommen, zwei Studien untersuchen die gleiche Behandlung mit einem Medikament. Die eine belegt den Nutzen der Therapie, die andere nicht. Normalerweise wird dann die Studie mit positivem Effekt eher veröffentlicht, während die andere in der Schublade verschwindet. In diesem sogenannten Publikationsbias spiegelt sich unter anderem die Erwartungshaltung der Öffentlichkeit, die Neuigkeiten – den Fortschritt – mehr schätzt als Kontrolle und verlässliche Ergebnisse. Tatsächlich führt der Publikationsbias dazu, dass die Wirksamkeit von Therapien oft überschätzt wird.

Ist der Begriff Fake Science demnach berechtigt? Kann man den Resultaten von Wissenschaftlern tatsächlich so wenig trauen wie den „alternativen Fakten“ mancher Politiker?

Wer sich auf die Suche nach Antworten begibt, darf sich keine Illusionen machen: Wissenschaftler handeln nicht moralischer als andere Mitglieder der Gesellschaft. Und ein Seitenblick etwa auf den Leistungssport zeigt: Wo intensiver Wettbewerb herrscht, lässt sich nie ausschließen, dass Betrüger sich im Rennen um Ruhm und Geld an die Spitze setzen.

Entscheidend für die Glaubwürdigkeit der Wissenschaft ist jedoch, ob sie systematisch schlampige und fehlerhafte Forschung fördert. Oder ob sie über effektive Kontrollmöglichkeiten und Selbstheilungsmechanismen verfügt.

Tatsächlich ist die Qualität von wissenschaftlichen Ergebnissen schwer zu beurteilen. So stellt sich der Nutzen einer wissenschaftlichen Erkenntnis oft erst nach Jahrzehnten heraus. Außerdem resultieren viele Fortschritte aus einer Forschung, bei der etwas ganz anderes gefunden wurde als die Wissenschaftler gesucht haben. Und schließlich lassen sich Forscher und wichtige Entdeckungen oft nicht einander zuordnen, weil diese Entdeckungen gleichsam in der Luft liegen und nahezu zeitgleich von mehreren Forscherteams gemacht werden.

Peers gegen Fake Science?

Daher versagt in der Wissenschaft „der Marktmechanismus, dem wir in unserer Wirtschaftsordnung ansonsten eine hohe Verlässlichkeit und Objektivität zuschreiben“, so die Wirtschaftswissenschaftlerin Margit Osterloh. Die Schweizerin weiter: „Für den fehlenden Markt braucht Wissenschaft einen Ersatz. Das ist die Gelehrtenrepublik oder die Scientific Community, die mit Gutachten – den Peer Reviews – feststellt, was gute Forschung ist.“

Was gut – und richtig – ist, muss laufend geklärt werden: Etwa dann, wenn Universitäten Professoren berufen oder Forschungszentren die Stelle eines Teamleiters besetzen. Auch wenn die Deutsche Forschungsgemeinschaft (DFG), Stiftungen oder andere Forschungsförderer entscheiden, welche Projekte sie finanzieren, ist das Urteil der Peers (englisch: Gleichrangige) gefragt. Diese schauen dabei insbesondere auf die wissenschaftlichen Artikel der Bewerber und Antragsteller. Ein solcher Artikel ist – normalerweise – von einer Fachzeitschrift wiederum nur deshalb veröffentlicht worden, weil zwei zumeist anonyme Peers dies unabhängig voneinander befürwortet haben.

Das Peer Review von Artikeln verlangsamt ihre Veröffentlichung oft um Monate, auch weil die Gutachter meist Überarbeitungen einfordern. Trotzdem funktioniert die Kontrolle durch die Gutachter nicht perfekt. Denn selbst für Fachkundige ist es beispielsweise oft nur äußerst aufwendig möglich, zu prüfen, ob die Autoren eines Artikels die ermittelten Daten korrekt und sorgfältig ausgewertet haben.

Am Erfolg erkrankt

Doch die Wissenschaft hat nicht nur mit den Schwächen des Gutachterwesens zu kämpfen, sondern auch mit seinem Erfolg. „Die Nachfrage nach Begutachtungen im Wissenschaftsbetrieb hat in den vergangenen Jahren deutlich zugenommen“, stellt etwa der deutsche Wissenschaftsrat in einem Positionspapier fest. Einer der Gründe dafür, so das Beratungsgremium, sei die „zunehmende Vergrößerung des Wissenschaftssystems“ durch wachsende Hochschulen und Forschungseinrichtungen. Ein anderer sei die Zunahme wettbewerblicher Förderverfahren. Einige Wissenschaftler berichten, dass sie fast so viel Zeit in die Begutachtung fremder Forschung investieren wie in die eigene Forschung. Plausibel, dass der zunehmende Zeitdruck, unter dem die Peers stehen, die Sorgfalt ihrer Kontrolle beeinträchtigt. Zudem können persönliche Beziehungen zwischen den Fachkollegen die Gutachten beeinflussen.             

Solche Probleme fördern die Sehnsucht nach Alternativen. Außerdem wünschen sich etwa Politiker und Journalisten einfache Kriterien, um die Qualität von Forschung und Forschenden zu beurteilen. Daher haben sich Kennzahlen verbreitet. Sozusagen zur Währung in der Wissenschaft ist die Zahl von begutachteten Artikeln geworden, die Forschende in Fachzeitschriften mit hohem „Impact Factor“ veröffentlichen. Der Faktor gibt an, wie oft im Durchschnitt alle Artikel in einer Zeitschrift von anderen Wissenschaftlern zitiert wurden – im Zeitraum von zwei Jahren nach der Veröffentlichung. Je häufiger das passiert, umso bedeutsamer die enthaltenen Forschungsergebnisse, so die simple Logik.

Irreführender Faktor

Doch bei näherem Hinsehen ist eine solche Kennzahl irreführend – vor allem, weil aus dem Impact Factor einer Zeitschrift nicht auf die Qualität eines einzelnen Artikels geschlossen werden kann, der in dieser Zeitschrift veröffentlicht wurde. Denn in allen Journalen werden einige wenige Aufsätze häufig zitiert; die allermeisten hingegen selten oder gar nicht.

Außerdem haben alle publikationsbasierten Kennzahlen ein Manko: Beeinflussen sie beispielsweise die Zuteilung von Forschungsmitteln, so reagieren Forscher „mit einer strategischen Anpassung ihrer Publikationsaktivitäten in Abhängigkeit von der Art der Messung“, stellt die Berlin-Brandenburgische Akademie der Wissenschaften fest. Sie konstatiert „Fehlanreize“ aufgrund von „Rückkopplungen“. Daraus lässt sich folgern: Berufungskommissionen und Geldgeber, die lediglich auf die Zahl der Publikationen eines Wissenschaftlers schauen, fördern Publikationen ohne Qualitätskontrolle und somit Raubverleger. Ziehen sie die Anzahl der Publikationen in Zeitschriften mit hohem Impact Factor als Kriterium heran, fördern sie nicht die Pseudo-Journale, denn diese haben allerhöchstens einen erfundenen Impact Factor. Aber sie fördern auch nicht unbedingt gute Forschung.

Führt also eine Art Evolution dazu, dass letztlich nur schlechte Wissenschaft oder gar Fake Science überlebt, wie es etwa der US-Physiker und Psychologe Paul Smaldino sowie Richard McElreath vom Leipziger Max-Planck-Institut für Evolutionäre Anthropologie 2016 dargelegt haben?

Keineswegs. Zunächst einmal ist ein Blick auf das Ausmaß von Fehlentwicklungen hilfreich. 5000 Wissenschaftler aus deutschen Forschungseinrichtungen, die zumindest einmal in einem Pseudo-Journal publiziert haben, sind viel – andererseits aber nur rund 1,3 Prozent des wissenschaftlichen Personals an deutschen Universitäten und Fachhochschulen. Zu bedenken ist außerdem: Längst nicht alle Ergebnisse in Pseudo-Journalen müssen zwangsläufig falsch sein. Manche der Autoren haben das Peer Review wahrscheinlich wegen seiner Langsamkeit umgehen wollen oder sind tatsächlich unwissentlich einem betrügerischen Verleger auf den Leim gegangen.

Eine Metaanalyse von 2009, in der 21 Studien statistisch zusammengefasst wurden, zeigte: Knapp zwei Prozent aller Wissenschaftler räumten ein, in den letzten drei Jahren vor der Befragung schon einmal Daten erfunden oder gefälscht zu haben.

Nabelschau der Wissenschaft

Die Wissenschaft selbst ist es, die solche Zahlen erhebt und die auf systematische Fehlentwicklungen aufmerksam macht. Schon seit Jahrzehnten beschäftigen sich Medizinstatistiker, Ökonomen und Soziologen mit den Verzerrungen und Schwächen von Studien, Peer Reviews und publikationsbasierten Kennzahlen (s.a. bdw, 12-2004, „Über Zitate zu Zensuren und Zaster“). Die Wissenschaft hat auch auf das Phänomen der Raubjournale früher hingewiesen als die Massenmedien. Fachzeitschriften wie „Scientometrics“, erstmals 1979 erschienen, oder die noch junge Zeitschrift „Research Integrity and Peer Review“ liefern einen wissenschaftlichen Blick auf das eigene System. Die medizinische Fachzeitschrift „The Lancet“ brachte 2014 eine Spezialausgabe heraus mit Empfehlungen, wie sich „Forschungsmüll“ reduzieren lässt.

Manche Vorschläge von Wissenschaftlern, um gute Wissenschaft zu fördern und Fake Science zurückzudrängen, finden allerdings bisher keine breite Unterstützung unter den Kollegen oder in der Politik: Dazu zählt die Forderung des Wirtschaftswissenschaftlers Christian Kreiß: „Wir brauchen ein Verbot direkter Geldflüsse von Wirtschaftsunternehmen an Hochschulen, Hochschuleinrichtungen und Hochschulpersonal.“

Auch eine umwälzende Anregung von Ulrich Dirnagl, Gründungsdirektors des Quest Centers am Berliner Institut für Gesundheitsforschung, hat es schwer. Der Neurologe schlägt vor, öffentliche Forschungsgelder als Grundförderung für alle zu vergeben – mit der Bedingung, dass beispielsweise die Hälfte davon an andere Forscher weitergegeben werden muss, die der direkt Geförderte selbst aussucht. Peer-to-Peer-Förderung nennt Dirnagl das und vermutet, dass das Geld nach Kriterien wie Originalität, Relevanz und eben Qualität weitergereicht würde. „Ich habe fast nur positive Rückmeldungen auf meinen Vorschlag erhalten – aber kein Forschungsförderer traut sich, ihn aufzugreifen“, sagt Dirnagl.

Andere Maßnahmen zur Sicherung der wissenschaftlichen Qualität werden vereinzelt umgesetzt, aber noch nicht auf breiter Front: So beschränkt die DFG den Umfang des Publikationsverzeichnisses eines Antragsstellers auf höchstens zehn Veröffentlichungen, frei nach dem Motto: Qualität statt Quantität. Wie sich die Volkswagen-Stiftung verhält, beschreibt deren Generalsekretär Wilhelm Krull so: „Bei Projekten, aber auch in der Personenförderung, werden Antragstellerinnen und Antragsteller immer häufiger zur persönlichen Präsentation ihrer Vorhaben nach Hannover eingeladen.“ Nur das persönliche Bild von Antragsstellern erlaube den Gutachtern ein umfassendes Urteil – die Kennzahlen nicht. Die Stiftung kann sich sicher sein, dass ihre Haltung auf viel Sympathie trifft. So haben seit 2012 weltweit bereits über 12 000 Wissenschaftler sowie 500 Wissenschaftsorganisationen die „San Francisco Declaration of Research Assessment“ unterschrieben, die fordert, die Güte einer Publikation nicht nach dem Impact Factor zu bewerten.

Krull und mit ihm die Volkswagen-Stiftung vertreten noch eine andere Überzeugung: „Wer die Wissenschaft dazu befähigen will, innovative Forschungswege zu beschreiten, muss finanzielle Planungssicherheit über einen längeren Zeitraum hinweg bieten.“ Längere Förderzeiträume aber bedeuten: Die Zahl der nötigen Gutachten würde sich verringern. Die Gutachter bekämen dadurch wohl wieder mehr Zeit, um ihre Kontrollfunktion sorgfältig wahrzunehmen.

Gutachten öffentlich im Internet

Außerdem experimentiert die Wissenschaft schon länger mit neuen Methoden der Begutachtung: Beim „Open Peer Review“ etwa stellen die Verleger die Gutachten zur jeweiligen Publikation öffentlich ins Internet. Die Gutachten werden so gleichsam zu einem Teil des Artikels und können von jedermann kommentiert werden. Und beim „Preprint-Verfahren“ stellen Wissenschaftler ihre Artikel auf einer Internetplattform den Fachkollegen zur Diskussion, um sie vor der offiziellen Veröffentlichung in einer Fachzeitschrift zu verbessern.  

Es gibt eine ganze Reihe von Maßnahmen gegen Fake Science, die inzwischen zum Standard geworden sind: Zum Beispiel Ombudspersonen an deutschen Hochschulen und Forschungseinrichtungen, an die sich Wissenschaftler vertraulich wenden können, wenn sie bei Kollegen Betrug vermuten oder wissenschaftliches Fehlverhalten beobachtet haben. Sogenannte weiße Listen benennen vertrauenswürdige Fachzeitschriften mit Qualitätskontrolle – schwarze Listen zählen Pseudo-Journale auf. Forschungsorganisationen und Bibliotheken haben zudem Richtlinien und praktische Hilfen entwickelt, damit Wissenschaftler seriöse Zeitschriften als solche identifizieren können. Um den Einfluss etwa der Industrie auf die Forschungsergebnisse zumindest transparent zu machen, verlangen sehr viele Fachzeitschriften eine öffentliche Selbstauskunft der Autoren über mögliche Interessenkonflikte. Auch gegen den Publikationsbias gibt es Mittel: Alle klinischen Studien, in denen Mediziner Therapien aktiv am Patienten testen, werden in Deutschland vorab registriert. Werden später die Ergebnisse nicht publiziert, kann recherchiert werden, ob dies etwa wegen des „negativen“ Ausgangs einer Studie geschah.

Fazit: Glaubwürdigkeit und Qualität in der Wissenschaft zu wahren, ist eine ständige Herausforderung. Doch die Wissenschaft selbst entwickelt ständig Mechanismen, um diese Herausforderung zu bewältigen und Fake Science zu verhindern.

Schreibe einen Kommentar