Aus Forschung wird Gesundheit

Transkript

Zurück zur Episode

BIH_Podcast_42_Wie führt man Tierversuche verantwortungsvoll durch?

Interviewpartner: Prof. Ulrich Dirnagl, Gründungsdirektor des BIH QUEST Center im Berlin Institute of Health in der Charité (BIH).

Seltmann: Herzlich willkommen zum BIH-Podcast „Aus Forschung wird Gesundheit“ aus dem Berlin Institute of Health in der Charité, dem BIH. Wir wollen in diesem Podcast Fragen beantworten rund um das Thema Gesundheit und Gesundheitsforschung. Mein Name ist Stefanie Seltmann.

Seltmann: Heute bin ich zu Gast bei Professor Ulrich Dirnagl, der das QUEST Center am BIH gegründet hat. Das Quest Center entwickelt neue Ansätze und führt sie ein, um sicherzustellen, dass die biomedizinische Forschung vertrauenswürdig durchgeführt wird, nützliche Ergebnisse liefert und ethischen Ansprüchen genügt. In einer aktuellen Publikation hat das QUEST Center gemeinsam mit internationalen Kollegen Richtlinien aufgestellt, mit denen Tierversuche nachvollziehbar geplant, durchgeführt, analysiert und dokumentiert werden. Guten Tag, Herr Professor Dirnagl.

Dirnagl: Hallo.

Seltmann: Herr Prof. Dirnagl, Jetzt gibt es ja schon sehr viele Richtlinien und Empfehlungen gerade auf dem Sektor der tierexperimentellen Forschung. Deutsche Wissenschaftler und Wissenschaftlerinnen stöhnen teilweise, dass die Antragstellung länger dauert als nachher das Experiment selbst. Brauchte es da tatsächlich noch eine neue Richtlinie?

Ulrich Dirnagl: Ja, das ist eine sehr vernünftige Frage, die wir uns auch gestellt haben und die auch tatsächlich intern sehr stark diskutiert wurde. Und im Grunde kann man sagen, das ist genau der Ausgangspunkt gewesen dafür, zu sagen, wir müssen uns jetzt nochmal hinsetzen, weil es gibt tatsächlich sehr viel auf dem Sektor. Es gibt auch sehr Gutes, also die ARRIVE Guidelines zum Beispiel, wo sich Journale quasi einen Standard setzen, was muss alles in einem Artikel drinstehen, wie muss eine Studie konstruiert gewesen sein, dass man sie überhaupt in diesem bestimmten Journal veröffentlicht. Wir haben einen großen systematischen Review gemacht und haben tatsächlich, ich glaube, es waren es 60 oder 70, Guidelines rausziehen können, wie man denn jetzt Experimente planen sollte, wie man sie veröffentlichen sollte, wie man die Statistik machen sollte und so, und haben aus diesen die Gemeinsamkeiten extrahiert und haben die dann in mehreren Runden ... Das ist ein sogenannter Delphi-Prozess, mit dem kann man Consensus finden in Gruppen, die sehr heterogen sind. Es war ja auch Industrie, war Academia dabei, da waren junge Wissenschaftler genauso wie Professoren dabei. Aber in solchen Delphi-Runden, zwei Stück an der Zahl, wurde das quasi einkondensiert auf diese Empfehlungen: Welche haltet ihr jetzt für die wichtigsten von denen? Danach gab es eine Runde, wo über eine Zeit lang eine Reihe von Arbeitsgruppen sich danach gerichtet haben und danach die Frage gestellt wurde: Wie war es denn jetzt? War das jetzt hilfreich? Hat euch das abgelenkt? Fehlte euch was? Und nach dieser Runde gab es dann nochmal ein großes Meeting, in dem ein Konsens gebildet wurde. Und das ist jetzt quasi das Resultat von dieser Konsensbildung. man muss wirklich sagen, da steht jetzt nichts Neues drin, sondern was da drinsteht, sind die Dinge, die die Wissenschaftler aus Academia und aus Industrie am wichtigsten finden, mit denen sie auch irgendwie arbeiten können. Und das Ganze hat nur zwei Seiten, also zwei Papierseiten. Das ist also nichts, was man jetzt ewig studieren müsste. Und jemand, der jetzt in dem Bereich arbeitet, der sich schnell orientieren will, was gibt es da, wie müsste ich es machen, wie kann ich es machen, dem würde ich tatsächlich diesen Rahmen, der jetzt in Nature Methods publiziert wurde, dem würde ich diesen nahelegen.

Seltmann: Es ist ja sogar in Deutschland so, dass teilweise in verschiedenen Bundesländern unterschiedliche Regelungen herrschen für Tierversuchsanträge, für Tierversuchsdurchführungen. Soll denn diese Richtlinie, die Sie da jetzt aufgestellt haben mit Ihren internationalen Kollegen, möglichst für alle Bundesländer, wenn nicht gar alle europäischen Länder oder darüber hinaus gelten?

Ulrich Dirnagl: Also die einfache Antwort ist: Ja. Das ist völlig unabhängig davon, wer wo was macht. Die Empfehlungen sind für tierexperimentelles Arbeiten im präklinischen Bereich in Australien, Brasilien oder in Deutschland. Man muss tatsächlich unterscheiden: Das, was die Genehmigungsbehörden in den verschiedenen Ländern, bei uns in den verschiedenen Bundesländern, jetzt vorschreiben, wie muss so ein Antrag strukturiert sein, was ist überhaupt erlaubt, was ist nicht erlaubt, das ist davon unbenommen. Fakt ist aber, dass dieser sehr legale Rahmen nicht wirklich mit einer wissenschaftlichen Brille gestrickt ist. Das hat natürlich starke Anklänge an Tierethik, das ist auch richtig so, also da geht es um Belastungsstufen usw., alles sehr wichtig, aber letztlich eigentlich gar nicht oder kaum darum: Ist das experimentelle Design so vernünftig? Ist die Statistik so gut gemacht? Wird verblindet gearbeitet, wird randomisiert gearbeitet? Das sind also, muss man sagen, zwei verschiedene Paar Stiefel. Und wer sich jetzt nach unserem Rahmen richtet, der muss immer noch ganz spezifisch gucken, besondere Voraussetzungen erfüllen, die im Land Bayern oder in Baden-Württemberg gelten.

Seltmann: Das heißt, Sie würden diese Richtlinien nicht nur Wissenschaftlern an die Hand geben wollen, sondern auch Behörden? Für die wäre das ja auch mal interessant, wie ein wissenschaftlicher tierexperimenteller Ansatz gestrickt sein muss, damit auch wirklich was Vernünftiges rauskommt.

Ulrich Dirnagl: Ja, das ist ein sehr interessanter Punkt, tatsächlich findet das statt. wir haben jetzt im Land Berlin durchaus auch eine interessante Zusammenarbeit mit der Genehmigungsbehörde, die sich jetzt in dem Fall spezifisch gerade um die Fallzahlen rankt. Es gibt zum Beispiel einen Artikel, der vor kurzem veröffentlicht wurde, wo Berliner Wissenschaftler aus Charité, aus QUEST gemeinsam mit jemand vom LAGeSo, das ist die zuständige Landesbehörde, sich äußern und auch Handreichungen geben zur Fallzahlberechnung in diesem speziellen Kontext der Tierexperimente, wo ja immer die Vorgabe sein muss: maximale Reduktion. Trotzdem aber muss man so viele Tiere einsetzen, dass am Ende die Evidenz, die da rauskommt, auch irgendwie sinnvoll und belastbar ist. wir führen ja auch Diskussionen zum Beispiel mit den Humanethikkommissionen, insbesondere, wenn es first-in-man ist, also der Übergang einer Medikamentenentwicklung vom Tierexperiment zum Menschen, die dann sagen: Das könnt ihr so machen, oder: Das lasst ihr besser bleiben. Und die schauen sich alles Mögliche an, aber die schauen sich eben nicht an, wie gut ist eigentlich die Evidenz, wie wurde sie überhaupt generiert, Das ist tatsächlich etwas, was wir für ein Problem halten. Um die Ethikkommission da jetzt auch in Schutz zu nehmen: Die sehen das auch als durchaus problematisch an, sagen aber natürlich gleichzeitig: Nach Sozialgesetzbuch ist das nicht unsere primäre Aufgabe, das können wir nicht leisten. Das ist noch ein ungelöstes Problem. Vielleicht kann so ein Rahmen da ein bisschen dazu helfen.

Seltmann: Jetzt fangen wir mal an mit den Empfehlungen, die Sie entwickelt haben. Also fangen wir mal an mit der Planung. Was gilt es denn da zu beachten?

Ulrich Dirnagl: Wir machen ja da keine sehr detaillierten Vorgaben, sondern wir weisen eigentlich nur auf verschiedene Dinge hin, das fängt schon damit an bei dieser Planung des Experiments, dass man sich überhaupt mal als Wissenschaftler die Frage stellt: Ist das jetzt Hypothesen generierend, also eine reine Discovery? Bei der Discovery geht man in einen unbekannten Raum und sucht erst mal ohne viel Vorwissen, was gibt es da eigentlich? Oder überprüft man Hypothesen und sagt: Medikament A wirkt oder wirkt nicht, oder der Transkriptionsfaktor X, der ist wichtig für Krankheit Y? Das sind klare Hypothesen. Und darüber muss man sich erstmal klar werden, ich muss ein Experiment anders planen, wenn es Discovery ist, wenn es so eine Entdeckungsreise ist oder wenn es eine Überprüfung einer Hypothese ist. Interessanterweise überlegen sich die meisten Wissenschaftler das nicht und ziehen sich dann jeweils auf die eine oder die andere Sache zurück. Wenn sie nämlich ein Paper schreiben, dann sagen sie: Wir haben eine Hypothese geprüft und haben gezeigt, der und der Faktor ist das und das. Wenn wir sie aber dann sozusagen ein bisschen am Schopf packen wollen und sagen: Na ja, also wenn das jetzt so war, dann müsstest du die Hypothese ja vorher benannt haben, auch vielleicht präregistriert haben, damit wir wissen, dass du sie nicht im Nachhinein deinen Ergebnissen angepasst hast, und dann müsstest du deine Statistik auch irgendwie anders machen. Dann ziehen sich die meisten Wissenschaftler mit der gleichen Studie sofort zurück und sagen: Aber wir haben ja eigentlich nur Discovery gemacht, wir machen ja Exploration. Und das ist jetzt keine Haarspalterei oder damit werden die Leute nicht nur irgendwie gepiesackt, sondern das hat eben unmittelbare Auswirkungen auf das Versuchsdesign. Das wird dann da drin auch beschrieben. Und zum Beispiel, das ist vielleicht ein Faktor, den ich nennen kann, der durchaus drastisch ist: In diesem rein Explorativen, in dieser Entdeckungsreise machen statistische Tests keinen Sinn. Die werden aber angewendet, und das führt zu vielen Problemen, weil da sehr viel falsch positiv gezogen werden, weil man ganz, ganz viele Tests macht, ohne dass man vorher genau sagt, was eigentlich die Hypothese war. Wohingegen die Teststatistik, also das wären so Dinge wo man sagt, das war statistisch signifikant, diese Dinge machen im Hypothesen-Testen Sinn, also wenn ich wissen will und am Schluss sagen will: Das haben wir jetzt rausgefunden ... Und überhaupt in so eine Diskussion mal zu kommen und sich das für die eigene Arbeit zu überlegen, ist in diesem ersten Abschnitt von uns intendiert.

Seltmann: Und dann, wenn man es richtig geplant hat, muss man die Versuche auch richtig durchführen. Was gehört dazu Alles?

Ulrich Dirnagl: Ja, vielleicht, um zwei Faktoren herauszustellen, die, glaube ich, auch jederman einleuchten: Das ist zum Beispiel die Verblindung und die Randomisierung. Wir haben ja alle unsere Lieblingshypothesen und Lieblingsergebnisse, die wir gerne rauskriegen würden. Mit dem Fachbegriff nennt man das Bias, also ein Verzerrungsfaktor, der uns häufig kaum bewusst ist. Wenn ich jetzt auf ein Resultat einer Studie schaue, und ich müsste jetzt irgendwie mit einem Kreis um ein mikroskopisches Detail rumgehen, dann würde das anders ausschauen, wenn ich weiß, das ist in der Behandlungsgruppe als wenn ich annehme es war in der Nichtbehandlungsgruppe. Und das kann man nicht einfach loswerden. Es sei denn, und das ist eigentlich in den meisten Fällen eine ganz einfache Maßnahme: Der das auswertet, darf nicht wissen, in welcher Gruppe das ist. Das ist dann die Verblindung. Das ist bei klinischen Studien in der Regel absoluter Standard. Das nennt man dann eine kontrollierte Studie. Eben die Kontrolle besteht darin, dass man es randomisiert, dass man als sozusagen auch die Patienten randomisiert in diese Behandlungsgruppen gibt. Genauso kann man es im Tierexperiment machen. Das kommt also nochmal dazu: die Randomisierung. Sodass ich sagen würde: Randomisierung und Verblindung sind wesentliche Faktoren, es schützt uns davor, da auf uns selber hereinzufallen. Das würde also zu einem guten Studiendesign gehören. Aber wir wissen aus systematischen Reviews, dass in diesem Bereich etwa nur 30 Prozent der Arbeiten mit verblindeten und randomisierten Designs arbeiten. Und das hat sich auch letztlich, muss man sagen, obwohl wir sehr viel darüber sprechen und die Journale behaupten, dass sie da genau draufgucken, in den letzten Jahren auch nicht sehr verändert.

Seltmann: Das heißt, der Experimentator weiß, welche Maus welches Medikament bekommt bzw. welche Mäuse das Placebo bekommen? Und wenn sie das schon vorher wissen, dann neigen sie vielleicht doch dazu, auch zu beurteilen, dass es den Mäusen mit Medikament besser geht als denen ohne?

Ulrich Dirnagl: Ja, ja. Stellen Sie sich vor, Sie haben eine Studie, wo Sie rausfinden wollen, ob es dem Tier besser oder schlechter geht nach dem Medikament A oder B. Und die Beurteilung besser oder schlechter, wenn Sie jetzt wissen, das ist mein Lieblingsmedikament, das ist mein Baby sozusagen als Doktorarbeit oder als jemand, der dann ein tolles Paper darüber schreiben will, dann ist natürlich der Blick auf dieses Tier: Dem geht’s doch eigentlich ganz schön gut. Und umgekehrt natürlich in der Kontrollgruppe dann vielleicht: Wie gesagt, das hat nichts mit Mogelei oder mit Betrügerei zu tun, das ist menschlich, allzu menschlich und ist außer durch eine Verblindung nicht wirklich in den Griff zu kriegen. Und die Verblindung ist in der Regel ja auch eine relativ einfache Maßnahme. Auch in der klinischen Medizin haben sich kontrollierte Designs erst in den letzten 40, 50 Jahren so durchgesetzt. Und vorher hat man es genauso gemacht, wie man es jetzt in der tierexperimentellen Forschung macht. Nur, man hat gemerkt, mit welchem Resultat, und hat es geschafft, das umzustellen.

Seltmann: Sie haben vorhin auch noch die Statistik angesprochen. Die Behörden sind vielleicht darauf aus, dass es immer möglichst wenige Tiere sind, die in so eine tierexperimentelle Studie eingeschlossen werden. Wenn ich aber nachher nur fünf Tiere behandelt habe, zwei davon geht es besser, zwei geht es schlechter und eines ist indifferent, kann ich daraus nicht wirklich viel schließen. Gilt es auch deshalb, da ein gewisses Bewusstsein dafür hervorzuheben, dass man manchmal mehr Tiere doch nehmen muss? Denn sonst ist es ja ganz unethisch, wenn man so wenig Tiere genommen hat, dass man das Ergebnis eigentlich nicht guten Gewissens auf den Menschen übertragen kann.

Ulrich Dirnagl: Ja, Sie haben das Dilemma beschrieben.. Also an der Stelle ist mehr mehr – nicht weniger mehr, sondern mehr mehr. Genau, wie Sie gesagt haben: Wenn ich mit fünf Tieren einfach nichts wirklich Belastbares erzeugen kann, dann waren die fünf Tiere zwar nur fünf Tiere, aber die waren umsonst verwendet. Umgekehrt, wenn ich mit 15 zu einer guten Aussage kommen könnte, dann ist das immer noch ein Tierexperiment und immer noch ethisch zu diskutieren und muss gerechtfertigt werden, aber nur so lässt es sich am Ende rechtfertigen. Die Frage, die sich natürlich am Ende ergibt: Führt so eine Überlegung zu mehr oder zu weniger Tierexperimenten? Wir stehen ja zu recht unter dem Druck, weniger Tierexperimente zu machen. Um es ganz ehrlich zu sagen: Ich weiß nicht, wozu das am Ende führt. Ich vermute, und es gibt gute Gründe, das anzunehmen, dass es zu weniger Tierversuchen führt, weil man nämlich die anderen weglässt, weil es dann einfach keinen Sinn macht, diese fünf zu machen. Und dann, wenn ich zehnmal fünf weglasse und dafür einmal 20 mache, dann habe ich 30 gespart. Aber in dieser Diskussion befinden wir uns, befinden wir uns mit den Wissenschaftlern, die natürlich nicht nur sagen: „Aber die Behörde genehmigt mir nicht mehr“, sondern auch sagen: „Ja, ich habe aber Mittel von der DFG, und die reichen nur für so und so viel“ oder: „Ich habe einen Doktoranden, und der muss Ende des Jahres fertig sein.“ Das sind ja alles richtige und vernünftige Überlegungen. Insofern sagt niemand, dass es einfach ist. Aber ich glaube, diese Diskussion müssen wir führen, da müssen wir ehrlich sein. Und wir können nicht Experimente machen mit zu kleinen Fallzahlen, weil wir sagen: Die DFG gibt uns nicht mehr Geld oder der Doktorand muss fertig werden. Also dann müssen wir an anderer Stelle dann ansetzen. Dann brauchen wir entweder mehr Geld von der DFG oder längere Doktorarbeiten oder mehr Leute. Ich glaube, wir machen zu viel Forschung in zu kleinen Laboren. Also die müssen jetzt nicht alle größer werden, aber die Labore müssen mehr zusammenarbeiten. Wenn ich mir heute vorstelle, wie Alzheimer untersucht von Arbeitsgruppen mit vier Mitarbeitern: Das Alzheimer-Problem und das, was dort untersucht werden soll, ist schwieriger als die Mondlandung, wahrscheinlich wie eine Landung auf dem Saturn oder was. Und wie kann man erwarten, dass man das mit vier Leuten mit einem DFG-Antrag für 350.000 € löst? Ich glaube, da muss viel mehr in Konsortien gearbeitet werden. Wir haben solche Sachen auch gemacht, jetzt zum Beispiel im Schlaganfall-Sektor, wo eben dann fünf bis zehn Konsortien zusammenarbeiten. Jedes macht vielleicht Gruppengrößen von zehn. Aber wenn wir sie zusammennehmen, haben wir hundert und haben auch noch zusätzlich eine viel robustere Ergebnislage. Etwas, was in Zürich funktioniert, aber nicht in Berlin, ist wahrscheinlich etwas, was wahrscheinlich beim Patienten am Ende auch nicht funktionieren würde. Das heißt, es muss in Zürich, Berlin und in Rom oder so funktionieren, je nachdem, wo das Konsortium ist. Also ich will damit eigentlich nur sagen: Das Dilemma existiert, aber wir haben Wegeaus dem Dilemma heraus. Wir müssen uns dem stellen, wir müssen Lösungen finden.

Seltmann: Jetzt haben Sie auch Richtlinien zur Auswertung von Tierversuchen aufgestellt. Unterscheidet sich denn die Auswertung von tierexperimenteller Forschung von der Auswertung anderer Laborexperimente?

Ulrich Dirnagl: Nein, grundsätzlich, glaube ich, nicht. Also ich glaube auch, man könnte durchaus frecherweise sagen, dass diese Guidelines zu 90 Prozent auch für alles andere gelten. Das sind eigentlich allgemeine Prinzipien der Forschung. Wir stellen eine Hypothese auf, wir überlegen uns, wie wir sie überprüfen mit dem richtigen Design. Das Design hat in allen Fällen ungefähr dasselbe Gerüst. Also es gibt eigentlich, wenig ganz Spezifisches für so ein Tierexperiment. Es lohnt sich trotzdem, es abzutrennen, weil der Bereich meiner Meinung nach jetzt am drängendsten ist. Es ist auch eine Community, die man erreicht, eine weltweit sehr große Gruppe von Wissenschaftlern, die sich definiert über den Begriff präklinischer translationaler Forschung. Und um da vielleicht auch noch ein Beispiel zu zeigen, wie einerseits es ähnlich ist, aber dann vielleicht sogar an manchen Stellen noch schwieriger oder noch krasser: Wenn man jetzt zum Beispiel den Organoid-Bereich nimmt, also das sind sich organisierende Gewebe, die zum Beispiel aus menschlichem Material kommen können. Aus ein paar Hautzellen kann man dann ganz tolle Sachen machen, bis hin zu dem Punkt, dass da am Schluss sowas Gehirnartiges daraus wird. Es stellt sich aber dann natürlich schon die Frage: Wenn das jetzt aus drei Hautzellen von einem Menschen gemacht wird und am Schluss hundert Organoide entstehen, dann hat man zwar hundert Organoide, und das sieht super aus, das sieht so aus, als würden die mit wahnsinnig tollen Fallzahlen arbeiten, aber wenn man genau hinguckt, dann sieht man, diese hundert Organoide kommen aus drei Hautzellen eines Patienten oder eines Gesunden. Und dann stellt man plötzlich fest, dieses Fallzahlproblem, das vielleicht jetzt nicht diese ethische Komponente hat, sondern mehr eine methodische, gibt es da auch, und vielleicht sogar noch viel kritischer. Insofern ist es gut, wenn die Communities sich jetzt da gegenseitig in der Diskussion befruchten. Und das findet tatsächlich statt.

Seltmann: Eine klinische Studie an Menschen muss ja irgendwo eingetragen werden, wenn sie dann von der Ethikkommission genehmigt wurde. Und sobald sie startet, kann man sehen, da findet eine klinische Studie mit dem und dem Ziel oder, um die und die Hypothese zu überprüfen, statt. Wissenschaftler, denen man vorschlägt, ihre tierexperimentellen Studien schon präzuregistrieren, haben häufig Sorge, dass dann andere Wissenschaftler sehen, woran sie arbeiten, was sie gerade versuchen, herauszufinden, und dann möglicherweise versuchen, mit den gleichen Experimenten sie zu überholen. Was antworten Sie diesen Bedenken?

Ulrich Dirnagl: Ja, das höre ich natürlich auch häufiger, und das muss man auch sehr ernst nehmen. Bevor ich die Frage direkt beantworte, will ich noch mal sagen: Es ist ja schon ein interessanter Reflex auf unser Wissenschaftssystem, dass es als Nachteil erscheint, wenn andere gute Ideen aufgreifen und an derselben Sache arbeiten. Das geht zurück zu dem, was ich zuerst gesagt habe: Ich glaube, wenn wir mehr gemeinsam arbeiten würden und unsere Ideen teilen und dann auch gemeinsam daran arbeiten, dann hätten wir etliche der großen Probleme, die wir in der Medizin lösen wollen, wahrscheinlich schon gelöst, von Krebs bis Alzheimer. Aber in einem System, in dem natürlich die Karriere des einzelnen Wissenschaftlers von seiner Publikation in dem Maße abhängt, wie wir das jetzt haben, ist es naiv, zu glauben, dass das so ginge. Und deshalb verstehe ich natürlich diesen Einwand erstmal absolut. Er wird aber dadurch ganz einfach entkräftet, dass alle, und da haben wir jetzt einen Unterschied zu den klinischen Repositorien, die, wie sie richtig sagen, das Vorbild dafür sind und zu einer Revolution und Verbesserung in der klinischen Medizin geführt haben ... Aber dort ist es tatsächlich so, dass die Studie sichtbar ist im Register von dem Moment an, wo Sie das eingetragen haben, und der erste Patient, wenn der eingeschlossen wird, steht das im Register. Wenn Sie das nicht gemacht haben, haben Sie schon einen Fehler gemacht und kriegen ein Problem bei der Publikation. Die präklinischen Register haben alle eine Embargofunktion. Insofern kann ich mit einem einfachen Klick auf zwei Jahre, fünf Jahre, was auch immer ein Embargo setzen, es gibt auch Repositorien, wo Sie das sozusagen permanent machen können ... Aber in dem Moment, wo Sie es publizieren, können Sie sagen: Ich habe vor drei Jahren das präregistriert und da habe ich Folgendes reingeschrieben, und jetzt zeige ich euch Folgendes. Damit wird jedes Resultat so viel glaubwürdiger, so viel robuster. Also die einfache Antwort auf die Frage lautet: Mach dir keine Sorgen, drücke den Embargo-Button und wähle die Jahreszahl. Und dann kann man auch das Embargo verlängern, wenn dann irgendwas passiert ist. Dieses Argument kommt nur von Leuten, die es noch nicht probiert haben, weil, wenn sie es probiert hätten, hätten sie festgestellt, sie können ein Embargo machen.

Seltmann: Jetzt geht es am Ende eines Experimentes auch noch um die korrekte Dokumentation und damit vermutlich auch um die Veröffentlichung der Ergebnisse der Tierversuche. Ich erinnere mich, dass ihr Kollege Prof. Daniel Strech schon einmal moniert hat vor einigen Jahren, dass viele Tierversuche nicht nur falsch, sondern gar nicht veröffentlicht werden. Stimmt das nach wie vor?

Ulrich Dirnagl: Also das ist eine Frage, die schwer zu beantworten ist. Nach allem, was wir wissen, ist die Antwort: Ja, das stimmt. Im klinischen Bereich ist es ja auch so, dass vieles verspätet oder auch nicht publiziert wird. Aber da ist es einfacher, das rauszufinden, weil zumindest bei diesen Studien, wo Medikamente getestet werden, diese Studien präregistriert sind. Da muss man auch eintragen, wann sie beendet sind. Und wenn die beendet sind und nicht publiziert werden, dann weiß ich zumindest, da klafft eine Lücke. Und die ist durchaus substanziell, aber wir können sie fassen. Dadurch, dass eben eine Präregistrierung nicht zwingend ist und nur in den seltensten Fällen bisher gemacht wird, wissen wir ja gar nicht, wie viele Experimente, wie viele Studien tierexperimentell laufen, sodass wir eigentlich versuchen können, nur eine Idee davon zu generieren, was da eigentlich fehlt, was nicht publiziert wurde. Eine Möglichkeit ist zum Beispiel, einfach in die Literatur zu gucken, wie viele positive Resultate es gibt es und wie viele negative, müsste es eigentlich bei der Streuung, die da drin ist, eigentlich geben, die wir aber nicht sehen. Da gibt es statistische Techniken dazu. Und dann kann man sehr konservativ abschätzen, was ist der Publikationsbias, welche von diesen Experimenten, die es eigentlich gegeben haben muss, aber wir sehen sie nicht. Da kommt regelhaft sowas raus wie: 30 bis 50 Prozent fehlen. Eine andere Möglichkeit, die Herr Strech auch angewandt hat ist, dass man die Genehmigung von der Behörde oder von der lokalen Institution erhält, in die Tierversuchsanträge hineinzugehen und dann zu gucken viele Jahre später, was ist denn jetzt eigentlich aus diesen Studien geworden, die dort beantragt waren. Ist nicht ganz einfach, weil nicht jeder Antrag müsste jetzt ein Paper verfassen, sondern es könnten fünf Papers sein. Das ist also nicht so ganz geradlinig. Aber auch da kommt man auf 30, 40, 50 Prozent, die dann nicht publiziert werden. Also ich glaube, was man, ohne einen Fehler zu machen, sagen kann: Eine viel zu hohe Zahl von den Ergebnissen, die dort erzielt werden, wird nicht veröffentlicht. Das kann man in jedem Fall, würde ich sagen, als unethisch bezeichnen, weil da sind Ressourcen ganz allgemein reingegangen, die man hätte anders einsetzen können. Noch wichtiger natürlich: Es sind Tiere eingesetzt worden, die für nichts gestorben sind, weil sie zu keinem Erkenntnisgewinn beigetragen haben. Es führt dazu, dass Leute vielleicht Dinge dreimal in drei Gruppen machen, dreimal das Gleiche, obwohl sie eigentlich hätten herausfinden können, so oder so geht es nicht. Und als letzter Schmankerl kann man vielleicht noch draufsetzen, da gibt es auch wirklich gute Daten dazu: Wenn man sich die Replizierbarkeit von Studien anschaut, dann stellt man fest, dass Studien, die ein negatives Resultat haben, eine höhere Wahrscheinlichkeit haben, dass sie sich genauso, nämlich negativ wiederholen lassen, während Studien, die positiv sind, in vielen Fällen sich nicht wiederholen lassen. Will sagen, ein negatives Studienresultat ist sehr robust, und es ist schon durch den Namen, möchte ich auch noch anhängen, irgendwie stigmatisiert: negative Studien. Negativ ist nicht gut. Aber solche negativen Ergebnisse schaffen ja quasi einen Wissenskorridor. Vielleicht heißt es: Die Dosierung war nicht richtig, aber ich muss mehr oder ich muss weniger geben, eine neue Serie. Oder das Timing, die zeitliche Gabe. Und, und, und. Man muss es vielleicht so formulieren: Es darf kein wissenschaftliches Experiment, insbesondere, wenn Ressourcen eingesetzt werden, noch dazu Tiere, so gemacht werden, dass Ergebnisse entstehen können, die irrelevant sind. Also jedes Ergebnis, auch ein negatives, muss am Schluss eine Form von Erkenntnis fördern. Und wenn man das gut macht und wenn man sich an die Guidelines oder an die Empfehlungen hält, die wir da gemacht haben, dann ist auch das Negative, das Nullresultat ein sehr positives im Sinne des Erkenntnisgewinns.

Seltmann: Jetzt sind ja Richtlinien eine feine Sache, aber wer kontrolliert denn nun, dass sie auch eingeführt und eingehalten werden? Wir haben schon darüber gesprochen, es müssten eigentlich diese Richtlinien auch von den Behörden, von den Genehmigungsbehörden gelesen werden. Aber wäre es nicht auch wichtig, dass die Journals, in denen nachher die Resultate veröffentlicht werden, diese Richtlinien beherzigen, bevor sie eine solche Studie überhaupt annehmen oder zum Review rausschicken und dann veröffentlichen?

Ulrich Dirnagl: Eigentlich findet das schon statt. Also die von mir anfangs erwähnten ARRIVE Guidelines, da gibt es Tausende von Journalen, die gesagt haben: Wir verpflichten uns darauf, dass bei uns nur veröffentlicht wird, wenn es den ARRIVE Guidelines entspricht. Es ist aber sehr schwierig in einem Review-Prozess, wo der Reviewer ohnehin überfordert ist das zu überprüfen, weil die Papers heutzutage so kompliziert sind und so viel drin steht. Jetzt muss er auch noch gucken, ist das ARRIVE hier, ARRIVE da. Viele der Journale haben dafür auch kein Personal. Wir haben zurzeit am QUEST eine Wissenschaftlerin als Fellow, die Anita Bandrowski aus Stanford. Die hat automatisierte Tools entwickelt, Journale verwenden die mittlerweile. Und diese Anita Bandrowski arbeitet gerade an einem Tool, wo wir am BIH und an der Charité dieses zur Verfügung stellen für Wissenschaftler, die quasi ihre Submission, bevor sie was wegschicken zum Journal, dort hochladen können, ein geschützter Bereich nur für sie, niemand guckt zu, und dann von diesem automatisierten Screening-Tool einen Report zurück bekommen, der entweder lautet: Super, reiche ein, besser geht es nicht, oder: Achtung, hast du das nur übersehen, dass du darüber schreibst oder hast du es vielleicht wirklich nicht gemacht, aber dann sage, was du gemacht hast. Und so weiter.

Seltmann: Man erwartet ja eigentlich, dass die Wissenschaftler und Wissenschaftlerinnen das ja auch gerne befolgen möchten. Sie wollen ja auch was herausfinden, was sich nachher bewährt beim Patienten, gerade wenn man in der translationalen Forschung arbeitet. Aber vielleicht kennen sie sich nicht so gut aus in Statistik oder haben noch nicht so weit drüber nachgedacht. Wäre es nicht also sinnvoll, diese Richtlinien schon bei jungen Forschern oder Studenten zu beginnen, dass man denen die schon kommuniziert, damit sie gleich die Richtlinien kennenlernen, die sie später beherzigen sollen?

Ulrich Dirnagl: Absolut. Und das tun wir auch. Jetzt arbeitet Ulf Tölch vom QUEST Center gerade an einem Format für die Medizinstudenten. Dass tatsächlich unsere Jungwissenschaftler, die also an Doktorarbeiten, Masterarbeiten usw. arbeiten, quasi gebadet werden in dieser Praxis und dann eigentlich gar nichts mehr anderes kennen als das. Ich glaube auch, dass das einer der wesentlichen Faktoren ist. Das allein reicht aber wahrscheinlich nicht, weil die natürlich zurücklaufen in Labore, wo dann der Laborleiter, der Chef, der werdende Professor oder der Schon-Professor sagt: Ach, das haben wir noch nie so gemacht, und schau mich doch an, wir haben doch in Nature publiziert, das haben wir alles ohne diese Dinge gemacht, und das hält uns jetzt hier eigentlich nur auf... Also diese Beispiele haben wir auch. Deshalb, glaube ich, müssen wir von verschiedenen Seiten kommen. Die verschiedenen Seiten sind aktiv. Ich glaube, es kommt aus der Wissenschaft selber, es kommt von den Förderern, es kommt von den Journalen. Alle haben ja ein Interesse an guter Wissenschaft. Es kommt auch von ganz, ganz oben. Also wenn man sich anschaut, wie die EU sich äußert, auch, möchte ich mal sagen, fast die Daumenschrauben anzieht bei EU-Anträgen. Die UNESCO hat sich letztes Jahr dazu geäußert, und 193 Staaten haben es alle ratifiziert. Aber es ist tatsächlich natürlich so, dass in Laboren man nicht von einem auf den nächsten Tag irgendwas verändert. Da gibt es Modelle, da ist zehn Jahre lang daran geschraubt worden, dass die genau so funktionieren. Und alles was das gefährden könnte, ist natürlich da nicht gerne gesehen. Aber ich glaube, wir sind auf dem richtigen Weg.

Seltmann: Gut, dann hoffe ich natürlich sehr, dass Ihre Richtlinien weite Verbreitung und Beherzigung finden und sage danke für das interessante Gespräch.

Ulrich Dirnagl: Ich danke.

Seltmann: Und das war der BIH-Podcast „Aus Forschung wird Gesundheit“ aus dem Berlin Institut of Health in der Charité, dem BIH. Professor Ulrich Dirnagl erklärte, wie man Tierversuche verantwortungsvoll durchführt. Falls auch Sie eine Frage zur Gesundheit oder zur Gesundheitsforschung haben, schicken Sie sie gerne an podcast@bih-charite.de. Tschüss und bis zum nächsten Mal, sagt Stefanie Seltmann.