Meine Beratung ist auch während Covid-19 geöffnet. Bitte kontaktieren Sie mich wie gewohnt. info@ortmann-statistik.de
Corona blockiert dein Medizinstudium? Dann gründe eine Studygroup und arbeite an deiner Diss!

Corona blockiert dein Medizinstudium? Dann gründe eine Studygroup und arbeite an deiner Diss!

Corona hat uns alle voll erwischt. Normalerweise wäre ich jetzt gerade unterwegs, würde meine Ärzte vor Ort besuchen und Projekte planen. Tja, das kann ich aktuell vergessen.

 

Wie sieht es bei dir aus? Viele Studenten, die ich betreue, erzählen mir, dass sie aktuell keine Vorlesungen mehr haben, wieder daheim bei ihren Eltern sind und frustriert rumsitzen. Wenigstens an der eigenen Diss arbeiten könnte man ja jetzt, aber nein:

 

Da eure Betreuer voll und ganz ins Krisenmanagement eingebunden sind, sind sie natürlich auch nicht mehr ansprechbar. Datenerhebungen finden nicht mehr statt und keiner zeigt euch, wie ihr weitermachen sollt. Total frustrierend.

 

Für mich ist die Situation seit Beginn der Coronakrise ähnlich blöd – aber es gibt da immerhin eine Sache, die ich seit langem machen wollte.

 

Eigentlich ist jetzt nämlich genau die richtige Zeit, um wieder enger mit euch Studenten zusammenzuarbeiten.

 

Ich habe ja schon bei der Einführung meiner Forschungsakademie erzählt, dass ich in meiner Zeit als Wissenschaftlerin unglaublich gerne mit Studenten und Doktoranden zusammengearbeitet habe.

 

Zu Spitzenzeiten hatte ich ein Team aus bis zu 20 Leuten, mit denen ich eine riesige Trainingsstudie durchgezogen habe. Sehr viele von denen (und viele weitere in den Jahren davor und danach) habe ich auch durch ihre Abschlussarbeiten und  Dissertationen geschleust. Und das in Rekordzeit!

 

Mein Ansatz als Betreuerin war damals immer, den Studenten so viel Hilfestellung und Erklärung wie möglich zu geben, damit sie ihre Arbeit Schritt für Schritt selbstständig durchführen können. Quasi Hilfe zur Selbsthilfe – und das hat jedes Mal super geklappt! Meine Studenten waren ruck zuck fertig, keine Frustration, keine Ängste, sondern sicheres und ruhiges Arbeiten.

 

Mich hat es immer tierisch aufgeregt, wenn andere Wissenschaftler im meinem Umfeld Forschungsthemen vergeben haben, sich dann aber im Laufe des Projektes nicht mehr um ihre Studenten kümmern wollten.

 

Den universitären Regeln zufolge sollte ein Student zwar fähig sein, eine wissenschaftliche Arbeit eigenständig zu bearbeiten, ich habe das aber nie so interpretiert, dass er sie auch allein bearbeiten muss.

 

„Eigenständig, aber unter schrittweiser Anleitung“ war mein Motto an der Uni . Das ergibt den besten Lerneffekt und optimale Ergebnisse.

 

Nun, wo ich genauso viel Zeit habe wie ihr, könnten wir also endlich mein nächstes Wunschthema anpacken: Wir gründen gemeinsame Studiengruppen!

 

Ihr wisst ja vielleicht, dass ich Kurzberatungen anbiete. Die werden normalerweise von arbeitenden Ärzten genutzt, die in einer Intensivsitzung von bis zu 90 Minuten fokussierte Fragestellungen bearbeiten wollen.

 

Das Ganze läuft dann meist über Telefon oder Bildschirm und funktioniert total gut. Natürlich ist so eine Beratung für die allermeisten Studenten ein bisschen kostspielig.

 

Außerdem brauchen Studenten kontinuierliche Hilfe mit stetigen Impulsen, und nicht unbedingt eine Einzelsitzung.

 

Daher habe ich mir überlegt, die Einzelsitzungen per Zoom in virtuelle Gruppensitzungen umzuwandeln. Organisiert euch in Teams von bis zu 5 Personen, die ähnliche Fragen haben, und bildet zusammen eine Studygroup.

 

Einmalig oder regelmäßig können wir uns per ZOOM treffen und eure Daten auswerten. Ihr gebt mir ein Wunschthema, mit dem wir beginnen, und Schritt für Schritt arbeiten wir uns durch eure Promotionen.

 

Fragen, die z. B. immer wieder auftreten, sind:

 

  • Wie programmiere ich Fragebögen?
  • Wie importiere und organisiere ich mein Datenfile in SPSS?
  • Wie gehe ich überhaupt mit den Daten um?
  • Wie macht man die Deskriptive Statistik?
  • Wie finde ich den richtigen Test?
  • Wie führe ich eine ANOVA durch?
  • Wie rechne ich eine Regression?

 

Es gibt aber auch ganz praktische Fragen:

 

  • Wie benutze ich Zitationsprogramme oder suche Paper in Literaturdatenbanken?
  • Wie führe ich Telefoninterviews?
  • Und worauf kommt es eigentlich beim wissenschaftlichen Schreiben an?

 

So viele Bereiche, die man super in Kleingruppen bearbeiten kann!

 

Wenn ihr euch einfach den Beratungspreis von 170 € für 90 min teilt, wird es für alle bedeutend billiger (z. B. 35 € / Termin pro Person bei 5 Personen). Ihr bekommt eine an eure Bedürfnisse angepasste Beratung und arbeitet euch strukturiert durch eure Dissertationen.

 

Um zwischen den Treffen effektiv weiterarbeiten zu können, bekommt ihr nach jedem Termin eine Aufzeichnung der Sitzung.

 

Klingt das nicht super?! Genau. Machen wir also gemeinsam das Beste aus der Coronakrise!

 

Aber wie findet ihr eure Lernpartner?

 

Ganz einfach! Postet euer Interesse in meine Facebook-Gruppe: Promovieren in der Medizin – das schaffst du auch!

 

Gern helfe ich auch, Teams zusammenzustellen. Dann bucht einen Termin in meinem Kalender, sammelt die Einzelbeiträge über PayPal MoneyPool und los geht’s.

 

Ihr könnt mir dabei schon vor dem Termin das Thema samt einem Datensatz (oder einem Fragebogen, einer Studienidee oder was ihr so habt) zuschicken, damit ich unser Treffen vorbereiten kann.

 

Ich schicke euch dann eine Mail mit Link und schon treffen wir uns im virtuellen Kursraum.

 

Ganz wichtig: Auch wenn sich mein Angebot an Medizinstudenten richtet, ist diese Beratung im Rahmen von Corona auch für andere Fächer geöffnet. Fachspezifische Lerngruppen zu bauen, ist ja kein Problem.

 

Lasst uns also einfach das Beste aus dieser Zeit machen. Anstatt frustriert rumzusitzen, nutzen wir die Zeit im home office, um produktiv zu werden!

 

Und falls es euch aktuell nicht betrifft: Seid so lieb und leitet den Link zu diesem Artikel an eure Fachschaften oder über eure internen Emailverteiler / sozialen Netzwerke weiter. Die Nachricht soll so viele Studenten wie möglich erreichen.

 

Stellt euch mal vor: Wenn sich der Unibetrieb wieder normalisiert könntet ihr mit einer fertigen Dissertation da sitzen – super, oder?!

 

Als ehemalige Wissenschaftlerin und professionelle Statistikberaterin, die wirklich hunderte Medizinstudenten durch die Dissertation gelotst hat, kann ich sagen: Mit meiner Hilfe schafft ihr das!

 

Also meldet euch, ich freue mich sehr auf euch. Lasst uns starten!

 

Eure Magdalene

 

 

Corona ist hier – was wir jetzt tun müssen

Corona ist hier – was wir jetzt tun müssen

Corona ist auch bei uns angekommen. Das wird langsam allen klar. In diesem Artikel erkläre ich dir daher, was wir jetzt tun müssen, um unsere Familie, unsere Wirtschaft und unser gemeinschaftliches Leben zu schützen.

 

Ich bin Dr. Magdalene Ortmann, Medizinstatistikerin sowie ehemalige Wissenschaftlerin und somit von Haus aus sehr an Zahlen und Krankheiten interessiert. Beruflich mache ich nichts anderes als medizinische Daten auszuwerten, zu interpretieren und für meine Kunden verständlich aufzubereiten.

 

Als im Januar von einem neuartigen Virus in China berichtet wurde, das schwere Lungenentzündungen bis hin zum Lungenversagen auslöst und sich rasant verbreitet, erweckte das sofort mein Interesse (Berufskrankheit).

 

Dass Viren, die Tiere als Wirt benutzen, ab und zu den Sprung auf den Menschen schaffen, ist nicht ungewöhnlich – hier kann der Evolution beim Arbeiten zugeschaut werden. Dass dies nun aber ausgerechnet inmitten einer Großstadt passierte, war etwas unglücklich.

 

Wenn ein Virus auf ein unvorbereitetes „naives“ Immunsystem trifft, rennt es offene Türen ein. So ziemlich jeder, der Kontakt mit dem Virus hat, wird sich anstecken, zumindest solange die Viruskonzentration im Übertragungsmedium ausreichend hoch ist.

 

Anders als bei der Grippe gibt es also niemanden, der schon genug „Vorerfahrung“ mit ähnlichen Grippestämmen hat und die Ausbreitung verlangsamt.

 

Im Falle von Corona haben wir somit ein ziemlich verbreitungsfreudiges Virus. Jeder Erkrankte steckt im Schnitt zwischen 2,4 und 3,3 Familienmitglieder, Freunde oder Nachbarn an (Robert-Koch-Institut).

 

Das wiederum heißt, dass aus dem ersten Patienten im Schnitt 3 neue resultieren, die wiederum 9 weitere infizieren, aus denen dann 27 neue Fälle entstehen. Schon in der 3. Ansteckungsrunde erreichen wir also in Summe 40 Erkrankte. Führen wir das ein bisschen weiter, sind wir schnell bei Hunderten und schließlich Tausenden von Infizierten.

 

Das ist die sogenannte exponentielle Funktion, von der alle sprechen. In der folgenden Grafik habe ich die mal geplottet. Dabei habe ich verschiedene Ansteckungsraten (R0) angenommen, um zu zeigen, wie unterschiedlich so ein exponentielles Wachstum aussehen kann:

 

Vergleich 3er verschiedener exponentieller Wachstumskurven des Coronavirus.

 

Grün zeigt die Neuansteckung von 2 Patienten durch einen aktuell Erkrankten, rot von 2,2 und blau von 2,4.

 

Schon hier ist deutlich zu sehen, dass bereits eine kleine Steigerung der Ansteckungsrate eine massive Steigerung der Fallzahlen im späteren Verlauf zur Folge hat.

 

Es stellt sich natürlich die Frage, warum wir aktuell noch so “wenige“ Fälle in Deutschland sehen – schließlich ist das Virus ja nun schon seit 3 Wochen bei uns unterwegs.

 

Das liegt daran, dass wir zum einen nicht alle Erkrankten mit den durchgeführten Tests erfassen, weil ein extrem hoher Anteil nur leichte Symptome zeigt, die durchaus mit üblichen Erkältungen zu verwechseln sind. Zum anderen liegt es aber auch daran, dass es bis zu 4 Tage dauert, bis die Testergebnisse nach dem Abstrich vorliegen.

 

Was wir also aktuell sehen, sind die Erkrankungszahlen von vor 4 Tagen, zudem von einer Subgruppe, bei der wahrscheinlich nur die schweren Fälle sowie deren positiv getestete Kontaktpersonen erfasst wurden.

 

Sind die aktuellen Zahlen also realistisch? Auf keinen Fall.

 

Bis vor kurzem wurde ein Patient mit Beschwerden nur dann getestet, wenn er sich entweder kurz zuvor in einem Risikogebiet aufhielt oder vorab Kontakt zu einer infizierten Person hatte.

 

Berücksichtigt man aber, dass sehr viele Menschen nur leichte, mit einfachen Erkältungen zu vergleichende Symptome haben und somit nie zum Arzt gehen, muss davon ausgegangen werden, dass in Deutschland sehr viele infizierte Personen umherlaufen, die andere anstecken, ohne überhaupt zu wissen, dass sie infektiös sind. Und diese angesteckten Personen haben keine Chance getestet zu werden, da Sie ja keinen Kontakt zu einer schwer erkrankten, nachweislich infizierten Person hatten.

 

Ihr seht an dieser Stelle beißt sich die Katze irgendwie in den Schwanz.

 

Zu erkennen ist das Problem der hohen Dunkelziffer auch daran, dass aktuell immer wieder größere Erkrankungsherde wie aus dem Nichts auftauchen, bei denen der sogenannte Patient 0, wie auch im Kreis Heinsberg, nicht gefunden werden kann. Patient 0 weiß nämlich gar nicht, dass er Patient 0 ist, weil er mit leichtem Husten durch die Gegend tingelt, falls er nicht ohnehin schon längst wieder gesund ist.

 

 

Klar ist: Nur wer sehr schwer erkrankt ist, fällt auf und wird getestet. Alle anderen nicht.

 

Ein weiterer Hinweis auf eine hohe Dunkelziffer sind auch die enormen Todesraten in Iran und Italien. 

 

Überall dort, wo nur die allerschwersten Fälle und die Toten auf Corona getestet werden, muss die Letalität, also die Zahl der Toten in Bezug auf die Anzahl der Erkrankten, anteilig erhöht sein, denn das Virus verändert sich nicht, sobald es Ländergrenzen überschreitet. Selbst wenn man die Qualität des jeweiligen Gesundheitssystems berücksichtigt, erklärt das nicht diese enormen Unterschiede.

 

Es ist sehr wahrscheinlich viel eher so, dass die leicht Infizierten – du kannst es mittlerweile mitsingen – nicht durch Tests erfasst werden. Statt dessen laufen sie unerkannt herum und stecken andere an.

 

So lange leicht erkrankte Personen nicht identifiziert werden, werden wir Covid-19 nicht kontrollieren können. Stattdessen werden wir weiterhin einen enormen Anstieg von Erkrankten haben.

 

Jetzt könnte natürlich so argumentiert werden: Ist ja egal, schließlich sind es ja nur wenige, die sehr krank werden und auf der Intensivstation behandelt werden müssen. Das ist aber ein Fehlschluss!

 

Auch hier kommt wieder unsere exponentielle Wachstumskurve ins Spiel. Wenn 5% der Erkrankten beatmet werden müssen, dann sind das bei 40 Patienten nur 2, bei 30.000 Infizierten aber schon 1500 und bei 100.000 unglaubliche 5.000 ITS-Patienten – auf unsere Bevölkerung von 83 Millionen und einer finalen Durchseuchung von 60 bis 70% innerhalb weniger (!) Wochen oder Monate will ich das lieber mal gar nicht anwenden (wobei auch hier eine Korrektur nach unten stattfinden muss, da sich die 5% auf die diagnostizierten Fälle bezieht und die Dunkelziffer ignoriert).

 

Aktuell wird überall gemeldet, dass wir mit 28.000 Intensivbetten bestens ausgestattet wären. Gesetzt dem Fall, diese Betten wären leer und die Stationen bestens mit Ärzten und Pflegekräften ausgestattet, würde ich das ja gern glauben. Fragt man aber die Ärzte direkt (und das tue ich berufsbedingt sehr oft), klingt die Einschätzung schon ganz anders.

 

In den letzten 10 bis 15 Jahren wurden die Krankenhäuser kaputt gespart. Das Personal auf den Intensivstationen ist extrem überlastet, auch ohne Corona.

 

Selbst wenn alle planbaren OPs verschoben werden könnten, wären dort immer noch viele schwerstkranke Patienten, die versorgt werden müssen. Wenn ich Ärzte in den Kliniken besuche, um Projekte zu besprechen, kann ich sicher sein, dass bei den Intensivmedizinern alle 3 Minuten das Telefon klingelt und irgendjemand Hilfe braucht. 

 

Können wir uns somit darauf verlassen, dass wir alle im Notfall gut versorgt werden können? Never ever.

 

Was können wir also tun?

 

1.  In einer idealen Welt könnten wir einfach mehr und schneller testen, um einen realistischen IST-Zustand zu bekommen. Danach würden wir alle Infizierten in Quarantäne stecken, die schweren Fälle behandeln – und schwupp, wäre alles ok.

Das ist aber leider absolut unmöglich, da wir keine Kapazitäten haben, um so viele Menschen zu testen.

 

2.  In einer idealen Welt könnten wir außerdem impfen, aber bis der Impfstoff marktreif ist, hat sich der Großteil der Gesellschaft längst mit Covid-19 infiziert.

 

3.  Übrig bleibt die unbequeme Wahrheit, dass allein eine Änderung der Verbreitungsgeschwindigkeit das Virus verlangsamen kann.

 

Wir müssen also mit allen Mitteln dafür sorgen, dass das Virus weniger leicht weitergegeben werden kann.

 

Und wie machen wir das, wenn sich aktuell potenziell jeder anstecken kann?

 

Indem wir uns isolieren.

 

Es führt kein Weg daran vorbei. Natürlich nicht für immer, aber während der kommenden Wochen.

 

Wir müssen beginnen zu verstehen, dass die Verbreitung des Corona-Virus reine Mathematik ist und wir nur gemeinsam in der Lage sind, die Verbreitung zu reduzieren.

 

Und damit meine ich nicht, einfach häufiger mal die Hände zu waschen und in die Armbeuge zu niesen. Nein, gemeint ist, ernsthaft zuhause zu bleiben, Treffen mit Freunden, wo immer es möglich ist, zu vermeiden, und keine älteren Verwandten in Heimen zu besuchen (die teilweise immer noch für Besucher geöffnet sind!).

 

Denkt daran: Es gibt eine sehr hohe Dunkelziffer an halbwegs gesunden Corona-Infizierten, die das Virus stetig weitergeben. Jeder Besuch alter Verwandter erhöht also das Risiko, dass unsere Großeltern oder Eltern an Corona erkranken. Und wie ja mittlerweile jeder weiß, steigt das Sterberisiko bei alten Leuten enorm an.

 

Wer also noch etwas von seinen Großeltern haben will, steigt aufs Telefon um.

 

Es ist außerdem notwendig, dass wir unsere älteren Nachbarn, Verwandten und Freunde stetig darüber informieren, dass sie wirklich zuhause bleiben müssen.

 

Ich finde es aktuell ziemlich irritierend, dass wir jungen Leute zuhause bleiben, die Kinder aus den Schulen genommen werden, auf Homeoffice umgestiegen wird, während draußen eine große Zahl älterer Menschen unterwegs ist.

 

 

Das liegt natürlich zum einen daran, dass alle, auch hochgefährdete Menschen, davon ausgehen, dass es sie schon nicht treffen wird. Schließlich haben sie ja bis dato noch alles überlebt (was ja auch stimmt, sonst wären sie ja schließlich tot).

 

Zum anderen liegt es aber sicherlich auch daran, dass ältere Menschen weniger Zugang zum Internet und anderen schnellen Medien haben und somit einfach noch nicht oft genug gehört haben, dass wir uns in einer sehr ernsten Lage befinden, die jetzt strenge Konsequenz erfordert.

 

Das Beste, was wir also neben der eigenen sozialen Isolation machen können, ist, allen älteren Menschen in unserem Umfeld mit der immer gleichen Botschaft auf die Nerven zu gehen: Bleibt zu Hause.

 

Nun ist die Frage: Werden wir durch soziale Isolation weniger Corona-Fälle haben?

 

Nein. 60 bis 70 % der Bevölkerung werden sich anstecken. So oder so. Für alles andere ist es zu spät.

 

Was wir aber durch die Quarantäne erleben werden, ist, dass die Ausbreitung weniger schnell verläuft.

 

Dieser Punkt wird ja aktuell sehr oft in den Medien besprochen. Wir werden damit erreichen, dass die Kapazität der Intensivbetten für die Anzahl der jeweils schwererkrankten Patienten ausreicht. Auch das wird dann noch einmal die Todesrate reduzieren.

 

Wir werden nicht, wie in Italien, Ärzte entscheiden lassen müssen, wer eine Beatmung bekommen soll – der 50-jährige Familienvater oder die 80-jährige Großmutter. Wir werden alle Patienten ausreichend gut behandeln können.

 

Jetzt möchte ich aber noch auf einen sehr wichtigen Punkt eingehen, der in den nächsten Wochen entscheidend sein wird.

 

Wenn die Regierung den großen Shutdown veranlasst, alle Geschäfte schließen und sich die Menschen zuhause fast vollständig isolieren, werden wir alle auf ein Abflachen der Infektionskurve hoffen.

 

Aber dieses Abflachen wird sehr lange auf sich warten lassen – nämlich ca. 2 Wochen.

 

Um das zu verstehen, muss man sich die folgende Grafik ein bisschen näher ansehen. Bitte keinen Schreck bekommen, konzentriert euch einfach auf den blauen und den orangenen Hügel, sowie die gelbe Fläche darunter.

 

Quelle: Wu & McCoogan in JAMA (2020) copyright

 

In dieser Grafik ist der chinesische Verlauf der Corona-Pandemie zu sehen. Die orangenen Balken zeigen das, was die Statistiken der deutschen Zählungen aktuell berichten: die Anzahl der positiv getesteten Corona-Fälle, allerdings nicht, wie sonst üblich, als Summe aller bisher Infizierten, sondern als neu identifizierte Fälle pro Tag.

 

Als die chinesische Regierung am 23. Januar die Gefahr durch das Corona-Virus endgültig verstand (Beginn der gelb markierten Fläche unter den Balken), riegelte sie die Großstadt Wuhan ab.

 

Alle Menschen bekamen Ausgehverbot. Die Schulen wurden geschlossen, die Firmen produzierten nichts mehr. Alles stand still.

 

Und trotzdem stiegen die Fallzahlen pro Tag weiter an. Bis zum 05. Februar, also über ganze 14 Tage breitete sich das Virus immer weiter aus.

 

Die Quarantäne schien völlig sinnlos zu sein.

 

Aber das war nicht die Realität.

 

Wie ich bereits erklärt habe, haben wir zum einen ein wirkliches Diagnostikproblem. Wir testen Menschen zu spät, nämlich dann, wenn sie mit wirklich schlimmen Symptomen zum Arzt oder direkt ins Krankenhaus kommen, und übersehen somit einen Großteil der Kranken.

 

Zum anderen dauert es bis zum Testergebnis ca. 4 Tage. Addiert man nun die Tage der Inkubationszeit (also die Zeit zwischen der Infektion und dem Auftreten der ersten leichten Symptome (ca. 5 bis 6 Tage) und die Dauer, bis die ersten schweren Symptome auftreten (Tag des Arztbesuches inkl. Abstrich nach weiteren 4 Tagen), und addiert dazu die 4 Tage, die der Test braucht um ein Ergebnis zu liefern, kommen wir auf eine Verzögerung von ziemlich genau 2 Wochen.

 

Rechnet man nun also rückwärts, was die Autoren der Studie, aus der diese Grafik stammt, gemacht haben (hier dargestellt als blaue Balkenkurve), kann man abschätzen, wie sich der wirkliche zeitliche Ablauf abgespielt haben muss. Und dort sieht man, dass genau zu dem Zeitpunkt, als Wuhan abgeriegelt wurde und sich die Menschen in strenge soziale Isolation begeben haben, die Zahl der Neuansteckungen deutlich zurückgegangen ist.

 

Und das muss unsere Motivation sein!

 

Wenn in den kommenden Tagen also unser Leben massiv runtergefahren wird und wir die Wachstumskurve in den Zeitungen verfolgen, dann müssen wir damit rechnen, dass es bis zu zwei Wochen dauern kann, bis die Kurve abflacht.

 

Wir müssen Geduld haben und weiterhin aushalten. Wir dürfen auf keinen Fall aufgeben und die Isolation beenden, weil die Zahlen zu zeigen scheinen, dass soziale Isolation keinen Effekt hat. Das hat sie.

 

Wenn wir diese Zeit durchhalten, werden wir den wirtschaftlichen Schaden begrenzen können. Wir werden deutlich weniger Freunde und Verwandte verlieren. Wir werden unsere Häuser und unsere Arbeitsplätze behalten.

 

Wenn wir nun also in die Isolation gehen, dann werden wir das mit der Gewissheit tun, dass wir diese Krise überwinden werden. Und zwar mit Disziplin und Geduld. Lasst es uns also anpacken und durchhalten.

 

Auf einen Sommer in Freiheit, mit frischer Luft, Altstadtfesten und Wein. Bald. Nach der Quarantäne. Wir schaffen das.

 

(Und immer dran denken: Corona ist ein Zahlenspiel – und wir haben die Regeln verstanden. Auf geht‘s.)

 

 

Du möchtest mehr Artikel wie diesen? 

Follow me on Instagram oder Facebook!

 

Zur weiteren Recherche und für alle, die Zahlen mögen:

 

Ein grandioser Artikel von Tomas Pueyo, der noch viele weitere Aspekte anspricht, und sich direkt an Entscheidungsträger aus Politik und Wirtschaft richtet.

Der Steckbrief des Robert-Koch-Institutes zu Covid-19 mit allen Zahlen, die man sich nur wünschen kann.

 

 

 

 

Du brauchst Hilfe bei der Analyse deiner Studiendaten? Dann kontaktiere mich hier:

12 + 6 =

* Mit der Eingabe und Absendung Ihrer Daten erklären Sie sich einverstanden, dass wir Ihre Angaben zum Zwecke der Beantwortung Ihrer Anfrage und etwaiger Rückfragen entgegennehmen, zwischenspeichern und auswerten. Sie können diese Einwilligung jederzeit widerrufen.

Wie schreibt man den Methodenteil einer medizinischen Dissertation?

Wie schreibt man den Methodenteil einer medizinischen Dissertation?

In meinem vorherigen Artikel habe ich dir erklärt, warum es absolut notwendig ist, die Einleitung nicht am Anfang, sondern erst ganz am Ende deiner wissenschaftlichen Arbeit zu schreiben – du erinnerst dich? (Wenn nicht, kannst du die Gründe noch einmal in diesem Artikel nachlesen)

 

Stattdessen empfehle ich, immer zuerst mit dem Methodenteil zu beginnen. Warum?

 

Weil dir das Schreiben des Methodenteils helfen wird, deine Studie noch einmal zu strukturieren, sodass du ein gutes Grundgerüst für alle weiteren Teile hast.

 

In diesem Artikel werde ich dir daher genau erklären, WIE du den Methodenteil schreibst und WAS alles darin enthalten sein muss.

 

Elementar wichtig ist dabei aber zu verstehen, WARUM du den Methodenteil überhaupt schreiben musst.

 

In der Forschung streben wir alle nach Erkenntnisgewinn – wir versuchen also herauszufinden, wie die Welt / das Gehirn / unser Körper oder was auch immer funktioniert. Dazu eignen sich am besten Studien, die möglichst gut designt und ausgewertet wurden.

Ein Kriterium für eine gute Studie ist dabei die Replizierbarkeit der Ergebnisse – und genau die stellt ein guter Methodenteil sicher.

 

Der Methodenteil ist nämlich nichts anderes als eine genaue Anleitung, die anderen Forschern
ermöglichen soll, die Untersuchung zu wiederholen  – bei hoffentlich gleichen Resultaten.

 

Mich ärgert es daher sehr, wenn ich Publikationen lese, die ungenau geschrieben sind.

Wenn du nun also beginnst, deinen Methodenteil zu schreiben, überlege genau, welche Informationen der Leser bräuchte, um deine Studie nachzubauen.

 

WAS muss nun in den Methodenteil einer medizinischen Promotion hinein?

 

Für ein gelungenes Manuskript brauchst du 7 Teilbereiche. Du beginnst dabei eher breit mit der Beschreibung deines Studiendesigns und gehst dann immer mehr ins Detail, bis du bei der Statistik angekommen bist. So gelingt dann auch der perfekte Übergang zum Ergebnisteil.

 

Aber erstmal von vorn:

 

1. Das Studiendesign:

 

In diesem Abschnitt müssen die Grundzüge deiner Studie kurz und prägnant dargelegt werden:

Welche Art von Studie wurde durchgeführt? Bsp: Eine Beobachtungs- oder eine Interventionsstudie?

Wie wurden die Daten erhoben? Rückwirkend aus Akten (retrospektiv) oder während der laufenden Studie (prospektiv)?

Wie viele Patienten wurden insgesamt gemessen?

In welchem Zeitraum wurden Patienten in die Studie aufgenommen und untersucht? Bsp: Alle Patienten, die von Mai bis Oktober 2019 in Klinik x behandelt wurden und die Aufnahmekriterien erfüllten.

Welche Interventionsgruppen gab es? Bsp: Vergleich einer neuen vs. einer erprobten Operationsmethode.

Wie wurden die Patienten den Interventionsgruppen zugeordnet?  – Hier bitte die Art der Randomisierung und das Verhältnis der Gruppengrößen zueinander (1:1, 1:3 o. Ä.) angeben.

Im diesem Abschnitt bekommt der Leser also eine sehr knappe Zusammenfassung der Studie, deren Teilaspekte dann in den folgenden Abschnitten vertieft werden.

 

 

2. Das Ethikstatement:

 

Hier dreht sich alles um das Thema Patientenschutz. Es müssen dabei folgende Punkte angesprochen werden:

Der Name der Ethikkommission, bei der das Ethikvotum eingeholt wurde (inkl. der Registrierungsnummer der Studie im Deutschen Register klinischer Studien und der Nummer des Ethikantrags).

Ein Verweis darauf, dass die Studie z.B. die Richtlinien der Deklaration von Helsinki (2004) eingehalten hat.

Die Bestätigung darüber, dass alle Patienten über den Inhalt und den Ablauf der Studie informiert wurden.

 

Außerdem ein Vermerk, dass der Untersucher Sie darüber aufgeklärt hat, dass es ihr Recht war die Teilnahme an der Studie ohne negative Konsequenzen zu jedem Zeitpunkt abzubrechen.

Die Belehrung der Patienten muss dabei schriftlich durchgeführt und dokumentiert werden (via Aufklärungsbogen mit Unterschrift von Untersucher und Patienten).

Ihr merkt wahrscheinlich schon beim Lesen, dass das Ethikstatement einer festen Formulierung folgt. Man kann sie sehr gut aus den meisten deutschen oder englischen Publikationen abschreiben und an die eigene Studie anpassen.

 

 

3. Die Patientenpopulation:

 

Dieser Abschnitt beschreibt, wie die Teilnehmer der Studie gefunden wurden und welche Kriterien sie erfüllen mussten, um teilnehmen zu dürfen. Dabei werden drei Bereiche adressiert:

Rekrutierungsmethoden: Hier muss beschrieben werden, wie die Patienten für die Studie rekrutiert wurden (z.B. alle Patienten mit einer akuten Sinusitis, die vom Hausarzt in die Klinik überwiesen wurden)

Aufnahmekriterien:  An dieser Stelle müssen nun die Merkmale genannt werden, die ein Patient erfüllen musste, um an der Studie teilnehmen zu dürfen

Ausschlusskriterien:  Hier werden logischerweise die Merkmale aufgeführt, die ein Patient nicht haben durfte, da er sonst von der Teilnahme ausgeschlossen wurde.

 

Kurz, knackig, das reicht.

 

 

4. Die Intervention:

 

Hast du eine Interventionsstudie durchgeführt, muss in diesem Teil beschrieben werden, WIE die Interventionen aussahen, die von den Patienten durchlaufen wurden.

Dabei ist besonders wichtig, dass vorab ein grober Ablaufplan beschrieben wird. Hier muss erläutert werden, wann und wie oft ein Patient untersucht / behandelt wurde und was während der einzelnen Termine geschah.

Es könnte z.B. dargelegt werden, dass der Patient nach Aufnahme und Zustimmung zur Studienteilnahme eine erste Untersuchung bzgl. der Parameter abc bekam, um Baselinewerte für die Zielvariablen der Studie zu bekommen, sowie demografische Merkmale und die Krankheitsgeschichte des Patienten notiert wurden.

Im Anschluss sollte der weitere Ablauf beschrieben werden, dass also je nach zugeordnetem Studienarm Intervention A oder B durchgeführt wurde und dann zu den Zeitpunkten 1, 2, 3 die schon in Prä erhobenen klinischen Zielvariablen noch einmal erhoben wurden. Das reicht.

 

Im nächsten Schritt muss nun die durchgeführte Intervention im Detail beschrieben werden.  

 

Die Kunst ist es dabei, den feinen Grad zwischen zu viel und zu wenig Information zu finden. Der Leser muss verstehen können, was genau gemacht wurde, damit er es nachmachen oder zumindest die fachliche Sinnhaftigkeit der Intervention beurteilen kann.

Eine detaillierte Beschreibung absoluter Selbstverständlichkeiten (Und dann wurde dem Patienten der Ärmel hochgekrempelt, ein venöser Zugang gelegt und mit einem Pflaster fixiert …) sollte aber unbedingt vermieden werden.

Stattdessen können man eher schreiben: Während der gesamten Intervention wurden Sauerstoffsättigung und Puls (Produktname des Messgeräts, Firma ) überwacht.

Es sollten also alle verwendeten Geräte / Medikamente inkl. der wichtigsten Parameter (Einstellungen / Dosierungen)  genannt werden. Außerdem müssen sämtliche Abbruchkriterien beschrieben werden, also die klinischen Grenzwerte, die nicht überschritten werden durften, um die Intervention durchführen zu können.

Am Ende dieses Abschnitts muss dann nur noch der Ablauf der post-interventionellen Phase, also der Zeit nach der Intervention beschrieben werden – wiederum mit allen erhobenen Parametern, zeitlichen Abständen, verwendeten Medikamenten und Messverfahren.

 

 

5. Die klinischen Endpunkte:

 

Hat man die Beschreibung der Intervention erledigt, müssen die verschiedenen Zielparameter der Studie definiert werden.

Hier unterscheidet man zwischen den primären und sekundären Endpunkten.

Primäre Endpunkte könnten z.B. beim Vergleich zweier OP-Methoden, von denen die neue deutlich schonender sein soll, die Anzahl der aufgetretenen Komplikationen sein oder der Verlauf und die Höhe der Schmerzkurve in der post-interventionellen Phase.

Die primären Endpunkte sind also die wichtigsten Zielparameter der Studie, da sie die Kernhypothesen in messbare Werte übersetzen. Sie sollten daher fehlerfrei und für absolut jeden Messzeitzeitpunkt erhoben werden.

Die sekundären Endpunkte sind ebenfalls interessante Variablen, aber ein bisschen weniger wichtig. Sie komplementieren den Wissensgewinn, kommen aber in den Hypothesen eher weiter hinten.

Für jeden klinischen Endpunkt, ob primär oder sekundär, muss beschrieben werden, WIE, WOMIT, DURCH WEN und WIE OFT er gemessen wurde.

Außerdem muss erläutert werden, ob eine Verblindung des Untersuchers und / oder des Patienten stattfand sowie wo und wie die Ergebnisse dokumentiert wurden.

 

Wichtig: Die Reihenfolge der klinischen Endpunkte sollte die der Hypothesen in der Einleitung widerspiegeln und sich auch im Ergebnisteil wiederholen.

Das erleichtert das Leseverständnis enorm. Gibt es thematische Teilbereiche (z.B. Verhaltensdaten und physiologische Daten), die verschiedene Aspekte einer Fragestellung untersuchen, sollten auch diese getrennt und immer in der gleichen Reihfolge abgehandelt werden.

 

Hat man einen präzisen Methodenteil geschrieben, weiß der Leser danach nicht nur, wie er die Studie replizieren kann, sondern auch, welche Störvariablen sich ggf. negativ auf die Messung ausgewirkt haben könnten. Das ist besonders für mögliche Gutachter der Studie sehr wichtig.

 

 

6. Fallzahlschätzung

 

Du merkst wahrscheinlich schon, dass wir uns immer mehr in Richtung Auswertung bewegen. Vorab wird aber mittlerweile in fast jeder Publikation (und somit garantiert auch in deiner Dissertation) eine Fallzahlschätzung verlangt.

Eine Fallzahlschätzung leitet anhand vorheriger Studien, die ähnliche Fragestellungen bearbeitet haben, die benötigte Größe deiner Stichprobe ab. Berücksichtigt werden müssen dabei die Effektstärken der Studien, an denen du dich orientierst, und dein Studiendesign, denn daraus resultieren die zu verwendenden statistischen Verfahren, die du im Rahmen der Fallzahlschätzung modellierst.

Anhand dieser Parameter kannst du dann mithilfe eines geeigneten Programms (z.B. GPower) die Mindestgröße deiner benötigten Studienpopulation berechnen.

Die Schätzung muss also schon vor Beginn der Studie erfolgen, meistens schon vor dem Antrag an die Ethikkommission oder wenn der Drittmittelantrag geschrieben wird. Es lohnt sich also, dort einmal hineinzusehen und die Parameter dann einfach zu übernehmen.

 

 

7. Statistische Analyse

 

Jetzt kommen wir zum letzten Abschnitt des Methodenteils. Hier berichtest du, was du mit den erhobenen Daten gemacht hast. Genau wie bei der Beschreibung der Intervention musst du auch hier möglichst genaue Angaben über deine Analyseschritte machen, aber gleichzeitig darauf achten, überflüssige Informationen zu vermeiden.

Du beginnst dabei immer mit der deskriptiven Statistik. Der erste und wichtigste Satz ist dabei immer, dass die kontinuierlichen Variablen auf Normalverteilung geprüft wurden. Aus diesem Test leitet sich nämlich die Klasse der zu verwendenden statistischen Verfahren ab – also ob du parametrische oder nicht-parametrische Verfahren verwenden kannst.

 

Im nächsten Schritt solltest du beschreiben, wie du mit den verschiedenen Messniveaus deiner Variablen umgegangen bist.

 

Wie wurden deine metrischen Variablen (z.B. das Alter deiner Patienten) dargestellt, wie die ordinalen (z.B. Ratingskalen) und wie die nominalen (z.B. das Geschlecht).

Je nach Verteilung deiner Daten kann es sinnvoll sein, die kontinuierlichen Variablen als Mittelwerte und Standardabweichungen oder aber als Mediane und Quartile zu beschreiben. Nominale Daten sollten als absolute und relative Anteile dargestellt werden.

 

Im dritten Schritt beschreibst du nun die statistischen Verfahren, die du verwendet hast. Dabei sollten auch die wichtigsten Parameter innerhalb der Verfahren genannt werden. Dazu zählen z.B. die Faktorstruktur der ANOVAs oder der verwendete Algorithmus der Regressionen, aber auch die Tests, die für jede Hypothese und für jeden Datentyp benutzt wurden (inkl. der Follow-up-Tests).

Wichtig ist außerdem, die berichteten Effektstärken und deren Interpretation zu nennen (Welchem Wert entspricht ein kleiner, mittlerer oder großer Effekt?) und aufzuzeigen, inwiefern für multiple Vergleiche korrigiert wurde und wie mit fehlenden Werte verfahren wurde.

Generell ist es sehr wichtig, die statistische Analyse so zu beschreiben, dass der Leser die Auswertung wiederholen kann. Es hat außerdem den Vorteil, dass der Leser den folgenden Ergebnisteil besser versteht.

 

Und ganz wichtig: Eine genaue Beschreibung erlaubt späteren Studien eine bessere Fallzahlenschätzung – zumindest, wenn du auch den Ergebnisteil ordentlich schreibst.

 

Hast du diesen Punkt erreicht, kannst du direkt zum Resultateteil übergehen, denn den hast du jetzt perfekt vorbereitet.

Bevor du weitermachst, achte darauf, dass alle Ergebnisse vorliegen, wenn du mit dem Schreiben beginnst. Aber dazu mehr in meinem nächsten Artikel …

 

 

Du möchtest ein fachliches Lektorat deines Methodenteils? Dann kontaktiere mich hier:

14 + 11 =

Wie vermeide ich, dass fehlende Daten meine Doktorarbeit ruinieren?

Wie vermeide ich, dass fehlende Daten meine Doktorarbeit ruinieren?

Langzeitstudien mit vielen Messterminen bergen ein nicht zu unterschätzendes Fehlschlagrisiko (und das ist britisches Understatement).

Sie liefern den Alptraum, der Doktoranden in schlaflosen Nächten besuchen kommt, frei Haus UND kostenlos mit. Und dieser wabbelige Besucher heißt:

 

Fehlender Wert.
 

Fehlende Werte sind so ziemlich das Schlimmste, was einer Studie passieren kann. Denn jeder fehlende Wert bedeutet, dass der entsprechende Patient die Studie verlässt.

 

Warum ist das so?

 

In Langzeitstudien werden vorab definierte Zielvariablen über einen langen, laaangen Zeitraum wiederholt gemessen. Dies ermöglicht es die Entwicklung dieser Variablen über eine oder mehrere Interventionen hinweg zu beobachten und / oder  zu vergleichen.

In der Statistik haben wir für sich wiederholende Messungen (tata!) Tests mit Messwiederholung (da würde man jetzt nicht drauf kommen…).

Das kann z.B. Modell für den Vergleich zweier Messpunkte innerhalb einer Gruppe ein gepaarter T-Test sein, oder wenn man mehr als zwei Messpunkte hat, die ANOVA mit Messwiederholung (oder auch repeated-measures ANOVA genannt).

Diese und ähnliche Verfahren erfordern nun aber, dass jeder Messpunkt für wirklich jeden Probanden vorhanden ist (Näheres dazu bald in einem Artikel zur ANOVA).

Wenn ein Patient beispielsweise nicht zum Messtermin erscheint oder ein Wert aus Versehen nicht erhoben wird, dann habt Ihr diesen Patienten an allen anderen Messterminen leider umsonst gemessen (falls du deine Datenerhebung schon beendet hast, bekomm jetzt bitte keinen Schreikrampf – auch wenn es angebracht wäre).

Natürlich gibt es immer Wege fehlende Werte zu schätzen (z.B. durch Interpolation oder Imputation), aber in Patientenstudien und gerade bei solchen, die nur wenig Probanden haben, wird das nicht gern gesehen.

 

Was ist also die Lösung, um fehlende Werte in den Griff zu bekommen?

 

Ganz einfach: VERMEIDE SIE.

 

Und das ist nicht nur irgend so eine idealistische Phrase von jemanden, der immer nur nett am Schreibtisch sitzt, Daten auswertet und keine Ahnung vom wirklichen Leben in der Klinik hat. Meine gesamte Dissertation beruht auf Studien, in denen ich Patienten über Zeiträume von bis zu sechs Monaten immer und immer wieder mit langwierigen Messungen traktiert habe.

Das waren Kinder, deren Mütter blitzschnell dabei sind die Kabel abzureißen und mit den Kindern aus dem Labor zu stürmen, wenn es auch nur den Anschein hat, dass da etwas nicht läuft. Aber auch Erwachsene über 70, bei denen man schon wirklich viel Überzeugungsarbeit leisten muss, damit diese nach einem langen Kliniktag noch einmal zwei Stunden in der EEG-Kammer sitzen.

 

Am Ende meiner drei Studien hatte ich genau einen einzigen fehlenden Wert und das auch nur, weil mein Patient aufgrund seines wirklich gehobenen Alters verstorben ist. So etwas ist dann einfach Pech und ich denke bis heute sehr gern an diesen netten älteren Herren mit seinem wunderbaren Humor zurück.

 

Wie habe ich das erreicht?

 

Ich habe mich an ein paar einfache Regeln gehalten:

 

> Sei deine eigene Study-Nurse

Niemand, aber auch wirklich niemand, kann besser dafür sorgen, dass Patienten zur Messung bzw. zum Kontrolltermin kommen, als du. Und warum?

Weil niemand ein größeres Interesse an seiner Anwesenheit hat.

Nehmen wir es, wie es ist: Jeder andere profitiert wahrscheinlich sogar davon, wenn der Patient nicht kommt, denn das bedeutet weniger Stress im klinischen Alltag.

Dem entsprechend wird auch niemand außer dir dafür freiwillig Sorge tragen.

Also schwing dich ans Telefon und rufe deinen Patienten 1-2 Tage vor dem Termin an und sag ihm, wie sehr du dich freust, ihn zum Kontrolltermin begrüßen zu dürfen.

 

> Traue Niemanden. Besteche jeden.

Seien wir ehrlich. Nicht jeder Test macht zu jedem Termin Sinn. In meiner Dissertation haben die Logopäden und Audiometristen völlig zurecht moniert, dass es wenig Sinn macht sehr komplexe Sprachreize kurz nach Aktivierung des Cochlea Implantats zu testen. Demensprechend waren Sie jedes Mal kurz davor entsprechende Tests einfach weg zu lassen.

Aber weißt du was? Zu glauben, dass ein Patient ein Ergebnis x zeigen wird, ist keine Erlaubnis einen entsprechenden Wert x auch hinzuschreiben (z.B. eine „0“ à la „versteht nix“).

Ein fehlender Wert ist ein fehlender Wert und wird auch als fehlender Wert eingetragen.

Also ist es deine Aufgabe den entsprechenden Test eigenhändig durchzuführen oder zumindest den entsprechenden Mitarbeitern so lange auf den Keks zu gehen (oder Kekse zu schenken) bis der Test zuverlässig durchgeführt wird. Und zwar immer!

 

> Baue vor Beginn der Studie ein übersichtliches Studienprotokoll, in das jeder erhobene Wert easy peasy eingetragen werden kann.

Das A und O eines vollständigen Datensatzes ist Komfort. Klinikalltag ist stressig. Jeder möchte nur möglichst schnell durchkommen. Wenn sich also nur die kleinste Möglichkeit für ein entschuldbares Weglassen des Tests bietet, dann wird diese Chance ergriffen!

Also erstelle für jeden Patienten einen eigenen Ordner mit allen Testunterlagen, die pro Messtermin benötigt werden. Oben drauf kommt dann ein Protokollbogen, auf dem alle relevanten Daten eingetragen und die Tests nacheinander abgehakt werden können. 

Spezialtipp: Wenn du eine Randomisierung der Testreihenfolge eingebaut hast, sortiere die Testunterlagen für jeden Messtermin entsprechend.

 

> Gehe auf Nummer sich und teste selber.

Jetzt möchtest du mir wahrscheinlich eine scheuern. Denn selber testen ist eine Wahnsinnsarbeit. Es kostet enorm viel Zeit und Energie.

Aber weißt du was? Ein löchriger Datensatz kostet dich noch mehr. Ich habe immer wieder Studien auf meinem Tisch, bei denen eine Dissertation lange Zeit nicht abgeschlossen werden kann, weil die Datenauswertung aufgrund der fehlenden Werte ein einziges Desaster ist.

Glaub mir, ein Betreuer kann ganz schnell die Lust an einem Projekt verlieren, wenn sich abzeichnet, dass die Datenbasis schlecht ist. Und dann muss nicht nur eine Strategie her wie man mit den fehlenden Werten umgeht, sondern auch ein Schlachtplan entwickelt werden, wie man die Dissertation durchbekommt.

 

Und da bestätigt sich wieder Punkt 1: Das größte Interesse an einer lückenlosen Messung hast du – und keiner sonst.

 

Also umgarne deine Patienten damit Sie kommen, messe am besten alles selber und baue vor Beginn der Studie für jeden Patienten einen eigenen Studienordner.

Auf diese Weise wird aus dem dicken Monster (mit ein bisschen Einsatz) eine schnurrende Katze, die dich nachts wärmt und für gute Träume sorgt (und jetzt rate mal warum ich seit meiner Dissertation sogar zwei Katzen habe….).

 

 

Hast du Fragen oder Kommentare? Dann nutze gerne die Kommentarfunktion!

Wie wahrscheinlich ist es, dass ich in fünf Jahren tot bin?

Wie wahrscheinlich ist es, dass ich in fünf Jahren tot bin?

Ich freue mich immer wieder über Zeitungsartikel, die aktuelle Studien besprechen. Vor ein paar Tagen stieß ich auf einen Artikel eines großen deutschen Nachrichtenmagazins (link): Bluttest verrät Sterberisiko!
Weitaus dramatischer als die Studie selbst war der Untertitel des Artikels (hier in Teilen frech von mir als Überschrift genutzt):

Wie wahrscheinlich ist es, dass ich in fünf Jahren tot bin? Forscher aus Deutschland arbeiten an einem Bluttest, der genau das vorhersagen soll. Medizinethiker sind entsetzt.

Bei so einem Einstieg kann ich als Methodiker und Wissenschaftler ja kaum noch an mich halten. Ich muss also herausfinden, was dahinter steckt.

Der Artikel befasst sich mit einer Studie, die eine Arbeitsgruppe um Joris Deelen durchgeführt hat. Deelen ist Post-Doktorand am Max-Planck-Institut für die Biologie des Alterns in Köln.

Wäre es nicht toll – so die Frage der Autoren –, wenn man ein kleines Set an Biomarkern hätte, das uns helfen würde, auf den ersten Blick erkennen zu können, in welchem globalen gesundheitlichen Zustand sich unser Körper aktuell befindet und ob ein erhöhtes Risiko besteht, in den nächsten 5 oder 10 Jahren zu sterben?

Um diese Frage zu beantworten, wurden Blutsera von 44.168 Personen aus 12 schon erhobenen Kohorten bzgl. 260 verschiedener Biomarker untersucht. Das sind sehr viele Daten, die hier ausgewertet wurden, was super ist, denn große Datensätze haben natürlich ein großes Potential für Wissenszuwachs.

Für jede dieser Kohorten wurde nun im nächsten Schritt eine Cox-Regression berechnet, die es ermöglicht, Risikofaktoren für das Versterben der untersuchten Populationen zu ermitteln. Die Ergebnisse der Einzelkohorten wurden dann im Rahmen einer Survival-Metastudie kombiniert.

Mithilfe von forward- und backward-Algorithmen, von denen man im Rahmen aller regressionsbasierten Methoden immer wieder hört (also merkt sie euch, denn forward und backward-Ansätze sind nützlich!), wurden aus den 260 initialen Biomarkern 14 voneinander unabhängige, also nicht-miteinander korrelativ im Zusammenhang stehende Biomarker identifiziert.

Und hier kommt jetzt etwas Besonderes: Die Biomarker standen in keinem Zusammenhang mit einem aktuellen, bestehenden Krankheitsbild der Patienten. Sie waren also objektive Marker und somit sehr wahrscheinlich auch nicht durch spezifische, krankheitsbedingte Therapien zu beeinflussen.

Um nun zu zeigen, welche Vorhersagekraft die identifizierten Biomarker für das Überleben haben, wurden sie zu einem Gesamtscore kombiniert und im Vergleich zu drei anderen, teilweise schon bestehenden Modellen (Modell 1: mit konventionellen Risikofaktoren, Modell 2: mit 4 Biomarkern, Modell 3: Kombinationsmodell aus 14 Biomarkern und konventionellen Risikofaktoren) mithilfe von ROC-Kurven ausgewertet. ROC-Kurven sind toll, denn sie quantifizieren, wie akkurat ein bestimmter Parameter (hier z. B. der Biomarker-Score) ein Ereignis (in diesem Fall: den Tod) vorhersagt. Die ROC-Kurve bietet dabei die praktische Möglichkeit des direkten visuellen Vergleichs verschiedener Methoden, aber auch des quantitativen Vergleichs (durch die AUC bzw. die C-Statistik).

Und was kam dabei heraus? Da der Artikel in Nature Communications veröffentlicht wurde, natürlich, dass der 14-Biomarker-Score der beste Prädiktor ist.

Aber was bedeutet das? Ist der Beste auch gut? Ja, tatsächlich. Das zeigt uns die C-Statistik bzw. das AUC (Area under the Curve) der ROC-Kurve. Hier wurden für die 5-Jahres-Mortalität AUCs von 0,837 (bzw. 0,83 für die 10 Jahres-Mortalität) erreicht. Das bedeutet, dass das Modell recht stark in seiner Vorhersagekraft / Klassifizierung ist. Das alternative konventionelle Risikofaktorenmodell erreichte Werte von 0,772 (bzw. 0,79), was ebenfalls nicht schlecht, aber naja, nun mal eben schlechter ist.

Ganz besonders interessant wird es, wenn man sich die Vorhersagekraft für Personen über 60 Jahren ansieht, denn hier vergrößert sich der Abstand zwischen beiden Modellen noch mehr: Während das 14-Biomarker-Modell immer noch ein AUC von 0,732 für die 5- und 0,715 für die 10-Jahre-Überlebenswahrscheinlichkeit aufzeigt, schafft das konventionelle Modell gerade einmal noch ein AUC von 0,626 / 0,650. Zum Vergleich: Ab 0,5 bewegen wir uns im Bereich der Ratewahrscheinlichkeit.

Gerade dieser Altersbereich ist aber laut der Autoren von besonderem Interesse, weil es aktuell kaum valide Risiko-Scores bzw. Risikoprädiktoren gibt.

Schaut man sich nun also die blanke Methodik der Studie von Deelen et al. an, (die hier natürlich von mir schematisch und stark vereinfacht dargestellt wurde, auch wenn euch das wahrscheinlich schon viel zu lang vorkam), gibt es bisher prinzipiell nichts, was uns Angst einjagen müsste, oder?

Genau. Nun kommen wir aber zur politischen und natürlich auch marketing-relevanten Seite einer jeden wissenschaftlichen Publikation – und die spielt natürlich keine geringe Rolle für den Erfolg einer wissenschaftlichen Laufbahn. Denn letztendlich geht es in der Wissenschaft immer nur um zwei wesentliche Dinge:

– Gelder für die aktuelle Forschung zu akquirieren ( = der Autor ist ab dem nächstem Jahr nicht arbeitslos) und
– eine Publikation gut unterzubringen (die Autorin kann auch zukünftig Drittmittelanträge einreichen und somit weiter in der Forschung arbeiten, vielleicht sogar irgendwann mal als Professorin).

Und um das zu schaffen, muss jeder Artikel einen starken ersten Satz haben, der klar macht, worum es geht und welches Problemfeld in diesem Artikel bearbeitet werden soll. Und da wären wir schon bei der Ursache des medialen Aufschreis. Der Artikel beginnt nämlich mit diesem Satz:

Robust predictors of intermediate- and long-term mortality may be valuable instruments in clinical trials and medical decision making.

Und hier liegt der Fokus der medialen Aufmerksamkeit nun auf drei Wörtern, die im ganzen 8-seitigen Artikel niemals wieder auftauchen: medical decision making. Bähm!

Dieser Satz impliziert nämlich im weitesten Sinne (und mit ausreichend Katastrophendenken), dass der einzige Grund für die Entwicklung des Biomarker-Scores der ist, dass anhand der berechneten Überlebenswahrscheinlichkeit entschieden werden könnte, ob ein Patient überhaupt noch Behandlung x oder y bekommen soll, oder ob sowieso schon Hopfen und Malz verloren sind und man sich das Geld besser sparen könnte.

Diese Interpretation stammt übrigens vom Autor des Zeitungsartikels und seiner Interviewpartnerin und nicht von Deelen selbst:
Annette Rogge ist Vorsitzende und Geschäftsführerin der Ethikkommission des UK Schleswig Holstein. Sie möchte in ihrer Funktion nicht nur verhindern, dass Scoresysteme einen zu hohen Stellenwert in der Therapiefindung haben, sondern stellt die Markteinführung solcher oder ähnlicher Systeme vorab kritisch in Frage (um es freundlich auszudrücken). Das ist natürlich ihr gutes Recht. Gerade als Mitglied der Ethikkommission ist es geradezu ihre Aufgabe, Studien und deren Bedeutung bis ins letzte (schwarze) Detail zu durchdenken. Denn Ethikkommissionen haben die Aufgabe, Patienten zu schützen und diese keinen unnötigen Risiken auszusetzen.

Aber diese Kritik kommt leider viel zu spät, denn Scoresysteme dieser Art kommen im klinischen Alltag schon längst zum Einsatz! Insbesondere in sensiblen Bereichen wie der Allokation von Spenderorganen werden Scoresysteme, die beispielsweise das 5-Jahresüberleben mit und ohne Spenderorgan anhand von Biomarkern berechnen, sehr erfolgreich eingesetzt. Sie ersetzen mehr und mehr rein wartelistenbasierte Systeme und reduzieren so die langfristige Mortalität schwerkranker Menschen.

Dies bestätigt auch ein weiterer Interviewpartner von Der Spiegel, Florian Kronenberg vom Institut für Genetische Epidemiologie der Medizinischen Universität Innsbruck, denn schon heute fallen in der Medizin ständig Entscheidungen auf der Basis relativ weniger Parameter.

Muss uns das Angst machen? Ich denke nicht. Zum einen sind die aktuell entstehenden Modelle besser als die alten, sonst wären sie schon in der frühen Testphase eingestampft worden. Zum anderen würde ich mich lieber am Ergebnis eines gut validierten Testscores orientieren, anstatt am Bauchgefühl des mich behandelnden Arztes. Schließlich muss sich seines nicht zwangsweise mit dem Bauchgefühl eines zweiten Arztes decken, der mich zwanzig Minuten später behandelt hätte, wenn ich auf dem Weg in die Klinik im Stau gestanden hätte.

Das ist natürlich überspitzt dargestellt, denn natürlich gibt es zusätzlich zum Bauchgefühl noch Richtlinien der entsprechenden Fachgesellschaften, um die Entscheidungsfindung von Ärzten zu unterstützen, aber ratet mal, worauf diese Richtlinien basieren? Richtig – Studien! Studien bilden also ein Korrektiv für das subjektive Bauchgefühl eines Arztes und das ist gut so.

Die Grundfrage ist doch: Wie gut sind die statistischen Modelle, auf denen die Therapieempfehlungen beruhen? Wie viel Varianz innerhalb der zugrunde liegenden Patientenpopulation konnten sie erklären? Wie groß war die untersuchte Population? Wie oft und wie erfolgreich konnte der etablierte Score an anderen Populationen validiert werden? War die Stichprobe repräsentativ und als alles subsumierende Frage: Wie gut funktionieren die Modelle im Einzelfall? Kann das Modell also auch auf mich angewandt werden?

Das sind Fragen, die im Rahmen des Validierungsprozesses solcher Vorhersagemodelle immer wieder gestellt werden müssen. Bis ein Modell all diese Hürden genommen hat, dauert es sehr lange. Der Deelen-Artikel berechnet nämlich noch gar nicht die Sterbewahrscheinlichkeit der nächsten 5 oder 10 Jahre. Er berechnet aktuell nur das relative Sterberisiko einer Person. Und das ist etwas ganz anderes, da man für eine genaue Aussage über die absolute Höhe die Sterbewahrscheinlichkeit einer entsprechenden Vergleichsperson ohne die Eigenschaft xy kennen müsste – und die kennen wir in den meisten Fällen gar nicht. Genau deswegen sprechen Deelen et al. immer nur von einer relativen Erhöhung des Sterberisikos um das 2,74-Fache, als Folge einer Erhöhung des Biomarker-Scores um einen Punkt.

Wir sind also noch sehr weit entfernt von einer prozentualen Vorhersage der Sterbewahrscheinlichkeit, die der Überschrift des Zeitungsartikels gerecht werden würde. Bisher wurde „nur“ eine absolut seriöse, methodisch sehr gut gemachte Grundlagenuntersuchung durchgeführt, um fragliche Biomarker zu identifizieren und mit anderen Modellen zu vergleichen.

Und somit ist hier passiert, was eigentlich ständig passiert: Es gab zum einen den Einleitungssatz, der zu weite Interpretationen zugelassen hat und wahrscheinlich genauso auch in der Pressemitteilung des Fachjournals stand, und zum zweiten einen Journalisten, der die Statistik nicht in ihrer Gänze verstanden hat –, um es konservativ auszudrücken.

Es ist natürlich klar, dass es als Nicht-Wissenschaftler schwer ist, solch komplexe Berechnungen zu verstehen (und sie sind wirklich komplex, ich habe 2 Tage gebraucht, um mich durch alle Einzelheiten zu graben). Das sollte Journalisten und ggf. auch Entscheidungsträger aber nicht davon abhalten, einfach mal bei der betreffenden Arbeitsgruppe oder bei einem Statistiker anzurufen, um sich die Methodik und somit auch die Bedeutung der Ergebnisse erklären zu lassen.

Denn Artikel schaffen subjektive Wahrheiten, und wie sich subjektive Wahrheiten heutzutage verbreiten und Meinungen bilden, muss an dieser Stelle ja wohl nicht mehr erwähnt werden …

Propensity Score Matching – oder von der Kunst, den richtigen Partner zu finden

Propensity Score Matching – oder von der Kunst, den richtigen Partner zu finden

Fast jeder forschende Arzt kennt das Dilemma: Eine neue, schonende Therapieform soll mit der konservativen Standardtherapie verglichen werden. Hätte man viel Geld und noch mehr Zeit und wäre man zuversichtlich, dass beide Therapien mindestens gleich gut funktionieren, dann hätte man eine kontrolliert randomisierte Patientenstudie geplant und über Jahre geduldig Daten gesammelt.

Bei jedem Patienten wäre per Zufall entschieden worden, welche Therapie er bekommt, und nach Erreichen einer wunderbar hohen Fallzahl hätte die Auswertung ergeben, dass das neue, schonende Therapieverfahren genauso wirksam ist (nein wirksamer!) – bei deutlich weniger Nebenwirkungen.

 

Leider haben Mediziner aber wenig Zeit und nutzen daher, was an Daten zur Verfügung steht.

 

Also werden die Akten der letzten Jahre durchsucht und alle Fälle entnommen, die entweder Therapie A oder B bekommen haben, und diese dann statistisch miteinander verglichen.
Die Fallzahl ist auch hier hoch (toll!), aber bei genauerem Hinsehen fällt auf, dass die Patienten, die mit der konservativen Therapie behandelt wurden, signifikant häufiger schwerere Formen der Erkrankungen aufweisen als in der neuen, weniger erprobten Variante.
Das ist natürlich absolut verständlich, denn im Zweifelsfall geht man doch lieber auf Nummer sicher, denn das oberste Ziel ist die Heilung des Patienten!

Was sagt nun aber so eine Studie aus? Kann man aus einem positiven Ergebnis ableiten, dass die schonende Therapieform besser ist? Leider nein, denn der Schweregrade der Erkrankung hat hier mit hoher Wahrscheinlichkeit einen Einfluss auf die abhängige Variable, mit der gemessen werden soll, welche Therapieform besser ist. Solche störenden Variablen werden auch konfundierende Variablen genannt und werden spätestens bei der zukünftigen Veröffentlichung ein Problem.

 

Was also tun? Alle Daten wegschmeißen?

 

Eine Lösung wäre es, sich beide Datensätze ganz genau anzusehen und zwischen beiden Gruppen Paare zu bilden, die sich möglichst ähnlich sind. Merkmale, die dabei eine Rolle spielen könnten, wären z. B. das Alter oder das Geschlecht, aber insbesondere alle Merkmale, die die Krankheit und ihre Risikofaktoren bestimmen und somit einen Einfluss auf den Erfolg der Therapie haben könnten. Wenn man ein paar dieser Merkmale durchsucht hat, wird schnell klar, dass es fast unmöglich ist, ausreichend viele Paare in einem annehmbaren Zeitraum zu finden.

 

Aber zum Glück hat die Statistik auch hier eine Lösung entwickelt: das Propensity Score Matching!

 

Mit dieser Methode werden alle zu matchenden Variablen in einem Wert zusammengefasst, der dann dazu genutzt wird, möglichst viele Paare zu finden, die sich sehr ähnlich sind. Das ermöglicht einen direkten Gruppenvergleich, der nicht mehr unter dem Einfluss der konfundierenden Variablen steht. Das Ergebnis wird dann also wirklich von der verabreichten Therapieform bestimmt und nicht mehr von der Störvariable.

Aber wie funktioniert das? Das Propensity Score Matching (PSM) ist mittlerweile in vielen Statistikprogrammen implementiert. Ich möchte hier aber speziell den Ansatz von Felix Thoemmes (Thoemmes, 2012) vorstellen. SPSS hat zwar auch eine eigene Variante, aber das SPSS-Plug-in von Thoemmes läuft mit weniger Fehlern und erlaubt eine bessere Einschätzung zur Güte des Matchings.

Um damit zu arbeiten, müssen zuerst das kostenlose Datenanalyseprogramm R installiert, drei Pakete in R aktiviert sowie ein SPSS-Plug-in geladen werden. Das ist vielleicht zuerst ein bisschen mühsam, aber es lohnt sich und muss auch nur einmal erledigt werden. Eine gute Anleitung gibt es auch bei Thoemmes et al. (2012), unter Appendix A.

 

Wie funktioniert Propensity Score Matching?

 

Zuallererst muss für jeden Patienten ein Propensity Score (PS) errechnet werden, der alle zu matchenden Merkmale vereint. Dazu wird im ersten Schritt eine logistische Regression gerechnet, in der alle Merkmale als Covariaten eingehen und die Therapieform die dichotome abhängige Variable darstellt. Der dabei entstehende Propensity Score (PS) ist dabei definiert als die Wahrscheinlichkeit, mit der ein Patient die zu prüfende Therapie erhält.

Im zweiten Schritt werden dann möglichst viele Paare zwischen beiden Gruppen gematcht, indem genau die Patienten gesucht werden, deren PS sehr ähnlich ist. Dazu wird bei Thoemmes et al. (2012) das Nearest-Neighbour-Verfahren angewendet. Doch wie ähnlich ist ähnlich genug? Um das zu bestimmen, kann ein sogenannter Caliper festgelegt werden, der die maximal erlaubte Differenz zwischen zwei Patienten definiert. Je größer der Caliper, desto mehr Paare finden sich, aber desto schlechter wird das Matching. SPSS hat als Standardeinstellung 0.2 gewählt, Thoemmes et al. (2012) schlagen 0.15 vor. Es ist sinnvoll, den Wert zu variieren und zu schauen, wie gut das anschließende Matching klappt.

Das PSM resultiert in einem neuen Datenfile, in dem alle gematchten Patienten eingefügt werden. Das ist super, denn alle zukünftigen Analysen können jetzt problemlos mit diesem File ausgeführt werden. Stellt euch vor, die Paare hätten per Hand exportiert werden müssen – ein Alptraum!

Zusätzlich erstellt SPSS in der Ausgabe eine Auflistung von Tests und Grafiken, die helfen sollen, zu bestimmen, ob das Matching zu zwei Subpopulationen geführt hat, die sich wirklich nicht mehr bzgl. der Covariaten unterscheiden. Es wird also die Güte des Matchings beschrieben.

Zu diesen Tests gehören bspw. der Overall-Balance-Test sowie ein Maß für die relative multivariate Imbalance und eine Aufzählung der (hoffentlich) wenigen unbalancierten Covariaten. Je weniger unbalancierte Covariaten es gibt, desto besser ist das Matching. Hier kann man schauen, ob ein kleinerer Caliper weniger unbalancierte Variablen zur Folge hat.

Es werden außerdem Verteilungsdiagramme der Propensity Scores erstellt, mit deren Hilfe visuell beurteilt werden kann, ob sich beide Gruppen durch das Matching ähnlicher geworden sind.

 

Hat alles geklappt, kann mit den eigentlich in der Studie interessierenden Fragen begonnen werden: Inwiefern unterscheiden sich die beiden Therapieformen bzgl. ihrer primären und sekundären Endpunkte? Und diesmal könnt ihr diese Frage beantworten, ohne über Störvariablen zu stolpern!

 

Fazit:

 

Das von Thoemmes et al. (2012) entwickelte SPSS-Plug-in ist zwar anfänglich ein bisschen umständlich zu installieren, bietet aber sehr viele Möglichkeiten, um zwei unterschiedliche Gruppen bzgl. ihrer Merkmale anzugleichen.

 

Wichtig!

 

  1. Es können nur bekannte Störvariablen berücksichtigt werden. Unbekannte und mit anderen Covariaten unkorrelierte Störvariablen können ihren negativen Einfluss weiterhin ausüben. Daher überlegt euch ganz genau, welche Variablen einen Einfluss haben können, und nehmt diese in die logistische Regression auf!
  2. Fehlende Fälle sind für jede Toolbox ein Problem, da sie dazu führen, dass die entsprechenden Probanden nicht berücksichtigt werden. Versucht also, alle Lücken durch eine gute Recherche zu schließen. So erhaltet ihr euch auch nach dem Matching eine ausreichend große Gruppengröße!

 

Literatur:

Thoemmes, F. (2012). Propensity score matching in SPSS. arXiv.org, (January), 30. Retrieved from http://arxiv.org/abs/1201.6385

 

 

Sie benötigen Hilfe bei der Durchführung eines Propensity Score Matchings? Kontaktieren Sie mich gerne!

9 + 2 =