Wie schreibt man den Methodenteil einer medizinischen Dissertation?

Wie schreibt man den Methodenteil einer medizinischen Dissertation?

In meinem vorherigen Artikel habe ich dir erklärt, warum es absolut notwendig ist, die Einleitung nicht am Anfang, sondern erst ganz am Ende deiner wissenschaftlichen Arbeit zu schreiben – du erinnerst dich? (Wenn nicht, kannst du die Gründe noch einmal in diesem Artikel nachlesen)

 

Stattdessen empfehle ich, immer zuerst mit dem Methodenteil zu beginnen. Warum?

 

Weil dir das Schreiben des Methodenteils helfen wird, deine Studie noch einmal zu strukturieren, sodass du ein gutes Grundgerüst für alle weiteren Teile hast.

 

In diesem Artikel werde ich dir daher genau erklären, WIE du den Methodenteil schreibst und WAS alles darin enthalten sein muss.

 

Elementar wichtig ist dabei aber zu verstehen, WARUM du den Methodenteil überhaupt schreiben musst.

 

In der Forschung streben wir alle nach Erkenntnisgewinn – wir versuchen also herauszufinden, wie die Welt / das Gehirn / unser Körper oder was auch immer funktioniert. Dazu eignen sich am besten Studien, die möglichst gut designt und ausgewertet wurden.

Ein Kriterium für eine gute Studie ist dabei die Replizierbarkeit der Ergebnisse – und genau die stellt ein guter Methodenteil sicher.

 

Der Methodenteil ist nämlich nichts anderes als eine genaue Anleitung, die anderen Forschern
ermöglichen soll, die Untersuchung zu wiederholen  – bei hoffentlich gleichen Resultaten.

 

Mich ärgert es daher sehr, wenn ich Publikationen lese, die ungenau geschrieben sind.

Wenn du nun also beginnst, deinen Methodenteil zu schreiben, überlege genau, welche Informationen der Leser bräuchte, um deine Studie nachzubauen.

 

WAS muss nun in den Methodenteil einer medizinischen Promotion hinein?

 

Für ein gelungenes Manuskript brauchst du 7 Teilbereiche. Du beginnst dabei eher breit mit der Beschreibung deines Studiendesigns und gehst dann immer mehr ins Detail, bis du bei der Statistik angekommen bist. So gelingt dann auch der perfekte Übergang zum Ergebnisteil.

 

Aber erstmal von vorn:

 

1. Das Studiendesign:

 

In diesem Abschnitt müssen die Grundzüge deiner Studie kurz und prägnant dargelegt werden:

Welche Art von Studie wurde durchgeführt? Bsp: Eine Beobachtungs- oder eine Interventionsstudie?

Wie wurden die Daten erhoben? Rückwirkend aus Akten (retrospektiv) oder während der laufenden Studie (prospektiv)?

Wie viele Patienten wurden insgesamt gemessen?

In welchem Zeitraum wurden Patienten in die Studie aufgenommen und untersucht? Bsp: Alle Patienten, die von Mai bis Oktober 2019 in Klinik x behandelt wurden und die Aufnahmekriterien erfüllten.

Welche Interventionsgruppen gab es? Bsp: Vergleich einer neuen vs. einer erprobten Operationsmethode.

Wie wurden die Patienten den Interventionsgruppen zugeordnet?  – Hier bitte die Art der Randomisierung und das Verhältnis der Gruppengrößen zueinander (1:1, 1:3 o. Ä.) angeben.

Im diesem Abschnitt bekommt der Leser also eine sehr knappe Zusammenfassung der Studie, deren Teilaspekte dann in den folgenden Abschnitten vertieft werden.

 

 

2. Das Ethikstatement:

 

Hier dreht sich alles um das Thema Patientenschutz. Es müssen dabei folgende Punkte angesprochen werden:

Der Name der Ethikkommission, bei der das Ethikvotum eingeholt wurde (inkl. der Registrierungsnummer der Studie im Deutschen Register klinischer Studien und der Nummer des Ethikantrags).

Ein Verweis darauf, dass die Studie z.B. die Richtlinien der Deklaration von Helsinki (2004) eingehalten hat.

Die Bestätigung darüber, dass alle Patienten über den Inhalt und den Ablauf der Studie informiert wurden.

 

Außerdem ein Vermerk, dass der Untersucher Sie darüber aufgeklärt hat, dass es ihr Recht war die Teilnahme an der Studie ohne negative Konsequenzen zu jedem Zeitpunkt abzubrechen.

Die Belehrung der Patienten muss dabei schriftlich durchgeführt und dokumentiert werden (via Aufklärungsbogen mit Unterschrift von Untersucher und Patienten).

Ihr merkt wahrscheinlich schon beim Lesen, dass das Ethikstatement einer festen Formulierung folgt. Man kann sie sehr gut aus den meisten deutschen oder englischen Publikationen abschreiben und an die eigene Studie anpassen.

 

 

3. Die Patientenpopulation:

 

Dieser Abschnitt beschreibt, wie die Teilnehmer der Studie gefunden wurden und welche Kriterien sie erfüllen mussten, um teilnehmen zu dürfen. Dabei werden drei Bereiche adressiert:

Rekrutierungsmethoden: Hier muss beschrieben werden, wie die Patienten für die Studie rekrutiert wurden (z.B. alle Patienten mit einer akuten Sinusitis, die vom Hausarzt in die Klinik überwiesen wurden)

Aufnahmekriterien:  An dieser Stelle müssen nun die Merkmale genannt werden, die ein Patient erfüllen musste, um an der Studie teilnehmen zu dürfen

Ausschlusskriterien:  Hier werden logischerweise die Merkmale aufgeführt, die ein Patient nicht haben durfte, da er sonst von der Teilnahme ausgeschlossen wurde.

 

Kurz, knackig, das reicht.

 

 

4. Die Intervention:

 

Hast du eine Interventionsstudie durchgeführt, muss in diesem Teil beschrieben werden, WIE die Interventionen aussahen, die von den Patienten durchlaufen wurden.

Dabei ist besonders wichtig, dass vorab ein grober Ablaufplan beschrieben wird. Hier muss erläutert werden, wann und wie oft ein Patient untersucht / behandelt wurde und was während der einzelnen Termine geschah.

Es könnte z.B. dargelegt werden, dass der Patient nach Aufnahme und Zustimmung zur Studienteilnahme eine erste Untersuchung bzgl. der Parameter abc bekam, um Baselinewerte für die Zielvariablen der Studie zu bekommen, sowie demografische Merkmale und die Krankheitsgeschichte des Patienten notiert wurden.

Im Anschluss sollte der weitere Ablauf beschrieben werden, dass also je nach zugeordnetem Studienarm Intervention A oder B durchgeführt wurde und dann zu den Zeitpunkten 1, 2, 3 die schon in Prä erhobenen klinischen Zielvariablen noch einmal erhoben wurden. Das reicht.

 

Im nächsten Schritt muss nun die durchgeführte Intervention im Detail beschrieben werden.  

 

Die Kunst ist es dabei, den feinen Grad zwischen zu viel und zu wenig Information zu finden. Der Leser muss verstehen können, was genau gemacht wurde, damit er es nachmachen oder zumindest die fachliche Sinnhaftigkeit der Intervention beurteilen kann.

Eine detaillierte Beschreibung absoluter Selbstverständlichkeiten (Und dann wurde dem Patienten der Ärmel hochgekrempelt, ein venöser Zugang gelegt und mit einem Pflaster fixiert …) sollte aber unbedingt vermieden werden.

Stattdessen können man eher schreiben: Während der gesamten Intervention wurden Sauerstoffsättigung und Puls (Produktname des Messgeräts, Firma ) überwacht.

Es sollten also alle verwendeten Geräte / Medikamente inkl. der wichtigsten Parameter (Einstellungen / Dosierungen)  genannt werden. Außerdem müssen sämtliche Abbruchkriterien beschrieben werden, also die klinischen Grenzwerte, die nicht überschritten werden durften, um die Intervention durchführen zu können.

Am Ende dieses Abschnitts muss dann nur noch der Ablauf der post-interventionellen Phase, also der Zeit nach der Intervention beschrieben werden – wiederum mit allen erhobenen Parametern, zeitlichen Abständen, verwendeten Medikamenten und Messverfahren.

 

 

5. Die klinischen Endpunkte:

 

Hat man die Beschreibung der Intervention erledigt, müssen die verschiedenen Zielparameter der Studie definiert werden.

Hier unterscheidet man zwischen den primären und sekundären Endpunkten.

Primäre Endpunkte könnten z.B. beim Vergleich zweier OP-Methoden, von denen die neue deutlich schonender sein soll, die Anzahl der aufgetretenen Komplikationen sein oder der Verlauf und die Höhe der Schmerzkurve in der post-interventionellen Phase.

Die primären Endpunkte sind also die wichtigsten Zielparameter der Studie, da sie die Kernhypothesen in messbare Werte übersetzen. Sie sollten daher fehlerfrei und für absolut jeden Messzeitzeitpunkt erhoben werden.

Die sekundären Endpunkte sind ebenfalls interessante Variablen, aber ein bisschen weniger wichtig. Sie komplementieren den Wissensgewinn, kommen aber in den Hypothesen eher weiter hinten.

Für jeden klinischen Endpunkt, ob primär oder sekundär, muss beschrieben werden, WIE, WOMIT, DURCH WEN und WIE OFT er gemessen wurde.

Außerdem muss erläutert werden, ob eine Verblindung des Untersuchers und / oder des Patienten stattfand sowie wo und wie die Ergebnisse dokumentiert wurden.

 

Wichtig: Die Reihenfolge der klinischen Endpunkte sollte die der Hypothesen in der Einleitung widerspiegeln und sich auch im Ergebnisteil wiederholen.

Das erleichtert das Leseverständnis enorm. Gibt es thematische Teilbereiche (z.B. Verhaltensdaten und physiologische Daten), die verschiedene Aspekte einer Fragestellung untersuchen, sollten auch diese getrennt und immer in der gleichen Reihfolge abgehandelt werden.

 

Hat man einen präzisen Methodenteil geschrieben, weiß der Leser danach nicht nur, wie er die Studie replizieren kann, sondern auch, welche Störvariablen sich ggf. negativ auf die Messung ausgewirkt haben könnten. Das ist besonders für mögliche Gutachter der Studie sehr wichtig.

 

 

6. Fallzahlschätzung

 

Du merkst wahrscheinlich schon, dass wir uns immer mehr in Richtung Auswertung bewegen. Vorab wird aber mittlerweile in fast jeder Publikation (und somit garantiert auch in deiner Dissertation) eine Fallzahlschätzung verlangt.

Eine Fallzahlschätzung leitet anhand vorheriger Studien, die ähnliche Fragestellungen bearbeitet haben, die benötigte Größe deiner Stichprobe ab. Berücksichtigt werden müssen dabei die Effektstärken der Studien, an denen du dich orientierst, und dein Studiendesign, denn daraus resultieren die zu verwendenden statistischen Verfahren, die du im Rahmen der Fallzahlschätzung modellierst.

Anhand dieser Parameter kannst du dann mithilfe eines geeigneten Programms (z.B. GPower) die Mindestgröße deiner benötigten Studienpopulation berechnen.

Die Schätzung muss also schon vor Beginn der Studie erfolgen, meistens schon vor dem Antrag an die Ethikkommission oder wenn der Drittmittelantrag geschrieben wird. Es lohnt sich also, dort einmal hineinzusehen und die Parameter dann einfach zu übernehmen.

 

 

7. Statistische Analyse

 

Jetzt kommen wir zum letzten Abschnitt des Methodenteils. Hier berichtest du, was du mit den erhobenen Daten gemacht hast. Genau wie bei der Beschreibung der Intervention musst du auch hier möglichst genaue Angaben über deine Analyseschritte machen, aber gleichzeitig darauf achten, überflüssige Informationen zu vermeiden.

Du beginnst dabei immer mit der deskriptiven Statistik. Der erste und wichtigste Satz ist dabei immer, dass die kontinuierlichen Variablen auf Normalverteilung geprüft wurden. Aus diesem Test leitet sich nämlich die Klasse der zu verwendenden statistischen Verfahren ab – also ob du parametrische oder nicht-parametrische Verfahren verwenden kannst.

 

Im nächsten Schritt solltest du beschreiben, wie du mit den verschiedenen Messniveaus deiner Variablen umgegangen bist.

 

Wie wurden deine metrischen Variablen (z.B. das Alter deiner Patienten) dargestellt, wie die ordinalen (z.B. Ratingskalen) und wie die nominalen (z.B. das Geschlecht).

Je nach Verteilung deiner Daten kann es sinnvoll sein, die kontinuierlichen Variablen als Mittelwerte und Standardabweichungen oder aber als Mediane und Quartile zu beschreiben. Nominale Daten sollten als absolute und relative Anteile dargestellt werden.

 

Im dritten Schritt beschreibst du nun die statistischen Verfahren, die du verwendet hast. Dabei sollten auch die wichtigsten Parameter innerhalb der Verfahren genannt werden. Dazu zählen z.B. die Faktorstruktur der ANOVAs oder der verwendete Algorithmus der Regressionen, aber auch die Tests, die für jede Hypothese und für jeden Datentyp benutzt wurden (inkl. der Follow-up-Tests).

Wichtig ist außerdem, die berichteten Effektstärken und deren Interpretation zu nennen (Welchem Wert entspricht ein kleiner, mittlerer oder großer Effekt?) und aufzuzeigen, inwiefern für multiple Vergleiche korrigiert wurde und wie mit fehlenden Werte verfahren wurde.

Generell ist es sehr wichtig, die statistische Analyse so zu beschreiben, dass der Leser die Auswertung wiederholen kann. Es hat außerdem den Vorteil, dass der Leser den folgenden Ergebnisteil besser versteht.

 

Und ganz wichtig: Eine genaue Beschreibung erlaubt späteren Studien eine bessere Fallzahlenschätzung – zumindest, wenn du auch den Ergebnisteil ordentlich schreibst.

 

Hast du diesen Punkt erreicht, kannst du direkt zum Resultateteil übergehen, denn den hast du jetzt perfekt vorbereitet.

Bevor du weitermachst, achte darauf, dass alle Ergebnisse vorliegen, wenn du mit dem Schreiben beginnst. Aber dazu mehr in meinem nächsten Artikel …

Hol dir hier die Checkliste für deinen
Methodenteil

 

 

Du möchtest ein fachliches Lektorat deines Methodenteils? Dann kontaktiere mich hier:

8 + 2 =

Wie vermeide ich, dass fehlende Daten meine Doktorarbeit ruinieren?

Wie vermeide ich, dass fehlende Daten meine Doktorarbeit ruinieren?

Langzeitstudien mit vielen Messterminen bergen ein nicht zu unterschätzendes Fehlschlagrisiko (und das ist britisches Understatement).

Sie liefern den Alptraum, der Doktoranden in schlaflosen Nächten besuchen kommt, frei Haus UND kostenlos mit. Und dieser wabbelige Besucher heißt:

 

Fehlender Wert.
blank
 

Fehlende Werte sind so ziemlich das Schlimmste, was einer Studie passieren kann. Denn jeder fehlende Wert bedeutet, dass der entsprechende Patient die Studie verlässt.

 

Warum ist das so?

 

In Langzeitstudien werden vorab definierte Zielvariablen über einen langen, laaangen Zeitraum wiederholt gemessen. Dies ermöglicht es die Entwicklung dieser Variablen über eine oder mehrere Interventionen hinweg zu beobachten und / oder  zu vergleichen.

In der Statistik haben wir für sich wiederholende Messungen (tata!) Tests mit Messwiederholung (da würde man jetzt nicht drauf kommen…).

Das kann z.B. Modell für den Vergleich zweier Messpunkte innerhalb einer Gruppe ein gepaarter T-Test sein, oder wenn man mehr als zwei Messpunkte hat, die ANOVA mit Messwiederholung (oder auch repeated-measures ANOVA genannt).

Diese und ähnliche Verfahren erfordern nun aber, dass jeder Messpunkt für wirklich jeden Probanden vorhanden ist (Näheres dazu bald in einem Artikel zur ANOVA).

Wenn ein Patient beispielsweise nicht zum Messtermin erscheint oder ein Wert aus Versehen nicht erhoben wird, dann habt Ihr diesen Patienten an allen anderen Messterminen leider umsonst gemessen (falls du deine Datenerhebung schon beendet hast, bekomm jetzt bitte keinen Schreikrampf – auch wenn es angebracht wäre).

Natürlich gibt es immer Wege fehlende Werte zu schätzen (z.B. durch Interpolation oder Imputation), aber in Patientenstudien und gerade bei solchen, die nur wenig Probanden haben, wird das nicht gern gesehen.

 

Was ist also die Lösung, um fehlende Werte in den Griff zu bekommen?

 

Ganz einfach: VERMEIDE SIE.

 

Und das ist nicht nur irgend so eine idealistische Phrase von jemanden, der immer nur nett am Schreibtisch sitzt, Daten auswertet und keine Ahnung vom wirklichen Leben in der Klinik hat. Meine gesamte Dissertation beruht auf Studien, in denen ich Patienten über Zeiträume von bis zu sechs Monaten immer und immer wieder mit langwierigen Messungen traktiert habe.

Das waren Kinder, deren Mütter blitzschnell dabei sind die Kabel abzureißen und mit den Kindern aus dem Labor zu stürmen, wenn es auch nur den Anschein hat, dass da etwas nicht läuft. Aber auch Erwachsene über 70, bei denen man schon wirklich viel Überzeugungsarbeit leisten muss, damit diese nach einem langen Kliniktag noch einmal zwei Stunden in der EEG-Kammer sitzen.

 

Am Ende meiner drei Studien hatte ich genau einen einzigen fehlenden Wert und das auch nur, weil mein Patient aufgrund seines wirklich gehobenen Alters verstorben ist. So etwas ist dann einfach Pech und ich denke bis heute sehr gern an diesen netten älteren Herren mit seinem wunderbaren Humor zurück.

 

Wie habe ich das erreicht?

 

Ich habe mich an ein paar einfache Regeln gehalten:

 

> Sei deine eigene Study-Nurse

Niemand, aber auch wirklich niemand, kann besser dafür sorgen, dass Patienten zur Messung bzw. zum Kontrolltermin kommen, als du. Und warum?

Weil niemand ein größeres Interesse an seiner Anwesenheit hat.

Nehmen wir es, wie es ist: Jeder andere profitiert wahrscheinlich sogar davon, wenn der Patient nicht kommt, denn das bedeutet weniger Stress im klinischen Alltag.

Dem entsprechend wird auch niemand außer dir dafür freiwillig Sorge tragen.

Also schwing dich ans Telefon und rufe deinen Patienten 1-2 Tage vor dem Termin an und sag ihm, wie sehr du dich freust, ihn zum Kontrolltermin begrüßen zu dürfen.

 

> Traue Niemanden. Besteche jeden.

Seien wir ehrlich. Nicht jeder Test macht zu jedem Termin Sinn. In meiner Dissertation haben die Logopäden und Audiometristen völlig zurecht moniert, dass es wenig Sinn macht sehr komplexe Sprachreize kurz nach Aktivierung des Cochlea Implantats zu testen. Demensprechend waren Sie jedes Mal kurz davor entsprechende Tests einfach weg zu lassen.

Aber weißt du was? Zu glauben, dass ein Patient ein Ergebnis x zeigen wird, ist keine Erlaubnis einen entsprechenden Wert x auch hinzuschreiben (z.B. eine „0“ à la „versteht nix“).

Ein fehlender Wert ist ein fehlender Wert und wird auch als fehlender Wert eingetragen.

Also ist es deine Aufgabe den entsprechenden Test eigenhändig durchzuführen oder zumindest den entsprechenden Mitarbeitern so lange auf den Keks zu gehen (oder Kekse zu schenken) bis der Test zuverlässig durchgeführt wird. Und zwar immer!

 

> Baue vor Beginn der Studie ein übersichtliches Studienprotokoll, in das jeder erhobene Wert easy peasy eingetragen werden kann.

Das A und O eines vollständigen Datensatzes ist Komfort. Klinikalltag ist stressig. Jeder möchte nur möglichst schnell durchkommen. Wenn sich also nur die kleinste Möglichkeit für ein entschuldbares Weglassen des Tests bietet, dann wird diese Chance ergriffen!

Also erstelle für jeden Patienten einen eigenen Ordner mit allen Testunterlagen, die pro Messtermin benötigt werden. Oben drauf kommt dann ein Protokollbogen, auf dem alle relevanten Daten eingetragen und die Tests nacheinander abgehakt werden können. 

Spezialtipp: Wenn du eine Randomisierung der Testreihenfolge eingebaut hast, sortiere die Testunterlagen für jeden Messtermin entsprechend.

 

> Gehe auf Nummer sich und teste selber.

Jetzt möchtest du mir wahrscheinlich eine scheuern. Denn selber testen ist eine Wahnsinnsarbeit. Es kostet enorm viel Zeit und Energie.

Aber weißt du was? Ein löchriger Datensatz kostet dich noch mehr. Ich habe immer wieder Studien auf meinem Tisch, bei denen eine Dissertation lange Zeit nicht abgeschlossen werden kann, weil die Datenauswertung aufgrund der fehlenden Werte ein einziges Desaster ist.

Glaub mir, ein Betreuer kann ganz schnell die Lust an einem Projekt verlieren, wenn sich abzeichnet, dass die Datenbasis schlecht ist. Und dann muss nicht nur eine Strategie her wie man mit den fehlenden Werten umgeht, sondern auch ein Schlachtplan entwickelt werden, wie man die Dissertation durchbekommt.

 

Und da bestätigt sich wieder Punkt 1: Das größte Interesse an einer lückenlosen Messung hast du – und keiner sonst.

 

Also umgarne deine Patienten damit Sie kommen, messe am besten alles selber und baue vor Beginn der Studie für jeden Patienten einen eigenen Studienordner.

Auf diese Weise wird aus dem dicken Monster (mit ein bisschen Einsatz) eine schnurrende Katze, die dich nachts wärmt und für gute Träume sorgt (und jetzt rate mal warum ich seit meiner Dissertation sogar zwei Katzen habe….).

 

blank

Trag dich hier für Dr. Ortmanns beste Maildizin ein und erhalte regelmässige Tipps für deine medizinische Promotion

 

Wie schreibt man eine wissenschaftliche Arbeit?

Wie schreibt man eine wissenschaftliche Arbeit?

Drei Wochen vor Abgabefrist meiner Diplomarbeit saß ich am Schreibtisch meines 12 qm-Zimmerchens mit Dachschräge, draußen waren es – wie in Konstanz im Sommer üblich – 35 Grad. Vor mir ein weißes Blatt Papier, ein dicker Ordner Probandendaten und eine Festplatte mit MEG-Daten, deren Auswertung 24 h vorher von unserem Großrechner ausgespuckt worden war.

Hinter mir lagen eineinhalb Jahre der theoretischen Vorbereitungen, Messungen, Datenvorverarbeitungen und endlosen Versuche, die Quellenlokalisation meiner MEG-Daten zum Laufen zu bekommen. Jetzt endlich war also alles da – aber nur noch 3 Wochen Zeit, um die Arbeit auch tatsächlich zu schreiben. Ein Grund zur Panik?

Wenn meine Klienten über das Schreiben einer wissenschaftlichen Arbeit sprechen, dann klingt das meist so: „Ich habe eine Arbeit zugeteilt bekommen, bei der ich aktuell die Daten erhebe und bald mit der Auswertung beginnen möchte. Mein Chef hat mir geraten, parallel schon einmal mit dem Schreiben der Einleitung zu beginnen. Daher suche ich gerade Hintergrundliteratur und arbeite die Stück für Stück in den Text ein. Sobald ich die Einleitung fertig habe, schaue ich, was bei der Datenauswertung rauskommt, schreibe die Ergebnisse auf, dann den Methodenteil, weil der so kompliziert ist, und ganz zum Schluss schreibe ich die Diskussion“.

 

Klingt auf den ersten Blick plausibel – ist aber falsch.

 

Eine gut geschriebene wissenschaftliche Arbeit ist ein harmonisches, organisches Wesen, ein sich in das Flussbett schmiegender Wasserstrom, auf dem wir dahinsegeln, ein Erdbeersorbet, das auf der Zunge zergeht. Eine schlecht geschriebene Arbeit ist eine Eiswüste, durch die man sich schrittweise durchquält und in der man nur noch hofft, die Strecke trotz Sturm und Dunkelheit zu überwinden, um bald am warmen Kamin zu sitzen. Warum?

Wer beim Verfassen seiner wissenschaftlichen Arbeit mit dem Schreiben der Einleitung beginnt, noch bevor er weiß, was überhaupt bei der Studie herauskommt, der begibt sich schon zu Beginn des Schreibprozesses in die Startlöcher für seine ganz persönliche Polarexpedition, denn schon an dieser Stelle wird der organische Fluss der Arbeit zerstört.

Vielleicht hat man Glück und es kommt zufällig genau das zur Einleitung passende Ergebnis heraus, besonders wahrscheinlich ist das aber nicht. Viel wahrscheinlicher ist es, dass der Autor, weil er eben nicht weiß, in welche Richtung er genau schreiben soll, in allem sehr vage bleibt, ein Thema nach dem anderen abhakt und am Ende ein in der Luft hängendes Forschungsthema definiert, das untersucht werden soll. Wenn es gut läuft, werden an den Schluss der Arbeit noch ein paar Hypothesen geklatscht – und das war‘s.

 

Hypothesen formulieren –  wann wie wo?

 

Ganz anders läuft es dagegen, wenn man die Datenauswertung schon hinter sich hat, Hypothesen geprüft wurden, weiß, ob sie bestätigt wurden oder nicht, und sich anhand der Ergebnisse einen roten Faden ziehen kann, der in der gesamten wissenschaftlichen Arbeit verfolgt wird. Was ich damit meine?

Stellt euch vor, ihr habt vor Beginn der Masterarbeit Hypothesen bekommen oder, noch besser, selbst definiert. Im Anschluss habt ihr die Fragestellungen in zu testende Variablen operationalisiert und in ein Studiendesign überführt. Die Daten werden erhoben und ausgewertet. Daraus resultiert am Ende ein festes Set an Ergebnissen, von dem ihr genau wisst, ob es zu euren initialen Hypothesen passt oder nicht.

Mit sehr großer Wahrscheinlichkeit ist es nun so, dass die Ergebnisse eure Hypothesen nicht 1:1 bestätigen. Vielleicht sind die Ergebnisse sogar gänzlich anders und eure Hypothesen waren falsch, vielleicht wurden aber auch nur einzelne Kernhypothesen bestätigt und andere nicht. In jedem Fall werden die Ergebnisse aber nicht mehr zu eurer Einleitung passen, die wahrscheinlich ohnehin schon eher vage formuliert wurde – eine mühselig zu lesende Kombination.

 

Was also tun?

 

Zuerst legt ihr die Einleitung beiseite und zwar weit, weit weg. Ihr solltet nicht einmal in die Versuchung kommen, an ihr weiterzuschreiben. Da es sehr wahrscheinlich ist, dass ihr, wie oben beschrieben, euer Forschungsthema nicht selbst entwickelt, sondern zugeteilt bekommen habt, wird euch zu diesem Zeitpunkt noch die theoretische Hintergrundarbeit zu eurem Thema fehlen, d. h., ihr habt noch keinen Überblick zum aktuellen Stand der Forschung, ihr wisst nicht, was andere Gruppen gemacht haben und welche Ergebnisse bisher vorliegen.

Das ist sehr wahrscheinlich auch der Grund, warum euer Betreuer oder eure Betreuerin von euch wollte, dass ihr die Einleitung beginnt – sie hilft euch, einen Überblick über die aktuelle Literatur zu bekommen. Grundsätzlich eine gute Idee, ABER wenn ihr jetzt einfach aufschreibt, was ihr lest, und die zu untersuchenden Themenbereiche einfach blockweise in der Einleitung ablegt, dann wird der Text kein leckeres Erdbeersorbet, sondern ein gnatschiger Kaugummi unter dem Schuh des Lesers.

 

So klappt die Literaturrecherche

 

Ihr werdet also stattdessen Excel öffnen und zu jedem Unterthema, das in eure Arbeit einfließt, einen neuen Tab öffnen. Dann schreibt ihr zu jedem Themenblock die Ergebnisse eurer Literaturrecherche auf – Studie für Studie und immer unter den folgenden Aspekten:

– Wie passt das zu meinem Thema?

– Was sind die Ergebnisse?

– Welche methodische Einzelheiten wurden genannt?

 

Schritt für Schritt zum Überblick

 

So bekommt ihr Schritt für Schritt einen sehr guten Überblick über euer Thema, der komprimiert und leicht zugänglich vor euch liegt und später zu einer Story zusammengesetzt werden kann. Wahrscheinlich fällt es euch jetzt auch deutlich leichter, die vorab festgelegten Hypothesen zu verstehen, und vielleicht regt dieses Vorgehen sogar an, diese noch etwas abzuändern (aber immer VOR der Datenauswertung!).

Da die Literaturrecherche ihre Zeit braucht, liegen die Daten wahrscheinlich mittlerweile schon vor und ihr könnt mit der Auswertung beginnen. Euer großer Vorteil ist nun, dass ihr wahrscheinlich einen ziemlich guten Überblick über die theoretische Ausgangslage habt und implizit sogar einen internen Fahrplan entwickeln konntet, anhand dessen ihr die Datenauswertung ganz straight durchziehen könnt.

Ihr werdet euch jetzt also anhand des in der Literaturrecherche gewonnenen Wissens durch die Datenanalyse hangeln und versuchen, zielgerichtet eure Hypothesen durchzuarbeiten. Wenn nun also ein nicht-hypothesenkonformes Ergebnis auftritt, wird es deutlich einfacher sein, dieses Ergebnis in die Ergebnisse der Literaturrecherche zu integrieren und in eure Story einzubetten. Ihr werdet also schon jetzt alternative Erklärungsideen entwickeln, die ihr wiederum in der Diskussion verarbeiten könnt – eine Steilvorlage für ein abgerundetes und interessantes Ende eurer wissenschaftlichen Arbeit.

Ihr seht also: Eine interessante wissenschaftliche Abhandlung zu schreiben, ist zwar nicht ganz einfach, aber auch kein Hexenwerk. Die einzelnen Teile ergeben sich aus dem Fluss der Arbeit heraus, sie bedingen einander und wachsen organisch, wenn man es richtig anstellt.

 

Welche Rolle spielt nun die Statistik?

 

Welche Rolle spielt nun die Statistik? Sie wird euch zum einem dabei helfen, eure Fragestellungen zu beantworten, zum anderen wird sie aber auch das Hilfsmittel dazu sein, eine richtige Argumentationslinie aufzubauen. Denn die Statistik hat die Möglichkeit, auch Alternativansätze zu überprüfen. Jedes Argument, das ihr anbringen möchtet, könnt ihr mit dem geeigneten statistischen Verfahren absichern. Ihr werdet mithilfe der Statistik also eine elegante Architektur aus Argumenten bauen können, die die Grundlage eures gesamten Manuskriptes bildet.

Und da wären wir nun wieder bei der Einleitung. Ihr habt also bis hierher euren theoretischen Unterbau gebildet. Dann habt ihr die Daten analysiert und eure Hypothesen bestätigt oder widerlegt. Anhand der Ergebnisse, die ihr nun wunderbar in die Literatur integrieren könnt, habt ihr die Architektur eurer Argumentationsstruktur aufgebaut und habt nun die Möglichkeit, eine elegante, gut strukturierte und auf euer Forschungsthema zugeschnittene, schlüssige Einleitung zu schreiben, die schon vorab alle für die Interpretation eurer Ergebnisse notwendigen theoretischen Hintergründe berücksichtigt – TATA!

 

Erst der Ergebnis- und Methodenteil, dann die Einleitung

 

Bevor ihr die Einleitung aber schreibt, beginnt erst mit dem Ergebnis- und dem Methodenteil. Wenn diese Herzstücke des Manuskripts vorliegen, dann schreibt ihr die Diskussion, in der ihr eure Ergebnisse besprecht und im Licht der für die Einleitung schon vorgesehenen Literatur diskutiert, und dann – ganz am Schluss – schreibt ihr eine kurze, knackige Einleitung, die elegant auf euer Thema und eure spezifische Fragestellung hinführt.

Und schon habt ihr anstelle eurer persönlichen Polarexpedition eine elegant dahinfließende wissenschaftliche Arbeit geschrieben, die den Leser an die Hand nimmt und ihn Schritt für Schritt hindurch geleitet. Ich liebe es!

In meiner Dachkammer habe ich es genauso gemacht – 14 h am Tag, 3 Wochen lang. Da ich den theoretischen Unterbau schon vorab erledigt hatte, konnte ich meine Ergebnisse zielgenau einpassen und mich in Abstimmung mit meinem Betreuer vom Ergebnisteil und den Methoden über die Diskussion bis zur Einleitung vorarbeiten. Es ist dabei relativ egal, ob ihr wie ich eine relativ kurze Arbeit als Vorbereitung einer späteren Publikation schreibt oder eine sehr lange Masterarbeit oder sogar Dissertation. Das Vorgehen ist immer das Gleiche.

 

Eine wissenschaftliche Arbeit ist nicht einfach – aber machbar!

 

Wichtig ist dabei immer zu wissen: Wissenschaftliches Schreiben ist nicht einfach. Ich hätte mich in diesen 3 Wochen immer wieder gern in den Bodensee gelegt, um am Grund nach Goldstücken zu tauchen oder was auch immer. So ziemlich alles wäre netter gewesen als zu Schreiben. Aber da das nicht zur Diskussion stand, habe ich es durchgezogen. Und am Ende kam ein schönes Manuskript heraus, das die Grundlage für eine Publikation gebildet hat, die sogar als Titelstory des veröffentlichenden Journals veröffentlicht wurde. Es hat sich also gelohnt. Und wenn ich das kann, könnt ihr es auch.

blank

Hol dir hier die Checkliste für deinen
Methodenteil

 

 

Du möchtest ein wissenschaftliches Lektorat deiner Dissertation oder Masterarbeit? Dann schreib mir gern:

10 + 10 =

Wie wahrscheinlich ist es, dass ich in fünf Jahren tot bin?

Wie wahrscheinlich ist es, dass ich in fünf Jahren tot bin?

Ich freue mich immer wieder über Zeitungsartikel, die aktuelle Studien besprechen. Vor ein paar Tagen stieß ich auf einen Artikel eines großen deutschen Nachrichtenmagazins (link): Bluttest verrät Sterberisiko!
Weitaus dramatischer als die Studie selbst war der Untertitel des Artikels (hier in Teilen frech von mir als Überschrift genutzt):

Wie wahrscheinlich ist es, dass ich in fünf Jahren tot bin? Forscher aus Deutschland arbeiten an einem Bluttest, der genau das vorhersagen soll. Medizinethiker sind entsetzt.

Bei so einem Einstieg kann ich als Methodiker und Wissenschaftler ja kaum noch an mich halten. Ich muss also herausfinden, was dahinter steckt.

Der Artikel befasst sich mit einer Studie, die eine Arbeitsgruppe um Joris Deelen durchgeführt hat. Deelen ist Post-Doktorand am Max-Planck-Institut für die Biologie des Alterns in Köln.

Wäre es nicht toll – so die Frage der Autoren –, wenn man ein kleines Set an Biomarkern hätte, das uns helfen würde, auf den ersten Blick erkennen zu können, in welchem globalen gesundheitlichen Zustand sich unser Körper aktuell befindet und ob ein erhöhtes Risiko besteht, in den nächsten 5 oder 10 Jahren zu sterben?

Um diese Frage zu beantworten, wurden Blutsera von 44.168 Personen aus 12 schon erhobenen Kohorten bzgl. 260 verschiedener Biomarker untersucht. Das sind sehr viele Daten, die hier ausgewertet wurden, was super ist, denn große Datensätze haben natürlich ein großes Potential für Wissenszuwachs.

Für jede dieser Kohorten wurde nun im nächsten Schritt eine Cox-Regression berechnet, die es ermöglicht, Risikofaktoren für das Versterben der untersuchten Populationen zu ermitteln. Die Ergebnisse der Einzelkohorten wurden dann im Rahmen einer Survival-Metastudie kombiniert.

Mithilfe von forward- und backward-Algorithmen, von denen man im Rahmen aller regressionsbasierten Methoden immer wieder hört (also merkt sie euch, denn forward und backward-Ansätze sind nützlich!), wurden aus den 260 initialen Biomarkern 14 voneinander unabhängige, also nicht-miteinander korrelativ im Zusammenhang stehende Biomarker identifiziert.

Und hier kommt jetzt etwas Besonderes: Die Biomarker standen in keinem Zusammenhang mit einem aktuellen, bestehenden Krankheitsbild der Patienten. Sie waren also objektive Marker und somit sehr wahrscheinlich auch nicht durch spezifische, krankheitsbedingte Therapien zu beeinflussen.

Um nun zu zeigen, welche Vorhersagekraft die identifizierten Biomarker für das Überleben haben, wurden sie zu einem Gesamtscore kombiniert und im Vergleich zu drei anderen, teilweise schon bestehenden Modellen (Modell 1: mit konventionellen Risikofaktoren, Modell 2: mit 4 Biomarkern, Modell 3: Kombinationsmodell aus 14 Biomarkern und konventionellen Risikofaktoren) mithilfe von ROC-Kurven ausgewertet. ROC-Kurven sind toll, denn sie quantifizieren, wie akkurat ein bestimmter Parameter (hier z. B. der Biomarker-Score) ein Ereignis (in diesem Fall: den Tod) vorhersagt. Die ROC-Kurve bietet dabei die praktische Möglichkeit des direkten visuellen Vergleichs verschiedener Methoden, aber auch des quantitativen Vergleichs (durch die AUC bzw. die C-Statistik).

Und was kam dabei heraus? Da der Artikel in Nature Communications veröffentlicht wurde, natürlich, dass der 14-Biomarker-Score der beste Prädiktor ist.

Aber was bedeutet das? Ist der Beste auch gut? Ja, tatsächlich. Das zeigt uns die C-Statistik bzw. das AUC (Area under the Curve) der ROC-Kurve. Hier wurden für die 5-Jahres-Mortalität AUCs von 0,837 (bzw. 0,83 für die 10 Jahres-Mortalität) erreicht. Das bedeutet, dass das Modell recht stark in seiner Vorhersagekraft / Klassifizierung ist. Das alternative konventionelle Risikofaktorenmodell erreichte Werte von 0,772 (bzw. 0,79), was ebenfalls nicht schlecht, aber naja, nun mal eben schlechter ist.

Ganz besonders interessant wird es, wenn man sich die Vorhersagekraft für Personen über 60 Jahren ansieht, denn hier vergrößert sich der Abstand zwischen beiden Modellen noch mehr: Während das 14-Biomarker-Modell immer noch ein AUC von 0,732 für die 5- und 0,715 für die 10-Jahre-Überlebenswahrscheinlichkeit aufzeigt, schafft das konventionelle Modell gerade einmal noch ein AUC von 0,626 / 0,650. Zum Vergleich: Ab 0,5 bewegen wir uns im Bereich der Ratewahrscheinlichkeit.

Gerade dieser Altersbereich ist aber laut der Autoren von besonderem Interesse, weil es aktuell kaum valide Risiko-Scores bzw. Risikoprädiktoren gibt.

Schaut man sich nun also die blanke Methodik der Studie von Deelen et al. an, (die hier natürlich von mir schematisch und stark vereinfacht dargestellt wurde, auch wenn euch das wahrscheinlich schon viel zu lang vorkam), gibt es bisher prinzipiell nichts, was uns Angst einjagen müsste, oder?

Genau. Nun kommen wir aber zur politischen und natürlich auch marketing-relevanten Seite einer jeden wissenschaftlichen Publikation – und die spielt natürlich keine geringe Rolle für den Erfolg einer wissenschaftlichen Laufbahn. Denn letztendlich geht es in der Wissenschaft immer nur um zwei wesentliche Dinge:

– Gelder für die aktuelle Forschung zu akquirieren ( = der Autor ist ab dem nächstem Jahr nicht arbeitslos) und
– eine Publikation gut unterzubringen (die Autorin kann auch zukünftig Drittmittelanträge einreichen und somit weiter in der Forschung arbeiten, vielleicht sogar irgendwann mal als Professorin).

Und um das zu schaffen, muss jeder Artikel einen starken ersten Satz haben, der klar macht, worum es geht und welches Problemfeld in diesem Artikel bearbeitet werden soll. Und da wären wir schon bei der Ursache des medialen Aufschreis. Der Artikel beginnt nämlich mit diesem Satz:

Robust predictors of intermediate- and long-term mortality may be valuable instruments in clinical trials and medical decision making.

Und hier liegt der Fokus der medialen Aufmerksamkeit nun auf drei Wörtern, die im ganzen 8-seitigen Artikel niemals wieder auftauchen: medical decision making. Bähm!

Dieser Satz impliziert nämlich im weitesten Sinne (und mit ausreichend Katastrophendenken), dass der einzige Grund für die Entwicklung des Biomarker-Scores der ist, dass anhand der berechneten Überlebenswahrscheinlichkeit entschieden werden könnte, ob ein Patient überhaupt noch Behandlung x oder y bekommen soll, oder ob sowieso schon Hopfen und Malz verloren sind und man sich das Geld besser sparen könnte.

Diese Interpretation stammt übrigens vom Autor des Zeitungsartikels und seiner Interviewpartnerin und nicht von Deelen selbst:
Annette Rogge ist Vorsitzende und Geschäftsführerin der Ethikkommission des UK Schleswig Holstein. Sie möchte in ihrer Funktion nicht nur verhindern, dass Scoresysteme einen zu hohen Stellenwert in der Therapiefindung haben, sondern stellt die Markteinführung solcher oder ähnlicher Systeme vorab kritisch in Frage (um es freundlich auszudrücken). Das ist natürlich ihr gutes Recht. Gerade als Mitglied der Ethikkommission ist es geradezu ihre Aufgabe, Studien und deren Bedeutung bis ins letzte (schwarze) Detail zu durchdenken. Denn Ethikkommissionen haben die Aufgabe, Patienten zu schützen und diese keinen unnötigen Risiken auszusetzen.

Aber diese Kritik kommt leider viel zu spät, denn Scoresysteme dieser Art kommen im klinischen Alltag schon längst zum Einsatz! Insbesondere in sensiblen Bereichen wie der Allokation von Spenderorganen werden Scoresysteme, die beispielsweise das 5-Jahresüberleben mit und ohne Spenderorgan anhand von Biomarkern berechnen, sehr erfolgreich eingesetzt. Sie ersetzen mehr und mehr rein wartelistenbasierte Systeme und reduzieren so die langfristige Mortalität schwerkranker Menschen.

Dies bestätigt auch ein weiterer Interviewpartner von Der Spiegel, Florian Kronenberg vom Institut für Genetische Epidemiologie der Medizinischen Universität Innsbruck, denn schon heute fallen in der Medizin ständig Entscheidungen auf der Basis relativ weniger Parameter.

Muss uns das Angst machen? Ich denke nicht. Zum einen sind die aktuell entstehenden Modelle besser als die alten, sonst wären sie schon in der frühen Testphase eingestampft worden. Zum anderen würde ich mich lieber am Ergebnis eines gut validierten Testscores orientieren, anstatt am Bauchgefühl des mich behandelnden Arztes. Schließlich muss sich seines nicht zwangsweise mit dem Bauchgefühl eines zweiten Arztes decken, der mich zwanzig Minuten später behandelt hätte, wenn ich auf dem Weg in die Klinik im Stau gestanden hätte.

Das ist natürlich überspitzt dargestellt, denn natürlich gibt es zusätzlich zum Bauchgefühl noch Richtlinien der entsprechenden Fachgesellschaften, um die Entscheidungsfindung von Ärzten zu unterstützen, aber ratet mal, worauf diese Richtlinien basieren? Richtig – Studien! Studien bilden also ein Korrektiv für das subjektive Bauchgefühl eines Arztes und das ist gut so.

Die Grundfrage ist doch: Wie gut sind die statistischen Modelle, auf denen die Therapieempfehlungen beruhen? Wie viel Varianz innerhalb der zugrunde liegenden Patientenpopulation konnten sie erklären? Wie groß war die untersuchte Population? Wie oft und wie erfolgreich konnte der etablierte Score an anderen Populationen validiert werden? War die Stichprobe repräsentativ und als alles subsumierende Frage: Wie gut funktionieren die Modelle im Einzelfall? Kann das Modell also auch auf mich angewandt werden?

Das sind Fragen, die im Rahmen des Validierungsprozesses solcher Vorhersagemodelle immer wieder gestellt werden müssen. Bis ein Modell all diese Hürden genommen hat, dauert es sehr lange. Der Deelen-Artikel berechnet nämlich noch gar nicht die Sterbewahrscheinlichkeit der nächsten 5 oder 10 Jahre. Er berechnet aktuell nur das relative Sterberisiko einer Person. Und das ist etwas ganz anderes, da man für eine genaue Aussage über die absolute Höhe die Sterbewahrscheinlichkeit einer entsprechenden Vergleichsperson ohne die Eigenschaft xy kennen müsste – und die kennen wir in den meisten Fällen gar nicht. Genau deswegen sprechen Deelen et al. immer nur von einer relativen Erhöhung des Sterberisikos um das 2,74-Fache, als Folge einer Erhöhung des Biomarker-Scores um einen Punkt.

Wir sind also noch sehr weit entfernt von einer prozentualen Vorhersage der Sterbewahrscheinlichkeit, die der Überschrift des Zeitungsartikels gerecht werden würde. Bisher wurde „nur“ eine absolut seriöse, methodisch sehr gut gemachte Grundlagenuntersuchung durchgeführt, um fragliche Biomarker zu identifizieren und mit anderen Modellen zu vergleichen.

Und somit ist hier passiert, was eigentlich ständig passiert: Es gab zum einen den Einleitungssatz, der zu weite Interpretationen zugelassen hat und wahrscheinlich genauso auch in der Pressemitteilung des Fachjournals stand, und zum zweiten einen Journalisten, der die Statistik nicht in ihrer Gänze verstanden hat –, um es konservativ auszudrücken.

Es ist natürlich klar, dass es als Nicht-Wissenschaftler schwer ist, solch komplexe Berechnungen zu verstehen (und sie sind wirklich komplex, ich habe 2 Tage gebraucht, um mich durch alle Einzelheiten zu graben). Das sollte Journalisten und ggf. auch Entscheidungsträger aber nicht davon abhalten, einfach mal bei der betreffenden Arbeitsgruppe oder bei einem Statistiker anzurufen, um sich die Methodik und somit auch die Bedeutung der Ergebnisse erklären zu lassen.

Denn Artikel schaffen subjektive Wahrheiten, und wie sich subjektive Wahrheiten heutzutage verbreiten und Meinungen bilden, muss an dieser Stelle ja wohl nicht mehr erwähnt werden …

Trag dich hier für Dr. Ortmanns beste Maildizin ein und erhalte regelmässige Tipps für deine medizinische Promotion

 

Propensity Score Matching – oder von der Kunst, den richtigen Partner zu finden

Propensity Score Matching – oder von der Kunst, den richtigen Partner zu finden

Fast jeder forschende Arzt kennt das Dilemma: Eine neue, schonende Therapieform soll mit der konservativen Standardtherapie verglichen werden. Hätte man viel Geld und noch mehr Zeit und wäre man zuversichtlich, dass beide Therapien mindestens gleich gut funktionieren, dann hätte man eine kontrolliert randomisierte Patientenstudie geplant und über Jahre geduldig Daten gesammelt.

Bei jedem Patienten wäre per Zufall entschieden worden, welche Therapie er bekommt, und nach Erreichen einer wunderbar hohen Fallzahl hätte die Auswertung ergeben, dass das neue, schonende Therapieverfahren genauso wirksam ist (nein wirksamer!) – bei deutlich weniger Nebenwirkungen.

 

Leider haben Mediziner aber wenig Zeit und nutzen daher, was an Daten zur Verfügung steht.

 

Also werden die Akten der letzten Jahre durchsucht und alle Fälle entnommen, die entweder Therapie A oder B bekommen haben, und diese dann statistisch miteinander verglichen.
Die Fallzahl ist auch hier hoch (toll!), aber bei genauerem Hinsehen fällt auf, dass die Patienten, die mit der konservativen Therapie behandelt wurden, signifikant häufiger schwerere Formen der Erkrankungen aufweisen als in der neuen, weniger erprobten Variante.
Das ist natürlich absolut verständlich, denn im Zweifelsfall geht man doch lieber auf Nummer sicher, denn das oberste Ziel ist die Heilung des Patienten!

Was sagt nun aber so eine Studie aus? Kann man aus einem positiven Ergebnis ableiten, dass die schonende Therapieform besser ist? Leider nein, denn der Schweregrade der Erkrankung hat hier mit hoher Wahrscheinlichkeit einen Einfluss auf die abhängige Variable, mit der gemessen werden soll, welche Therapieform besser ist. Solche störenden Variablen werden auch konfundierende Variablen genannt und werden spätestens bei der zukünftigen Veröffentlichung ein Problem.

 

Was also tun? Alle Daten wegschmeißen?

 

Eine Lösung wäre es, sich beide Datensätze ganz genau anzusehen und zwischen beiden Gruppen Paare zu bilden, die sich möglichst ähnlich sind. Merkmale, die dabei eine Rolle spielen könnten, wären z. B. das Alter oder das Geschlecht, aber insbesondere alle Merkmale, die die Krankheit und ihre Risikofaktoren bestimmen und somit einen Einfluss auf den Erfolg der Therapie haben könnten. Wenn man ein paar dieser Merkmale durchsucht hat, wird schnell klar, dass es fast unmöglich ist, ausreichend viele Paare in einem annehmbaren Zeitraum zu finden.

 

Aber zum Glück hat die Statistik auch hier eine Lösung entwickelt: das Propensity Score Matching!

 

Mit dieser Methode werden alle zu matchenden Variablen in einem Wert zusammengefasst, der dann dazu genutzt wird, möglichst viele Paare zu finden, die sich sehr ähnlich sind. Das ermöglicht einen direkten Gruppenvergleich, der nicht mehr unter dem Einfluss der konfundierenden Variablen steht. Das Ergebnis wird dann also wirklich von der verabreichten Therapieform bestimmt und nicht mehr von der Störvariable.

Aber wie funktioniert das? Das Propensity Score Matching (PSM) ist mittlerweile in vielen Statistikprogrammen implementiert. Ich möchte hier aber speziell den Ansatz von Felix Thoemmes (Thoemmes, 2012) vorstellen. SPSS hat zwar auch eine eigene Variante, aber das SPSS-Plug-in von Thoemmes läuft mit weniger Fehlern und erlaubt eine bessere Einschätzung zur Güte des Matchings.

Um damit zu arbeiten, müssen zuerst das kostenlose Datenanalyseprogramm R installiert, drei Pakete in R aktiviert sowie ein SPSS-Plug-in geladen werden. Das ist vielleicht zuerst ein bisschen mühsam, aber es lohnt sich und muss auch nur einmal erledigt werden. Eine gute Anleitung gibt es auch bei Thoemmes et al. (2012), unter Appendix A.

 

Wie funktioniert Propensity Score Matching?

 

Zuallererst muss für jeden Patienten ein Propensity Score (PS) errechnet werden, der alle zu matchenden Merkmale vereint. Dazu wird im ersten Schritt eine logistische Regression gerechnet, in der alle Merkmale als Covariaten eingehen und die Therapieform die dichotome abhängige Variable darstellt. Der dabei entstehende Propensity Score (PS) ist dabei definiert als die Wahrscheinlichkeit, mit der ein Patient die zu prüfende Therapie erhält.

Im zweiten Schritt werden dann möglichst viele Paare zwischen beiden Gruppen gematcht, indem genau die Patienten gesucht werden, deren PS sehr ähnlich ist. Dazu wird bei Thoemmes et al. (2012) das Nearest-Neighbour-Verfahren angewendet. Doch wie ähnlich ist ähnlich genug? Um das zu bestimmen, kann ein sogenannter Caliper festgelegt werden, der die maximal erlaubte Differenz zwischen zwei Patienten definiert. Je größer der Caliper, desto mehr Paare finden sich, aber desto schlechter wird das Matching. SPSS hat als Standardeinstellung 0.2 gewählt, Thoemmes et al. (2012) schlagen 0.15 vor. Es ist sinnvoll, den Wert zu variieren und zu schauen, wie gut das anschließende Matching klappt.

Das PSM resultiert in einem neuen Datenfile, in dem alle gematchten Patienten eingefügt werden. Das ist super, denn alle zukünftigen Analysen können jetzt problemlos mit diesem File ausgeführt werden. Stellt euch vor, die Paare hätten per Hand exportiert werden müssen – ein Alptraum!

Zusätzlich erstellt SPSS in der Ausgabe eine Auflistung von Tests und Grafiken, die helfen sollen, zu bestimmen, ob das Matching zu zwei Subpopulationen geführt hat, die sich wirklich nicht mehr bzgl. der Covariaten unterscheiden. Es wird also die Güte des Matchings beschrieben.

Zu diesen Tests gehören bspw. der Overall-Balance-Test sowie ein Maß für die relative multivariate Imbalance und eine Aufzählung der (hoffentlich) wenigen unbalancierten Covariaten. Je weniger unbalancierte Covariaten es gibt, desto besser ist das Matching. Hier kann man schauen, ob ein kleinerer Caliper weniger unbalancierte Variablen zur Folge hat.

Es werden außerdem Verteilungsdiagramme der Propensity Scores erstellt, mit deren Hilfe visuell beurteilt werden kann, ob sich beide Gruppen durch das Matching ähnlicher geworden sind.

 

Hat alles geklappt, kann mit den eigentlich in der Studie interessierenden Fragen begonnen werden: Inwiefern unterscheiden sich die beiden Therapieformen bzgl. ihrer primären und sekundären Endpunkte? Und diesmal könnt ihr diese Frage beantworten, ohne über Störvariablen zu stolpern!

 

Fazit:

 

Das von Thoemmes et al. (2012) entwickelte SPSS-Plug-in ist zwar anfänglich ein bisschen umständlich zu installieren, bietet aber sehr viele Möglichkeiten, um zwei unterschiedliche Gruppen bzgl. ihrer Merkmale anzugleichen.

 

Wichtig!

 

  1. Es können nur bekannte Störvariablen berücksichtigt werden. Unbekannte und mit anderen Covariaten unkorrelierte Störvariablen können ihren negativen Einfluss weiterhin ausüben. Daher überlegt euch ganz genau, welche Variablen einen Einfluss haben können, und nehmt diese in die logistische Regression auf!
  2. Fehlende Fälle sind für jede Toolbox ein Problem, da sie dazu führen, dass die entsprechenden Probanden nicht berücksichtigt werden. Versucht also, alle Lücken durch eine gute Recherche zu schließen. So erhaltet ihr euch auch nach dem Matching eine ausreichend große Gruppengröße!

 

Literatur:

Thoemmes, F. (2012). Propensity score matching in SPSS. arXiv.org, (January), 30. Retrieved from http://arxiv.org/abs/1201.6385

 

 

Trag dich hier für Dr. Ortmanns beste Maildizin ein und erhalte regelmässige Tipps für deine medizinische Promotion

 

Sie benötigen Hilfe bei der Durchführung eines Propensity Score Matchings? Kontaktieren Sie mich gerne!

13 + 15 =

Trag dich hier für Dr. Ortmanns beste Maildizin ein und erhalte regelmässige für deine empirische Promtion

You have Successfully Subscribed!