So rechnest du eine ANOVA für Gruppenvergleiche in R

So rechnest du eine ANOVA für Gruppenvergleiche in R

In diesem Artikel erkläre ich dir, was eine ANOVA für Gruppenvergleiche ist und wie du sie berechnest.

Die ANOVA für Gruppenvergleiche ist eines der am häufigsten  verwendeten statistischen Verfahren in der Medizin.

Warum? Weil die Zwischensubjekt-ANOVA, wie sie auch genannt wird, super effektiv ist und dir eine Menge Probleme bei der Berechnung von Gruppenvergleichen erspart.

Gleichzeitig ist die ANOVA  aufgrund der Vielzahl, der zu treffenden Entscheidungen, etwas gefürchtet. Daher gebe ich dir hier eine Schritt-für-Schritt Anleitung mit deren Hilfen du sofort verstehst, wie du die ANOVA für Gruppenvergleiche korrekt berechnest.

 

Im Teil 1 erkläre ich dir die Begriffe und die zugrunde liegende Logik der ANOVA für Gruppenvergleiche. Ohne dieses Wissen bringt dir die Berechnung einer ANOVAs nichts, da du nicht verstehen würdest, wie du sie anlegen bzw. interpretieren musst.

In Teil 2 zeige ich dir ganz konkret, welche Berechnungsschritte und Entscheidungen du innerhalb der ANOVA treffen musst. Hast du die verstanden, kannst du definitiv loslegen.

Teil 1: Die Grundlagen der ANOVA für Gruppenvergleiche

Fangen wir erstmal bei den 3 Namen der ANOVA für Gruppenvergleiche an.

Die ANOVA für Gruppenvergleiche (das ist der verständlichste Titel), wird auch Zwischensubjekt-ANOVA genannt, weil sie zwischen Gruppen vergleicht.

Im Englischen wiederum heißt sie Between-Subject’s ANOVA, ein Ausdruck, der wiederum auch gerne mal in Deutschland verwendet wird. Hörst du also einen dieser drei Begriffe, weißt du, dass es sich um den Vergleich von mindestens drei verschiedenen Gruppen bzgl. einer metrischen abhängigen Variablen geht.

Variablentypen innerhalb der ANOVA

Was heißt das nun schon wieder?

 

Eine metrische Variable ist gleichmäßig skaliert, d.h. alle Einheiten haben den gleichen Abstand zueinander (1 cm ist genauso weit von 2cm entfernt, wie 77 von 78cm). Typische metrische Variablen sind das Alter, das Gewicht oder die Körpergröße. 

Metrische Variablen übernehmen innerhalb der ANOVA die Rolle der abhängigen Variablen, sie sind also die Variable, bei der wir einen Effekt erwarten, sobald wir die unabhängige Variable verändern.

Die unabhängige Variable ist dabei nominal skaliert, also in Klassen unterteilbar. Jede Person kann dabei nur einer Klasse angehören. Ein typisches Beispiel wäre z.B. die Behandlungsgruppe innerhalb einer Studie (Schmerzmittel A vs. B vs. C), oder der Status tot vs. lebend.

Die unabhängige Variable wird aufgrund ihrer nominalen Skalierung im Rahmen der ANOVA auch Faktor genannt, die Ausprägungen des Faktors nennt man Faktorstufen.

Flowchart

ANOVA für Gruppenvergleiche

Aufbau der ANOVA

 

Innerhalb einer ANOVA untersuchst du also die Auswirkung eines Faktors (z.B. Schmerzmittel A vs. B vs. C) auf eine abhängige Variable (z.B. die Wirkdauer der beiden getesteten Medikamente).

 

Und jetzt kommt der Clou. Die ANOVA erlaubt dir nicht nur einen Faktor zu testen, sondern mehrere, und zwar gleichzeitig!

 

Du könntest also auch testen, ob die Wirkdauer des Schmerzmittels A oder B davon abhängig ist, wie hoch die verabreichte Dosis war (auch hier wieder nominal: niedrig, mittel, hoch).

 

Das ist praktisch, denn anders als in einem einfachen T-Test, der dir nur den Vergleich zweier Gruppen erlaubt, kannst du innerhalb der ANOVA recht komplexe Effektstrukturen aufbauen, indem du mehrere Faktoren kombinierst. Das obige Beispiel würde zum Beispiel in einem 2 x 3 Design resultieren, sodass du letztendlich 6 unterschiedliche Gruppen gleichzeitig testen würdest.

 

Ich mal dir das mal auf, damit du weißt, was ich meine:

 

Diagramm zur Darstellung der Untergruppen in einer ANOVA für Grupenvergleiche
Diagramm zur Darstellung der Untergruppen in einer ANOVA für Grupenvergleiche

 

Du siehst, schon bei zwei Faktoren sind das verdammt viele Untergruppen (Anzahl der Zweige im Diagramm).

Die Komplexität einer ANOVA hängt also ganz entscheidend davon ab, wie viele Faktoren mit wie vielen Faktorstufen du hast. Um den Überblick zu behalten und um überhaupt die Chance zu haben, ausreichend viele Patienten pro Untergruppe zu erheben, rate ich dir dringend, während deiner Studienplanung darauf zu achten, nicht mehr als zwei Faktoren mit nicht mehr als 4 Unterstufen im stufenreichsten Faktor einzuplanen. Allein diese Kombination würde schon in 8 Untergruppen resultieren, die du mit ausreichend vielen Patienten füllen musst. Je komplexer dein Design also ist, desto schwieriger kriegst du alle Untergruppen voll.

Aber kommen wir zurück zu unserer ANOVA:

↑ Zurück zur Übersicht

Effekte der ANOVA

 

In unserem Beispiel testest du 2 Faktoren, die in insgesamt 3 Effekten resultieren:

 

1. dem Haupteffekt „Schmerzmittel“:
Unterscheiden sich beide Schmerzmittel bzgl. ihrer Wirkdauer, ganz unabhängig davon, welche Dosis gegeben wurde.

2. dem Haupteffekt „Dosis“:
Unterscheidet sich die Wirkdauer zwischen den 3 gegeben Dosierungen, ganz unabhängig von dem gegeben Schmerzmittel.

3. der Interaktion „Schmerzmittel x Dosis“:
Unterscheidet sich die Wirkdauer zwischen den verschiedenen Dosierungen in Abhängigkeit von dem gegebenen Schmerzmittel?

Du siehst schon, die Effekte heißen genau wie die Faktoren bzw. deren Kombination – sehr praktisch.

Besonders interessant ist dabei der Interaktionseffekt, denn das ist unser Zieleffekt – sonst hätten wir uns die Mühe mit den verschiedenen Faktoren ja nicht gemacht. Die Haupteffekte sind oft Beiwerk, das wir interpretieren, wenn die Interaktion nicht signifikant geworden ist.

Aber was heißt das eigentlich, wenn Haupteffekte oder Interaktionen signifikant werden?

 

Prinzipiell alles und nichts. Das Besondere an der ANOVA ist nämlich, dass sie ein übergeordneter Test ist. Ihre Effekte sagen uns, DASS da irgendwo innerhalb der Haupt- bzw. Interaktionseffekte systematische Unterschiede zwischen den Gruppen versteckt sind, sie sagen uns aber nicht WO.

Signifikante Haupteffekte bzw. Interaktionen geben uns also die Erlaubnis, dort, wo die Signifikanz aufgetreten ist, genauer nachzuschauen, und zwar mit Hilfe von direkten Vergleichen in Form von T-Tests oder aber über geplante Kontraste – je nachdem, ob du Hypothesen definiert hast und welches Verfahren dir lieber ist.

 

Wichtig dabei zu wissen ist, dass du im Falle einer signifikanten Interaktion weitere signifikante Haupteffekte ignorieren kannst. Das liegt daran, dass eine signifikante Interaktion darauf hindeutet, dass sich der wirklich bedeutsame Effekt nur in manchen Untergruppen abspielt, in anderen aber nicht. Dass könnte z.B. der Fall sein, wenn die Wirkdauer nur bei einem der beiden Schmerzmittel mit höherer Dosis stetig ansteigt, bei dem anderen Medikament aber nicht.

 

Interpretierst du also trotz einer signifikanten Interaktion den Haupteffekt Dosis, weil  sich der Effekt des einen Schmerzmittels in diesem „Gemisch“ beider Schmerzmittel durchsetzt, dann erliegst du fälschlicherweise dem Eindruck, dass eine höhere Dosis immer eine längere Wirkdauer zur Folge hat, egal welches Medikament gegeben wurde. Und das ist natürlich verkehrt und würde zu völlig falschen Therapieempfehlungen führen.

 

In diesen Grafiken wird das noch mal deutlich: 

Abb. 1. Interaktion Schmerzmittel x Dosis: Sie zeigt dir, dass nur Ibuprofen einen Dosiseffekt hat (höhere Dosis = längere Wirkdauer), Paracetamol dagegen nicht (die Wirkdauer ist immer gleich lang, egal wie hoch die Dosis war). Das ist natürlich ein ausgedachtes Extrembeispiel und hat nichts mit der wirklichen Wirkdauer beider Mittel zu tun.

ANOVA für Gruppenvergleiche: Grafik zu Effekt Wirkdauer und Dosis

Abb. 2. Haupteffekt Dosis: Hier siehst du die gleichen Daten noch einmal, allerdings ohne eine Unterteilung nach Medikament. In diesem Fall mittelt sich der Effekt von Ibuprofen in den Haupteffekt, sodass es so aussieht, als ob es einen generellen Effekt der Dosis gibt, ganz egal welches Medikament gegeben wurde. Das ist natürlich falsch.

Das heißt also (ich wiederhole das lieber mehrfach, damit es wirklich hängen bleibt): Im Falle einer signifikanten Interaktion zweier Faktoren, solltest du unbedingt auf die Interpretation signifikanter Haupteffekte verzichten und dich lieber darauf konzentrieren herauszufinden, worin genau die Effekte der Interaktion begründet sind.

 

Das machst du mit Hilfe von so genannten Post-hoc-Tests, falls du keine Hypothesen hast, wo die Unterschiede liegen könnten. Hast du genaue, vorab definierte Annahmen kannst du geplante Kontraste verwenden, die du gleich in einem Rutsch im Rahmen der ANOVA mit testest.

↑ Zurück zur Übersicht

Überprüfung anhand ungepaarter T-Tests

 

Schritt 1:
Um den Anstieg der Wirkdauer des einen aber nicht des anderen Schmerzmittels parallel zur steigenden Dosierung zu überprüfen, könntest du ungepaarte T-Tests zwischen der geringen und der mittleren, sowie der mittleren und der hohen Dosis rechnen – allerdings getrennt nach Medikamenten (hierfür benutzt du am besten Filter).

 

Schritt 2:
Um die Unterschiede zwischen den Medikamenten innerhalb jeder einzelnen Dosierung zu testen, vergleichst du die Wirkdauer von Schmerzmittel A und B separat für jede Dosis (auch hier setzt du Filter für die jeweilige Dosierung).

 

 

Vorteile der ANOVA

 

Nun fragst du dich sicher, warum du denn überhaupt die ANOVA brauchst, wenn du nun trotzdem so viele T-Tests rechnen sollst, wenn ich doch die ganze Zeit behaupte, dass eine ANOVA so effizient und zeitsparend ist.

Da hast du Recht – ich aber auch, denn Zeit spart sie dir tatsächlich!

Wie schon erklärt ist die ANOVA ein übergeordnetes Verfahren, ich nenne sie deshalb auch gerne einen globalen Test oder ein Gatekeeper-Verfahren. Diese Namen habe ich mir ausgedacht, aber ich finde sie sehr treffend.

Die ANOVA sondiert für dich vor, ob und wo genau du nach Unterschieden suchen sollst. Ist die Interaktion nicht signifikant, weil sich vielleicht beide Medikamente entlang der Dosierungen ähnlich verhalten (Haupteffekt Dosierung = signifikant), kannst du sofort damit beginnen, die geringe mit der mittleren, und die mittlere mit der hohen Dosis zu vergleichen – und zwar unabhängig von der Gruppe. So hast du dir mit einem Schlag diverse T-Tests gespart und das Risiko von Zufallsbefunden deutlich gesenkt.

Ähnlich verhält sich auch mit deinem zweiten Faktor Schmerzmittel. Ist die Interaktion nicht signifikant, schaust du, ob sich die Medikamente A vs. B. ganz unabhängig von der gegebenen Dosis voneinander unterscheiden.

Das ist zwar ein etwas gröberer Befund, bringt dir aber trotzdem noch einen großen Informationsgewinn.

Sind weder die Interaktion noch die Haupteffekte signifikant, kannst du direkt zur nächsten Hypothese wechseln und das Thema abhaken. Somit sparst du in den allermeisten Fällen sehr viel Zeit. Ganz zu schweigen, dass deine Gutachter die ANOVA erwarten, weil sie mittlerweile Standard ist.

 

↑ Zurück zur Übersicht

Teil 2: Berechnung der ANOVA für Gruppenvergleiche

 

Nachdem ich dir nun die Grundprinzipien der ANOVA erklärt habe, können wir zur rechnerischen Seite übergehen, denn die ist genauso wichtig (schließlich willst du ja zu was kommen, oder?!).

Hier möchte ich dir vorab schon mal alle Ängste nehmen: Alles was ich dir jetzt erkläre ist auch für dich absolut machbar, denn wir haben dafür gezielt Kursmaterialien entwickelt, die du auf deine Daten easy peasy anwenden kannst. Es geht mir im Folgenden nur darum, dass du die einzelnen Schritte der Analyse verstehst.

Du musst also nichts programmieren, sondern nur anhand unserer Anleitung entscheiden, welche Schritte der ANOVA für dich die richtigen sind.

 

Los geht’s!

Bevor du startest

 

Lade dir zuerst unser kostenloses Flowchart herunter. Dort sind alle Schritte der ANOVA für Gruppenvergleiche aufgeführt. So verlierst du nie den Überblick und weißt immer genau, welches Verfahren du rechnen musst.

Schritt 1 – Vorbereitung

 

Zuallererst bereitest du deine Daten auf, bringst sie in Excel in Form und liest die Daten ein. Das ist garnicht schwer, dafür geben wir dir Vorlagen.

 

Flowchart

ANOVA für Gruppenvergleiche

Schritt 2 – Deskriptive Statistik

 

Es ist immer gut einen Überblick über die eigenen Daten zu bekommen. Daher berechnen wir nun eine deskriptive Statistik für deine Daten und schauen uns erstmal an, wie dein Datensatz so aussieht. Hat er Ausreißer, oder wirkt alles stimmig? Falls ja, überlegen wir, was dahintersteckt. Außerdem erstellen wir erstmal eine Grafik, damit wir grob sehen, wie die Effekte so aussehen.

ANOVA für Gruppenvergleiche: Liniendiagramm

Schritt 3 – Berechnung der ANOVA für Gruppenvergleiche

 

Hier berechnen wir nun die ANOVA an sich und zwar mit dem R-Paket aov (). Keine Panik, das ist nicht schwer, du musst nur unser Skript durchlaufen lassen.

 

Schritt 4 – Prüfen der Annahmen

 

Nachdem wir die ANOVA berechnet haben, prüfen wir nun, ob wir sie überhaupt rechnen durften. Dieses Vorgehen ist zwar falsch herum, aber tatsächlich funktioniert das Prüfen der Annahmen der ANOVA viel besser, wenn man sie schon gerechnet hat. Und wir wollen doch so effizient wie möglich vorgehen, oder?

 

Hier sind folgende Kriterien wichtig:

1. Sind unsere Daten normalverteilt?

Um das zu beurteilen, nutzen wir QQ-Plots und den Shapiro-Wilk-Test (weiteratmen, du schaffst das…)

2. Liegt eine Varianzhomogenität vor?

Das sagt uns der Levene‘s Test, ist er nicht signifikant ist alles gut.

Hier teilt sich nun die Analyse in zwei Ströme auf, die aber vom Prinzip her sehr ähnlich sind.

 

Werden die Annahmen der ANOVA erfüllt oder sind deine Gruppen sehr groß (N > 30 pro Untergruppenkombination), dann dürfen wir einfach normal weitermachen und die Ergebnisse der parametrischen ANOVA aus Schritt 3 interpretieren.

Gibt es in deinem Datensatz ernsthafte Probleme, müsstest du nun eigentlich auf das nicht-parametrische ANOVA-Äquivalent, dem Kruskal-Wallis-Test, ausweichen. Der hat aber leider nicht die Möglichkeit Interaktionen zu testen und das wollen wir doch unbedingt, oder?

Daher haben wir dir ein Skript geschrieben, dass dir erlaubt, die bisherige ANOVA weiterhin zu verwenden, allerdings überführen wir sie nun in eine robuste Form. Das heißt, wir machen sie unempfindlich gegenüber gravierender Annahmeverletzungen (das ist wirklich cool und viel eleganter als eine nicht-parametrische ANOVA!).

Dafür bauen wir in die ANOVA ein sogenanntes Bootstrapping-Verfahren ein, dass mit Hilfe von 2000 Stichproben mit Zurücklegen eine robuste Test-Statistik errechnet, aus der dann wiederum ein robuster p-Wert und eine robuste Effektstärke abgeleitet wird (robust kommt dir an dieser Stelle wahrscheinlich schon zu den Ohren raus).

Was du dir hier nur merken musst ist, dass du weiterhin eine relativ normaldesignte ANOVA rechnen kannst, die wir aber unempfindlich auf mögliche Annahmeverletzungen gemacht haben.

Einen Code zu schreiben, der das kann und den du total einfach an deine Studie anpassen kannst, hat meinen R-Spezialisten Simon ziemlich viel Zeit und Nerven gekostet, aber ich finde es hat sich gelohnt!

↑ Zurück zur Übersicht

Schritt 5 – Effekte untersuchen

 

Egal welche ANOVA du gerechnet hast, die Ergebnisse liegen vor. Nun kannst du anhand der Signifikanzen entscheiden, welchen Effekt du weiter untersuchen möchtest: eine oder beide Haupteffekte, oder vielleicht sogar die Interaktion? Die Antwort findest du im ersten Teil des Artikels.

Egal was es ist, wir haben das passende Skript dafür geschrieben.

Hast du vorher eine parametrische ANOVA (also die ganz normale) gerechnet, machst du nun mit den T-Tests weiter, um deine Effekte auszudifferenzieren. Natürlich zeigen wir dir genau, wie und ob du hier für multiples Testen korrigieren musst.

Hast du dich vorab für eine robuste ANOVA entschieden, machst du mit YUEN-Tests weiter, die ebenfalls robust sind und für multiples Testen korrigiert wurden.

Natürlich zeigen wir die auch, wie du für jeden Test auch entsprechende Effektstärken berechnest, denn die brauchst du, um zusätzlich zur Signifikanz beurteilen zu können, wie bedeutsam der Effekt ist. Und da du ggf. sogar publizieren möchtest, berechnen wir die Konfidenzintervalle für jede Effektstärke gleich mit, sicher ist sicher, man weiß nie, wer die mal haben will.

 

Schritt 6Geplante Kontraste

 

Hattest du vorab feste Hypothesen definiert dann zeigen wir dir eine sehr elegante Alternative – geplante Kontraste. Hier kannst du anhand von uns vordefinierten Vergleichen in einem Schritt mehrere Vergleiche auf einmal rechnen. So umgehst du die Korrektur für multiple Vergleiche und erhöhst die Chance signifikante Ergebnisse zu bekommen.

 

Schritt 7 – Grafik erstellen

 

Keine Statistik ohne schicke Grafik. Mit Hilfe unseres letzten Skripts kannst du dir ratz fatz eine wunderschöne Grafik deiner Effekte basteln. Wir haben dabei extra darauf geachtet, dass du sie sowohl für deine Dissertation als auch für eine mögliche Publikation verwenden kannst. 

 

Schritt 8 – Methoden- & Ergebnisteil

 

Das wäre es rechnerisch, aber natürlich musst du deine Effekte auch noch klinisch interpretieren und in dein Manuskript eintragen.

Dafür haben wir dir sowohl für den Methoden- als auch für den Ergebnisteil Textbausteine erstellt, die du einfach an deine Effekte anpassen kannst (natürlich auf Deutsch und Englisch, falls du publizieren möchtest).

 

Hast du alle Schritte durchlaufen, bist du wahrscheinlich stolz wie Bolle.

Wir sind es auf alle Fälle.

↑ Zurück zur Übersicht

Einführung in R für Ärzte

Einführung in R für Ärzte

In diesem Artikel gibt R-Fachmann Simon Wilms eine Einführung in R für Ärzte und zeigt, wie der Einstieg in das Statistiktool einfach und effizient gelingt.

 

Ich bin Simon und arbeite seit 2018 als R-Spezialist in Magdalenes Team. Ich liebe R und werte meine Daten jetzt schon viele Jahre mit nichts anderem aus. R ist mein Ding!

 

Wenn ich eines sicher weiß, dann, dass in R wirklich jede Analyse machbar ist.

Heute arbeite ich unheimlich effizient mit R und kann zum Beispiel publikationsreife Grafiken in Minutenschnelle erstellen. Früher habe ich das in SPSS gemacht und das Ergebnis konnte sich sehen lassen – allerdings hat es ewig gedauert!

Das war aber nicht immer so. Die einzelnen Analysen konnte ich mir schon zu Beginn ganz gut selbst beibringen, aber mir fehlten die Grundlagen. Ohne Grundlagen stolpert man sich in R sehr, sehr langsam vorwärts und hört schnell wieder auf (fragt Magdalene, die konnte vor unserem Kurs ein Lied davon singen). In vielen, vielen einsamen Stunden habe ich mir die Grundlagen zusammengegoogelt, Bücher gelesen, verschiedene Pakete ausprobiert, bis ich endlich den effektivsten Weg für meine Datenanalyse gefunden hatte. Das war eine Offenbarung.

R ist eigentlich gar nicht kompliziert

Man muss einfach nur verstehen, wie es geht! Da ich anderen ebenfalls einen einfachen Einstieg in R ermöglichen möchte, gebe ich mittlerweile R-Kurse für Wissenschaftler und Doktoranden und zeige ihnen, wie sie die Datenanalyse in R am schnellsten erlernen können.

Um auch dich von R zu überzeugen, möchte ich dir in diesem Artikel einfach mal eine kleine Einführung in R geben (und dich missionieren, ist ja klar).

Im Grunde ist R nichts anderes als ein Taschenrechner. Ok, es ist ein recht komplexer Taschenrechner, aber man kann damit ganz normal rechnen:

oder

Weiterhin kann man auch sogenannte „logische Vergleiche“ anwenden, zum Beispiel: „Ist die Zahl 5 größer als die Zahl 3?“


Ja, das stimmt (R sagt „TRUE“). Wir können auch fragen: „Ist 5 das Gleiche wie 3?“

Nö. Die Rechnerei kann ich problemlos mit den logischen Vergleichen kombinieren: „Ist die Summe aus 3 und 2 größer als das Produkt von 2 und 2?“


Ja.

Arbeiten mit Datensätzen – Die Basics

Zugegeben, um es bloß als Taschenrechner zu nutzen, brauchst du R nicht zu lernen, aber solche auf den ersten Blick sinnlosen Basics werden später relevant, zum Beispiel beim Filtern von Daten. Ich habe hier mal einen Beispieldatensatz mitgebracht: In diesem wurde der Einfluss des Geschlechts (m = männlich, w = weiblich), dreier Medikamente (A, B, C) und des Cholesterinspiegels auf das Risiko, einen Herzinfarkt zu bekommen (hoch, niedrig), untersucht.

 

Einzelne Variablen in Datensätzen (hier Cholesterol) werden in R mit dem $-Zeichen angesprochen:

 

 

Da sind sie, unsere ganzen Cholesterolwerte. Mit eckigen Klammern kann ich Variablen (oder auch ganze Datensätze) filtern.
Und hier kommen schon die logischen Vergleiche ins Spiel. So wählst du alle Cholesterolwerte aus, die größer sind als 5:

 

Siehst du? Ein Befehl und alles ist erledigt!

Dabei muss R immer wissen, woher die Variablen, auf die ich mich beziehe, kommen (nämlich aus dem Datensatz data). Deshalb schreibe ich auch immer ein data$ davor. Das mag auf den ersten Blick anstrengend wirken, macht das Ganze aber auch super flexibel, denn so kann ich mich in einem Befehl auf mehrere verschiedene Datensätze beziehen.

 

 

Daten flexibel filtern

Aber zurück zum Datenfiltern: Die Filterbedingung kann ich beliebig komplex gestalten.
Jetzt möchte ich alle Werte über 5 herausfiltern, aber nur, wenn die teilnehmende Person weiblich ist:

 

 

Mehrere Filterbedingungen kann ich also mit dem Und-Zeichen (&) verknüpfen. Das Oder-Zeichen ist übrigens |. Hat man sich solche Kniffe einmal gemerkt, wird man zunehmend schneller als beim Klicken durch ein Programm, wie das in anderen Auswertungsprogrammen der Fall ist.

 

 

Der pipe operator

Jetzt möchte ich dir gerne noch den pipe operator %>% vorstellen. Was das sein soll? Es ist eines meiner Lieblingssymbole in R. Der pipe operator bedeutet dabei so viel wie „nimm, was davorsteht, und mache damit, was danach steht“. Hier ein Beispiel aus der deskriptiven Statistik:

 

 

Also: Nimm was davor steht (den Datensatz data) und mache damit, was danach steht (nämlich: Wende den Befehl get_summary_stats an). Im Befehl get_summary_stats steht dann noch die Variable, für die ich mich interessiere (cholesterol). Mit type = mean_sd“) teile ich R mit, dass ich nur den Mittelwert und die Standardabweichung haben möchte.

So weit, so gut. Aber was, wenn ich ebendiese deskriptive Statistik nur für die Frauen haben möchte?

 

 

Antwort: Mehr pipe operators!

In diesem Fall sage ich R also „Nimm die Daten und wende den Befehl filter an. Innerhalb von filter soll die Bedingung geschlecht == „w“) gelten. Dann nimm die gefilterten (!) Daten und wende, wie gerade eben auch, get_summary_stats an. Klingt logisch, oder?

Ich kann sogar noch mehr Befehle dazwischenschalten. Bevor ich mit den gefilterten Daten irgendetwas mit get_summary_stats berechne, kann ich sie mit group_by noch gruppieren, zum Beispiel nach Medikament (A, B, C):

 

 

Und weil das noch nicht genug ist, erlaubt mir group_by sogar, mehrere Gruppierungsvariablen einzusetzen. Hier gruppiere ich nach Medikament und Geschlecht, bevor ich den Mittelwert und die Standardabweichung berechne:

 

 

Wenn man es so Schritt für Schritt aufschreibt, werden die komplexesten Befehle auf einmal kinderleicht.

Wichtig ist nur, dass man diese Grundlagen einmal richtig lernt. Als ich das erste Mal das komische Symbol %>% gesehen habe, habe ich nur Spanisch verstanden. Außerdem gibt es in R Tausende Befehle, sodass meistens viele Wege nach Rom führen.

Für jede noch so schwierige Analyse gibt es mittlerweile ein Paket und für Standardanalysen gibt es zig Pakete.
Dadurch kann es schwierig sein, allein den Einstieg in R zu finden.

Daher habe ich in Zusammenarbeit mit Magdalene einen Grundlagenkurs für die Analyse deiner medizinischen Studiendaten in R entwickelt. Ich habe dabei all jene Pakete und Befehle ausgewählt, mit denen ich die besten Erfahrungen gemacht habe, und zeige dir Schritt für Schritt, wie R funktioniert.

 

Du siehst: R ist ein fantastisches Tool. Wofür ich am Anfang noch Stunden gebraucht habe,

erledige ich heute in Minuten. Und du schaffst das auch!

R-Basics – Der Grundlagenkurs

 

In dem Kurs geht es zunächst um grundlegende Dinge. Wie strukturiere ich meine Daten? Wie filtere ich Daten und erstelle Teildatensätze? Wie erstelle ich neue Variablen? Wie gehe ich mit fehlenden Werten um? Das sind alles Dinge, die möglicherweise in anderen Statistikprogrammen schneller von der Hand gehen, denn dort musst du anstelle eines Codes nur irgendwo draufklicken.

Wer aber einmal die Arbeit auf sich nimmt und wirklich versteht, wie R funktioniert und das bloße Datenmanagement beherrscht, der wird in Zukunft viel Zeit und Geld sparen (denn: R ist kostenlos!).

Den größten Vorteil bietet R aber immer dann, wenn man einzelne Veränderungen im Ausgangsdatensatz vornehmen muss. Während man in diesem Fall in SPSS die komplette Analyse wiederholen muss (Klick, Klick, Klick, Klick – ich will ja nicht lästern …), kannst du in R dein Skript einfach neu starten und schon hast du alle Änderungen eingearbeitet.

 

Ich behaupte: Wenn zwei Personen R bzw. SPSS lernen, dann ist die Person mit SPSS in den ersten Wochen schneller. Nach einer gewissen Übungszeit kann die Person, die R gelernt hat, die Auswertungen aber deutlich effizienter durchführen und wunderschöne Grafiken fünfmal so schnell erstellen. Es zahlt sich also aus!

 

Damit du also einen maximalen Vorteil hast, haben Magdalene und ich diesen ersten R-Kurs so konzipiert, dass du nicht nur lernst, wie R funktioniert, sondern am Ende die komplette Vorverarbeitung deines Datensatzes abgeschlossen, eine perfekte deskriptive Analyse deiner Daten erstellt und die ersten leichten Tests gerechnet hast. Dieser Kurs lohnt sich also in jeder Hinsicht.

In dem R-Onlinekurs begleiten wir Dich von Anfang an, beginnend mit der Installation von R und R Studio. Im folgenden Video zeigen wie dir, wie du in R starten kannst.

Wenn du mehr über unseren Kurs erfahren willst,

dann schau doch einfach mal vorbei!

Wie du die ewige Liebe mit der Bland-Altman-Methode findest

Wie du die ewige Liebe mit der Bland-Altman-Methode findest

Wer sucht sie nicht – die ewige Liebe. Egal, welcher Altersgruppe, Herkunft oder Bildungsschicht wir angehören, jeder Mensch sehnt sich nach Zugehörigkeit, Liebe und Geborgenheit.

Je jünger wir sind, desto mehr wird dieses Gefühl von dem Drang nach Abenteuer und Aufregung überlagert, aber….

 

—– SPOILERALARM ——

 

….in den allermeisten Fällen führen schwierige Beziehungen mit Partnern, die sich an der Grenze zur Persönlichkeitsstörung bewegen, nicht zum langfristig gewünschten Ergebnis.

 

Spätestens in den frühen Dreißigern hat es aber jeder kapiert: Eine stabile Liebe finden wir bei einem Menschen, dem wir vertrauen können, weil er uns so annimmt, wie wir sind. Bei jemandem, der uns nicht wahnsinnig macht, weil er immer wieder über unsere persönlichen Grenzen hinweg trampelt.

Dauerhafte, tiefe Liebe, so erklärte es mir mal ein Freund kurz vor seiner Hochzeit,  findet man beim besten Freund – zumindest wenn man ihn zufällig auch noch äußerst attraktiv findet.

 

Die große Liebe basiert also in letzten Konsequenz auf Übereinstimmung.

 

Und die ist messbar.

 

Vergleich 3er verschiedener exponentieller Wachstumskurven des Coronavirus.

 

Zum einen bietet sich da natürlich das eigene Gefühl an. Als ich meinen Mann vor fast 10 Jahren auf einer WG-Party kennenlernte, war die Sache für mich innerhalb von wenigen Minuten klar:

 

Er war nicht nur sehr attraktiv und sehr klug, sondern gab mir zum ersten Mal in meinem Leben das Gefühl, dass ich nicht zu irgendwas war. Zu nerdig, zu ambitioniert, zu fokussiert. Wir waren uns einfach total ähnlich.

 

Hätte ich aber auf Nummer sicher gehen wollen, hätte ich unser Beziehungspotential auch mathematisch berechnen können. 1986 publizierten Martin Bland und Douglas Altman, zwei Epidemiologen aus Großbritannien, eine ebenso einfache wie auch geniale Methode, um Übereinstimmung zu messen.

 

(Foto: Bland & Altmann, 1981)

 

Ihnen begegnete in klinischen Publikationen nämlich immer wieder der gleiche Fehler:

 

Übereinstimmung, insbesondere zweier klinischer Messverfahren, wurde entweder anhand einfacher Korrelationstests überprüft (Heißt: Die Messwerte beider Methoden korrelieren positiv, also messen beide Methoden das Gleiche), oder anhand der fehlenden Signifikanz gerechneter T-Tests (Heißt: da es keinen signifikanten Unterschied zwischen den Werten beider Messverfahren gibt, müssen die Verfahren wohl gut übereinstimmen).

 

Während die Verwendung von Korrelationstests nur leicht falsch ist, war die Verwendung von T-Tests total daneben. Dies beruht auf den statistischen Grundlagen des Tests:

 

Eine Korrelation tritt nämlich auch dann auf, wenn beide Messreihen und die ihnen zugrunde liegenden Methoden eine intensive Beziehung zueinander haben. Das − und da verweise ich kurz auf all die missglückten Beziehungen, bevor ich meinen Mann traf −  ist aber nicht das Gleiche wie eine hohe Übereinstimmung.

 

 

Bei T-Tests ist es noch schlimmer: Eine fehlende Signifikanz kann durch sehr viele verschiedene Faktoren herbeigeführt werden, allen voran durch eine kleine Stichprobe. Indem ich also möglichst wenige Messungen miteinander vergleiche, erhöhe ich die Wahrscheinlichkeit, keinen signifikanten Unterschied zwischen den zwei Messverfahren zu erhalten. Wer da nicht auf falsche Gedanken kommt …

 

Was haben also Bland und Altman gemacht?

 

Sie haben sich überlegt, dass die Übereinstimmung zweier klinischer Messverfahren wahrscheinlich dann am größten ist, wenn der Unterschied zwischen den beiden am kleinsten ist.

 

Dieser Gedanke war so neu und gleichzeitig so revolutionär einfach, dass die dazugehörige Publikation (Bland and Altman, 1986) bis zum heutigen Tag 45.562 mal zitiert wurde.

 

Durch die neu entwickelte Bland-Altman-Methode hatten Mediziner nun ein einfaches Instrument, mit dessen Hilfe sie bestimmen konnten, ob ein neues Messverfahren ein altes, aufwendigeres ersetzen konnte.

 

Und wie funktioniert das Verfahren genau?

 

Ganz einfach:

 

  • Zuerst misst man bei möglichst vielen Patienten den Zielparameter einmal mit Methode A und gleich danach noch einmal mit Methode B.
  • Danach bildet man für jeden Patienten sowohl den Durchschnitt (MW) als auch die Differenz aus beiden Messpunkten (Diff = xMethode A – xMethode B). 
  • Der Durchschnitt beider Messungen ist dabei ein Indikator für den wahren Wert des zu messenden Parameters. Da kein Messverfahren der Welt den wahren Wert genau darstellen kann (es sei denn, wir befinden uns im Bereich der Kalibrierung), können wir uns dem wahren Wert immer nur annähern – und in diesem Fall wird dies über den Mittelwert beider Messverfahren versucht.

Im nächsten Schritt wird für die Gesamtheit der ermittelten Differenzen beider Messverfahren sowohl der Gruppenmittelwert () als auch die Standardabweichung (s) berechnet. Wir haben nun also einen Wert für die mittlere Abweichung und einen für die mittlere Streuung der Differenzen.

 

Und nun wird das Ganze im Bland-Altman-Plot visualisiert:

 

(aus: Giavarina, 2015) 

Hierfür wird eine Grafik mit 4 Teilen gebaut:

 

  • Auf der x-Achse wird der Mittelwert der jeweiligen Paare beider Methoden dargestellt, auf der y-Achse deren Differenzen. 
  • Eine gestrichelte horizontale 0-Linie zeigt die Linie der perfekten Übereinstimmung an, da hier die Differenz = 0 wäre. 
  • Auf einer zweiten horizontalen Linie wird der Mittelwert der Differenzen (Bias oder ) eingezeichnet. 
  • Oben und unten werden horizontale Linien für die Limits of Agreement (LOAs), definiert über ± 1,96s der Differenzen, wie oben berechnet, geplottet. 
  • Und zum Schluss wird für jeden der berechneten Parameter das jeweilige 95 %-Konfidenzintervall schraffiert (grau hinterlegte Flächen).

 

In dieses Gerüst werden nun für jeden Patienten der Durchschnitt (x-Achse) und die Differenz beider Messungen als Punkte eingetragen und fertig ist der Bland-Altman-Plot.

 

 

Interpretation des Bland-Altman-Plots

 

 1. Abstand der Linie der mittleren Differenz () zur 0-Linie:

 

Der Abstand beider Linien sollte möglichst gering sein. Je kleiner der Abstand, desto stärker stimmen die Methoden im Mittel überein. Den Unterschied zwischen beiden Linien nennt man Bias. Er ist ein Indikator dafür, ob die neue Methode das zu messende Konstrukt im Vergleich zur Standardmethoden über- oder unterschätzt (je nachdem, ob die Differenz ein positives oder negatives Vorzeichen hat).

 

2. Abstand der LOAs zur Linie der mittleren Differenz:

 

Die LOAs werden anhand der Streuung der Differenzen berechnet und enthalten aufgrund ihrer festgelegten Breite von ± 1,96 Standardabweichungen (s) 95 % aller berechneten Differenzen – zumindest dann, wenn die Differenzen normalverteilt sind, was aber fast immer der Fall ist.

 

Heißt das also, dass die Methoden übereinstimmen, wenn 95 % der Punkte innerhalb der LOAs liegen?

  

Nein, eben nicht.

 

Der Position der LOAs auf der y-Achse überdeckt per Definition 95 % aller Punkte, da die Breite mit ± 1,96 s entsprechend ausgewählt wurde.

 

Anhand der Limits of Agreement kann man also nicht nachweisen, DASS beide Messverfahren übereinstimmen, sondern nur, wie stark die Streuung der Differenzen ist.

 

Ob das nun klinisch viel oder wenig ist und somit die Übereinstimmung klein oder groß ist, muss anhand vorab festgelegter Grenzwerte bestimmt werden.

 

Eine Frage, die sich also alle Forschenden VOR Beginn der Studie stellen sollten, ist, wie groß die mittlere Abweichung vom Mittelwert der Differenzen sein darf, um auch mit der neuen Methode noch gute Ergebnisse erzielen zu können.

 

Liegen die LOAs also innerhalb der a priori festgelegten klinisch sinnvollen Grenzwerte, dann stimmen die Methoden ausreichend stark überein.

 

3. Die 95 %-Konfidenzintervalle:

 

Da wir in jeder Studie nur eine begrenzte Stichprobe untersuchen, wird in jedem guten Bland-Altman-Plot sowohl für die mittlere Differenz als auch für beide LOAs ein 95 %-Konfidenzintervall eingezeichnet.

 

Diese Intervalle sind sehr nützlich, weil sie uns einen weiteren Indikator dafür liefern, wie sehr sich die Ergebnisse der Studie auf die Gesamtbevölkerung übertragen lassen.

 

Das Konfidenzintervall überdeckt den „wahren“ Wert innerhalb der Gesamtbevölkerung mit einer Wahrscheinlichkeit von 95 %. Je schmaler also das 95 %-KI, desto repräsentativer ist unsere Stichprobe und desto mehr dürfen wir unseren Ergebnissen trauen.

 

Zusammenfassung:

 

Die Bland-Altmann-Methode erlaubt eine Beurteilung darüber, mit welcher Übereinstimmung zwei Messmethoden denselben klinischen Parameter messen.

 

Sie basiert nicht auf einem Signifikanztest, sondern erfordert eine kritische Einschätzung der Ergebnisse und ein gewissenhaftes Vorgehen, bei dem die Grenze der Übereinstimmung zwischen beiden Methoden schon vor Beginn der Studie anhand klinischer Parameter festgelegt werden muss.

 

Damit die Methode bestmöglich funktioniert, müssen einige Vorbedingungen erfüllt sein:

 

  1. Die einzelnen Messpaare sollten unabhängig voneinander sein. Das bedeutet, dass jeder Proband nur einmal an der Studie teilgenommen haben sollte und nicht mehrfach.
  1. Die Differenzen sollten zufällig und nicht systematisch variieren. Das heißt, die Werte auf der y-Achse sollten nicht parallel zu steigenden Werten auf der x-Achse größer oder kleiner werden.
  1. Die Differenzen beider Messverfahren sollten über die Patienten hinweg normalverteilt sein. Das sind sie aber zum Glück meistens.

 

Hältst du bei der Planung deiner Studie diese Vorbedingungen ein, ist ein sehr gutes Ergebnis wahrscheinlich.

 

Was bleibt:

 

Nachdem mein Mann (ein Wirtschaftsinformatiker) am Ende der WG-Party zu dem Schluss kam, dass es durchaus eine gute Idee wäre, mich auch über diesen ersten Abend hinaus besser kennenzulernen, telefonierten wir während der nächsten Wochen jeden Abend mindestens eine Stunde miteinander und redeten und redeten und redeten.

 

Da wir beide keine Fans großer Gefühlsbekundungen sind, war es mein größtes Glück, als er mir ein paar Monate später anstelle seiner Liebe mit großem Ernst erklärte:

 

„Leni, du bist der Mensch, der mir von allen auf der Welt am wenigsten auf die Nerven geht.“

 

Ab diesem Moment, in dem wir all unsere Differenzen quantifiziert und sie für ausreichend klein befunden hatten, war uns beiden klar, dass wir die große Liebe gefunden hatten.

 

 

 

Literatur:

Bland, J.M., Altman, D.G., 1986. Statistical Methods for assessing Agreement between two methods of clinical measurement. Lancet 1, 307–310.

Giavarina, D., 2015. Understanding Bland Altman analysis. Lessons Biostat. Underst. 25, 141–151.

 

Lade dir hier unsere kostenlose Formelsammlung

zum Bland-Altmann-Plot herunter!

Woran erkennt man eine gute Statistik-Beratung?

Woran erkennt man eine gute Statistik-Beratung?

Statistik ist für viele Mediziner ein Buch mit 7-Siegeln. Total verständlich – denn sie findet innerhalb des Medizinstudiums kaum statt.

 

Sobald aber die empirische Doktorarbeit ansteht, haben Ärzte ein Problem, denn Statistik ist ein wichtiger Teil der medizinischen Dissertation, den man nicht umgehen kann.

 

Gerade für arbeitende Ärzte, die wenig Zeit haben, ist die Sache daher schnell klar: Ich hole mir Hilfe! Aber wie findet man einen guten Statistikberater?

 

In diesem Artikel erkläre ich dir, woran du eine qualitativ hochwertige Statistik-Beratung erkennst, und wie du bei deiner Suche am besten vorgehst.

 

 

 

Gute Beratung bekommst du vom Spezialisten

 

Das Allerwichtigste zuerst. Als Arzt hast du ziemlich spezielle Fragestellungen, die sich sehr von denen anderer Fächer unterscheiden. Daher hat sich innerhalb der Statistik ein Bereich entwickelt, der sich mit genau diesen fachspezifischen Problemen beschäftigt: Die Medizinstatistik oder auch Biostatistik, genannt.

 

Natürlich machen auch Ärzte einfache Gruppenvergleiche oder Zusammenhangsanalysen, sehr oft aber haben sie spezielle Fragen wie z.B.: Überleben Krebspatienten mit Chemotherapie länger als solche mit Bestrahlung? Oder: Gibt es Cut-Off-Werte in bestimmten Blutparametern, die mir das spätere Auftreten von Alzheimer vorhersagen?

 

Oftmals verstecken sich in den erhobenen Patientengruppen Störvariablen, die deine ganze Untersuchung ruinieren können, wenn du sie nicht zwischen den Gruppen angleichst. Wie man das macht wissen viele Statistikberater nicht, da Sie sich hauptsächlich mit anderen Fächern wie z.B. den Sozialwissenschaften oder der Politologie beschäftigen.

 

Es ist daher immer ratsam, sich von Anfang an einen Berater zu suchen, der sich auf Statistik für Mediziner spezialisiert hat.

 

 

Du promovierst?

 

Dann brauchst du einen Berater, der wissenschaftlich gearbeitet hat

 

Eine Dissertation ist eine wissenschaftliche Arbeit. Natürlich suchst du eigentlich einen Statistik-Berater, der dir möglichst effizient bei der Datenanalyse hilft. Das Problem ist aber, dass die Statistik kein isolierter Teil deiner Dissertation ist. Sie ist eher das Herz deiner Doktorarbeit (ganz bildlich gesprochen). Hier laufen alle Fäden deiner Forschungsfrage zusammen, werden innerhalb der Datenanalyse in Ergebnisse transformiert, und bilden dann die Grundlage deiner Diskussion.

 

Ein guter Statistikberater sollte also viel Erfahrung darin haben, deine spezifischen Forschungsfragen zu verstehen (oftmals muss er sie sogar mit dir zusammen entwickeln), und sie bei Bedarf in sinnvolle Hypothesen und Analysen übersetzen können, um die Ergebnisse im Anschluss in dein Manuskript zu integrieren.

 

Das klappt nur, wenn dein Berater schon viele eigene Manuskripte erstellt und – ganz wichtig- veröffentlicht hat.

 

Nur dann hat er immer wieder hartes, wissenschaftliches Feedback erhalten und gelernt, wie wissenschaftliches Arbeiten und Veröffentlichen funktioniert.

 

Berater, die bisher wenig wissenschaftlich gearbeitet haben können das nicht, weil sie die Analyse als isolierte Einheit betrachten. Ihnen übermittelst du während der Beratung ein festes Set an Variablen, mit denen sie rechnen sollen, und dazu eine zu testende Hypothese, das war‘s.

 

Im Gegenzug bekommst du eine Ausgabedatei oder eine kurze Dokumentation mit statischen Kennwerten und dann ist die Beratung beendet. Was du mit den Ergebnissen machst, ist dann deine Sache. Und eins kann ich dir sagen: Ab dem Level der Promotion lautet die Antwort: nicht viel.

 

Ich kann dir daher nur empfehlen gezielt nach Beratern zu suchen, die dir anhand ihrer Publikationsliste nachweisen können, dass Sie als Wissenschaftler gearbeitet und publiziert haben. Diese Statistikberater werden dir dabei helfen können Statistik und Manuskript zu verbinden.

 

 

 

Dein Statistikberater muss sich mit Medizin auskennen

 

Wenn ich meine Klienten frage, warum sie mit mir zusammen arbeiten, kommt eigentlich fast immer die gleiche Antwort: Weil ich Ihre Thematik verstehe.

 

Es gibt zwar den Mythos von der easy-peasy, auf einer Pobacke abzusitzenden Medizinerdissertation, die man quasi im Vorbeigehen beraten kann, aber meiner Erfahrung nach ist dem nicht so.

 

Medizinische Dissertationen untersuchen – nun ja – medizinische Fragestellungen. Und die physiologischen Prozesse unseres Körpers sind sehr komplex. Das Gleiche gilt für Behandlungsmethoden und – abläufe. Man muss sie wirklich verstehen, um sinnvolle statistische Analysen durchführen zu können.

 

Zusätzlich sollte ein guter Statistikberater auch viel Erfahrungen mit Patientendatensätzen mitbringen, da deren Qualität sich deutlich von denen der experimentellen Forschung unterscheidet.

 

Wenn dir also jemand erzählt, es wäre sehr einfach medizinische Datensätze auszuwerten, dann bist du definitiv bei der falschen Beratung gelandet.

 

 

 

Du hast keine gute akademische Betreuung? Such dir einen promovierten Berater

 

Jetzt kommen wir zu einem sehr speziellen Problem, das glücklicherweise nicht jeden Promovierenden betrifft, aber dennoch sehr häufig bei Medizinern zu finden ist: Dein Promotionsbetreuer ist nicht ausreichend für dich da.

 

Auf den ersten Blick ist das kein offensichtliches, mit Statistikberatung zusammenhängendes Problem, allerdings entwickeln sich daraus meist grundlegende Probleme, die über den Erfolg einer medizinische Promotion entscheiden können, und die ein promovierter Statistikberater, der selber ausreichend lange im Wissenschaftsbetrieb gearbeitet hat, gut adressieren kann.

 

Viele meiner Kunden kommen zu mir, weil sie mit Ihrer Dissertation ziemlich allein dastehen. Oft interessieren sich Ihre Betreuer nicht für Ihre Doktorarbeit, oder es fehlt schlicht weg die fachliche Kompetenz, um den Doktoranden wirklich helfen zu können.

 

Meine Aufgabe als Statistikberater ist es dann, mich in die Lage des Betreuers (nicht des Doktoranden!) hineinzuversetzen, und zusammen mit dem Doktoranden eine mehr oder weniger „fertige“ Dissertation zu erstellen, die bis auf Kleinigkeiten abgesegnet werden kann und möglichst wenig Engagement vom Betreuer erfordert.

 

Dabei geht es nicht um Ghostwriting, sondern um akademische Erfahrung, die man bekommt, wenn man selber jahrelang Doktoranden betreut und Forschung betrieben hat.

 

Ein unerfahrener Statistikberater, der nicht promoviert ist, kann in diesen Situationen nicht weiterhelfen. Im besten Falle hat man nach der Statistikberatung die Ergebnisse der Datenanalyse, aber vom Abgeben der Dissertation ist man noch sehr weit entfernt.

 

Traue niemals einer 24/7- Hotline

 

Wenn du auf Facebook, Instagram oder Google unterwegs bist, ist es ziemlich sicher, dass du schon mal die Werbung großer Beratungen gesehen hast. Berufsbedingt sehe ich die ständig, denn Facebook weiß ja, womit ich mich beschäftige.

 

Es gibt sehr große Firmen, die sich auf Statistikberatung spezialisiert haben und mit 24h-Hotlines werben, professionelle Jingles in der Warteschleife abspielen und sehr kompetent wirken.

 

Ich kenne diese Beratungen sehr gut und bin mir sicher, dass es auch dort unter Umständen möglich ist, gute Statistikberatung zu bekommen. Was ich aber auch ganz sicher weiß, ist, dass in diesen Firmen ein Gleichgewicht zwischen Gewinnspanne der Firma, Beraterhonorar und Werbekosten gefunden werden muss.

 

Werbung ist extrem teuer, für Google und Facebook ist das Schalten von Werbeanzeigen eine Gelddruckmaschine. Wer wirbt muss ein hohes Werbebudget einplanen, gerade dann wenn Werbung die einzige Akquisemethode ist und die Skalierung des Umsatzes davon abhängt.

 

Rechnet man den eingeplanten Gewinn des Unternehmens und die Gehälter der Mitarbeiter mit ein, wird schnell klar, dass es nur zwei Stellschrauben gibt, an denen man drehen kann, um die Firma am Laufen zu halten: Die Preise für die Statistikberatung – und die Honorar der vermittelten Statistikberater.

 

Während die eine Seite maximiert wird, wird die andere minimiert. Doch wer arbeitet für ein geringes Honorar? In den allermeisten Fällen sind das Studenten oder Berater mit wenig Erfahrung. Wenn du dir also einen erfahrenen Berater wünschst, such dir besser eine kleine, schon länger bestehende Statistikberatung, bei der du von Beginn an weißt, mit wem du zusammen arbeiten wirst.

 

Finanziell wird es auf einen gleichhohen oder sehr wahrscheinlich sogar geringeren Preis hinauslaufen. Aber hier bezahlst du für Qualität, eine Rund-um-Betreuung und fachliche Expertise, anstelle für Werbung, Gewinnmaximierung und Overhead.

 

Ganz wichtig: Die durchwachsende Qualität der Statistikberater der großen Beratungen kann man auch daran abschätzen, wieviele Berater in diesen Firmen arbeiten. Ich habe selber ein kleines Team aus Co-Beratern, von deren Kompetenz ich absolut überzeugt bin. Meine Berater sind alle promoviert, spezialisiert auf Medizinstatistik, haben etliche nationale und internationale Publikationen veröffentlicht und schon viele klinische Studien und medizinische Doktorarbeiten betreut.

 

Aber um diese Berater zu finden, habe ich mich wirklich auf den Kopf stellen müssen.

 

50 oder mehr von ähnlich hochqualifizierten Beratern finden zu können, halte ich somit für relativ unwahrscheinlich.

 

 

 

So findest du gute Statistikberater im Netz

 

Jetzt wo du weißt, warum es nicht gut ist, Beratungen auszuwählen, die dich mit Werbung bombardieren, stellt sich natürlich die Frage, wie du die guten Statistikberatungen denn dann findest?!

 

Ganz einfach: Benutze Google, aber mit Strategie.

 

Eine gute Freundin und Unternehmensberaterin meinte mal zu mir, dass man bei Google auf Seite 3 glatt einen Mord begehen könnte und keiner würde es merken. Das stimmt, kann aber auch für den Suchenden von Vorteil sein.

 

Kleine, hochspezialisierte Beratungen investieren mit hoher Wahrscheinlichkeit sehr viel Zeit in die Qualität Ihrer Beratung und in ihre eigene fachliche Weiterbildung. Bedeutend weniger Zeit und Geld investieren Sie in Werbung und SEO-Optimierung, da sie nicht darauf angewiesen sind Millionenumsätze zu machen um ein großes Team an festen Mitarbeitern und eine große Gewinnspanne zu erwirtschaften.

 

Gute Statistikberater werden außerdem über Mund-zu-Mund-Propaganda weiter empfohlen und müssen daher deutlich weniger Geld für eine gute Platzierung auf Google bezahlen.

 

Daher ist es sehr wahrscheinlich, dass qualitativ hochwertige Beratungen nicht auf Seite 1, und oft auch nicht auf Seite 2 bei Google zu finden sind.

 

Es lohnt sich also immer, diese ersten Seiten hinter sich zu lassen und mal auf Seite 3 -5 zu schauen.

 

Außerdem ist es deutlich effektiver, nach komplexen Begriffen zu googlen. Anstatt „Statistikberatung“ kommt man schneller mit „Statistik für Mediziner“, „Statistik für Ärzte“, oder „Statistikberatung Medizin“ ans Ziel.

 

Warum ist das so?

 

Die großen Statistikberatungen bedienen alle Fächer. Dort gibt es (aus den vorher genannten Gründen) keine spezialisierten Berater. Daher wird auch sehr viel Werbebudget für allgemeine Schlagwörter verwendet, die deutlich teurer sind.

 

Da kleine Beratungen oftmals hochwertigen Content auf Ihren Seiten veröffentlichen, rankt Google kleine Firmen in deren Nischengebieten deutlich höher als bei den allgemeinen Suchbegriffen.

 

Googelst du also möglichst genau, wirst du gute Statistikberatungen finden, die auf dein Fach spezialisiert sind.

 

 

 

Um das noch mal zusammenzufassen

 

Wenn du als Mediziner eine qualitativ hochwertige Statistikberatung suchst, die deine Dissertation effektiv betreut, dann geh folgendermaßen vor:

 

  • Google genau was du suchst, z.B. „Statistikberatung für Ärzte“
  • Nimm dir die Zeit auch auf den hinteren Seiten bei Google zu suchen
  • Kompetente Berater liefern Content auf Ihren Seiten, der dir wirklich weiter hilft
  • Sie werben eher wenig, auch weil sie gut genug sind um von Mund-zu-Mund-Propaganda leben zu können
  • Wenn du promovierst, sollte auch dein Berater promoviert sein und genug wissenschaftliche Erfahrung mitbringen; suchst du Hilfe bei deiner Masterarbeit, ist diese Erfahrung weniger wichtig
  • Suche dir auf Mediziner spezialisierte Statistikberater, die wirklich nur und nicht auch in dieser Nische tätig sind
  • Kontaktiere nur Beratungen, bei denen von Anfang an klar ist, wer hinter dieser Firma steckt. 24/7-Hotlines vermitteln zwar oft ein Gefühl von Sicherheit, haben aber nicht unbedingt die besseren Berater.
  • Und abschließend: Nutze kostenlose Erstgespräche um deinen Berater kennen zu lernen. Nur wenn die Chemie zwischen dir und dem Berater – und nicht zwischen dir und dem Verkäufer in der Hotline- stimmt und du dich menschlich und fachlich verstanden fühlst, ist die Wahrscheinlichkeit groß, dass du bei dieser Statistikberatung gut aufgehoben bist.

 

Viel Glück bei deiner Suche!

 

 

 

 

Trage dich hier für Dr. Ortmanns beste Maildizin ein und erhalte neben Tipps und Coachinginhalten für deine medizinische Promotion einen
10 % Gutschein für unsere Workshops & Kurse im Onlineshop!

 

 

 

Du brauchst Hilfe bei der Datenanalyse? Dann vereinbare gern ein kostenloses Erstgespräch.

11 + 3 =

Corona blockiert dein Medizinstudium? Dann gründe eine Studygroup und arbeite an deiner Diss!

Corona blockiert dein Medizinstudium? Dann gründe eine Studygroup und arbeite an deiner Diss!

Corona hat uns alle voll erwischt. Normalerweise wäre ich jetzt gerade unterwegs, würde meine Ärzte vor Ort besuchen und Projekte planen. Tja, das kann ich aktuell vergessen.

 

Wie sieht es bei dir aus? Viele Studenten, die ich betreue, erzählen mir, dass sie aktuell keine Vorlesungen mehr haben, wieder daheim bei ihren Eltern sind und frustriert rumsitzen. Wenigstens an der eigenen Diss arbeiten könnte man ja jetzt, aber nein:

 

Da eure Betreuer voll und ganz ins Krisenmanagement eingebunden sind, sind sie natürlich auch nicht mehr ansprechbar. Datenerhebungen finden nicht mehr statt und keiner zeigt euch, wie ihr weitermachen sollt. Total frustrierend.

 

Für mich ist die Situation seit Beginn der Coronakrise ähnlich blöd – aber es gibt da immerhin eine Sache, die ich seit langem machen wollte.

 

Eigentlich ist jetzt nämlich genau die richtige Zeit, um wieder enger mit euch Studenten zusammenzuarbeiten.

 

Ich habe ja schon bei der Einführung meiner Forschungsakademie erzählt, dass ich in meiner Zeit als Wissenschaftlerin unglaublich gerne mit Studenten und Doktoranden zusammengearbeitet habe.

 

Zu Spitzenzeiten hatte ich ein Team aus bis zu 20 Leuten, mit denen ich eine riesige Trainingsstudie durchgezogen habe. Sehr viele von denen (und viele weitere in den Jahren davor und danach) habe ich auch durch ihre Abschlussarbeiten und  Dissertationen geschleust. Und das in Rekordzeit!

 

Mein Ansatz als Betreuerin war damals immer, den Studenten so viel Hilfestellung und Erklärung wie möglich zu geben, damit sie ihre Arbeit Schritt für Schritt selbstständig durchführen können. Quasi Hilfe zur Selbsthilfe – und das hat jedes Mal super geklappt! Meine Studenten waren ruck zuck fertig, keine Frustration, keine Ängste, sondern sicheres und ruhiges Arbeiten.

 

Mich hat es immer tierisch aufgeregt, wenn andere Wissenschaftler in meinem Umfeld Forschungsthemen vergeben haben, sich dann aber im Laufe des Projektes nicht mehr um ihre Studenten kümmern wollten.

 

Den universitären Regeln zufolge sollte ein Student zwar fähig sein, eine wissenschaftliche Arbeit eigenständig zu bearbeiten, ich habe das aber nie so interpretiert, dass er sie auch allein bearbeiten muss.

 

„Eigenständig, aber unter schrittweiser Anleitung“ war mein Motto an der Uni. Das ergibt den besten Lerneffekt und optimale Ergebnisse.

 

 

Nun, wo ich genauso viel Zeit habe wie ihr, könnten wir also endlich mein nächstes Wunschthema anpacken: Wir gründen gemeinsame Studiengruppen!

 

Ihr wisst ja vielleicht, dass ich Kurzberatungen anbiete. Die werden normalerweise von arbeitenden Ärzten genutzt, die in einer Intensivsitzung von bis zu 90 Minuten fokussierte Fragestellungen bearbeiten wollen.

 

Das Ganze läuft dann meist über Telefon oder Bildschirm und funktioniert total gut. Natürlich ist so eine Beratung für die allermeisten Studenten ein bisschen kostspielig.

 

Außerdem brauchen Studenten kontinuierliche Hilfe mit stetigen Impulsen, und nicht unbedingt eine Einzelsitzung.

 

Daher habe ich mir überlegt, die Einzelsitzungen per Zoom in virtuelle Gruppensitzungen umzuwandeln. Organisiert euch in Teams von bis zu 5 Personen, die ähnliche Fragen haben, und bildet zusammen eine Studygroup.

 

Einmalig oder regelmäßig können wir uns per ZOOM treffen und eure Daten auswerten. Ihr gebt mir ein Wunschthema, mit dem wir beginnen, und Schritt für Schritt arbeiten wir uns durch eure Promotionen.

 

Fragen, die z. B. immer wieder auftreten, sind:

 

  • Wie programmiere ich Fragebögen?
  • Wie importiere und organisiere ich mein Datenfile in SPSS?
  • Wie gehe ich überhaupt mit den Daten um?
  • Wie macht man die Deskriptive Statistik?
  • Wie finde ich den richtigen Test?
  • Wie führe ich eine ANOVA durch?
  • Wie rechne ich eine Regression?

 

Es gibt aber auch ganz praktische Fragen:

 

  • Wie benutze ich Zitationsprogramme oder suche Paper in Literaturdatenbanken?
  • Wie führe ich Telefoninterviews?
  • Und worauf kommt es eigentlich beim wissenschaftlichen Schreiben an?

 

So viele Bereiche, die man super in Kleingruppen bearbeiten kann!

 

Wenn ihr euch einfach den Beratungspreis von 170 € für 90 min teilt, wird es für alle bedeutend billiger (z. B. 35 € / Termin pro Person bei 5 Personen). Ihr bekommt eine an eure Bedürfnisse angepasste Beratung und arbeitet euch strukturiert durch eure Dissertationen.

 

Um zwischen den Treffen effektiv weiterarbeiten zu können, bekommt ihr nach jedem Termin eine Aufzeichnung der Sitzung.

 

Klingt das nicht super?! Genau. Machen wir also gemeinsam das Beste aus der Coronakrise!

 

Aber wie findet ihr eure Lernpartner?

 

Ganz einfach! Postet euer Interesse in meine Facebook-Gruppe: Promovieren in der Medizin – das schaffst du auch!

 

Gern helfe ich auch, Teams zusammenzustellen. Dann bucht einen Termin in meinem Kalender, sammelt die Einzelbeiträge über PayPal MoneyPool und los geht’s.

 

Ihr könnt mir dabei schon vor dem Termin das Thema samt einem Datensatz (oder einem Fragebogen, einer Studienidee oder was ihr so habt) zuschicken, damit ich unser Treffen vorbereiten kann.

 

Ich schicke euch dann eine Mail mit Link und schon treffen wir uns im virtuellen Kursraum.

 

Ganz wichtig: Auch wenn sich mein Angebot an Medizinstudenten richtet, ist diese Beratung im Rahmen von Corona auch für andere Fächer geöffnet. Fachspezifische Lerngruppen zu bauen, ist ja kein Problem.

 

Lasst uns also einfach das Beste aus dieser Zeit machen. Anstatt frustriert rumzusitzen, nutzen wir die Zeit im home office, um produktiv zu werden!

 

Und falls es euch aktuell nicht betrifft: Seid so lieb und leitet den Link zu diesem Artikel an eure Fachschaften oder über eure internen Emailverteiler / sozialen Netzwerke weiter. Die Nachricht soll so viele Studenten wie möglich erreichen.

 

Stellt euch mal vor: Wenn sich der Unibetrieb wieder normalisiert könntet ihr mit einer fertigen Dissertation da sitzen – super, oder?!

 

Als ehemalige Wissenschaftlerin und professionelle Statistikberaterin, die wirklich hunderte Medizinstudenten durch die Dissertation gelotst hat, kann ich sagen: Mit meiner Hilfe schafft ihr das!

 

Also meldet euch, ich freue mich sehr auf euch. Lasst uns starten!

 

Eure Magdalene

 

 

Trage dich hier für Dr. Ortmanns beste Maildizin ein und erhalte neben Tipps und Coachinginhalten für deine medizinische Promotion einen
10 % Gutschein für unsere Workshops & Kurse im Onlineshop!

 

Corona ist hier – was wir jetzt tun müssen

Corona ist hier – was wir jetzt tun müssen

Corona ist auch bei uns angekommen. Das wird langsam allen klar. In diesem Artikel erkläre ich dir daher, was wir jetzt tun müssen, um unsere Familie, unsere Wirtschaft und unser gemeinschaftliches Leben zu schützen.

 

Ich bin Dr. Magdalene Ortmann, Medizinstatistikerin sowie ehemalige Wissenschaftlerin und somit von Haus aus sehr an Zahlen und Krankheiten interessiert. Beruflich mache ich nichts anderes als medizinische Daten auszuwerten, zu interpretieren und für meine Kunden verständlich aufzubereiten.

 

Als im Januar von einem neuartigen Virus in China berichtet wurde, das schwere Lungenentzündungen bis hin zum Lungenversagen auslöst und sich rasant verbreitet, erweckte das sofort mein Interesse (Berufskrankheit).

 

Dass Viren, die Tiere als Wirt benutzen, ab und zu den Sprung auf den Menschen schaffen, ist nicht ungewöhnlich – hier kann der Evolution beim Arbeiten zugeschaut werden. Dass dies nun aber ausgerechnet inmitten einer Großstadt passierte, war etwas unglücklich.

 

Wenn ein Virus auf ein unvorbereitetes „naives“ Immunsystem trifft, rennt es offene Türen ein. So ziemlich jeder, der Kontakt mit dem Virus hat, wird sich anstecken, zumindest solange die Viruskonzentration im Übertragungsmedium ausreichend hoch ist.

 

Anders als bei der Grippe gibt es also niemanden, der schon genug „Vorerfahrung“ mit ähnlichen Grippestämmen hat und die Ausbreitung verlangsamt.

 

Im Falle von Corona haben wir somit ein ziemlich verbreitungsfreudiges Virus. Jeder Erkrankte steckt im Schnitt zwischen 2,4 und 3,3 Familienmitglieder, Freunde oder Nachbarn an (Robert-Koch-Institut).

 

Das wiederum heißt, dass aus dem ersten Patienten im Schnitt 3 neue resultieren, die wiederum 9 weitere infizieren, aus denen dann 27 neue Fälle entstehen. Schon in der 3. Ansteckungsrunde erreichen wir also in Summe 40 Erkrankte. Führen wir das ein bisschen weiter, sind wir schnell bei Hunderten und schließlich Tausenden von Infizierten.

 

Das ist die sogenannte exponentielle Funktion, von der alle sprechen. In der folgenden Grafik habe ich die mal geplottet. Dabei habe ich verschiedene Ansteckungsraten (R0) angenommen, um zu zeigen, wie unterschiedlich so ein exponentielles Wachstum aussehen kann:

 

Vergleich 3er verschiedener exponentieller Wachstumskurven des Coronavirus.

 

Grün zeigt die Neuansteckung von 2 Patienten durch einen aktuell Erkrankten, rot von 2,2 und blau von 2,4.

 

Schon hier ist deutlich zu sehen, dass bereits eine kleine Steigerung der Ansteckungsrate eine massive Steigerung der Fallzahlen im späteren Verlauf zur Folge hat.

 

Es stellt sich natürlich die Frage, warum wir aktuell noch so „wenige“ Fälle in Deutschland sehen – schließlich ist das Virus ja nun schon seit 3 Wochen bei uns unterwegs.

 

Das liegt daran, dass wir zum einen nicht alle Erkrankten mit den durchgeführten Tests erfassen, weil ein extrem hoher Anteil nur leichte Symptome zeigt, die durchaus mit üblichen Erkältungen zu verwechseln sind. Zum anderen liegt es aber auch daran, dass es bis zu 4 Tage dauert, bis die Testergebnisse nach dem Abstrich vorliegen.

 

Was wir also aktuell sehen, sind die Erkrankungszahlen von vor 4 Tagen, zudem von einer Subgruppe, bei der wahrscheinlich nur die schweren Fälle sowie deren positiv getestete Kontaktpersonen erfasst wurden.

 

Sind die aktuellen Zahlen also realistisch? Auf keinen Fall.

 

Bis vor kurzem wurde ein Patient mit Beschwerden nur dann getestet, wenn er sich entweder kurz zuvor in einem Risikogebiet aufhielt oder vorab Kontakt zu einer infizierten Person hatte.

 

Berücksichtigt man aber, dass sehr viele Menschen nur leichte, mit einfachen Erkältungen zu vergleichende Symptome haben und somit nie zum Arzt gehen, muss davon ausgegangen werden, dass in Deutschland sehr viele infizierte Personen umherlaufen, die andere anstecken, ohne überhaupt zu wissen, dass sie infektiös sind. Und diese angesteckten Personen haben keine Chance getestet zu werden, da Sie ja keinen Kontakt zu einer schwer erkrankten, nachweislich infizierten Person hatten.

 

Ihr seht an dieser Stelle beißt sich die Katze irgendwie in den Schwanz.

 

Zu erkennen ist das Problem der hohen Dunkelziffer auch daran, dass aktuell immer wieder größere Erkrankungsherde wie aus dem Nichts auftauchen, bei denen der sogenannte Patient 0, wie auch im Kreis Heinsberg, nicht gefunden werden kann. Patient 0 weiß nämlich gar nicht, dass er Patient 0 ist, weil er mit leichtem Husten durch die Gegend tingelt, falls er nicht ohnehin schon längst wieder gesund ist.

 

 

Klar ist: Nur wer sehr schwer erkrankt ist, fällt auf und wird getestet. Alle anderen nicht.

 

Ein weiterer Hinweis auf eine hohe Dunkelziffer sind auch die enormen Todesraten in Iran und Italien. 

 

Überall dort, wo nur die allerschwersten Fälle und die Toten auf Corona getestet werden, muss die Letalität, also die Zahl der Toten in Bezug auf die Anzahl der Erkrankten, anteilig erhöht sein, denn das Virus verändert sich nicht, sobald es Ländergrenzen überschreitet. Selbst wenn man die Qualität des jeweiligen Gesundheitssystems berücksichtigt, erklärt das nicht diese enormen Unterschiede.

 

Es ist sehr wahrscheinlich viel eher so, dass die leicht Infizierten – du kannst es mittlerweile mitsingen – nicht durch Tests erfasst werden. Statt dessen laufen sie unerkannt herum und stecken andere an.

 

So lange leicht erkrankte Personen nicht identifiziert werden, werden wir Covid-19 nicht kontrollieren können. Stattdessen werden wir weiterhin einen enormen Anstieg von Erkrankten haben.

 

Jetzt könnte natürlich so argumentiert werden: Ist ja egal, schließlich sind es ja nur wenige, die sehr krank werden und auf der Intensivstation behandelt werden müssen. Das ist aber ein Fehlschluss!

 

Auch hier kommt wieder unsere exponentielle Wachstumskurve ins Spiel. Wenn 5% der Erkrankten beatmet werden müssen, dann sind das bei 40 Patienten nur 2, bei 30.000 Infizierten aber schon 1500 und bei 100.000 unglaubliche 5.000 ITS-Patienten – auf unsere Bevölkerung von 83 Millionen und einer finalen Durchseuchung von 60 bis 70% innerhalb weniger (!) Wochen oder Monate will ich das lieber mal gar nicht anwenden (wobei auch hier eine Korrektur nach unten stattfinden muss, da sich die 5% auf die diagnostizierten Fälle bezieht und die Dunkelziffer ignoriert).

 

Aktuell wird überall gemeldet, dass wir mit 28.000 Intensivbetten bestens ausgestattet wären. Gesetzt dem Fall, diese Betten wären leer und die Stationen bestens mit Ärzten und Pflegekräften ausgestattet, würde ich das ja gern glauben. Fragt man aber die Ärzte direkt (und das tue ich berufsbedingt sehr oft), klingt die Einschätzung schon ganz anders.

 

In den letzten 10 bis 15 Jahren wurden die Krankenhäuser kaputt gespart. Das Personal auf den Intensivstationen ist extrem überlastet, auch ohne Corona.

 

Selbst wenn alle planbaren OPs verschoben werden könnten, wären dort immer noch viele schwerstkranke Patienten, die versorgt werden müssen. Wenn ich Ärzte in den Kliniken besuche, um Projekte zu besprechen, kann ich sicher sein, dass bei den Intensivmedizinern alle 3 Minuten das Telefon klingelt und irgendjemand Hilfe braucht. 

 

Können wir uns somit darauf verlassen, dass wir alle im Notfall gut versorgt werden können? Never ever.

 

Was können wir also tun?

 

1.  In einer idealen Welt könnten wir einfach mehr und schneller testen, um einen realistischen IST-Zustand zu bekommen. Danach würden wir alle Infizierten in Quarantäne stecken, die schweren Fälle behandeln – und schwupp, wäre alles ok.

Das ist aber leider absolut unmöglich, da wir keine Kapazitäten haben, um so viele Menschen zu testen.

 

2.  In einer idealen Welt könnten wir außerdem impfen, aber bis der Impfstoff marktreif ist, hat sich der Großteil der Gesellschaft längst mit Covid-19 infiziert.

 

3.  Übrig bleibt die unbequeme Wahrheit, dass allein eine Änderung der Verbreitungsgeschwindigkeit das Virus verlangsamen kann.

 

Wir müssen also mit allen Mitteln dafür sorgen, dass das Virus weniger leicht weitergegeben werden kann.

 

Und wie machen wir das, wenn sich aktuell potenziell jeder anstecken kann?

 

Indem wir uns isolieren.

 

Es führt kein Weg daran vorbei. Natürlich nicht für immer, aber während der kommenden Wochen.

 

Wir müssen beginnen zu verstehen, dass die Verbreitung des Corona-Virus reine Mathematik ist und wir nur gemeinsam in der Lage sind, die Verbreitung zu reduzieren.

 

Und damit meine ich nicht, einfach häufiger mal die Hände zu waschen und in die Armbeuge zu niesen. Nein, gemeint ist, ernsthaft zuhause zu bleiben, Treffen mit Freunden, wo immer es möglich ist, zu vermeiden, und keine älteren Verwandten in Heimen zu besuchen (die teilweise immer noch für Besucher geöffnet sind!).

 

Denkt daran: Es gibt eine sehr hohe Dunkelziffer an halbwegs gesunden Corona-Infizierten, die das Virus stetig weitergeben. Jeder Besuch alter Verwandter erhöht also das Risiko, dass unsere Großeltern oder Eltern an Corona erkranken. Und wie ja mittlerweile jeder weiß, steigt das Sterberisiko bei alten Leuten enorm an.

 

Wer also noch etwas von seinen Großeltern haben will, steigt aufs Telefon um.

 

Es ist außerdem notwendig, dass wir unsere älteren Nachbarn, Verwandten und Freunde stetig darüber informieren, dass sie wirklich zuhause bleiben müssen.

 

Ich finde es aktuell ziemlich irritierend, dass wir jungen Leute zuhause bleiben, die Kinder aus den Schulen genommen werden, auf Homeoffice umgestiegen wird, während draußen eine große Zahl älterer Menschen unterwegs ist.

 

 

Das liegt natürlich zum einen daran, dass alle, auch hochgefährdete Menschen, davon ausgehen, dass es sie schon nicht treffen wird. Schließlich haben sie ja bis dato noch alles überlebt (was ja auch stimmt, sonst wären sie ja schließlich tot).

 

Zum anderen liegt es aber sicherlich auch daran, dass ältere Menschen weniger Zugang zum Internet und anderen schnellen Medien haben und somit einfach noch nicht oft genug gehört haben, dass wir uns in einer sehr ernsten Lage befinden, die jetzt strenge Konsequenz erfordert.

 

Das Beste, was wir also neben der eigenen sozialen Isolation machen können, ist, allen älteren Menschen in unserem Umfeld mit der immer gleichen Botschaft auf die Nerven zu gehen: Bleibt zu Hause.

 

Nun ist die Frage: Werden wir durch soziale Isolation weniger Corona-Fälle haben?

 

Nein. 60 bis 70 % der Bevölkerung werden sich anstecken. So oder so. Für alles andere ist es zu spät.

 

Was wir aber durch die Quarantäne erleben werden, ist, dass die Ausbreitung weniger schnell verläuft.

 

Dieser Punkt wird ja aktuell sehr oft in den Medien besprochen. Wir werden damit erreichen, dass die Kapazität der Intensivbetten für die Anzahl der jeweils schwererkrankten Patienten ausreicht. Auch das wird dann noch einmal die Todesrate reduzieren.

 

Wir werden nicht, wie in Italien, Ärzte entscheiden lassen müssen, wer eine Beatmung bekommen soll – der 50-jährige Familienvater oder die 80-jährige Großmutter. Wir werden alle Patienten ausreichend gut behandeln können.

 

Jetzt möchte ich aber noch auf einen sehr wichtigen Punkt eingehen, der in den nächsten Wochen entscheidend sein wird.

 

Wenn die Regierung den großen Shutdown veranlasst, alle Geschäfte schließen und sich die Menschen zuhause fast vollständig isolieren, werden wir alle auf ein Abflachen der Infektionskurve hoffen.

 

Aber dieses Abflachen wird sehr lange auf sich warten lassen – nämlich ca. 2 Wochen.

 

Um das zu verstehen, muss man sich die folgende Grafik ein bisschen näher ansehen. Bitte keinen Schreck bekommen, konzentriert euch einfach auf den blauen und den orangenen Hügel, sowie die gelbe Fläche darunter.

 

Quelle: Wu & McCoogan in JAMA (2020) copyright

 

In dieser Grafik ist der chinesische Verlauf der Corona-Pandemie zu sehen. Die orangenen Balken zeigen das, was die Statistiken der deutschen Zählungen aktuell berichten: die Anzahl der positiv getesteten Corona-Fälle, allerdings nicht, wie sonst üblich, als Summe aller bisher Infizierten, sondern als neu identifizierte Fälle pro Tag.

 

Als die chinesische Regierung am 23. Januar die Gefahr durch das Corona-Virus endgültig verstand (Beginn der gelb markierten Fläche unter den Balken), riegelte sie die Großstadt Wuhan ab.

 

Alle Menschen bekamen Ausgehverbot. Die Schulen wurden geschlossen, die Firmen produzierten nichts mehr. Alles stand still.

 

Und trotzdem stiegen die Fallzahlen pro Tag weiter an. Bis zum 05. Februar, also über ganze 14 Tage breitete sich das Virus immer weiter aus.

 

Die Quarantäne schien völlig sinnlos zu sein.

 

Aber das war nicht die Realität.

 

Wie ich bereits erklärt habe, haben wir zum einen ein wirkliches Diagnostikproblem. Wir testen Menschen zu spät, nämlich dann, wenn sie mit wirklich schlimmen Symptomen zum Arzt oder direkt ins Krankenhaus kommen, und übersehen somit einen Großteil der Kranken.

 

Zum anderen dauert es bis zum Testergebnis ca. 4 Tage. Addiert man nun die Tage der Inkubationszeit (also die Zeit zwischen der Infektion und dem Auftreten der ersten leichten Symptome (ca. 5 bis 6 Tage) und die Dauer, bis die ersten schweren Symptome auftreten (Tag des Arztbesuches inkl. Abstrich nach weiteren 4 Tagen), und addiert dazu die 4 Tage, die der Test braucht um ein Ergebnis zu liefern, kommen wir auf eine Verzögerung von ziemlich genau 2 Wochen.

 

Rechnet man nun also rückwärts, was die Autoren der Studie, aus der diese Grafik stammt, gemacht haben (hier dargestellt als blaue Balkenkurve), kann man abschätzen, wie sich der wirkliche zeitliche Ablauf abgespielt haben muss. Und dort sieht man, dass genau zu dem Zeitpunkt, als Wuhan abgeriegelt wurde und sich die Menschen in strenge soziale Isolation begeben haben, die Zahl der Neuansteckungen deutlich zurückgegangen ist.

 

Und das muss unsere Motivation sein!

 

Wenn in den kommenden Tagen also unser Leben massiv runtergefahren wird und wir die Wachstumskurve in den Zeitungen verfolgen, dann müssen wir damit rechnen, dass es bis zu zwei Wochen dauern kann, bis die Kurve abflacht.

 

Wir müssen Geduld haben und weiterhin aushalten. Wir dürfen auf keinen Fall aufgeben und die Isolation beenden, weil die Zahlen zu zeigen scheinen, dass soziale Isolation keinen Effekt hat. Das hat sie.

 

Wenn wir diese Zeit durchhalten, werden wir den wirtschaftlichen Schaden begrenzen können. Wir werden deutlich weniger Freunde und Verwandte verlieren. Wir werden unsere Häuser und unsere Arbeitsplätze behalten.

 

Wenn wir nun also in die Isolation gehen, dann werden wir das mit der Gewissheit tun, dass wir diese Krise überwinden werden. Und zwar mit Disziplin und Geduld. Lasst es uns also anpacken und durchhalten.

 

Auf einen Sommer in Freiheit, mit frischer Luft, Altstadtfesten und Wein. Bald. Nach der Quarantäne. Wir schaffen das.

 

(Und immer dran denken: Corona ist ein Zahlenspiel – und wir haben die Regeln verstanden. Auf geht‘s.)

 

 

Du möchtest mehr Artikel wie diesen? 

Follow me on Instagram oder Facebook!

 

Zur weiteren Recherche und für alle, die Zahlen mögen:

 

Ein grandioser Artikel von Tomas Pueyo, der noch viele weitere Aspekte anspricht, und sich direkt an Entscheidungsträger aus Politik und Wirtschaft richtet.

Der Steckbrief des Robert-Koch-Institutes zu Covid-19 mit allen Zahlen, die man sich nur wünschen kann.

 

 

 

 

Du brauchst Hilfe bei der Analyse deiner Studiendaten? Dann kontaktiere mich hier:

12 + 3 =

* Mit der Eingabe und Absendung Ihrer Daten erklären Sie sich einverstanden, dass wir Ihre Angaben zum Zwecke der Beantwortung Ihrer Anfrage und etwaiger Rückfragen entgegennehmen, zwischenspeichern und auswerten. Sie können diese Einwilligung jederzeit widerrufen.

10 % Rabatt auf unsereWorkshops & Kurse im Onlineshop!

Trage dich hier für Dr. Ortmanns beste Maildizin ein und erhalte regelmäßige Rabatte, Tipps und Coachinginhalte für deine empirische Promotion

You have Successfully Subscribed!