Abhängige Variable (auch: Outcome-Variable)

Variable, deren Ausprägung in Abhängigkeit von der Ausprägung der unabhängigen Variablen beeinflusst wird. Dies findet insbesondere im Rahmen einer experimentellen Manipulation statt. Es wäre z.B. möglich den Einfluss von Koffein (unabhängige Variable) auf die Herzrate (abhängige Variable) zu untersuchen und dabei für Koffein drei Konzentrationsstufen festzulegen (hoch, mittel, gering = experimentelle Manipulation). Drei Gruppen von Probanden würden dann jeweils eine Dosis Koffein erhalten und der Unterschied der mittleren Herzratenänderung (von Prä-Koffein zu Post-Koffein) zwischen den 3 Gruppen wäre der Indikator für den Effekt von Koffein auf die Herzrate in Abhängigkeit der Dosis.

Alternativhypothese

Die Alternativhypothese drückt die Vorhersage eines Effektes aus (z. B. Vorhersage einer Mittelwertsdifferenz zwischen Kontroll- und Experimentalgruppe). Sie bildet das logische Gegenstück zur Nullhypothese (H0), und wird auch H1 genannt.

Ein Beispiel:
Männer kaufen häufiger rote Autos als Frauen (H1).
Männer kaufen genauso häufig rote Autos wie Frauen (H0).

Die H1 wird angenommen, wenn der sie überprüfende statistische Test signifikant wird. Die H1 ist in den allermeisten Fälle gerichtet, sie drückt also einen Unterschied oder eine Relation aus. Nur selten wird sie auch ungerichtet formuliert und benötigt dann eine spezielle statistische Vorgehensweise.

Ausreißer

In Relation zur restlichen Stichprobe ungewöhnlich hoher oder niedriger Wert. In Bezug auf eine Variable werden Ausreißer häufig über einen mehr als 1.5-fachen Interquartilsabstand vom unteren bzw. oberen Quartil definiert und mit Boxplots identifiziert. Multivariat existieren verschiedene (kompliziertere) Methoden. Ausreißer nehmen Einfluss auf Maße wie den Mittelwert oder Modellparameter in der Regression oder in der ANOVA. Andere Maße, z. B. der Median, sind robuster gegenüber Ausreißern.

Bimodale Verteilung

Eine Verteilung wird als bimodal beschrieben wenn sie zwei Modi besitzt. Es finden sich also innerhalb eines Histogramms zwei Maxima (oder “Gipfel”).

Dies kann z.B. vorkommen, wenn innerhalb der Altersverteilung sowohl die 20-25jährigen, als auch die 50-55jährigen Personen besonders häufig ins Kino gehen, während alle anderen Altersgruppen entweder kein Geld, keine Zeit oder kein Interesse mehr an Kino haben.

Bonferroni Korrektur

Die Bonferroni Korrektur ist eine Methode zur Kontrolle des α-Fehlers (Verhinderung von α-Fehler-Inflation) beim Durchführen multipler Signifikanztests. Um die Wahrscheinlichkeit bei n Signifikanztests einen Fehler 1. Art (siehe α-Niveau) zu machen unter 5% zu halten, muss der p-Wert eines einzelnen Tests ≤  α/n liegen, um als signifikant zu gelten. Eine solche Korrektur ist v. a. dann notwendig, wenn das Vorgehen nicht hypothesengeleitet ist, kann aber bei einer hohen Anzahl von Tests zu streng sein.

Was bedeutet das?

Jeder Test, den wir rechnen hat die Wahrscheinlichkeit von 5 % signifikant zu werden, OHNE dass das ein wirklicher Unterschied zwischen den zu vergleichenden Gruppen besteht. Wir nehmen also unsere Testhypothese (H1) an, obwohl die Nullhypothese (H0) gilt. Diesen Fehler nennt man Fehler 1. Art oder auch α-Fehler.

Wenn ich nun also 3 Tests rechne, verdreifacht sich die Wahrscheinlichkeit den α-Fehler zu machen, er liegt nun also schon bei 15 % (1- 0.95 hoch 3 = 14.3 %). Wenn ich also sehr viele Tests einfach mal so rechne, entsteht die sogenannte α-Fehler-Inflation.

Und das ist gerade im Bereich des explorativen Testens gefährlich, weil ich innerhalb meiner Daten alles mit jedem vergleiche und – wen wundert’s – irgendwann schon irgendetwas Signifikantes herausbekomme. Würde ich also in dieser Art vorgehen, und dann meine Effekte unkritisch interpretieren (was sehr oft gemacht wird), dann ist die Wahrscheinlichkeit sehr hoch, dass die Ergebnisse keine relevante Bedeutung haben, weil sie auf die α-Fehler-Inflation zurückzuführen sind.

Was also tun?

Wenn ich explorativ teste, also keine zugrunde liegende Hypothese teste, dann muss das α-Niveau unbedingt für multiple Vergleiche korrigiert werden. Das kann ich machen, in dem ich den p-Wert, ab dem mein Ergebnis gängigerweise als signifikant gelabelt wird (also p = 0.05) durch die Anzahl der gerechneten Tests teile. Das nennt man dann z. B. die Bonferroni-Korrektur. Bei 3 Tests wäre der neue kritische p-Wert dann 0.05 / 3 = 0.0167. Alle Ergebnisse mit einem p-Wert ≤ 0.0167 wären dann als signifikant anzusehen, alles darüber nicht. Diese Korrektur ist allerdings sehr konservativ, also sehr streng.

Das beste Vorgehen ist also immer schon vor dem Testen Hypothesen zu generieren, in dem die Literatur intensiv gelesen wird und zu erwartende Effekte definiert werden.

Lade dir hier die Formelsammlung für deinen Bland-Altman-Plot herunter

Melde dich für meinen Newsletter an und erhalte sofort das PDF!

You have Successfully Subscribed!

10 % Rabatt auf unsereWorkshops & Kurse im Onlineshop!

Trage dich hier für Dr. Ortmanns beste Maildizin ein und erhalte regelmäßige Rabatte, Tipps und Coachinginhalte für deine empirische Promotion

You have Successfully Subscribed!

Lade dir hier die Checkliste für deinen Methodenteil herunter

Melde dich für meinen Newsletter an und erhalte sofort das PDF!

You have Successfully Subscribed!


Jetzt 10 % Rabatt auf alle

Workshops & Kurse sichern!

You have Successfully Subscribed!

Downloade dir hier das Flowchart für deine ANOVA

Melde dich für meinen Newsletter an und erhalte sofort das PDF!

You have Successfully Subscribed!