Alternativhypothese

Die Alternativhypothese drückt die Vorhersage eines Effektes aus (z. B. Vorhersage einer Mittelwertsdifferenz zwischen Kontroll- und Experimentalgruppe). Sie bildet das logische Gegenstück zur Nullhypothese (H0), kann gerichtet oder ungerichtet sein und wird auch H1 genannt.

Ein Beispiel:

Männer kaufen häufiger rote Autos als Frauen (H1).

Männer kaufen genauso häufiger rote Autos wie Frauen (H0).

 

 

ANCOVA

Die ANCOVA (Kovarianzanalyse) ist ein statistisches Verfahren, das verwendet wird, um zu testen, ob sich die Mittelwerte zwischen zwei oder mehreren Gruppen unterscheiden, wobei der zu untersuchende Effekt bzgl. des Einflusses einer oder mehrerer Kovariaten angepasst wird. Eine ANCOVA kann somit in Datensituationen verwendet werden, in denen der Effekt einer oder mehrerer kategorialer unabhängiger Variablen unter Anpassung für ein oder mehrerer Kovariaten auf eine metrische abhängige Variable untersucht werden soll. Die aus der ANCOVA resultierenden Teststatistiken folgen einer F-Verteilung und dienen dem Test der Haupteffekte und Interaktionen der einzelnen Prädiktoren auf Signifikanz. Es handelt sich um einen Spezialfall des allgemeinen linearen Modells.

 

 

ANOVA

Die ANOVA (Varianzanalyse) ist ein statistisches Verfahren, das testet ob sich die Mittelwerte von zwei oder mehreren Gruppen signifikant unterscheiden. Eine ANOVA kann somit in Datensituationen verwendet werden, in denen der Effekt einer oder mehrerer kategorialer unabhängiger Variablen auf eine metrische abhängige Variable untersucht werden soll. Die aus der ANOVA resultierenden Teststatistiken folgen einer F-Verteilung und dienen dem Test der Haupteffekte und Interaktionen der einzelnen Prädiktoren auf Signifikanz. Es handelt sich um einen Spezialfall des allgemeinen linearen Modells.

 

 

Bonferroni Korrektur

Die Bonferroni Korrektur ist eine Methode zur Kontrolle des α-Fehlers (Verhinderung von α-Fehler-Inflation) beim Durchführen multipler Signifikanztests. Um die Wahrscheinlichkeit bei n Signifikanztests einen Fehler 1. Art (siehe α-Niveau) zu machen unter 5% zu halten, muss der p-Wert eines einzelnen Tests ≤  α/n liegen, um als signifikant zu gelten. Eine solche Korrektur ist v. a. dann notwendig, wenn das Vorgehen nicht hypothesengeleitet ist, kann aber bei einer hohen Anzahl von Tests zu streng sein.

Was bedeutet das?

Jeder Test, den wir rechnen hat die Wahrscheinlichkeit von 5 % signifikant zu werden, OHNE dass das ein wirklicher Unterschied zwischen den zu vergleichenden Gruppen besteht. Wir nehmen also unsere Testhypothese (H1) an, obwohl die Nullhypothese (H0) gilt. Diesen Fehler nennt man Fehler 1. Art oder auch α-Fehler.

Wenn ich nun also 3 Tests rechne, verdreifacht sich die Wahrscheinlichkeit den α-Fehler zu machen, er liegt nun also schon bei 15 %. Wenn ich also sehr viele Tests einfach mal so rechne, entsteht die so genannte α-Fehler-Inflation.

Und das ist gerade im Bereich des explorativen Testens gefährlich, weil ich innerhalb meiner Daten alles mit jedem vergleiche und – wen wundert’s – irgendwann schon irgendetwas Signifikantes herausbekomme. Würde ich also in dieser Art vorgehen, und dann meine Effekte unkritisch interpretieren (was sehr oft gemacht wird), dann ist die Wahrscheinlichkeit sehr hoch, dass die Ergebnisse keine relevante Bedeutung haben, weil sie auf die α-Fehler-Inflation zurückzuführen sind.

Was also tun?

Wenn ich explorativ teste, also keine zugrunde liegende Hypothese teste, dann muss das α-Niveau umbedingt für multiple Vergleiche korrigiert werden. Das kann ich machen, in dem ich den p-Wert, ab dem mein Ergebnis gängigerweise als signifikant gelabelt wird (also p = 0.05) durch die Anzahl der gerechneten Tests teile. Das nennt man dann z.B. die Bonferroni-Korrektur. Bei 3 Tests wäre der neue kritische p-Wert dann 0.05 / 3 = 0.0167. Alle Ergebnisse mit einem p-Wert ≤ 0.0167 wären dann als signifikant anzusehen, alles darüber nicht. Diese Korrektur ist allerdings sehr konservativ, also sehr streng.

Das beste Vorgehen ist also immer schon vor dem Testen Hypothesen zu generieren, in dem die Literatur intensiv gelesen wird und zu erwartende Effekte definiert werden.

 

 

 

Konfundierende Variablen

Die Konfundierende Variable, auch Störvariable genannt, ist eine Variable, welche neben der von uns erhobenen unabhängigen Variable die abhängige Variable beeinflusst (unabhängig davon, ob diese Störvariable erhoben wurde oder nicht).

Eine Möglichkeit Störvariablen „auszuschalten“ wäre es diese mit zu erheben und dann deren Einfluss innerhalb der statistischen Analysen zu kontrollieren (sofern möglich). Da es aber in der Praxis unmöglich ist, alle Störvariablen zu kennen (geschweige denn zu erheben) empfiehlt es sich in experimentellen Studiendesigns die Zuteilung zu den Experimentalbedingungen randomisiert (also zufällig) vorzunehmen und möglichst große Gruppe zu erheben, da sich Störvariablen bei ausreichend großen Gruppen mit einiger Wahrscheinlichkeit auf alle Experimentalgruppen gleichmäßig verteilen und während der Analyse „rausmitteln“.

Wichtig: Berücksichtigt das Studiendesign nicht die Konfundierung durch mögliche Störvariablen, wird die Datenanalyse und die Diskussion der Studienergebnisse deutlich erschwert! Es ist daher ratsam viel Zeit in die Studienplanung und Erhebung der Daten zu investieren.

 

 

Trag dich hier für Dr. Ortmanns beste Maildizin ein und erhalte regelmässige für deine empirische Promtion

You have Successfully Subscribed!