Abhängige Variable (auch: Outcome-Variable)

Variable, deren Ausprägung in Abhängigkeit von der Ausprägung der unabhängigen Variablen beeinflusst wird. Dies findet insbesondere im Rahmen einer experimentellen Manipulation statt. Es wäre z.B. möglich den Einfluss von Koffein (unabhängige Variable) auf die Herzrate (abhängige Variable) zu untersuchen und dabei für Koffein drei Konzentrationsstufen festzulegen (hoch, mittel, gering = experimentelle Manipulation). Drei Gruppen von Probanden würden dann jeweils eine Dosis Koffein erhalten und der Unterschied der mittleren Herzratenänderung (von Prä-Koffein zu Post-Koffein) zwischen den 3 Gruppen wäre der Indikator für den Effekt von Koffein auf die Herzrate in Abhängigkeit der Dosis.

Ausreißer

In Relation zur restlichen Stichprobe ungewöhnlich hoher oder niedriger Wert. In Bezug auf eine Variable werden Ausreißer häufig über einen mehr als 1.5-fachen Interquartilsabstand vom unteren bzw. oberen Quartil definiert und mit Boxplots identifiziert. Multivariat existieren verschiedene (kompliziertere) Methoden. Ausreißer nehmen Einfluss auf Maße wie den Mittelwert oder Modellparameter in der Regression oder in der ANOVA. Andere Maße, z. B. der Median, sind robuster gegenüber Ausreißern.

Bimodale Verteilung

Eine Verteilung wird als bimodal beschrieben wenn sie zwei Modi besitzt. Es finden sich also innerhalb eines Histogramms zwei Maxima (oder “Gipfel”).

Dies kann z.B. vorkommen, wenn innerhalb der Altersverteilung sowohl die 20-25jährigen, als auch die 50-55jährigen Personen besonders häufig ins Kino gehen, während alle anderen Altersgruppen entweder kein Geld, keine Zeit oder kein Interesse mehr an Kino haben.

Bonferroni Korrektur

Die Bonferroni Korrektur ist eine Methode zur Kontrolle des α-Fehlers (Verhinderung von α-Fehler-Inflation) beim Durchführen multipler Signifikanztests. Um die Wahrscheinlichkeit bei n Signifikanztests einen Fehler 1. Art (siehe α-Niveau) zu machen unter 5% zu halten, muss der p-Wert eines einzelnen Tests ≤  α/n liegen, um als signifikant zu gelten. Eine solche Korrektur ist v. a. dann notwendig, wenn das Vorgehen nicht hypothesengeleitet ist, kann aber bei einer hohen Anzahl von Tests zu streng sein.

Was bedeutet das?

Jeder Test, den wir rechnen hat die Wahrscheinlichkeit von 5 % signifikant zu werden, OHNE dass das ein wirklicher Unterschied zwischen den zu vergleichenden Gruppen besteht. Wir nehmen also unsere Testhypothese (H1) an, obwohl die Nullhypothese (H0) gilt. Diesen Fehler nennt man Fehler 1. Art oder auch α-Fehler.

Wenn ich nun also 3 Tests rechne, verdreifacht sich die Wahrscheinlichkeit den α-Fehler zu machen, er liegt nun also schon bei 15 %. Wenn ich also sehr viele Tests einfach mal so rechne, entsteht die so genannte α-Fehler-Inflation.

Und das ist gerade im Bereich des explorativen Testens gefährlich, weil ich innerhalb meiner Daten alles mit jedem vergleiche und – wen wundert’s – irgendwann schon irgendetwas Signifikantes herausbekomme. Würde ich also in dieser Art vorgehen, und dann meine Effekte unkritisch interpretieren (was sehr oft gemacht wird), dann ist die Wahrscheinlichkeit sehr hoch, dass die Ergebnisse keine relevante Bedeutung haben, weil sie auf die α-Fehler-Inflation zurückzuführen sind.

Was also tun?

Wenn ich explorativ teste, also keine zugrunde liegende Hypothese teste, dann muss das α-Niveau umbedingt für multiple Vergleiche korrigiert werden. Das kann ich machen, in dem ich den p-Wert, ab dem mein Ergebnis gängigerweise als signifikant gelabelt wird (also p = 0.05) durch die Anzahl der gerechneten Tests teile. Das nennt man dann z.B. die Bonferroni-Korrektur. Bei 3 Tests wäre der neue kritische p-Wert dann 0.05 / 3 = 0.0167. Alle Ergebnisse mit einem p-Wert ≤ 0.0167 wären dann als signifikant anzusehen, alles darüber nicht. Diese Korrektur ist allerdings sehr konservativ, also sehr streng.

Das beste Vorgehen ist also immer schon vor dem Testen Hypothesen zu generieren, in dem die Literatur intensiv gelesen wird und zu erwartende Effekte definiert werden.

Bootstrapping

Bootstrapping ist ein statistisches Verfahren, bei dem die Verteilung eines Zielkennwertes durch wiederholtes Ziehen mit Zurücklegen von x Unterstichproben der Größe N aus einer schon erhobenen Stichprobe geschätzt wird.

Die erhobenen Daten werden also im Grunde wie die Gesamtpopulation behandelt, aus der wiederum Stichproben gezogen werden. Für jede gezogene Unterstichprobe wird dabei der interessierende Parameter (z. B. der Mittelwert) berechnet. Aus allen berechneten Mittelwerten lässt sich dann die Verteilung des Zielkennwertes bilden und der Standardfehler der Stichprobenkennwertverteilung schätzen.

Und daraus kann dann wiederum ein p-Wert und ein Konfidenzintervall für den wahren Wert des Zielkennwertes in der Gesamtpopulation abgeleitet werden (siehe auch Zentraler Grenzwertsatz). Das ist besonders wichtig, da wir den wahren Wert unseres Merkmals in der Gesamtpopulation nicht messen können.

Bootstrapping erlaubt uns also eine bessere Schätzung des wahren Zielkennwertes innerhalb der Gesamtpopulation. Und dies geschieht anhand der erhobenen Stichprobe und der aus ihr gezogenen x Unterstichproben.

Trag dich hier für Dr. Ortmanns beste Maildizin ein und erhalte regelmässige Tipps für deine empirische Promotion

You have Successfully Subscribed!