Abhängige Variable (auch: Outcome-Variable)

Variable, deren Ausprägung in Abhängigkeit von der Ausprägung der unabhängigen Variablen beeinflusst wird. Dies findet insbesondere im Rahmen einer experimentellen Manipulation statt.

Es wäre z.B. möglich den Einfluss von Koffein (unabhängige Variable) auf die Herzrate (abhängige Variable) zu untersuchen und dabei für Koffein drei Konzentrationsstufen festzulegen (hoch, mittel, gering = experimentelle Manipulation).

Drei Gruppen von Probanden würden dann jeweils eine Dosis Koffein erhalten und der Unterschied der mittleren Herzratenänderung (von Prä-Koffein zu Post-Koffein) zwischen den 3 Gruppen wäre der Indikator für den Effekt von Koffein auf die Herzrate in Abhängigkeit der Dosis.

Alternativhypothese

Nullhypothese (kurz H0) und Alternativhypothese (kurz H1) drücken zwei sich logisch ausschließende Zustände über die Populationen aus, um die es in deiner Untersuchung gehen soll.

Zum Beispiel soll untersucht werden, ob sich Männer und Frauen dahingehend unterscheiden, wie oft sie im Monat über Kopfschmerzen berichten. Die Nullhypothese wäre in diesem Fall, dass Männer und Frauen gleich häufig über Kopfschmerzen berichten. Die Alternativhypothese drückt die konkrete Vermutung des Forschers bzw. der Forscherin aus und kann gerichtet oder ungerichtet sein.

Die ungerichtete Alternativhypothese wäre hier, dass sich Männer und Frauen darin unterscheiden, wie oft sie im Monat über Kopfschmerzen berichten, wobei man sich nicht festlegt, ob denn nun die Männer häufiger über Kopfschmerzen berichten oder die Frauen (man lässt quasi die „Richtung“ des Unterschieds offen).

Die gerichtete Alternativhypothese könnte entweder sein, dass Männer häufiger über Kopfschmerzen berichten als Frauen oder eben Frauen häufiger über Kopfschmerzen berichten als Männer.

Egal ob gerichtete oder ungerichtete Alternativhypothese: Nullhypothese und Alternativhypothese können nicht beide zusammen wahr sein!

Führt man dann den zugehörigen statistischen Test durch, sollte man sich gegen die Nullhypothese entscheiden, wenn der Test signifikant ist, also wenn der p-Wert des Tests kleiner ist als das vorher festgelegte α-Level.

 

Wenn du mehr über die allgemeine Logik statistischer Tests wissen möchtest, dann schau in unseren Grundlagenartikel zu diesem Thema.

Ausreißer

In Relation zur restlichen Stichprobe ungewöhnlich hoher oder niedriger Wert.

In Bezug auf eine Variable werden Ausreißer häufig über einen mehr als 1.5-fachen Interquartilsabstand vom unteren bzw. oberen Quartil definiert und mit Boxplots identifiziert. Multivariat existieren verschiedene (kompliziertere) Methoden.

Ausreißer nehmen Einfluss auf Maße wie den Mittelwert oder Modellparameter in der Regression oder in der ANOVA. Andere Maße, z. B. der Median, sind robuster gegenüber Ausreißern.

Bimodale Verteilung

Eine Verteilung wird als bimodal beschrieben, wenn sie zwei Modi besitzt. Es finden sich also innerhalb eines Histogramms zwei Maxima (oder „Gipfel“).

Dies kann z. B. vorkommen, wenn innerhalb der Altersverteilung sowohl die 20-25jährigen, als auch die 50-55jährigen Personen besonders häufig ins Kino gehen, während alle anderen Altersgruppen entweder kein Geld, keine Zeit oder kein Interesse mehr an Kino haben.

Bonferroni Korrektur

Die Bonferroni-Korrektur ist eine von vielen möglichen Methoden zur Kontrolle der α-Inflation beim multiplen Testen, also beim Durchführen mehrerer statistischer Tests auf dem gleichen Datensatz.

Die Idee der Bonferroni-Korrektur ist einfach: Der p-Wert, ab dem ein einzelner Test als signifikant gelten soll, wird korrigiert (herabgesetzt) und zwar in dem man die Anzahl der Tests, die insgesamt durchgeführt werden sollen, berücksichtigt.

Um die Wahrscheinlichkeit, bei k statistischen Tests mindestens einmal den Fehler 1. Art zu begehen (die family-wise error rate) unter 5% zu halten, werden nur Testergebnisse als signifikant angesehen, bei denen p ≤ .05/k gilt.

Je mehr Tests wir also durchführen wollen, umso niedriger wird der p-Wert gesetzt, ab dem jeder einzelne Test als signifikant gilt.

Bei 10 Tests mit Bonferroni-Korrektur würde also jeder einzelne Test erst ab einem p-Wert von .05/10 = .005 als signifikant gelten.

Lade dir hier die Formelsammlung für deinen Bland-Altman-Plot herunter

Melde dich für meinen Newsletter an und erhalte sofort das PDF!

You have Successfully Subscribed!

10 % Rabatt auf unsereWorkshops & Kurse im Onlineshop!

Trage dich hier für Dr. Ortmanns beste Maildizin ein und erhalte regelmäßige Rabatte, Tipps und Coachinginhalte für deine empirische Promotion

You have Successfully Subscribed!

Lade dir hier die Checkliste für deinen Methodenteil herunter

Melde dich für meinen Newsletter an und erhalte sofort das PDF!

You have Successfully Subscribed!


Jetzt 10 % Rabatt auf alle

Workshops & Kurse sichern!

You have Successfully Subscribed!

Downloade dir hier das Flowchart für deine ANOVA

Melde dich für meinen Newsletter an und erhalte sofort das PDF!

You have Successfully Subscribed!

Lade dir hier die Vorlage für den Aufbau deines Datensatzes herunter

Melde dich für meinen Newsletter an und erhalte sofort die Excel-Vorlage!

You have Successfully Subscribed!