Adjustierter vorhergesagter Wert

Der adjustierte vorhergesagt Mittelwert dient der Messung des Einflusses eines spezifischen Datenpunktes. Stell dir vor, innerhalb eines Modells wird ein Wert für die Outcome-Variable des Modells vorhergesagt. Dies geschieht zweimal: Einmal mit (ursprünglicher vorhergesagter Wert) und einmal ohne den zu untersuchenden Datenpunkt (adjustierter vorhergesagter Wert). Die Differenz aus den zwei vorhergesagten Werten der Outcomevariable nennt man DFFit. Je größer DFFit ist, desto größer ist der Einfluss des untersuchten Datenpunktes und desto instabiler, als durch Einzelfälle beeinflussbarer ist das Modell. Findet im Rahmen der linearen Regression Anwendung.

Adjustiertes R-Quadrat

Das adjustierte R² zeigt an, wie viel Varianz in der Gesamtpopulation (= echte Welt mit allen Menschen), aus der die untersuchte Stichprobe gezogen wurde (= deine vorliegende Stichprobe), durch das berechnete Modell erklärt wird. Je besser das berechnete Modell ist, desto kleiner ist der Unterschied zwischen R² (Stichprobe) und adjustiertem R² (Gesamtpopulation). Das adjustierte R² wird deshalb (neben dem AIC oder BIC) als Kriterium für die Modellselektion verwendet.

AIC (Akaikes Informationskriterium)

Das AIC ist ein Maß der Modellgüte, das eine höhere Modellkomplexität „bestraft“ (bzw. korrigiert). Diese Korrektur fällt mit wachsender Stichprobengröße geringer aus. Es ist nicht wie das adjustierte R-Quadrat im Sinne aufgeklärter Varianz interpretierbar, lässt aber ebenfalls den Vergleich zwischen verschiedenen Modellen zu. Das AIC wird deshalb (neben dem R2 oder BIC) als Kriterium für die Modellselektion verwendet. Ein geringerer Wert beschreibt einen besseren Datenfit des Modells.

Autokorrelation

Autokorrelation tritt dann auf, wenn die Residuen zweier Beobachtungen innerhalb eines linearen Regressionsmodells miteinander korrelieren (und somit abhängig voneinander) sind.

Siehe auch Durbin-Watson Test für genauere Informationen.

Autokorrelation ist auch im Rahmen der Zeitreihenanalyse von Bedeutung. Da dieses Glossar aber auf Medizinstatistik spezialisiert ist, wird nicht näher auf diesen Aspekt eingegangen.

Beta-Fehler

Der β-Fehler drückt aus, wie hoch die Wahrscheinlichkeit ist, einen Fehler 2. Art zu machen. Es geht also um die Wahrscheinlichkeit, dass die Nullhypothese H0 beibehalten wird, obwohl die Alternativhypothese H1 gilt. Der β-Fehler wird anders als der α-Fehler nicht auf ein bestimmtes Niveau festgelegt. Cohen (1992) empfiehlt (z. B. in Poweranalysen) einen maximalen β-Fehler von 0.20 (20 %) zuzulassen. Die Gegenwahrscheinlichkeit des Beta-Fehlers bezeichnet die Power bzw. Macht des Tests. Liegt der Beta-Fehler also bei 20 %, ist die Macht des Tests 80 %.

Lade dir hier die Formelsammlung für deinen Bland-Altman-Plot herunter

Melde dich für meinen Newsletter an und erhalte sofort das PDF!

You have Successfully Subscribed!

10 % Rabatt auf unsereWorkshops & Kurse im Onlineshop!

Trage dich hier für Dr. Ortmanns beste Maildizin ein und erhalte regelmäßige Rabatte, Tipps und Coachinginhalte für deine empirische Promotion

You have Successfully Subscribed!

Lade dir hier die Checkliste für deinen Methodenteil herunter

Melde dich für meinen Newsletter an und erhalte sofort das PDF!

You have Successfully Subscribed!


Jetzt 10 % Rabatt auf alle

Workshops & Kurse sichern!

You have Successfully Subscribed!

Downloade dir hier das Flowchart für deine ANOVA

Melde dich für meinen Newsletter an und erhalte sofort das PDF!

You have Successfully Subscribed!

Lade dir hier die Vorlage für den Aufbau deines Datensatzes herunter

Melde dich für meinen Newsletter an und erhalte sofort die Excel-Vorlage!

You have Successfully Subscribed!