von Dr. Magdalene Ortmann | Mai 26, 2022
Multikollinearität liegt vor, wenn die Prädiktoren (innerhalb einer multiplen linearen Regression) sehr hoch untereinander korreliert sind und somit die gleiche Varianz erklären. Das hat einerseits einen Einfluss auf die Güte der Signifikanztests, andererseits wird aber auch die Schätzung der b-Gewichte sehr ungenau (siehe auch: Varianzinflationsfaktor). Da Multikollinearität bedeutet, dass einer der beiden Prädiktoren überflüssig ist, kannst du sie in Griff bekommen, in dem du dir überlegst, welcher der beiden hochkorrelierenden Prädiktoren, der wirklich erklärende für das Kriterium (deine zu erklärende Variable innerhalb der Regression) ist. Dieser wird dann im Modell belassen und der andere entfernt.
von Dr. Magdalene Ortmann | Mai 26, 2022
Die Normalverteilung der Residuen ist eine wichtige Annahme vieler statistischer Modelle, beispielsweise für die ANOVA und für die lineare Regression. Die Überprüfung erfolgt häufig visuell/grafisch mit Hilfe sogenannter QQ-Plots. Es gibt aber auch statistische Tests, z. B. den Shapiro-Wilk Test. Ist die Annahme normalverteilter Residuen verletzt, ist es häufig sinnvoll ein robustes Modell in Betracht zu ziehen.
von Dr. Magdalene Ortmann | Mai 26, 2022
Die quadrierte Semipartialkorrelation ist eine sehr hilfreiche Effektstärke der einzelnen Regressionsgewichte innerhalb der linearen Regression. Die quadrierte Semipartialkorrelation ist der Anteil der Varianz, die durch den einzelnen Prädiktor erklärt werden kann. Die quadrierte Semipartialkorrelation liegt entsprechend immer zwischen 0 und 1. Ein rs2 von .02, .13 und .26 entsprechen einem kleinen, mittleren und großen Effekt.
von Dr. Magdalene Ortmann | Mai 26, 2022
Kein statisches Modell ist perfekt. Die Abweichung der auf Basis des Modells vorhergesagten und der tatsächlich gemessenen Werte nennt man Residuen (Fehler).
von Dr. Magdalene Ortmann | Mai 26, 2022
Simple Slopes sind eine Möglichkeit im Falle einer moderierten Regression den Interaktionseffekt besser zu verstehen. Dabei wird der Effekt des einen Prädiktors für verschiedene Stufen eines anderen Prädiktors berechnet. Wie du Simple Slopes in R berechnen kannst, lernst du in unserem Kurs zur linearen Regression im Detail.