...
Falls die obigen Annahmen erheblich verletzt sind, empfiehlt es sich zunächst eine Transformation der abhängigen Variablen vorzunehmen. Sinnvoll sind insbesondere die Logarithmus-Transformation, da viele Variablen wie z.B. das Einkommen eher auf einer multiplikativen Skala statt einer additiven Skala Sinn ergeben. Weitere Transformationen sind die Wurzeltransformation oder die Box-Cox-Transformation. Wenn dies immer noch nicht zum Erfolg führt, gibt es nichtparametrische bzw. robuste Alternativen (siehe unten).
Grundlegende Testidee
...
:
Sei \(x_{ij}\) die j-te Beobachtung der i-ten Stichprobe und \(\overline{x}\) das Gesamtmittel, sowie \(\overline{x}_{i}\) das i-te Gruppenmittel. Dann gilt:
$$x_{ij}=\overline{x}+\underbrace{\overline{x}_{i}-\overline{x}}_{Abweichung Gruppenmittel vom Gesamtmittel} + \underbrace{(x_{ij}-\overline{x_{i}})}_{Abweichung Beobachtung vom Gruppenmittel}$$
Gilt \(H_{0}\) nicht, wird die Abweichung der Gruppenmittel zum Gesamtmittel hoch sein im Vergleich zur Abweichung der Beobachtung zum Gruppenmittel.
Daraus folgt die Teststatistik:
$$F_{0,\alpha}:=\frac{\frac{1}{I-1}SSA}{\frac{1}{n-1}SSR}=\frac{\frac{1}{I-1}J\sum_{i=1}^{J}(\overline{x}_{i}-\overline{x})^{2}}{\frac{1}{n-1}\sum_{i=1}^{I}\sum_{j}^{J}(x_{ij}-\overline{x}_{i})^2}$$
- SSA:= Sum of Squared erors of All treamtent (sample) menas vs. grand mean
- SSE:= Sum of Squared Errors of all observation vs. respective sample means
- SST:= Sum of Squared errors Total for all observations vs. grand mean = SSA+SSE
Je weiter die Mittelwerte der einzelnen Faktorstufen vom Gesamtmittel abweichen, desto größer wird der Wert für SSA, im Vergleich zum Wert für SSR. Unter \(H_{0}\) sollte also der Quotient \(\frac{SSA}{SSR}\) nahe bei Null liegen. Je größer SSA wird -und somit auch je größer der Quotient wird- desto unwahrscheinlicher ist die Gültigkeit von \(H_{0}\). Bei zu großen Werten von F wird \(H_{0}\) verworfen.
Omnibus-F-Test:
Post-Hoc-Tests:
Kruskal-Wallis-Test als nichtparametrische Alternative:
...