Zweistichproben-t-Test
Der Zweistichproben-t-Test ist ein Signifikanztest aus der mathematischen Statistik. In der üblichen Form prüft er anhand der Mittelwerte zweier Stichproben, ob die Mittelwerte zweier normalverteilter Grundgesamtheiten gleich oder verschieden voneinander sind.
Es gibt zwei Varianten des Zweistichproben-t-Tests:
- den für zwei unabhängige Stichproben mit gleichen Standardabweichungen <math>\sigma</math> in beiden Grundgesamtheiten und
- den für zwei abhängige Stichproben.
Liegen zwei unabhängige Stichproben mit ungleichen Standardabweichungen in beiden Grundgesamtheiten vor, so muss der Welch-Test (s. u.) eingesetzt werden.
Grundidee
Der Zweistichproben-t-Test prüft (im einfachsten Fall) mit Hilfe der Mittelwerte <math>\overline{x}_1</math> und <math>\overline{x}_2</math> zweier Stichproben, ob die Erwartungswerte <math>\mu_1</math> und <math>\mu_2</math> der zugehörigen Grundgesamtheiten verschieden sind.
Die untenstehende Grafik zeigt zwei Grundgesamtheiten (schwarze Punkte) und zwei Stichproben (blaue und rote Punkte), die zufällig aus den Grundgesamtheiten gezogen wurden. Die Mittelwerte der Stichproben <math>\overline{x}_1</math> und <math>\overline{x}_2</math> können aus den Stichproben berechnet werden, die Erwartungswerte der Grundgesamtheiten <math>\mu_1</math> und <math>\mu_2</math> sind jedoch unbekannt. In der Grafik sind die Grundgesamtheiten so konstruiert, dass die beiden Erwartungswerte gleich sind, also <math>\mu_1=\mu_2</math>.
Wir vermuten nun, z. B. aufgrund historischer Ergebnisse oder theoretischer Überlegungen, dass die Erwartungswerte <math>\mu_1</math> und <math>\mu_2</math> der Grundgesamtheiten verschieden sind, und möchten dies prüfen.
Im einfachsten Fall prüft der Zweistichproben-t-Test
- die Nullhypothese, dass die Erwartungswerte der Grundgesamtheiten gleich sind (<math>H_0:\,\mu_1=\mu_2</math>)
- gegen die Alternativhypothese, dass die Erwartungswerte der Grundgesamtheiten ungleich sind (<math>H_1:\,\mu_1\neq\mu_2</math>).
Wenn die Stichproben geeignet gezogen wurden, zum Beispiel als einfache Zufallsstichproben, wird der Mittelwert <math>\overline{x}_1</math> der Stichprobe 1 mit hoher Wahrscheinlichkeit nahe dem Erwartungswert <math>\mu_1</math> der Grundgesamtheit 1 liegen und der Mittelwert <math>\overline{x}_2</math> der Stichprobe 2 mit hoher Wahrscheinlichkeit nahe dem Erwartungswert <math>\mu_2</math> der Grundgesamtheit 2 liegen. Das heißt, der Abstand zwischen der gestrichelten roten und schwarzen Linie bzw. der gestrichelten blauen und schwarzen Linie wird mit hoher Wahrscheinlichkeit klein sein.
- Wenn der Abstand zwischen <math>\overline{x}_1</math> und <math>\overline{x}_2</math> (gestrichelte blaue bzw. rote Linie) klein ist, dann liegen auch die Erwartungswerte der Grundgesamtheiten <math>\mu_1</math> und <math>\mu_2</math> nahe beieinander. Wir können die Nullhypothese nicht ablehnen.
- Wenn der Abstand zwischen <math>\overline{x}_1</math> und <math>\overline{x}_2</math> (gestrichelte blaue bzw. rote Linie) groß ist, dann liegen auch die Erwartungswerte der Grundgesamtheiten <math>\mu_1</math> und <math>\mu_2</math> weit voneinander entfernt. Wir können die Nullhypothese ablehnen.
Die genauen mathematischen Berechnungen finden sich in den folgenden Abschnitten.
Zweistichproben-t-Test für unabhängige Stichproben
Um Erwartungswertunterschiede zwischen zwei Grundgesamtheiten mit der gleichen unbekannten Standardabweichung <math>\sigma</math> zu untersuchen, wendet man den Zweistichproben-t-Test an. Dafür muss jede der Grundgesamtheiten normalverteilt sein oder die Stichprobenumfänge müssen so groß sein, dass der zentrale Grenzwertsatz anwendbar ist. Für den Test zieht man eine Stichprobe <math>x_1, \ldots, x_n</math> vom Umfang <math>n</math> aus der 1. Grundgesamtheit und unabhängig davon eine Stichprobe <math>y_1,\ldots,y_m</math> vom Umfang <math>m</math> aus der 2. Grundgesamtheit. Für die zugehörigen unabhängigen Stichprobenvariablen <math>X_1,\ldots,X_n</math> und <math>Y_1,\ldots,Y_m</math> gilt dann <math>\operatorname{E}(X_i)=\mu_X</math> und <math>\operatorname{E}(Y_j)=\mu_Y</math> mit den Erwartungswerten <math>\mu_X</math> und <math>\mu_Y</math> der beiden Grundgesamtheiten. Wird eine Zahl <math>\omega_0</math> für die Differenz der Erwartungswerte vorgegeben, so lautet die Nullhypothese
- <math>H_0:\,\mu_X-\mu_Y=\omega_0</math>
und die Alternativhypothese
- <math>H_1:\,\mu_X-\mu_Y \neq \omega_0</math>.
Häufig liegt der Fall <math>\omega_0 = 0</math> vor, in welchem die Nullhypothese die Gleichheit der Erwartungswerte und die Alternativhypothese die Ungleichheit der Erwartungswerte postuliert.
Die Teststatistik ergibt sich zu
- <math>T=\frac{\overline X-\overline Y - \omega_0}{S\sqrt{\frac 1n+\frac 1m}} = \sqrt{\frac{nm}{n+m}} \frac{\overline X-\overline Y - \omega_0}{S}.</math>
Darin sind <math> \overline X</math> und <math>\overline Y</math> die respektiven Stichprobenmittelwerte und
- <math>S^2 = \frac{(n-1)S_X^2 + (m-1)S_Y^2}{n+m-2}</math>
die gewichtete Varianz, berechnet als gewichtetes Mittel der respektiven korrigierten Stichprobenvarianzen <math>S_X^2</math> und <math>S_Y^2</math>.
Die Teststatistik <math>T</math> ist unter der Nullhypothese t-verteilt mit <math>m+n-2</math> Freiheitsgraden. Der Prüfwert, also die Realisierung der Teststatistik anhand der Stichprobe, berechnet sich dann als
- <math>t=\sqrt{\frac{nm}{n+m}} \frac{\overline x -\overline y - \omega_0}{s}.</math>
Dabei sind <math>\overline x</math> und <math>\overline y</math> die aus der Stichprobe berechneten Mittelwerte und
- <math>s^2=\frac{(n-1)s_x^2 + (m-1)s_y^2}{n+m-2}</math>
die Realisierung der gewichteten Varianz, berechnet aus den Stichprobenvarianzen <math>s_x^2</math> und <math>s_y^2</math>. Sie wird auch als gepoolte Stichprobenvarianz bezeichnet.
Zum Signifikanzniveau <math>\alpha</math> wird die Nullhypothese abgelehnt zugunsten der Alternative, wenn
- <math>|t| > t(1-\tfrac 12 \alpha,\ n+m-2).</math>
Dabei bezeichnet <math>t(p,\nu)</math> das <math>p</math>-Quantil einer t-Verteilung mit <math>\nu</math> Freiheitsgraden. Im weiteren Verlauf des Artikels werden dafür auch die Notationen <math>t(p;\nu)</math> und <math>t_{p;\nu}</math> verwendet. Im Artikel t-Verteilung wird dagegen die Notation <math>t_{\nu;p}</math> für das <math>1-p</math>-Quantil einer t-Verteilung mit <math>\nu</math> Freiheitsgraden verwendet.
Alternativ können folgende Hypothesen mit der gleichen Teststatistik <math>T</math> getestet werden:
- <math>\!H_0:\mu_X-\mu_Y\leq\omega_0</math> vs. <math>\!H_1:\mu_X-\mu_Y>\omega_0</math> und die Nullhypothese wird abgelehnt, wenn <math>t > t(1-\alpha,\ m+n-2)</math> bzw.
- <math>\!H_0:\mu_X-\mu_Y\geq\omega_0</math> vs. <math>\!H_1:\mu_X-\mu_Y<\omega_0</math> und die Nullhypothese wird abgelehnt, wenn <math>t < -t(1-\alpha,\ m+n-2)</math>.
Bemerkung
Sind die Varianzen in den Grundgesamtheiten ungleich, dann muss der Welch-Test durchgeführt werden.
Beispiel 1
Zwei Düngemittelsorten sollen verglichen werden. Dazu werden 25 Parzellen gleicher Größe gedüngt, und zwar <math>n=10</math> Parzellen mit Sorte A und <math>m=15</math> Parzellen mit Sorte B. Angenommen wird, dass die Ernteerträge normalverteilt seien mit gleichen Varianzen. Bei Ersteren ergibt sich ein mittlerer Ernteertrag <math>\overline x = 23{,}6</math> mit Stichprobenvarianz <math>s_x^2 = 9{,}5</math> und bei den anderen Parzellen das Mittel <math>\overline y = 20{,}1</math> mit Varianz <math>s_y^2 = 8{,}9</math>. Für die gewichtete Varianz berechnet man damit
- <math>s^2 = \frac{9\cdot 9{,}5 + 14 \cdot 8{,}9}{10+15-2} = 9{,}135</math>.
Daraus erhält man die Prüfgröße
- <math>t = \sqrt{\frac{10 \cdot 15}{10+15}} \cdot \frac{23{,}6-20{,}1}{\sqrt{9{,}135}} = 2{,}837</math>.
Das vorgegebene Signifikanzniveau sei 5 %. Es wird ein zweiseitiger Test durchgeführt. Der Wert der Prüfgröße ist größer als das 0,975-Quantil der t-Verteilung mit <math>10+15-2=23</math> Freiheitsgraden <math>t(0{,}975;\ 23) = 2{,}069</math>. Es kann also mit einer Konfidenz von <math>95\,\%</math> behauptet werden, dass ein Unterschied in der Wirkung der beiden Düngemittel besteht.
Kompaktdarstellung
| Zweistichproben-t-Test für zwei unabhängige Stichproben | |||
|---|---|---|---|
| Voraussetzungen |
| ||
| Hypothesen | <math>H_0: \mu_X-\mu_Y\leq\omega_0\,</math> <math>H_1: \mu_X-\mu_Y>\omega_0\,</math> (rechtsseitig) |
<math>H_0: \mu_X-\mu_Y=\omega_0\,</math> <math>H_1: \mu_X-\mu_Y \neq\omega_0\,</math> (zweiseitig) |
<math>H_0: \mu_X-\mu_Y\geq\omega_0\,</math> <math>H_1: \mu_X-\mu_Y<\omega_0\,</math> (linksseitig) |
| Teststatistik | <math>T=\sqrt{\frac{nm}{n+m | ||
| Prüfwert | {{{pruf}}} | ||
| Ablehnungsbereich <math>H_0</math> | {{{ann1}}} | {{{ann2}}} | {{{ann3}}} |
\frac{\overline{X}-\overline{Y}-\omega_0}{S} </math>
Im Fall <math>\mu_X-\mu_Y=\omega_0</math> gilt für die Teststatistik <math>T \sim t_{n+m-2}</math>.
|pruf=<math>t=\sqrt{\frac{nm}{n+m}}\frac{\overline{x}-\overline{y}-\omega_0}{s}</math>
mit <math>\overline{x}=\frac{1}{n}\sum_{i=1}^n x_i</math>, <math>\overline{y}=\frac{1}{m}\sum_{i=1}^m y_i</math>,
<math>s_x=\sqrt{\frac{1}{n-1}\sum_{i=1}^n (x_i-\overline{x})^2}</math>,
<math>s_y=\sqrt{\frac{1}{m-1}\sum_{j=1}^m (y_j-\overline{y})^2}</math>
und <math>s=\sqrt{\frac{ {(n-1)s_x^2+(m-1)s_y^2} }{n+m-2}}</math>
|ann1=<math>\{t|t>t_{1-\alpha;n+m-2}\}\,</math>
|ann2=<math>\{t|t<-t_{1-\alpha/2;n+m-2}\}\,</math>
oder
<math>\{t|t>t_{1-\alpha/2;n+m-2}\}\,</math>
|ann3=<math>\{t|t<-t_{1-\alpha;n+m-2}\}\,</math>
}}
Zweistichproben-t-Test für abhängige Stichproben
{{#invoke:Vorlage:Siehe auch|f}}
Hier sind <math>x_1, x_2, \dots, x_n</math> und <math>y_1, y_2, \dots, y_n</math> zwei paarweise verbundene Stichproben, die beispielsweise aus zwei Messungen an denselben Untersuchungseinheiten gewonnen wurden (Messwiederholung). Die Stichproben können auch aus anderen Gründen paarweise abhängig sein, beispielsweise wenn die <math>x</math>- und <math>y</math>-Werte Messergebnisse von Frauen bzw. Männern in einer Partnerschaft sind und Unterschiede zwischen den Geschlechtern interessieren.
Soll die Nullhypothese getestet werden, dass die beiden Erwartungswerte der zugrunde liegenden normalverteilten Grundgesamtheiten gleich sind, so können mit dem Einstichproben-t-Test die Differenzen <math>d_i = x_i - y_i</math> auf Null getestet werden. In der Praxis muss bei kleineren Stichprobenumfängen (<math>n\leq30</math>) die Voraussetzung erfüllt sein, dass die Differenzen in der Grundgesamtheit normalverteilt sind. Bei hinreichend großen Stichproben verteilen sich die Differenzen der Paare annähernd normal um das arithmetische Mittel der Differenz der Grundgesamtheit. Insgesamt reagiert der t-Test auf Annahmeverletzung eher robust.<ref>Jürgen Bortz: Statistik für Human- und Sozialwissenschaftler. 6. Auflage. Springer, Berlin 2005, ISBN 3-540-21271-X, S. 142.</ref>
Beispiel 2
Um eine neue Therapie zur Senkung des Cholesterinspiegels zu testen, werden bei zehn Probanden vor und nach der Behandlung die Cholesterinwerte bestimmt. Es ergeben sich die folgenden Messergebnisse:
| Vor der Behandlung: | 223 | 259 | 248 | 220 | 287 | 191 | 229 | 270 | 245 | 201 |
| Nach der Behandlung: | 220 | 244 | 243 | 211 | 299 | 170 | 210 | 276 | 252 | 189 |
| Differenz: | 3 | 15 | 5 | 9 | −12 | 21 | 19 | −6 | −7 | 12 |
Die Differenzen der Messwerte haben das arithmetische Mittel <math>\overline d = 5{,}9</math> und die Stichprobenstandardabweichung <math>s_d=11{,}3866</math>. Das ergibt als Prüfgrößenwert
- <math>t=\sqrt{10}\frac{5{,}9}{11{,}3866}=1{,}6385</math>.
Es ist <math>t(0{,}975;\ 9) = 2{,}2622</math>, also gilt <math>|t| \leq t(0{,}975;\ 9)</math>. Somit kann die Nullhypothese, dass die Erwartungswerte der Cholesterinwerte vor und nach der Behandlung gleich sind, die Therapie also keine Wirkung hat, zum Signifikanzniveau <math>\alpha=5\,\%</math> nicht abgelehnt werden. Wegen <math>t<t(0{,}95;\ 9) = 1{,}8331</math> ist auch die einseitige Alternative, dass die Therapie den Cholesterinspiegel senkt, nicht signifikant. Wenn die Behandlung überhaupt einen Effekt hat, so ist dieser nicht groß genug, um ihn mit einem so kleinen Stichprobenumfang zu entdecken.
Kompaktdarstellung
| Zweistichproben-t-Test für zwei gepaarte Stichproben | |||
|---|---|---|---|
| Voraussetzungen |
| ||
| Hypothesen | <math>H_0: \mu_X-\mu_Y\leq\omega_0</math> <math>H_1: \mu_X-\mu_Y>\omega_0\,</math> (rechtsseitig) |
<math>H_0: \mu_X-\mu_Y=\omega_0\,</math> <math>H_1: \mu_X-\mu_Y\neq\omega_0</math> (zweiseitig) |
<math>H_0: \mu_X-\mu_Y\geq\omega_0</math> <math>H_1: \mu_X-\mu_Y<\omega_0\,</math> (linksseitig) |
| Teststatistik | <math>T=\sqrt{n}\frac{\overline{D}-\omega_0}{S_D}</math>
Im Fall <math>\mu_X-\mu_Y =\omega_0</math> gilt für die Teststatistik <math>T \sim t_{n-1}</math>. | ||
| Prüfwert | <math>t=\sqrt{n}\frac{\overline{d}-\omega_0}{s_d}</math> mit <math>d_i=x_i-y_i\,</math>, <math>\overline{d}=\frac{1}n\sum_{i=1}^n d_i</math>, und <math>s_d = \sqrt{ \frac{1}{n-1}\sum_{i=1}^n (d_i-\overline{d})^2 } </math> | ||
| Ablehnungsbereich <math>H_0</math> | <math>[t_{1-\alpha;n-1},\infty)\,</math> | <math>(-\infty,-t_{1-\frac{\alpha}2;n-1}]\cup [t_{1-\frac{\alpha}2;n-1},\infty)\,</math> | <math>(-\infty,-t_{1-\alpha;n-1}]\,</math> |
Welch-Test
Beim Welch-Test<ref name="BLW38">B. L. Welch: The significance of the difference between two means when the population variances are unequal. In: Biometrika. Band 29, 1938, S. 350–362.</ref>, der manchmal auch Satterthwaite-Test<ref>Franklin J. Satterthwaite: Synthesis of Variance. In: Psychometrika. Band 6, Heft 5, 1941, S. 309–316.</ref> genannt wird, wird wie beim Zweistichprobentest-t-Test für unabhängige Stichproben unterstellt, dass die beiden Stichproben normalverteilt und unabhängig voneinander sind. Jedoch wird nicht mehr gefordert, dass die Varianzen in beiden Stichproben identisch sind. Die Teststatistik wird gegenüber dem Zweistichproben-t-Test entsprechend modifiziert:
- <math>T=\frac{\overline X-\overline Y - \omega_0}{\sqrt{\frac{S_X^2}n+\frac{S_Y^2}m}} \approx t_\nu.</math>
Diese Teststatistik ist unter der Nullhypothese gleicher Mittelwerte nicht <math>t</math>-verteilt. Die wahre Verteilung kann aber (auch für endliche Stichproben!) durch eine t-Verteilung mit einer modifizierten Anzahl von Freiheitsgraden approximiert werden<ref name="BLW38"/><ref>{{#invoke:Vorlage:Literatur|f}}</ref> (siehe auch Behrens-Fisher-Problem):
- <math>\nu = { \left(\frac{s_x^2}{n} + \frac{s_y^2}{m}\right)^2 \over \frac 1{n-1} \left(\frac{s_x^2}{n}\right)^2 + \frac 1{m-1}\left(\frac{s_y^2}{m}\right)^2 }.</math>
Dabei sind <math>s_x</math> und <math>s_y</math> die aus der Stichprobe geschätzten Standardabweichungen der Grundgesamtheiten sowie <math>n</math> und <math>m</math> die Stichprobenumfänge.
Obwohl der Welch-Test speziell für den Fall <math>\sigma_X\neq\sigma_Y</math> entwickelt wurde, funktioniert der Test nicht gut, wenn mindestens eine der Verteilungen nicht-normal ist, die Fallzahlen klein und stark unterschiedlich (<math>n\neq m</math>) sind.<ref>{{#invoke:Vorlage:Literatur|f}}</ref><ref>{{#invoke:Vorlage:Literatur|f}}</ref>
Kompaktdarstellung
| Welch-Test | |||
|---|---|---|---|
| Voraussetzungen |
| ||
| Hypothesen | <math>H_0: \mu_X-\mu_Y\leq\omega_0\,</math> <math>H_1: \mu_X-\mu_Y>\omega_0\,</math> (rechtsseitig) |
<math>H_0: \mu_X-\mu_Y=\omega_0\,</math> <math>H_1: \mu_X-\mu_Y \neq\omega_0\,</math> (zweiseitig) |
<math>H_0: \mu_X-\mu_Y\geq\omega_0\,</math> <math>H_1: \mu_X-\mu_Y<\omega_0\,</math> (linksseitig) |
| Teststatistik | <math>T=\frac{\overline{X}-\overline{Y}-\omega_0}{S} \approx t_\nu</math>
Im Fall <math>\mu_X-\mu_Y=\omega_0</math> gilt <math> T \approx t_\nu</math>. | ||
| Prüfwert | <math>t=\frac{\overline{x}-\overline{y}-\omega_0}{s}</math> mit <math>\overline{x}=\frac{1}{n}\sum_{i=1}^n x_i</math>, <math>\overline{y}=\frac{1}{m}\sum_{i=1}^m y_i</math>, | ||
| Ablehnungsbereich <math>H_0</math> | {{{ann1}}} | {{{ann2}}} | {{{ann3}}} |
</math> und
<math>\nu=\frac{\left(\frac{s_x^2}{n} + \frac{s_y^2}{m}\right)^2}{\frac{\left(\frac{s_x^2}{n}\right)^2}{n-1} + \frac{\left(\frac{s_y^2}{m}\right)^2}{m-1}}</math>.
|ann1=<math>\{t|t>t_{1-\alpha;\nu}\}\,</math>
|ann2=<math>\{t|t<-t_{1-\alpha/2;\nu}\}\,</math>
oder
<math>\{t|t>t_{1-\alpha/2;\nu}\}\,</math>
|ann3=<math>\{t|t<-t_{1-\alpha;\nu}\}\,</math>
}}
Alternative Tests
Der t-Test wird, wie oben ausgeführt, zum Testen von Hypothesen über Erwartungswerte einer oder zweier Stichproben aus normalverteilten Grundgesamtheiten mit unbekannter Standardabweichung verwendet.
- Permutationstest, beruht nicht auf der Annahme, dass jede der beiden Gruppen für sich normalverteilt sind
- Klassifizierer-Zweistichprobentest<ref>Revisiting Classifier Two Sample Test David Lopez-Paz, Maxime Oquab, https://arxiv.org/pdf/1610.06545v2</ref> (c2st)
- Die Annahme, dass jede der beiden Gruppen für sich normalverteilt ist, kann mit dem Shapiro-Wilk-Test oder dem Kolmogorow-Smirnow-Test geprüft werden. Liegt keine Normalverteilung vor, können als Ersatz für den t-Test nichtparametrische Tests angewendet werden, etwa ein Wilcoxon-Mann-Whitney-Test (auch: Wilcoxon-Rangsummentest) für unabhängige Stichproben oder ein Wilcoxon-Vorzeichen-Rang-Test für gepaarte Stichproben. Ein einfach durchführbares alternatives Verfahren zur schnellen Abschätzung ist der Schnelltest nach Tukey.
- Sollen mehr als zwei normalverteilte Stichproben auf Gleichheit der Erwartungswerte getestet werden, kann eine Varianzanalyse angewendet werden.
- Bei Mittelwertvergleichen normalverteilter Stichproben mit bekannter Standardabweichung können Gauß-Tests verwendet werden.
Weblinks
Einzelnachweise
<references />