Zum Inhalt springen

Satz von Cochran

aus Wikipedia, der freien Enzyklopädie

In der Statistik wird der Satz von Cochran in der Varianzanalyse verwendet. Der Satz geht auf den schottischen Mathematiker William Gemmell Cochran zurück.

Man nimmt an <math>U_1,\dots U_n,</math> seien stochastisch unabhängige standardnormalverteilte Zufallsvariablen, und es gilt

<math>

\sum_{i=1}^n U_i^2=Q_1+\cdots + Q_k, </math>

wobei jedes <math>Q_i</math> die Summe der Quadrate von Linearkombinationen der <math>U</math>s darstellt. Ferner nimmt man an, dass

<math>

r_1+\cdots +r_k=n, </math>

wobei <math>r_i</math> der Rang von <math>Q_i</math> ist. Der Satz von Cochran besagt, dass die <math>Q_i</math> unabhängig sind mit einer Chi-Quadrat-Verteilung mit <math>r_i</math> Freiheitsgraden.

Der Satz von Cochran ist die Umkehrung des Satzes von Fisher.

Beispiel

Falls <math>X_1,\dots X_n,</math> unabhängige normalverteilte Zufallsvariablen mit Erwartungswert <math>\mu</math> und Standardabweichung <math>\sigma</math> sind, dann gilt

<math>U_i=(X_i-\mu)/\sigma \;</math>

ist standardnormalverteilt für jedes <math>i</math>.

Jetzt kann man folgendes schreiben

<math>

\sum_{i=1}^{n} U_i^2=\sum\limits_{i=1}^{n}\left(\frac{X_i-\overline{X}}{\sigma}\right)^2 + n\left(\frac{\overline{X}-\mu}{\sigma}\right)^2 </math>

Damit man diese Identität erkennt, muss man auf beiden Seiten mit <math>\sigma</math> multiplizieren und beachten, dass gilt

<math>

\sum_{i=1}^{n}(X_i-\mu)^2= \sum_{i=1}^{n}(X_i-\overline{X}+\overline{X}-\mu)^2 </math>

und erweitert, um zu zeigen

<math>

\sum_{i=1}^{n}(X_i-\overline{X})^2+\sum_{i=1}^{n}(\overline{X}-\mu)^2+ 2\sum_{i=1}^{n}(X_i-\overline{X})(\overline{X}-\mu). </math>

Der dritte Term ist null, weil der Faktor

<math>\sum_{i=1}^{n}(\overline{X}-X_i)=0</math>

ist, und der zweite Term besteht nur aus <math>n</math> identischen Termen, die zusammengefügt wurden.

Kombiniert man die obigen Ergebnisse und teilt anschließend durch <math>\sigma^2</math>, dann erhält man:

<math>

\sum_{i=1}^{n}\left(\frac{X_i-\mu}{\sigma}\right)^2= \sum_{i=1}^{n}\left(\frac{X_i-\overline{X}}{\sigma}\right)^2 +n\left(\frac{\overline{X}-\mu}{\sigma}\right)^2 =Q_1+Q_2. </math>

Jetzt ist der Rang von <math>Q_2</math> gerade gleich 1 (es ist das Quadrat von nur einer Linearkombination der standardnormalverteilten Zufallsvariablen). Der Rang von <math>Q_1</math> ist gleich <math>n-1</math>, und daher sind die Bedingungen des Satzes von Cochran erfüllt.

Der Satz von Cochran besagt dann, dass <math>Q_1</math> und <math>Q_2</math> unabhängig sind, mit einer Chi-Quadrat-Verteilung mit <math>n-1</math> und <math>1</math> Freiheitsgrad.

Dies zeigt, dass der Mittelwert und die Varianz unabhängig sind; Ferner gilt

<math>

(\overline{X}-\mu)^2\sim \frac{\sigma^2}{n}\chi^2_1. </math>

Um die unbekannte Varianz der Grundgesamtheit <math>\sigma^2</math> zu schätzen, wird ein häufig verwendeter Schätzer benutzt

<math>

\hat{\sigma}^2= \frac{1}{n}\sum_{i=1}^{n}\left( X_i-\overline{X}\right)^2. </math>

Der Satz von Cochran zeigt, dass

<math>

\hat{\sigma}^2\sim \frac{\sigma^2}{n}\chi^2_{n-1}, </math>

was zeigt, dass der Erwartungswert von <math>\hat{\sigma}^2</math> gleich <math>\sigma^2\frac{n-1}{n}</math> ist.

Beide Verteilungen sind proportional zur wahren aber unbekannten Varianz <math>\sigma^2</math> Daher ist ihr Verhältnis unabhängig von <math>\sigma^2</math>, und weil sie unabhängig sind, erhält man

<math>

\frac{\left(\overline{X}-\mu\right)^2} {\frac{1}{n}\sum_{i=1}^{n}\left(X_i-\overline{X}\right)^2}\sim F_{1,n} </math>,

wobei <math>F_{1,n}</math> die F-Verteilung mit <math>1</math> und <math>n</math> Freiheitsgraden darstellt (siehe auch Studentsche t-Verteilung).

Literatur

  • Cochran, W. G.: The distribution of quadratic forms in a normal system, with applications to the analysis of covariance. Mathematical Proceedings of the Cambridge Philosophical Society 30 (2): 178–191, 1934.
  • Bapat, R. B.: Linear Algebra and Linear Models. Zweite Auflage (1990). Springer. ISBN 978-0-387-98871-9