Notice: Unexpected clearActionName after getActionName already called in /var/www/html/includes/context/RequestContext.php on line 338
Streuungsmaß (Statistik) – Wikipedia Zum Inhalt springen

Streuungsmaß (Statistik)

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Mittlere Abweichung)

Vorlage:Hinweisbaustein

Streuungsmaße, auch Dispersionsmaße (lateinisch dispersio „Zerstreuung“, von dispergere „verteilen, ausbreiten, zerstreuen“) oder Streuungsparameter genannt, fassen in der deskriptiven Statistik verschiedene Maßzahlen zusammen, die die Streubreite von Beobachtungswerten beziehungsweise einer Häufigkeitsverteilung um einen geeigneten Lageparameter herum beschreiben. Die verschiedenen Berechnungsmethoden unterscheiden sich prinzipiell durch ihre Beeinflussbarkeit beziehungsweise Empfindlichkeit gegenüber Ausreißern.

Anforderungen

Es sei <math>(x_1, \dots, x_n) \in \mathbb{R}^n</math> ein Vektor von Beobachtungwerten (Daten) und <math>s\colon \mathbb{R}^n \rightarrow \mathbb{R}</math> eine Funktion. Eine Funktion <math>s</math> heißt ein Streuungsmaß, wenn sie im Allgemeinen folgende Anforderungen erfüllt:

  • <math>s(x_1, \dots, x_n)</math> ist eine nichtnegative reelle Zahl, die Null ist, wenn alle Beobachtungen gleich sind <math>x_1=x_2=\ldots=x_n=\overline x</math> (in den Daten ist keinerlei Variabilität vorhanden), und zunimmt, wenn die Daten vielfältiger werden. Wenn mindestens zwei Merkmalswerte voneinander verschieden sind, dann streuen die Daten untereinander bzw. um einen Mittelwert, was auch beim Streuungsmaß zum Ausdruck kommen sollte.
  • Bei einem Streuungsmaß wird Nichtnegativität gefordert, da bei Streuung „das Ausmaß“ statt „die Richtung“ konstituierend ist. Ein Streuungsmaß sollte also umso größer sein, je stärker Beobachtungswerte voneinander abweichen. Noch strenger wird oft gefordert, dass sich ein Streuungsmaß bei einer Ersetzung eines Beobachtungswertes durch einen neuen Merkmalswert nicht verkleinern darf.
  • <math>s</math> ist translationsinvariant<ref name="Buechter83" />, d. h., eine Verschiebung des Nullpunktes hat keinen Einfluss auf die Verteilung. Es muss also folgendes gelten: <math>s(x_1 + a, \dots, x_n + a) = s(x_1, \dots, x_n) \;\;\; \forall a \in \mathbb{R}</math>
  • Es ist auch wünschenswert, dass das Streuungsmaß gegenüber Maßstabsänderungen äquivariant ist.<ref>Hans Friedrich Eckey et al.: Statistik: Grundlagen — Methoden — Beispiele., S. 74. (1. Aufl. 1992; 3. Aufl. 2002, ISBN 3-409-32701-0). Die 4. Aufl. 2005 und die 5. Aufl. 2008 erschienen unter dem Titel Deskriptive Statistik: Grundlagen — Methoden — Beispiele).</ref>

Ein einfacher Ansatz für ein Streuungsmaß wäre, die Differenzen der Werte vom empirischen Mittel aufzusummieren. Dies führt zu

<math> s(x)= \sum_{i=1}^n (x_i-\overline x) </math>

Diese Summe ergibt allerdings stets 0, weil sich positive und negative Summanden gegenseitig aufheben (Schwerpunkteigenschaft). Das ist also nicht geeignet als Streuungsmaß, da der Wert nicht zunimmt, wenn die Variabilität der Daten steigt. Möglichkeiten bestehen also darin, die Absolutbeträge oder die Quadrate der Abweichungen zu summieren.

Streuungsmaßzahlen in der beschreibenden (deskriptiven) Statistik

Im Folgenden wird davon ausgegangen, dass <math>x_1,\dots,x_n</math> reellwertige Beobachtungswerte vorliegen, die inhaltlich zu einer Variablen gehören. Diese können Messwerte sein. Es kann sich um Stichprobenwerte handeln, es kann sich aber auch um die Beobachtungswerte einer Gesamtheit handeln, die nicht als Stichprobe aufgefasst wird. Mit

<math>\bar x = \frac{1}{n}\sum_{i=1}^n x_i</math>

ist der arithmetische Mittelwert der Beobachtungswerte bezeichnet.

Streuung um das arithmetische Mittel

Summe der Abweichungsquadrate

Ein intuitives Streuungsmaß ist die Summe der Abweichungsquadrate, bei der die quadrierten Abweichungen der Beobachtungswerte vom arithmetischen Mittelwert aufsummiert werden,

<math>SQ :=\sum\limits_{i=1}^n (x_i - \overline x)^2\;.</math>

Empirische Varianz

Einer der wichtigsten Streuungsparameter ist die Varianz der Beobachtungswerte, die als

<math>s^2=\frac{1}{n} \sum \limits_{i=1}^n\left(x_i-\overline x\right)^2 </math>

definiert ist und die äquivalente Darstellung

<math>s^2 = \frac{1}{n}\sum_{i=1}^n x_i^2 - \bar x^2</math>

besitzt.<ref>Horst Rinne: Taschenbuch der Statistik. 2008, S. 43.</ref> Eine weitere äquivalente Darstellung, die keinen Bezug auf den arithmetischen Mittelwert der Beobachtungswerte nimmt, ist

<math>s^2 = \frac{1}{2n^2} \sum_{i=1}^n\sum_{j=1}^n (x_i -x_j)^2 \;.</math><ref name="MS2009-43">Karl Mosler, Friedrich Schmid: Beschreibende Statistik und Wirtschaftsstatistik. 2009, S. 43.</ref>

Empirische Standardabweichung

Die Standardabweichung ist definiert als die Wurzel aus der Varianz und ist demnach

<math>s = \sqrt{\frac{1}{n} \sum \limits_{i=1}^n\left(x_i-\overline x\right)^2}\;. </math>

Ein wesentlicher Unterschied zur Varianz ist, dass die Standardabweichung dieselbe Dimension und damit dieselben Einheiten wie die Beobachtungswerte besitzt.

Mittlere absolute Abweichung

Im Falle einer konkreten Stichprobe <math>x_1, \dots, x_n</math> mit dem arithmetischen Mittel <math>\overline{x}</math> wird sie errechnet durch

<math>\operatorname{e} = \frac{1}{n}\sum_{i=1}^n \left|x_i - \overline{x}\right|.</math>

Die mittlere absolute Abweichung wird in der mathematischen Statistik meist zugunsten der quadratischen Abweichung umgangen, welche analytisch leichter zu behandeln ist. Die in der Definition verwendete Betragsfunktion ist nicht überall differenzierbar, was die Berechnung des Minimums erschwert.

Aufgrund der Ungleichung vom arithmetisch-quadratischen Mittel ist die mittlere absolute Abweichung kleiner oder gleich der Standardabweichung (Gleichheit gilt nur für konstante Zufallsgrößen).

Streuung um den Median

Quantilsabstand

Der Quantilsabstand ist die Differenz zwischen dem <math>p</math>- und <math>\left(1-p\right)</math>-Quantil:

<math>QA_p = Q_{1-p}-Q_p\;</math> mit <math>\;0\leq p < 0{,}5</math>

Innerhalb des <math>QA_p</math> liegen etwa <math>100 \cdot (1-2p)</math> Prozent aller Beobachtungswerte.

Interquartilsabstand

Der Interquartilsabstand (engl. {{Modul:Vorlage:lang}} Modul:Multilingual:153: attempt to index field 'data' (a nil value)), abgekürzt IQR, wird als Differenz der Quartile <math>Q_{0{,}75}</math> und <math>Q_{0{,}25}</math> berechnet:

<math> \operatorname{IQR} = Q_{0{,}75} - Q_{0{,}25} </math>

Innerhalb des IQR liegen 50 % aller Messwerte. Er ist – wie auch der Median bzw. <math>Q_{0{,}5}</math> – unempfindlich gegenüber Ausreißern. Es lässt sich zeigen, dass er einen Bruchpunkt von <math>\varepsilon^*=0{,}25</math> hat.

Der Interquartilsabstand ist gleich dem Quantilsabstand <math>QA_{0{,}25}</math>

Mittlere absolute Abweichung vom Median

Für <math>n</math> beobachtete Werte <math>x_1,\dots,x_n</math> mit dem (eindeutigen) Median <math>\tilde{x}</math> ist die Mittlere absolute Abweichung vom Median als

<math> \operatorname{MD} = \frac{1}{n}\sum_{i=1}^n \left|x_i - \tilde{x}\right| </math>

definiert. Aufgrund der Extremaleigenschaft des Medians gilt im Vergleich mit der mittleren absoluten Abweichung stets

<math> \operatorname{MD} \le \operatorname{e} </math>,

d. h., die mittlere absolute Abweichung bezüglich des Medians ist erst recht kleiner als die Standardabweichung.

Median der absoluten Abweichungen vom Median

Für Beobachtungswerte <math>x_1,\dots,x_n</math> ist die mittlere absolute Abweichung (engl. {{Modul:Vorlage:lang}} Modul:Multilingual:153: attempt to index field 'data' (a nil value), auch MedMed), abgekürzt MAD, ist definiert durch

<math> \operatorname{MAD} = \operatorname{median}\{\left|x_i - \tilde{x}\right| \mid i=1,\dots,n \} </math>.

Die mittlere absolute Abweichung ist ein robuster Schätzer für die Standardabweichung. Es lässt sich zeigen, dass sie einen Bruchpunkt von <math>\varepsilon^* = 0{,}5</math> hat.

Weitere Streuungsmaße

Spannweite

Die Spannweite ({{Modul:Vorlage:lang}} Modul:Vorlage:lang:103: attempt to index field 'wikibase' (a nil value)) <math>R</math> berechnet sich als Differenz zwischen dem größten und dem kleinsten Beobachtungswert:

<math> R = x_{\max} - x_{\min} </math>

Da die Spannweite nur aus den zwei Extremwerten berechnet wird, ist sie nicht robust gegenüber Ausreißern.

Ginis mittlere Differenz

Für Beobachtungswerte <math>(x_1,\dots,x_n)</math> heißt die Maßzahl

<math> \Delta = \frac{1}{n^2} \sum_{i=1}^n \sum_{j=1}^n |x_i - x_j|</math>

Ginis mittlere Differenz.<ref name="MS2009-46">Karl Mosler, Friedrich Schmid: Beschreibende Statistik und Wirtschaftsstatistik. 2009, S. 46.</ref>

Mittlere absolute Differenz

Für Beobachtungswerte <math>(x_1,\dots,x_n)</math> ist

<math> \bar\Delta = \frac{1}{n(n-1)} \sum_{i=1}^n \sum_{j=1}^n |x_i - x_j| = \frac{2}{n(n-1)} \sum_{i=1}^{n-1} \sum_{j=i+1}^n |x_i - x_j|</math>

die mittlere absolute Differenz oder mittlere Differenz.<ref name="R2008-45" />

Geometrische Standardabweichung

Die geometrische Standardabweichung ist ein Streuungsmaß um das geometrische Mittel.

Relative Streuungsmaße

Relative Streuungsmaße heißen auch relative Streumaße oder Dispersionskoeffizienten.<ref name="R2008-45">Horst Rinne: Taschenbuch der Statistik. 2008, S. 45.</ref> Ein relatives Streumaß ist typischerweise ein Quotient aus einem Streuungsmaß und einem Lagemaß.<ref name="R2008-45" />

Relative Spannweite

Die relative Spannweite berechnet sich als Quotient aus der Spannweite und der Bereichsmitte;<ref name="R2008-45" />

<math> vR = \frac{R}{ \frac{x_{\min} + x_{\max}}{2}} \;.</math>

Variationskoeffizient

Der empirische Variationskoeffizient wird gebildet als Quotient aus empirischer Standardabweichung <math>s</math> und arithmetischem Mittel <math>\overline{x}</math>:

<math>v=\frac{s}{\overline{x}},\quad \overline{x} > 0</math>.<ref name="R2008-45" />

Er ist dimensionslos und somit nicht einheitenbehaftet.

Ginikoeffizient

Zwischen Ginis mittlerer Differenz <math>\Delta</math>, dem arithmetischen Mittelwert <math>\bar x</math> und dem Gini-Koeffizienten <math>G</math> besteht der Zusammenhang

<math> G = \frac{\Delta}{2 \bar x}\;.</math><ref name="MS2009-95">Karl Mosler, Friedrich Schmid: Beschreibende Statistik und Wirtschaftsstatistik. 2009, S. 95.</ref>

Damit ist der Gini-Koeffizient als Quotient aus einem Streuungsmaß und einem Lagemaß ein relatives Streuungsmaß.<ref name="MS2009-96">Karl Mosler, Friedrich Schmid: Beschreibende Statistik und Wirtschaftsstatistik. 2009, S. 96.</ref>

Relative durchschnittliche Abweichung vom Median

Die relative durchschnittliche Abweichung vom Median wird gebildet als Quotient aus durchschnittlicher Abweichung vom Median und Median;<ref name="R2008-45">Horst Rinne: Taschenbuch der Statistik. 2008, S. 45.</ref>

<math>vd = \frac{\operatorname{MD}}{\tilde x} \;.</math>

Relativer Quartilsabstand

Der relative Quartilsabstand wird gebildet als Quotient aus Quartilsabstand und Median;<ref name="R2008-45" />

<math>vq = \frac{\operatorname{IQR}}{\tilde x}\;.</math>

Streuungsmaßzahlen in der schließenden (induktiven) Statistik

In der induktiven Statistik sind die Beobachtungswerte <math>x_1,\dots,x_n</math> Stichprobenwerte aus einer Stichprobe aus einer Grundgesamtheit und Realisierungen von Stichprobenvariablen <math>X_1,\dots,X_n</math> mit einer gemeinsamen Wahrscheinlichkeitsverteilung des Stichprobenvektors <math>(X_1,\dots,X_n)</math>.

Dabei liegt häufig der Spezialfall stochastisch unabhängiger und identisch verteilter Stichprobenvariablen vor. In diesem Spezialfall können viele Streuungsmaßzahlen der deskriptiven Statistik als Schätzwerte analoger Streuungsmaßzahlen der Grundgesamtheit verwendet werden. Dass dieses Vorgehen – zumindest für große Stichprobenumfänge – meistens zu plausiblen Schätzern führt, garantiert der Hauptsatz der mathematischen Statistik (Satz von Glivenko und Cantelli), der besagt, dass sich die Häufigkeitsverteilung der Stichprobenwerte für wachsenden Stichprobenumfang in einem sehr weitgehenden Sinn der Verteilung der Grundgesamtheit annähert.

Stichprobenvarianz

In der schließenden Statistik wird die aus den Stichprobenwerten <math>x_1,\dots,x_n</math> berechnete Varianz <math>s^2</math> häufig als Stichprobenvarianz bezeichnet. Die aus den Stichprobenwerte berechnete Varianz wird auch als empirische Varianz bezeichnet, um diese von der Varianz der Grundgesamtheit zu unterscheiden. Bei stochastisch unabhängigen und identisch verteilten Stichprobenvariablen ist die Varianz der Grundgesamtheit <math>\sigma^2</math> die Varianz der identisch verteilten Stichprobenvariablen <math>X_1,\dots,X_n</math>, es gilt also <math>\mathrm{Var}[X_i] = \sigma^2</math> für <math>i=1,\dots,n</math>.

Die aus den Stichprobenwerten berechnete Varianz <math>s^2</math> ist ein realisierter Wert der Stichprobenfunktion

<math>S^2 =\frac{1}{n} \sum \limits_{i=1}^n\left(X_i-\bar X\right)^2\;, </math>

die eine Schätzfunktion für die Grundgesamtheitsvarianz <math>\sigma^2</math> ist.


Korrigierte Stichprobenvarianz

Wenn die Stichprobenwerte als realisierte Werte stochastisch unabhängiger und identisch verteilter Stichprobenvariablen angesehen werden können und wenn mit Hilfe einer Streuungsmaßzahl der Stichprobe auf die Varianz <math>\sigma^2 < \infty</math> der Grundgesamtheit geschlossen werden soll, dann wird häufig anstelle der Stichprobenvarianz <math>s^2</math> die sogenannte korrigierte Stichprobenvarianz

<math>s_k^2=\frac{1}{n-1} \sum \limits_{i=1}^n\left(x_i-\bar x\right)^2 </math>

verwendet. Der Grund ist, dass unter den gemachten Voraussetzungen die zugehörige Stichprobenfunktion

<math>S_k^2=\frac{1}{n-1} \sum \limits_{i=1}^n\left(X_i-\bar X\right)^2 </math>

eine erwartungstreue Schätzfunktion für die Varianz der Grundgesamtheit ist, es gilt also

<math>\mathrm{E}[S_k^2] = \sigma^2\;.</math>

Dagegen hat die Schätzfunktion <math>S^2</math> den Erwartungswert

<math>\mathrm{E}[S^2] = \frac{n-1}{n}\sigma^2 = \sigma^2 - \frac{1}{n}\sigma^2\;.</math>

Die Schätzfunktion <math>S^2</math> ist also keine erwartungstreue Schätzfunktion für <math>\sigma^2</math> und hat die Verzerrung <math>\mathrm{E}[S^2] - \sigma^2 = -\sigma^2/n</math>.

Die Erwartungstreue der Schätzfunktion <math>S_k^2</math> für den Parameter <math>\sigma^2 </math> der Grundgesamtheit hängt entscheidend von der stochastischen Unabhängigkeit der Stichprobenvariablen ab und ist bei allgemeineren Stichprobenplänen (Ziehen mit Zurücklegen, geschichtete Stichprobenziehung usw.) nicht mehr automatisch erfüllt, so dass die Rechtfertigung der Korrektur entfällt.

In einem rein beschreibenden Kontext der deskriptiven Statistik, in dem es nicht um eine Schätzung eines Parameters der Grundgesamtheit geht, ist die Verwendung der korrigierten Stichprobenvarianz <math>s_k^2</math> anstelle der Stichprobenvarianz <math>s^2</math> nicht zu begründen. „Statt mit dem Faktor <math>\textstyle \frac{1}{n}</math> werden die Varianz und die die Standardabweichung gelegentlich mit dem Faktor <math>\textstyle\frac{1}{n-1}</math> definiert, besonders in manchen Taschenrechnern und statistischen Computerprogrammen. Eine Begründung des Faktors <math>\textstyle\frac{1}{n-1}</math> ist nur im Rahmen der schließenden Statistik möglich.“<ref name="MS2009-43" />

Korrigierte Stichprobenstandardabweichung

Wenn in der induktiven Statistik mit Hilfe einer Streuungsmaßzahl der Stichprobe auf die Standardabweichung <math>\sigma</math> der Grundgesamtheit geschlossen werden soll, wird häufig die korrigierte Stichprobenstandardabweichung

<math>s_k = \sqrt{\frac{1}{n-1} \sum \limits_{i=1}^n\left(x_i-\bar x\right)^2} </math>

als Schätzwert für die Standardabweichung <math>\sigma</math> der Grundgesamtheit verwendet. Allerdings ist die zugehörige Schätzfunktion

<math>S_k = \sqrt{\frac{1}{n-1} \sum \limits_{i=1}^n\left(X_i-\bar X\right)^2} </math>

auch im Fall stochastisch unabhängiger und identisch verteilter Stichprobenvariablen in der Regel keine erwartungstreue Schätzfunktion für den Parameter <math>\sigma</math> der Grundgesamtheit.

Im Spezialfall einer normalverteilten Grundgesamtheit ist durch eine modifizierte Schätzfunktion eine erwartungstreue Schätzung der Standardabweichung möglich.

Alternative Bezeichnungen und Notationen

In vielen Anwendungsbereichen, in denen die Stichprobeninterpretation der beobachteten Werte der Standardfall ist (z. B. Messungen in der Technik und Biometrie) wird die korrigierte Stichprobenvarianz als die Stichprobenvarianz bezeichnet und dann meistens mit <math>s^2</math> bezeichnet. Auch wird die korrigierte Stichprobenvarianz als empirische Streuung oder als empirische Varianz bezeichnet und die zugehörige Stichprobenfunktion als Stichprobenstreuung.<ref>Streuungsmaße (measures of dispersion). In: P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. S. 428–429.</ref>

In Darstellungen der induktiven Statistik wird häufig das Symbol <math>S^2</math> für die oben mit <math>S_k^2</math> bezeichnete korrigierte Stichprobenvarianz verwendet und diese einfach als Stichprobenvarianz ({{Modul:Vorlage:lang}} Modul:Vorlage:lang:103: attempt to index field 'wikibase' (a nil value)) bezeichnet.<ref>Helge Toutenburg: Induktive Statistik – Eine Einführung mit SPSS für Windows. 3. Auflage. Springer, Berlin / Heidelberg / New York 2005, ISBN 3-540-66434-3, S. 116.</ref><ref>George Casella, Roger L. Berger: Statistical Inference. 2. Auflage. Duxbury, Pacific Grove 2002, ISBN 0-534-24312-6, Def. 5.2.3, S. 212.</ref> Analog bezeichnet dann <math>S</math> die korrigierte Stichprobenstandardabweichung und wird einfach als Stichprobenstandardabweichung ({{Modul:Vorlage:lang}} Modul:Vorlage:lang:103: attempt to index field 'wikibase' (a nil value)) bezeichnet.<ref>George Casella, Roger L. Berger: Statistical Inference. 2. Auflage. Duxbury, Pacific Grove 2002, ISBN 0-534-24312-6, Def. 5.2.3, S. 212.</ref>

Streuungsmaßzahlen in der Wahrscheinlichkeitstheorie

In der Wahrscheinlichkeitstheorie charakterisieren Streuungsmaßzahlen Eigenschaften einer Wahrscheinlichkeitsverteilung. Die entsprechenden Maßzahlen sind teilweise analog zu den Maßzahlen der deskriptiven Statistik konstruiert. In der mathematischen Statistik werden Methoden zu Charakterisierung von Wahrscheinlichkeitsverteilungen durch beschreibende Kennzahlen der deskriptiven Statistik zugerechnet.<ref>Siehe dazu Chapter 3, Descriptive Statistics in Johann Pfanzagl: Mathematical Statistics – Essays on History and Methodology. Springer, Berlin, Heidelberg 2017, ISBN 978-3-642-31083-6, doi:10.1007/978-3-642-31084-3.</ref>


Graphische Darstellungsformen

Siehe auch

Einzelnachweise

<references> <ref name="Buechter83">Andreas Büchter, Hans-Wolfgang Henn: Elementare Stochastik. Eine Einführung in die Mathematik der Daten und des Zufalls. 2. Auflage. Springer, 2007, ISBN 978-3-540-45382-6, S. 83.</ref> </references>

Literatur

  • Karl Mosler, Friedrich Schmid: Beschreibende Statistik und Wirtschaftsstatistik. 4. Auflage. Springer, Berlin / Heidelberg 2009, ISBN 978-3-642-01556-4.
  • P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, Streuungsmaße (measures of dispersion), S. 428–429.
  • Horst Rinne: Taschenbuch der Statistik. 4. Auflage. Harri Deutsch, Frankfurt am Main 2008, ISBN 978-3-8171-1827-4, A 2.3.2 Streuungsparameter, S. 42–46.
  • Bernd Rönz, Hans Gerhard Strohe (Hrsg.): Lexikon Statistik. Gabler, Wiesbaden 1994, ISBN 3-409-19952-7, Streuungsmaß, S. 353.

Weblinks

Wiktionary: Streuung – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen