🎓 Ui, schon Prüfungszeit? Hier geht's zur Mathe-Prüfungsvorbereitung.
Springe zum Inhalt oder Footer
SerloDie freie Lernplattform

Kurs

Abiturkurs Stochastik

1 Übersicht

wird aktuell überarbeitet

Inhalt des Kurses

Dieser Kurs dient der Abiturvorbereitung im Themengebiet Stochastik.

 

Er gibt einen zusammenfassenden Überblick über die wichtigsten Inhalte der gymnasialen Oberstufe:

  • Grundlagen der Stochastik

  • Zufallsgrößen

  • Urnenmodelle

  • Binomialverteilung

  • Beurteilende Statistik

Dabei sind Begriffe und Inhalte aus früheren Klassenstufen entsprechend verlinkt, sodass sie bei Bedarf wiederholt werden können.

Vorkenntnisse

Du solltest die oben genannten Inhalte bereits kennengelernt haben, sodass sie dir zumindest grob vertraut sind.

 

Außerdem ist es hilfreich, wenn du die Stochastik der Unter- und Mittelstufe einigermaßen beherrschst.

2 Zufallsexperimente

Zufall

Der Begriff des Zufalls ist im Allgemeinen zwar nicht leicht zu fassen - für die Mathematik reicht es aber, den Zufall schlicht als etwas Unvorhersagbares anzusehen.

 

Dementsprechend ist ein Zufallsexperiment ein Experiment mit einem unvorhersagbaren Ausgang.

 

Dennoch können mithilfe der Mathematik aber Aussagen über das Verhalten bei sehr vielen Wiederholungen eines Zufallsexperiments getroffen werden.

Grundlegende Begriffe

Um den Zufall mathematisch zu modellieren, muss man zunächst festlegen, was das Zufallsexperiment für Ausgänge haben kann.

 

Einen möglichen Ausgang des Zufallsexperiments nennt man dabei Ergebnis ω\omega.

 

Der Ergebnisraum Ω\Omega fasst alle möglichen Ergebnisse in einer Menge zusammen, also Ω={ω1;ω2;;ωn}\Omega = \{\omega_1; \omega_2; \ldots; \omega_n\}. Die Mächtigkeit des Ergebnisraumes gibt an, wie viele Ergebnisse in ihm enthalten sind, also Ω=n|\Omega| = n.

 

Mehrere Ergebnisse können zu einem Ereignis E\text{E} zusammengefasst werden; mathematisch ist ein Ereignis somit eine Teilmenge von Ω\Omega, also EΩE\subseteq\Omega. Das zugehörige Gegenereignis Eˉ\bar{E} enthält alle Ergebnisse, die nicht in E\text{E} sind, also Eˉ=ΩE\bar{E} = \Omega\setminus E.

Beispiel

Auf einem Volksfest gibt es ein Glücksrad. Es hat drei gleich große Sektoren in rot (r), gelb (g) oder blau (b). Man darf zweimal hintereinander drehen.

 

Die möglichen Ergebnisse sind im Ergebnisraum aufgeschrieben Ω={rr,rg,rb,gr,gg,gb,br,bg,bb}\Omega=\left\{rr, rg, rb, gr, gg, gb, br, bg, bb\right\}.

 

Das Ereignis "mindestens einmal rot" hat die Ergebnismenge A={rr,rg,rb,gr,br}A=\left\{rr, rg, rb, gr, br\right\}.

 

Das Gegenereignis dazu ist "kein einziges Mal rot" und hat die Ergebnismenge Aˉ={gg,gb,bg,bb}\bar{A}=\left\{gg, gb, bg, bb\right\}.

3 Wahrscheinlichkeit

Wie bereits erwähnt, lässt sich der Ausgang eines einzelnen Zufallsexperiments nicht vorhersagen (er ist eben gerade "zufällig"), man kann allerdings eine Tendenz angeben, was passieren wird, wenn man das Zufallsexperiment sehr oft wiederholt.

Denn das empirische Gesetz der großen Zahlen besagt, dass sich mit steigender Anzahl an Durchführungen die relative Häufigkeit eines Ereignisses EE um einen bestimmten Wert stabilisiert. Diesen theoretischen Wert nennt man Wahrscheinlichkeit und schreibt ihn als P(E)P(E).

Die mathematisch-formale Grundlage für den Wahrscheinlichkeitsbegriff bilden die Axiome von Kolmogorow. Sie sind für das Abitur nicht von zentraler Bedeutung, daher befinden sie sich im Spoiler.

Laplace-Experimente

Eine wichtige Art von Zufallsexperiment stellt das Laplace-Experiment dar, bei dem alle Ergebnisse gleich wahrscheinlich sind. Bei einer genügend großen Versuchszahl ist demzufolge zu erwarten, dass alle Ergebnisse im Mittel etwa gleich oft auftreten.

Die Wahrscheinlichkeit eines Ereignisses EE ergibt sich somit als folgendes Verhältnis:

P(E)=Anzahl der fu¨r E gu¨nstigen ErgebnisseAnzahl aller mo¨glichen Ergebnisse=EΩ\displaystyle P(E) = \frac{\text{Anzahl der für E günstigen Ergebnisse}}{\text{Anzahl aller möglichen Ergebnisse}} = \frac{|E|}{|\Omega|}

4 Beispiel zu Zufallsexperimente und Wahrscheinlichkeit

Die eingeführten Begriffe sollen beispielhaft anhand des Werfens eines herkömmlichen Spielwürfels veranschaulicht werden:

  • Ergebnis ω\omega: {\Large ⚃} (Würfel zeigt Augenzahl 4)

  • Ergebnisraum: Ω={;;;;;}\Omega = \{{\Large ⚀}; {\Large ⚁}; {\Large ⚂}; {\Large ⚃}; {\Large ⚄}; {\Large ⚅}\}, Ω=6|\Omega| = 6

Diese Festlegung der Ergebnisse und des Ergebnisraumes ist bereits Teil der mathematischen Modellierung, die dem jeweiligen Kontext angemessen erfolgen sollte. So kann unter gewissen Umständen (z. B. beim Wurf auf einem dicken Teppich) auch "Würfel landet auf Kante" ein sinnvolles Ergebnis sein.

  • Ereignis EE: Würfel zeigt Augenzahl kleiner als drei, E={;}E = \{{\Large ⚀}; {\Large ⚁}\}

  • Gegenereignis Eˉ\bar{E}: Würfel zeigt Augenzahl größer oder gleich 3, Eˉ={;;;}\bar{E} = \{{\Large ⚂}; {\Large ⚃}; {\Large ⚄}; {\Large ⚅}\}

Sofern es keine triftigen Gründe gibt, die dagegen sprechen, wird der Würfelwurf in der Regel als Laplace-Experiment angenommen. Man geht also von einem fairen (d. h. nicht gezinkten) Würfel aus, bei dem auf lange Sicht alle sechs Seiten in etwa gleich häufig fallen.

  • Wahrscheinlichkeit: P(E)=EΩ=26=13P(E) = \frac{|E|}{|\Omega|} = \frac{2}{6} = \frac{1}{3}

Bei sehr vielen Würfen ist somit zu erwarten, dass im Mittel etwa jeder dritte Wurf eine Augenzahl kleiner als 3 ergibt.

5 Zusammengesetzte Ereignisse

Auf Basis der Mengenlehre können zwei (oder mehr) Ereignisse auf verschiedene Weisen kombiniert werden.

Wichtige Verknüpfungen sind dabei die "und"-, "oder"- und "ohne"-Verknüpfung:

Der Schnitt - "und"

Die Vereinigung - "oder"

Die Differenz - "ohne"

Bild
Bild
Bild

"A\text{A} und B\text{B}": ABA\cap B

(alle Ergebnisse, die sowohl in A\text{A} als auch in B\text{B} enthalten sind)

"A\text{A} oder B\text{B}": ABA\cup B

(alle Ergebnisse, die in A\text{A} oder in B\text{B} oder in beiden enthalten sind)

"A\text{A} ohne B\text{B}": ABA\setminus B

(alle Ergebnisse, die in A\text{A}, aber nicht in B\text{B} enthalten sind)

Gesetze von De Morgan

Beim Bilden des Gegenereignisses von zusammengesetzten Ereignissen sind folgende Beziehungen nützlich, die auch Gesetze von De Morgan genannt werden:

AB=AˉBˉ\displaystyle \overline{A \cup B} = \bar{A} \cap \bar{B}
AB=AˉBˉ\displaystyle \overline{A \cap B} = \bar{A} \cup \bar{B}

Additionssatz

Für zwei beliebige Ereignisse A\text{A} und B\text{B} kann die Wahrscheinlichkeit von ABA\cup B mithilfe des Additionssatzes berechnet werden:

P(AB)=P(A)+P(B)P(AB)\displaystyle P(A\cup B) = P(A) + P(B) - P(A\cap B)

6 Unabhängigkeit

In vielen Situationen ist die Frage interessant, ob sich bestimmte Zufallsereignisse gegenseitig beeinflussen. Diese Vorstellung wird mathematisch durch das Konzept der (stochastischen) Unabhängigkeit formalisiert.

Zwei Ereignisse A\text{A} und B\text{B} heißen (stochastisch) unabhängig, wenn das Eintreten von A\text{A} keinen Einfluss auf das Eintreten von B\text{B} hat und umgekehrt.

Mathematisch ausgedrückt:

PA(B)=P(B)P_A(B) = P(B) und PB(A)=P(A)P_B(A) = P(A)

Dabei ist PA(B)=P(AB)P(A)P_A(B) = \frac{P(A\cap B)}{P(A)} die bedingte Wahrscheinlichkeit.

Eine äquivalente (also gleichwertige), aber in der Praxis oft nützlichere Charakterisierung der Unabhängigkeit lautet:

P(AB)=P(A)P(B)P(A\cap B) = P(A) \cdot P(B)

Sind die Ereignisse A\text{A} und B\text{B} unabhängig, so sind auch A\text{A} und Bˉ\bar{\text{B}}, Aˉ\bar{\text{A}} und B\text{B} sowie Aˉ\bar{\text{A}} und Bˉ\bar{\text{B}} unabhängig. In diesem Fall ist die zugehörige Vierfeldertafel eine Multiplikationstafel (d. h. die äußeren Einträge ergeben sich durch Multiplikation der inneren).

7 Aufgabe zu Ereignissen und Unabhängigkeit

Laden

8 Zufallsgrößen (1/2)

Um Zufallsexperimente mathematisch besser verstehen und modellieren zu können, ist es hilfreich, das Konzept der Zufallsgröße (bzw. Zufallsvariable) einzuführen.

Darunter versteht man eine Funktion X:ωX(ω)X: \omega \mapsto X(\omega) mit ωΩ\omega \in \Omega und X(ω)RX(\omega) \in \mathbb{R}; d. h. eine Zufallsgröße ordnet jedem Ergebnis ω\omega eines Zufallsexperiments eine reelle Zahl zu.

Abbildungsvorschrift

Wahrscheinlichkeiten

Als Verbindung zum Konzept der Wahrscheinlichkeit führt man darauf aufbauend zwei weitere Funktionen ein:

  • Die Wahrscheinlichkeitsverteilung von XX ist die Funktion P:xiP(X=xi)P: x_i \mapsto P(X=x_i), die jedem Wert xix_i der Zufallsgröße XX seine Wahrscheinlichkeit zuordnet.

Stabdiagramm
  • Die kumulative Verteilungsfunktion von XX ist die Funktion F:xP(Xx)F: x \mapsto P(X\le x) mit xRx\in\mathbb{R}, die jeder reellen Zahl xx die Wahrscheinlichkeit zuordnet, dass die Zufallsgröße XX einen Wert kleiner oder gleich xx annimmt.

Treppenfunktion

9 Zufallsgrößen (2/2)

Dieser Umweg über Zufallsgrößen scheint auf den ersten Blick unnötig umständlich zu sein, denn bisher haben wir jedem Ergebnis ω\omega eines Zufallsexperiments direkt eine Wahrscheinlichkeit zugeordnet (vgl. Spielwürfel-Beispiel: P()=16P({\Large ⚁})=\frac{1}{6}).

Nun ordnen wir jedem Ergebnis ω\omega zunächst eine Zahl X(ω)X(\omega) (den Wert der Zufallsgröße XX) und dann dieser Zahl erst eine Wahrscheinlichkeit zu.

Abbildungsvorschrift_komplett

Das hat den Grund, dass wir somit bestimmte Kenngrößen ausrechnen können, die neue Informationen über das Zufallsexperiment liefern.

Erwartungswert

Der Erwartungswert E(X)E(X) einer Zufallsgröße XX gibt an, welcher Wert der Zufallsgröße auf lange Sicht (also bei sehr vielen Durchführungen des Zufallsexperiments) zu erwarten ist.

Er wird häufig auch mit μ\mu abgekürzt und berechnet sich folgendermaßen:

μ=E(X)=i=1nxiP(X=xi)=x1P(X=x1)+x2P(X=x2)++xnP(X=xn)\displaystyle \mu = E(X) = \sum_{i=1}^n{x_i \cdot P(X=x_i)} = x_1\cdot P(X=x_1) + x_2\cdot P(X=x_2) + \ldots + x_n\cdot P(X=x_n)

Dabei sind x1,x2,,xnx_1, x_2, \ldots, x_n die verschiedenen Werte, die XX annehmen kann.

Der Erwartungswert ist somit eine Art gewichteter Mittelwert (die Gewichtung ist deshalb wichtig, weil manche Werte der Zufallsgröße wahrscheinlicher sind als andere und deshalb stärker ins "Gewicht" fallen). Er ist im Allgemeinen kein Wert, den die Zufallsgröße annimmt.

Varianz und Standardabweichung

Die Varianz Var(X)Var(X) einer Zufallsgröße XX ist ein Maß für ihre mittlere quadratische Abweichung vom Erwartungswert μ\mu (also wie stark die Werte um ihn streuen).

Sie berechnet sich folgendermaßen:

Var(X)=i=1n(xiμ)2P(X=xi)=(x1μ)2P(X=x1)+(x2μ)2P(X=x2)++(xnμ)2P(X=xn)\displaystyle Var(X) = \sum_{i=1}^n{(x_i - \mu)^2\cdot P(X=x_i)} = (x_1 - \mu)^2\cdot P(X=x_1) + (x_2 - \mu)^2\cdot P(X=x_2) + \ldots + (x_n - \mu)^2\cdot P(X=x_n)

In einigen Situationen ist es allerdings günstiger, wenn die Streuung dieselbe Einheit wie die Werte der Zufallsgröße hat. Deshalb wird oft als äquivalente Kenngröße die Standardabweichung σ\sigma angegeben, die sich als Wurzel aus der Varianz ergibt:

σ=Var(X)\displaystyle \sigma = \sqrt{Var(X)}

10 Beispiel zu Zufallsgrößen

Zur Veranschaulichung betrachten wir als Beispiel folgendes einfache Glücksspiel: Nach einem Einsatz von 22\,€ werden drei Laplace-Münzen (also faire Münzen, bei denen Wappen und Zahl gleichberechtigt sind) geworfen. Anschließend wird die Anzahl der geworfenen Wappen in ausgezahlt.

Als Zufallsgröße XX wollen wir den Gewinn (also Auszahlung minus Einsatz) in betrachten.

Als mögliche Werte, die XX annehmen kann, ergeben sich 2-2, 1-1, 00 und 11. Denn schlimmstenfalls zeigen alle drei Münzen Zahl (dann verliert man seinen Einsatz von 22\,€) und bestenfalls zeigen alle Münzen Wappen (dann erhält man 33\,€ als Auszahlung und somit einen Gewinn von 11\,€).

Um die zugehörige Wahrscheinlichkeitsverteilung und kumulative Verteilungsfunktion zu ermitteln, muss man sich überlegen, welche Ergebnisse zu den jeweiligen Werten von XX gehören. Die Resultate sind in der folgenden Tabelle zusammengefasst und in der Grafik veranschaulicht:

Tabelle
Abbildungsvorschrift

Zur Berechnung der Kenngrößen wendet man schließlich die entsprechenden Formeln an:

  • Erwartungswert: μ=E(X)=218+(1)38+038+118=12\mu = E(X) = -2\cdot\frac{1}{8} + (-1)\cdot\frac{3}{8} + 0\cdot\frac{3}{8} + 1\cdot\frac{1}{8} = -\frac{1}{2}

  • Varianz: Var(X)=(2(12))218+(1(12))238+(0(12))238+(1(12))218=34Var(X) = (-2-(-\frac{1}{2}))^2\cdot\frac{1}{8} + (-1-(-\frac{1}{2}))^2\cdot\frac{3}{8} + (0-(-\frac{1}{2}))^2\cdot\frac{3}{8} + (1-(-\frac{1}{2}))^2\cdot\frac{1}{8} = \frac{3}{4}

  • Standardabweichung: σ=Var(X)=34=123(0,87)\sigma = \sqrt{Var(X)} = \sqrt{\frac{3}{4}} = \frac{1}{2}\sqrt{3}\,\,\,(\approx 0{,}87)

Bei diesem Glücksspiel ist somit auf lange Sicht ein mittlerer Gewinn von 0,50-0{,}50\,€ zu erwarten, wobei der tatsächliche Gewinn durchschnittlich um 0,870{,}87\,€ streut.

11 Urnenmodelle (1/2)

Vor allem in komplexeren Situationen bildet die Kombinatorik, also die Kunst des geschickten Zählens, die Grundlage für die Berechnung von Wahrscheinlichkeiten.

Dabei sind in vielen Fällen sog. Urnenmodelle hilfreich, die alle nach demselben Prinzip aufgebaut sind:

  • Man hat eine Urne mit nn unterscheidbaren Kugeln gegeben (z. B. unterschiedliche Farbe, Beschriftung, …).

  • Man sucht die Anzahl der Möglichkeiten, die es gibt, wenn man kk Kugeln nacheinander zufällig aus der Urne zieht (mit k{0;1;;n}k\in\{0;1;\ldots;n\}).

Arten des Ziehens

Grundsätzlich lassen sich dabei folgende Arten des Ziehens unterscheiden (im Innern der Tabelle steht jeweils die Anzahl der Möglichkeiten, die es bei dieser Ziehungsart gibt):

Ziehungsarten_Tabelle

12 Urnenmodelle (2/2)

Ausgehend von diesen kombinatorischen Überlegungen lassen sich Wahrscheinlichkeiten in vielen Fällen recht einfach bestimmen.

Eine wichtige Anwendung ist dabei das Ziehen mit einem Griff:

Aus einer Urne mit insgesamt NN Kugeln, von denen RR rot sind, zieht man mit einem Griff nn Kugeln. Als Zufallsgröße XX interessiert man sich für die Anzahl der gezogenen roten Kugeln.

Das Ziehen mit einem Griff ist äquivalent zu der Situation, bei der man die Kugeln nacheinander ohne Zurücklegen und ohne Beachten der Reihenfolge zieht.

Daher ist die Wahrscheinlichkeit, dass von den gezogenen Kugeln genau rr rot sind, gegeben durch:

P(X=r)=(Rr)(NRnr)(Nn)\displaystyle P(X=r) = \frac{\begin{pmatrix}R\\r\end{pmatrix}\cdot\begin{pmatrix}N-R\\n-r\end{pmatrix}}{\begin{pmatrix}N\\n\end{pmatrix}}

Beispiel

Als Beispiel betrachten wir das Glücksspiel Lotto "6 aus 49" und berechnen die Wahrscheinlichkeit für "4 Richtige".

Die Situation lässt sich mit einer Urne modellieren, in der sich insgesamt 4949 Kugeln befinden, von denen 66 rot sind (das sind die "Richtigen"). Beim Ziehen von 66 Kugeln soll die Zufallsgröße XX: "Anzahl der gezogenen roten Kugeln" den Wert 44 annehmen.

Die Wahrscheinlichkeit für "4 Richtige" beträgt damit:

P(X=4)=(64)(49664)(496)=1590313983816=6456658960,10%\displaystyle P(X=4) = \frac{\begin{pmatrix}6\\4\end{pmatrix}\cdot\begin{pmatrix}49-6\\6-4\end{pmatrix}}{\begin{pmatrix}49\\6\end{pmatrix}} = \frac{15\cdot 903}{13\,983\,816} = \frac{645}{665\,896} \approx 0{,}10\,\%

13 Aufgaben zu Urnenmodellen

Laden

Laden

14 Binomialverteilung (1/2)

Auch das Ziehen mit Zurücklegen bildet für zahlreiche Situationen eine gute Modellierungsgrundlage.

Bernoulli-Experiment

Die Basis stellt dabei das Bernoulli-Experiment dar, bei dem es sich um ein Zufallsexperiment mit nur zwei möglichen Ergebnissen handelt.

Üblicherweise werden die Ergebnisse mit Treffer bzw. Niete und die zugehörigen Wahrscheinlichkeiten mit pp bzw. q=1pq=1-p bezeichnet.

Bernoulli-Kette

Als Erweiterung spricht man bei nn unabhängigen Durchführungen desselben Bernoulli-Experiments von einer Bernoulli-Kette.

Dabei wird nn die Länge und pp der Parameter der Bernoulli-Kette genannt.

Formel von Bernoulli

Mithilfe der Überlegungen zu den Urnenmodellen lässt sich die Wahrscheinlichkeit, bei einer Bernoulli-Kette mit Länge nn und Parameter pp genau kk Treffer zu erzielen, allgemein angeben:

P(X=k)=(nk)pk(1p)nk\displaystyle P(X=k) = \begin{pmatrix}n\\k\end{pmatrix} \cdot p^k \cdot (1-p)^{n-k}

Dabei ist XX: "Anzahl der Treffer" und k{0;1;;n}k\in\{0;1;\ldots;n\}.

Diese Beziehung heißt auch Formel von Bernoulli.

15 Binomialverteilung (2/2)

Die Wahrscheinlichkeitsverteilung, die zur betrachteten Zufallsgröße XX: "Anzahl der Treffer" bei einer Bernoulli-Kette gehört, nennt man auch Binomialverteilung.

Allgemein heißt eine Zufallsgröße XX binomialverteilt nach B(n;p)B(n;p) oder Bn;pB_{n;p}, wenn gilt:

  • XX kann die Werte 0;1;;n0;1;\ldots;n annehmen.

  • P(X=k)=(nk)pk(1p)nkP(X=k) = \begin{pmatrix}n\\k\end{pmatrix} \cdot p^k \cdot (1-p)^{n-k}\, mit 0p10\le p\le 1

Dabei sind folgende Schreibweisen gebräuchlich:

P(X=k)=B(n;p;k)=Bn;p(k)P(X=k)=B(n;p;k)=B_{n;p}(k) (Wahrscheinlichkeitsverteilung)

P(Xx)=Fpn(x)P(X\le x) = F_{p}^{n}(x) (kumulative Verteilungsfunktion)

Kenngrößen der Binomialverteilung

Berechnet man für den Fall einer Binomialverteilung die Kenngrößen Erwartungswert, Varianz und Standardabweichung jeweils nach der allgemeinen Formel, so ergibt sich:

  • μ=E(X)=np\mu = E(X) = n \cdot p

  • Var(X)=np(1p)=npqVar(X) = n \cdot p \cdot (1-p) = n \cdot p \cdot q

  • σ=Var(X)=npq\sigma = \sqrt{Var(X)} = \sqrt{n \cdot p \cdot q}

16 Beispiel zu Binomialverteilung

Als Beispiel soll im Folgenden das Drehen des nebenstehenden Glücksrads betrachtet werden. Dabei steht der rote Sektor für "Treffer" und die übrigen vier weißen Sektoren jeweils für "Niete". (Die fünf Sektoren können als gleich groß angenommen werden.)

Gluecksrad

Dreht man das Glücksrad nur ein Mal, so handelt es sich dabei um ein Bernoulli-Experiment mit einer Trefferwahrscheinlichkeit p=15=0,2p = \frac{1}{5} =0{,}2.

Dreht man das Glücksrad zehn Mal hintereinander (wobei die einzelnen Drehungen als unabhängig voneinander angenommen werden), so handelt es sich dabei um eine Bernoulli-Kette der Länge n=10n = 10 mit Parameter p=0,2p =0{,}2.

Betrachtet man als Zufallsgröße XX: "Anzahl der Treffer bei 10 Drehungen des Glücksrads", so ist XX binomialverteilt nach B(10;15)B(10; \frac{1}{5}).

Mit der Formel von Bernoulli kann somit bespielsweise die Wahrscheinlichkeit, bei 10 Drehungen 3 Treffer zu erhalten, berechnet werden:

B(10;15;3)=P(X=3)=(103)0,230,8720,1%\displaystyle B(10;\frac{1}{5};3) = P(X=3) = \begin{pmatrix}10\\3\end{pmatrix} \cdot 0{,}2^3 \cdot 0{,}8^7 \approx 20{,}1\%

Auf dieselbe Weise kann auch die Wahrscheinlichkeit, bei 10 Drehungen höchstens 4 Treffer zu erhalten, berechnet werden (bequemer geht es allerdings unter Zuhilfenahme eines geeigneten Tafelwerks):

F0,210(4)=P(X4)=i=04B(10;15;i)96,7%\displaystyle F_{0{,}2}^{10}(4)=P(X\le4)=\sum_{i=0}^4B(10;\frac{1}{5};i)\approx96{,}7\%

Die Berechnung der Kenngrößen liefert schließlich folgendes Ergebnis:

  • Erwartungswert: μ=100,2=2\mu = 10 \cdot 0{,}2 = 2

  • Varianz: σ2=100,20,8=1,6\sigma^2 = 10 \cdot 0{,}2 \cdot 0{,}8 = 1{,}6

  • Standardabweichung: σ=1,61,26\sigma = \sqrt{1{,}6} \approx 1{,}26

17 Beurteilende Statistik (1/2)

Bisher sind wir immer von der (modellhaften) Situation ausgegangen, dass wir den Inhalt der Urne kennen und auf dieser Grundlage bestimmte Wahrscheinlichkeiten (als Vorhersage für das Experiment) ausrechnen können.

 

In der Statistik geht man nun grundsätzlich von einer anderen Problemstellung aus: Der Inhalt der Urne (man spricht auch von Grundgesamtheit) ist unbekannt und kann nicht exakt ermittelt werden (z. B. weil er zu groß ist). Deshalb zieht man eine Stichprobe und versucht, anhand ihres Ergebnisses auf die Zusammensetzung der Grundgesamtheit rückzuschließen.

 

Das konkrete Vorgehen läuft dabei nach folgendem Schema ab:

  • Zuerst formuliert man die Vermutung, die es zu überprüfen gilt, in Form einer Nullhypothese H0H_0; häufig gibt man zusätzlich eine Gegenhypothese H1H_1 an.

  • Anschließend legt man die Testgröße ZZ sowie den Stichprobenumfang nn fest.

  • Und schließlich bestimmt man die Entscheidungsregel, indem man den kritischen Bereich KK (also den Ablehnungsbereich von H0H_0) festlegt.

18 Beurteilende Statistik (2/2)

Prinzipiell kann bei einem Hypothesentest die Entscheidungsregel vollkommen willkürlich gewählt werden.

Allerdings können dabei naturgemäß zwei Arten von Fehlern unterlaufen, die man Fehler 1. Art und Fehler 2. Art nennt.

Die Tabelle rechts gibt einen Überblick über die verschiedenen Szenarien, die möglich sind.

Fehler-Tabelle

Signifikanztest

Mithilfe der Wahrscheinlichkeitsrechnung lassen sich diese Fehler nun in gewisser Weise eingrenzen.

Bei einem Signifikanztest legt man dabei das sog. Signifikanzniveau α\alpha fest; damit bezeichnet man die Obergrenze für den Fehler 1. Art (also H0H_0 fälschlicherweise abzulehnen).

Auf dieser Grundlage lässt sich dann ein optimaler kritischer Bereich KK konstruieren. Je nachdem, auf welcher Seite dieser kritische Bereich liegt, spricht man von einem rechts- bzw. linksseitigen Signifikanztest.

19 Beispiel zu Beurteilender Statistik

Als Beispiel soll die Nullhypothese, dass der Anteil defekter Bauteile in einer Produktionsserie 15%15\% beträgt, auf einem Signifikanzniveau von α=5%\alpha = 5\% getestet werden. (Die zugehörige Gegenhypothese wäre, dass es in der Vergangenheit eine Qualitätssteigerung gegeben hat und der Anteil somit geringer ist.)

Formulieren von H0H_0 und H1H_1

Wenn man mit pp den Anteil der defekten Bauteile bezeichnet, so gilt:

H0:p=0,15\displaystyle H_0:p=0{,}15
H1:p<0,15\displaystyle H_1: p<0{,}15

Festlegen von ZZ und nn

Als Durchführung kann man beispielsweise nacheinander 50 Bauteile der Serie zufällig ziehen und bei jedem Bauteil ermitteln, ob es defekt ist.

Als Testgröße ZZ und Stichprobenumfang nn ergeben sich damit:

ZZ: "Anzahl defekter Bauteile"

n=50n = 50

Konstruktion des kritischen Bereichs KK

Liefert die Erhebung das Ergebnis, dass nur sehr wenige Bauteile defekt sind, würde man H0H_0 ablehnen und stattdessen H1H_1 annehmen. Daher ist der kritische Bereich von der Form K={0;1;;g}K = \{0;1;\ldots;g\}, wobei die Obergrenze gg noch zu bestimmen ist. Es handelt sich somit um einen linksseitigen Signifikanztest.

Da der Fehler 1. Art höchstens 5%5\% betragen darf, ist gg die größte ganze Zahl, für die P0,1550(Zg)0,05P_{0{,}15}^{50}(Z\le g) \le 0{,}05 ist.

ZZ kann als binomialverteilt nach B(50;0,15)B(50;0{,}15) angenommen werden, daher kann gg mithilfe eines geeigneten Tafelwerks ermittelt werden: g=3g=3

Somit ist der kritische Bereich durch K={0;1;2;3}K = \{0;1;2;3\} gegeben.

20 Aufgabe zu Beurteilender Statistik

Laden


Dieses Werk steht unter der freien Lizenz
CC BY-SA 4.0Was bedeutet das?