Die Wahrscheinlichkeit stellt ein Maß für die Sicherheit oder Unsicherheit eines Ereignisses in einem Zufallsexperiment dar.

Jedem Ereignis eines Zufallsexperimentes wird eine reelle Zahl zwischen 0 und 1 zugeordnet, die man als die Wahrscheinlichkeit des Ereignisses bezeichnet.

  • Für die Wahrscheinlichkeit für das Eintreten eines Ereignisses %%A%% schreibt man meistens %%P(A)%% (Das p kommt vom englischen Wort probability).

  • Je höher %%P(A)%% ist, desto überzeugter ist man davon, dass bei diesem Zufallsexperiment das Ereignis %%A%% eintreten wird.

    • Ist %%P(A) = 1%%, so tritt %%A%% mit Sicherheit ein.
    • Ist %%P(A) = 0%%, so tritt %%A%% mit Sicherheit nicht ein.

Beispiele

1. Werfen eines fairen Würfels

Wirft man einen fairen Würfel so könnte jede (näturliche) Zahl von 1 bis 6 mir gleicher Sicherheit fallen. Hier macht es Sinn, dass alle Elementarereignisse $$\begin{array}{cc} A_1 &= &\text{ "Es fällt eine 1" }\\ A_2 &= &\text{ "Es fällt eine 2" } \\ &\vdots & \\ A_6 &= &\text{ "Es fällt eine 6" } \end{array}$$ die gleiche Wahrscheinlichkeit haben, also %%P(A_1) = P(A_2) = \dots = P(A_6) = \frac{1}{6}%%.

Warum gerade 1/6?

Summiert man die Wahrscheinlichkeiten aller Elementarereignisse, so ist das Ergebnis immer 1. Da dieses Zufallsexperiment sechs Elementarereignisse hat und alle die gleiche Wahrscheinlichkeit haben, muss diese jeweils 1/6 betragen.

2. Werfen eines unfairen ( = gezinkten) Würfels

Wenn man weiß, dass der Würfel immer auf eine bestimmte Seite fallen wird, zum Beispiel auf die 5, können die Ereignisse %%A_1, A_2,\dots, A_6%% nicht alle die gleiche Wahrscheinlichkeit haben.

Für die Ereignisse %%A_1, A_2, A_3, A_4%% und %%A_6%% muss jetzt gelten $$P(A_1) = P(A_2) = P(A_3) = P(A_4) = P(A_6) = 0,$$ da man weiß, dass diese nicht eintreten können.

Das Ereignis %%A_5%% hat jedoch die Wahrscheinlichkeit %%P(A_5) = 1,%% weil es sicher eintreten wird.

Bemerkung

Bei vielen Zufallsexperimenten ist es schwierig, die Wahrscheinlichkeit von Ereignissen direkt zu bestimmen. In solchen Fällen wird für %%P(A)%% das Experiment sehr oft wiederholt und der Grenzwert der relativen Häufigkeiten %%H(A)%% des Ereignisses %%A%% als Wahrscheinlichkeit gewählt.

Warum diese Wahl von Wahrscheinlichkeiten Sinn macht, findet man im Artikel [Gesetz der großen Zahlen]().

Rechenregeln

Gegenwahrscheinlichkeit

Die Wahrscheinlichkeit des Gegenereignisses %%\overline A%% zum Ereignis %%A%% ist gegeben durch $$P(\overline A) = 1 - P(A).$$

Warum ist das so?

Die Wahrscheinlichkeit des gesamten Ergebnisraums %%\Omega%% muss immer gleich 1 sein (siehe weiter unten "Normierung der Wahrscheinlichkeiten"). Außerdem kann man immer %%\Omega%% schreiben als %%\Omega = A \cup \overline{A}%%. Zusammen mit der Additionsregel für unvereinbare Ereignisse (siehe weiter unten) gilt also:

%%1 = P(\Omega) = P(A) + P(\overline{A})%%, und diese Gleichung kann man nach %%P(\overline{A})%% leicht umformen.

Additionsregel für unvereinbare Ereignisse

Haben die Ereignisse %%A%% und %%B%% keine gemeinsamen Elemente, so ist die Wahrscheinlichkeit, dass entweder %%A%% oder %%B%% eintritt, gleich der Summe der Wahrscheinlichkeiten für %%A%% und %%B%%:

$$P(A \cup B) = P(A) + P(B).$$

Wahrscheinlichkeit der Vereinigung (Satz von Sylvester)

Für zwei Ereignisse %%A%% und %%B%% gilt: $$P(A\cup B) = P(A) + P(B) - P(A \cap B)$$

Die Multiplikationsregel für unabhängige Ereignisse

Sind die Ereignisse %%A%% und %%B%% stochastisch unabhängig, so ist die Wahrscheinlichkeit, dass sowohl %%A%% als auch %%B%% eintreten, gleich dem Produkt der Wahrscheinlichkeiten von %%A%% und %%B%%.

In Formeln: %%P(A\cap B) = P(A)\cdot P(B)%%, wenn %%A%% und %%B%% stochastisch unabhängig sind.

Normierung der Wahrscheinlichkeiten

Die Wahrscheinlichkeit des Ergebnisraums %%\Omega%% ist immer 1.
$$P(\Omega) = 1.$$

Kommentieren Kommentare