Die Wahrscheinlichkeit stellt ein Maß für die Sicherheit oder Unsicherheit eines Ereignisses in einem Zufallsexperiment dar.

Jedem Ereignis eines Zufallsexperimentes wird eine reelle Zahl zwischen 0 und 1 zugeordnet, die man als die Wahrscheinlichkeit des Ereignisses bezeichnet.

  • Für die Wahrscheinlichkeit für das Eintreten eines Ereignisses %%A%% schreibt man meistens %%P(A)%% (das P kommt vom englischen Wort probability).

  • Je höher %%P(A)%% ist, desto wahrscheinlicher ist, dass bei diesem Zufallsexperiment das Ereignis %%A%% eintreten wird.

    • Tritt %%A%% mit Sicherheit ein, so gilt %%P(A) = 1%%.
    • Tritt %%A%% mit Sicherheit nicht ein, so gilt %%P(A) = 0%%.

Beispiele

1. Werfen eines fairen Würfels

Wirft man einen fairen Würfel, so könnte jede (natürliche) Zahl von 1 bis 6 mit gleicher Sicherheit fallen. Hier macht es Sinn, dass alle Elementarereignisse $$\begin{array}{cc} A_1 &= &\text{ „Es fällt eine 1“ }\\ A_2 &= &\text{ „Es fällt eine 2“ } \\ &\vdots & \\ A_6 &= &\text{ „Es fällt eine 6“ } \end{array}$$ die gleiche Wahrscheinlichkeit haben, also %%P(A_1) = P(A_2) = \dots = P(A_6) = \frac{1}{6}%%.

Warum gerade 1/6?

Summiert man die Wahrscheinlichkeiten aller Elementarereignisse, so ist das Ergebnis immer 1. Da dieses Zufallsexperiment sechs Elementarereignisse hat und alle die gleiche Wahrscheinlichkeit haben, müssen diese jeweils 1/6 betragen.

2. Werfen eines unfairen (= gezinkten) Würfels

Wenn man weiß, dass der Würfel immer auf eine bestimmte Seite fallen wird, zum Beispiel auf die 5, können die Ereignisse %%A_1, A_2,\dots, A_6%% nicht alle die gleiche Wahrscheinlichkeit haben.

Für die Ereignisse %%A_1, A_2, A_3, A_4%% und %%A_6%% muss jetzt gelten $$P(A_1) = P(A_2) = P(A_3) = P(A_4) = P(A_6) = 0,$$ da man weiß, dass diese nicht eintreten können.

Das Ereignis %%A_5%% hat jedoch die Wahrscheinlichkeit %%P(A_5) = 1,%% weil es sicher eintreten wird.

Bemerkung

Bei vielen Zufallsexperimenten ist es schwierig, die Wahrscheinlichkeit von Ereignissen direkt zu bestimmen. In solchen Fällen wird für %%P(A)%% das Experiment sehr oft wiederholt und der Grenzwert der relativen Häufigkeiten %%H(A)%% des Ereignisses %%A%% als Wahrscheinlichkeit gewählt.

Warum diese Wahl von Wahrscheinlichkeiten Sinn macht, findet man im Artikel Gesetz der großen Zahlen.

Rechenregeln

Gegenwahrscheinlichkeit

Die Wahrscheinlichkeit des Gegenereignisses %%\overline A%% zum Ereignis %%A%% ist gegeben durch $$P(\overline A) = 1 - P(A).$$

Warum ist das so?

Die Wahrscheinlichkeit des gesamten Ergebnisraums %%\mathit\Omega%% muss immer gleich 1 sein (siehe weiter unten „Normierung der Wahrscheinlichkeiten“). Außerdem kann man immer %%\mathit\Omega%% schreiben als %%\mathit\Omega = A \cup \overline{A}%%. Zusammen mit der Additionsregel für unvereinbare Ereignisse (siehe weiter unten) gilt also:

%%1 = P(\mathit\Omega) = P(A) + P(\overline{A})%%, und diese Gleichung kann man nach %%P(\overline{A})%% leicht umformen.

Additionsregel für unvereinbare Ereignisse

Haben die Ereignisse %%A%% und %%B%% keine gemeinsamen Elemente, so ist die Wahrscheinlichkeit, dass entweder %%A%% oder %%B%% eintritt, gleich der Summe der Wahrscheinlichkeiten für %%A%% und %%B%%:

$$P(A \cup B) = P(A) + P(B).$$

Wahrscheinlichkeit der Vereinigung (Satz von Sylvester)

Für zwei Ereignisse %%A%% und %%B%% gilt: $$P(A\cup B) = P(A) + P(B) - P(A \cap B)$$

Die Multiplikationsregel für unabhängige Ereignisse

Sind die Ereignisse %%A%% und %%B%% stochastisch unabhängig, so ist die Wahrscheinlichkeit, dass sowohl %%A%% als auch %%B%% eintreten, gleich dem Produkt der Wahrscheinlichkeiten von %%A%% und %%B%%.

In Formeln: %%P(A\cap B) = P(A)\cdot P(B)%%, wenn %%A%% und %%B%% stochastisch unabhängig sind.

Normierung der Wahrscheinlichkeiten

Die Wahrscheinlichkeit des Ergebnisraums %%\mathit\Omega%% ist immer 1.
$$P(\mathit\Omega) = 1.$$

Kommentieren Kommentare

Zu article Wahrscheinlichkeit:
IvanP 2019-08-04 18:48:45
Vorsicht, das hier folgt nicht aus den Kolmogorow-Axiomen: „Ist %%P(A)=1%%, so tritt %%A%% mit Sicherheit ein.“ Nicht umsonst heißen Ereignisse mit der Wahrscheinlichkeit 1 FAST sicher. Jedoch lässt sich sagen, dass jedes sichere Ereignis die Wahrscheinlichkeit 1 hat.

In der Praxis macht das Prinzip, bei einem nicht sicheren Ereignis stets von einer Wahrscheinlichkeit unter 1 auszugehen, für epistemische Wahrscheinlichkeiten durchaus Sinn, aber mal ganz theoretisch gesprochen: Wenn eine Zufallsvariable %%X%% gleichverteilt auf %%\mathit\Omega=[0,1]%% ist, dann gilt für jedes %%k\in[0,1]%%, dass %%P(X=k)=0%%, obwohl %%X=k%% natürlich nicht unmöglich ist.

https://de.wikipedia.org/wiki/Fast_sicher
https://en.wikipedia.org/wiki/Cromwell%27s_rule
Nish 2019-08-05 17:10:27
Super, IvanP! Da hast du natürlich recht! Vielen Dank für die Verbesserung!

LG,
Nish
Antwort abschicken