1 Allgemeine Begriffe zur Wahrscheinlichkeitsrechnung

1.1 Zufallsvariable

Jede Regel (oder Funktion) X, die jedem Elementarereignis eines Ereignisraumes eine reelle Zahl und gleichzeitig die zu den Elementarereignis gehörende Wahrscheinlichkeit der reellen Zahl zuordnet, heißt Zufallsvariable. Eine diskrete Zufallsvariable X liegt dann vor, wenn jedem möglichen Ereignis eines endlichen Ereignisraumes eine Zahl xi aus der Menge der Zahlen {x1, x2, x3...xk} zugeordnet wird.
Eine stetige Zufallsvariable X liegt dann vor, wenn jedem möglichen Ereignis eines endlichen Ereignisraumes eine Zahl x aus einem Intervall I: a<=x<=b zugeordnet wird.

1.2 Erwartungswert

Der Erwartungswert drückt aus, welchen Wert die Zufallsvariable im arithmetischen Durchschnitt realisieren wird. Für diskrete Zufallsvariablen ist der Erwartungswert µ die Summe aus dem Produkt aller Werte mit den ihnen zugeordneten Wahrscheinlichkeiten:
Für eine stetige Variable berechnet sich der Erwartungswert nach der Formel

1.3 Wahrscheinlichkeitsfunktion

Eine Zufallsvariable X hat endlich oder abzählbar unendlich viele Werte, d.h. der Wertebereich hat die Gestalt {x1, x2, x3...}. Diese Zufallsvariable und auch deren Verteilung heißen diskret. Die Wahrscheinlichkeitsfunktion P(X=xi)=P(xi) ordnet jeder reellen Zahl X die Wahrscheinlichkeit zu, mit der sie von X angenommen wird. Die Wahrscheinlichkeitsfunktion sagt also aus, mit welcher Wahrscheinlichkeit eine bestimmte Ausprägung einer Zufallsvariablen bei einem Zufallsexperiment auftritt.

1.4 Verteilungsfunktion

Kumuliert man die Werte der Wahrscheinlichkeitsfunktion für die Werte xi, so erhält man die Verteilungsfunktion: F(t)=P(X<=xt)= P(xi)

1.5 bedingte Wahrscheinlichkeit

Die bedingte Wahrscheinlichkeit P(B¦A) bezeichnet die Wahrscheinlichkeit des Ereignisses B unter der Voraussetzung, daß das Ereignis A eingetreten ist. Berechnet werden kann sie z.B. durch . Die bedingte Wahrscheinlichkeit gilt also für voneinander abhängige Ereignisse. Die im Bayesschen Theorem erfaßte Beziehung erlaubt die Umkehrung bedingter Wahrscheinlichkeiten. Sie stellt somit eine a-posteriori Wahrscheinlichkeit dar(Transformation von a priori in a posteriori).

1.6 Permutation und Kombination

In der Kombinatorik wird untersucht, auf welche und auf wieviel verschiedene Arten eine gegebene Anzahl von Elementen angeordnete und zu Gruppen zusammengefaßt werden kan. Zählt die Reihenfolge innerhalb der einzelnen Anordnung, handelt es sich um Permutation, zählt sie nicht von Kombination.

1.7 Theorem von Bayes

Mit dem Theorem von Bayes läßt sich die Wahrscheinlichkeit von Ai unter der Bedingung E ausrechnen. Die Formel, die mit Hilfe des allgemeinen Multiplikationssatzes und dem Satz der totalen Wahrscheinlichkeit hergeleitet wird, lautet:

P(AiIE) bezeichnet man als a-posteriori-Warscheinlichkeit. Die a-priori Wahrscheinlichkeit P(Ai) wird in die a-posteriori-Wahrscheinlichkeit transformiert.