next up previous contents
Nächste Seite: Chapman-Kolmogorov-Gleichung Aufwärts: Markov-Prozesse Vorherige Seite: Markov-Prozesse   Inhalt

Markov-Eigenschaft

Den den Aktienpreisen zugrundeliegenden stochastischen Prozeß haben wir stets als Markov-Prozeß angenommen. Rechentechnisch ist dies eine Vereinfachung, empirisch gibt es für diese Annahme auch ausreichend Bestätigung, zumindest für nicht zu kleine Zeiten. Markov-Prozesse tauchen an vielen Stellen in der Physik und Chemie auf. Zum Vergleich mit dem Kalkül der stochastischen Differentialgleichungen, auf dem die klassische Herleitung der Black-Scholes-Formel beruht, wollen wir hier kurz die gebräuchlisten Verfahren zur Behandlung von Markov-Prozessen vorstellen. Anschließend werden wir dann auf den Kalkül der stochastischen Differentialgleichungen eingehen. Zur weitergehenden Information über stochastische Prozesse sei auf den Klassiker [9] verwiesen. Ebenfalls empfehlenswert ist [7].

Wir beginnen mit der Definition der Markov-Eigenschaft. Ganz allgemein kann die Wahrscheinlichkeit für das Ereignis ($A$ UND $B$ UND $C$ UND $C$ $\cdots$) auf verschiedene Weisen faktorisiert werden,

$\displaystyle p(A,B,C,D,\cdots)$ $\textstyle =$ $\displaystyle p(A)
 p(B\vert A)
 p(C\vert A,B)
 p(D\vert A,B,C)
 \cdots$  
  $\textstyle =$ $\displaystyle p(B)
 p(A\vert B)
 p(C\vert A,B)
 p(D\vert A,B,C)
 \cdots$  
  $\textstyle =$ $\displaystyle p(C)
 p(A\vert C)
 p(B\vert A,C)
 p(D\vert A,B,C)
 \cdots$  
  $\textstyle =$ $\displaystyle \cdots
.$ (1)

Die Wahrscheinlichkeit für eine Menge von Ereignissen hat die Markov-Eigenschaft, falls es eine ausgezeichnete (z.B zeitliche) Anordnung gibt, für die sich die Darstellung vereinfacht
\begin{displaymath}
p(A,B,C,D,\cdots)
=
p(A)
 p(B\vert A)
 p(C\vert B)
 p(D\vert C)
 \cdots
.
\end{displaymath} (2)

Handelt es sich bei den Ereignissen um zeitlich aufeinanderfolgende Ereignisse mit $t(A) < t(B) < t(C) < t(D) <\cdots$, so bedeuted dies, daß die Wahrscheinlichkeit für den nächsten Zustand nur vom unmittelbar vorausgehenden Zustand abhängt, also beispielsweise die Wahrscheinlichkeit für $C$ nur vom vorherigen $B$ und nicht auch noch von dem noch früheren $A$.

Die Markov-Eigenschaft ist eine übliche Annahme für viele physikalische Systeme, und entspricht der Annahme, daß eine (idealerweise geringe) Anzahl von Zustandsgrößen die probabilistische Zeitentwicklung eines Systems bestimmt. Analog, haben wir für den Aktienkurs die Markov-Eigenschaft angenommen. In der Praxis ist jedoch zu beachten, daß die Annahme einer Markov-Eigenschaft bezüglich spezifischer Zustandvariablen (Ereignisse) in der Regel nur für eine bestimmte Zeitskala brauchbar ist. Für zu kleine Zeiten bricht sie oft zusammen. Im Minutenbereich, beispielsweise, sind die Änderungen der Aktienkurse tatsächlich miteinander korreliert.

Es ist vielleicht auch hilfreich zu bemerken, daß sich jedes System als Markov-Kette schreiben läßt, indem man ``Gedächtnisvariablen'' einführt, die alle relevanten Variablen speichern. Solche ``Gedächtnisvariablen'' wären im allgemeinsten Fall $B^\prime$ = $A\cup B$, $C^\prime$ = $C\cup B^\prime$, $D^\prime$ = $D\cup C^\prime$, $\cdots$. In Systemen der klassischen Mechanik, beispielsweise, wird die Zeitentwicklung eines Systems ja nicht durch die Position eines Teilchens alleine, sondern auch durch dessen Geschwindigkeit bestimmt. Die Geschwindigkeit läßt sich als solch eine ``Gedächtnisvariable'' interpretieren.

Analog zu dem diskreten Fall (2) spricht man bei einer kontinuierlicher Zeitvariable $t$ von einem Markov-Prozeß, wenn für die Wahrscheinlichkeit für $x_n$ zum Zeitpunkt $t_n$ bei gegebener kompletter Vorgeschichte $\{(x_i,t_i)\vert 1\le i\le n-1\}$ gilt

\begin{displaymath}
p(x_n,t_n\vert x_{n-1},t_{n-1};\cdots; x_1,t_1)
=
p(x_n,t_n\vert x_{n-1},t_{n-1})
\end{displaymath} (3)

für alle Zeiten mit $t_1<t_2<\cdots <t_{n-1}<t_n$. Dies bedeuted beispielsweise
\begin{displaymath}
p(x_3,t_3; x_2,t_2; x_1,t_1)
=
p(x_1,t_1)
p(x_2,t_2\vert x_1,t_1)
p(x_3,t_3\vert x_2,t_2)
,
\end{displaymath} (4)

für $t_1<t_2<t_3$.

Wir wollen noch bemerken, daß die Schreibweisen $p(x_3,t_3; x_2,t_2; x_1,t_1)$ oder $p(x_2,t_2\vert x_1,t_1)$ nicht ganz der ansonsten üblichen Konvention entsprechen die bedingenden (festgehaltenen) Variablen von den Zufallsvariablen durch einen senkrechten Strich zu trennen. In der sonst üblichen Schreibweise, bei der die bedingenden Variablen rechts vom senkrechten Strich stehen, würde man beispielsweise schreiben $p(x_3, x_2, x_1\vert t_3,t_2,t_1)$ oder $p(x_2\vert x_1,t_1;t_2)$. In der Tat wird in der Normierungsbedingung ja auch nur über die $x_i$ und nicht über $t_i$ integriert, also z.B.,

\begin{displaymath}
1 = \int \! dx_2 p(x_2,t_2 \vert x_1,t_1)
\quad
1 = \int \! dx_3  dx_2   dx_1 
p(x_3,t_3; x_2,t_2; x_1,t_1)
.
\end{displaymath} (5)


next up previous contents
Nächste Seite: Chapman-Kolmogorov-Gleichung Aufwärts: Markov-Prozesse Vorherige Seite: Markov-Prozesse   Inhalt
Joerg_Lemm 2000-02-25