Beziehungen zwischen Verteilungen(16.09.2004)

Commentaren

Transcriptie

Beziehungen zwischen Verteilungen(16.09.2004)
Kapitel 5
Beziehungen zwischen Verteilungen
In diesem Kapitel wollen wir Beziehungen zwischen Verteilungen betrachten, die wir z.T.
schon bei den einzelnen Verteilungen betrachtet haben. So wissen Sie schon, dass die Exponentialverteilung und die 2 -Verteilung spezielle Gammaverteilungen sind oder dass die
Summe geometrisch verteilter Zufallsvariablen negativ binomialverteilt ist. All diese Zusammenhänge sollen hier noch einmal zusammenfassend betrachtet werden. Dabei werden wir
auch einige neue Verteilungen kennenlernen.
5.1 Diskrete Verteilungen
5.1.1 Bernoulli-Verteilung, Binomialverteilung
Der Zusammenhang zwischen der Bernoulli- und der Binomialverteilung wurde schon in
Satz 4.3 behandelt.
Satz 5.1 Seien X1 ; X2 ; : : : ; Xn unabhängig und identisch Ber ( )-verteilt. Dann gilt:
X=
n
X
i=1
Xi b(n; ) :
Beweis:
P (fX = xg) = P (fX1 + X2 + ::: + Xn = xg)
= P (fx Erfolge und (n x) Misserfolge g)
Die Erfolge und Misserfolge können in verschiedenen Reihenfolgen angeordnet werden. Die
Anzahl der Möglichkeiten, x Erfolge und (n x) Misserfolge in n Positionen anzuordnen,
ist
!
n
:
x
Jede einzelne dieser Möglichkeiten hat die Wahrscheinlichkeit
x (1
)n
74
x
:
5.1. DISKRETE VERTEILUNGEN
75
Demnach gilt:
P (fX = xg) =
( n
x
x(1
0
)n
x
x = 0; 1; 2; :::; n
sonst :
}
Als Folgerung aus diesem Satz ergibt sich:
Satz 5.2 Die Zufallsvariablen X1 und X2 seien unabhängig und binomialverteilt mit den
Parametern n1 bzw. n2 und identischem Parameter . Dann gilt:
X1 + X2 b(n1 + n2 ; ) :
Beweis:
Die Summe lässt sich auffassen als die Anzahl der Erfolge in n1 +n2 unabhängigen BernoulliExperimenten mit Erfolgswahrscheinlichkeit .
}
5.1.2 Bernoulli-Verteilung, Geometrische Verteilung
Eine Folge von Bernoulli-Experimenten mit Erfolgswahrscheinlichkeit werde solange durchgeführt, bis der erste Erfolg eintritt. Die Zufallsvariable X sei die Anzahl der Misserfolge bis
zum ersten Erfolg. Dann gilt (siehe Beispiel 4.2):
X
Ge() :
5.1.3 Bernoulli-Verteilung, Negative Binomialverteilung
Wir betrachten weiterhin eine Folge von Bernoulli-Experimenten mit Erfolgswahrscheinlichkeit . Die Zufallsvariable X sei die Anzahl der Misserfolge vor dem r -ten Erfolg (r >
0). Dann gilt:
X
NB (r; ) :
5.1.4 Geometrische Verteilung, Negative Binomialverteilung
Die geometrische Verteilung ist ein Spezialfall der negativen Binomialverteilung, denn es
gilt offensichtlich
Ge( ) NB (1; ) :
Darüberhinaus kann man für r 2 IN jede negativ binomialverteilte Zufallsvariable als Summe von geometrisch verteilten Zufallsvariablen auffassen (vergleiche Satz 4.7).
76
KAPITEL 5. BEZIEHUNGEN ZWISCHEN VERTEILUNGEN
Satz 5.3 Seien X1 ; X2 ; : : : ; Xr unabhängig und identisch Ge( )–verteilt. Dann gilt:
X=
r
X
i=1
Xi NB (r; ) :
Es folgt aus Satz 5.3, dass der Erwartungswert und die Varianz einer negativ binomialverteilten Zufallsvariablen r mal so groß sind wie die entsprechenden Werte der geometrischen
Verteilung. Zur Warnung sei aber gesagt, dass die Unabhängigkeit der Zufallsvariablen eine
wesentliche Voraussetzung ist. Bei nicht unabhängigen Zufallsvariablen darf man die Varianzen nicht einfach addieren. Ein ähnlicher Zusammenhang bestand zwischen den Erwartungswerten und Varianzen der Bernoulli- und Binomialverteilung.
Als weitere Folgerung aus Satz 5.3 ergibt sich:
Satz 5.4 Die Zufallsvariablen X1 und X2 seien unabhängig und negativ binomialverteilt
mit den Parametern r1 bzw. r2 und identischem Parameter . Dann gilt:
X1 + X2 NB (r1 + r2 ; ) :
Beweis:
Man fasse beide Zufallsvariablen als Summe von r1 bzw. r2 unabhängig und identisch geometrisch verteilten Zufallsvariablen auf. Die Summe dieser r1 + r2 unabhängig geometrisch
verteilten Zufallsvariablen ist dann negativ binomialverteilt mit den Parametern r1 + r2 und
.
}
5.1.5 Binomialverteilung, Poissonverteilung
Die Binomialverteilung hatten wir als Anzahl der Erfolge in n unabhängigen BernoulliExperimenten mit Erfolgswahrscheinlichkeit kennengelernt (siehe Beispiel 4.1). Ist die
Anzahl der Experimente sehr groß und die Erfolgswahrscheinlichkeit klein, so kann man die
Binomialverteilung durch eine Poissonverteilung approximieren (siehe Satz 4.9).
5.1. DISKRETE VERTEILUNGEN
Satz 5.5 Sei
77
X
b(n; ) :
Wenn ,,klein” ist und n ,,groß” ist, so gilt asymptotisch
X _ P o()
mit
= n :
Aufgrund dieses Satzes spricht man bei der Poissonverteilung auch als der Verteilung seltener Ereignisse.
5.1.6 Binomialverteilung, Normalverteilung
Aufgrund des zentralen Grenzwertsatzes (siehe Satz 3.8) kann man eine binomialverteilte
Zufallsvariable für große n durch eine Normalverteilung approximieren.
Satz 5.6 Sei
X
b(n; ) :
Wenn n ,,groß” ist, so gilt asymptotisch:
X _ N (; 2 )
mit
= n
und
2 = n (1
) :
In diesem Satz wird nur verlangt, dass n groß sein muss. Über wird nichts gesagt. In der
Tat gilt dieser Satz schließlich für jedes . Nur für sehr kleine oder sehr große (d.h. nahe
bei 1), dauert es sehr lange, bis die Wahrscheinlichkeitsfunktion der Binomialverteilung mit
wachsendem n allmählich eine symmetrische glockenförmige Gestalt annimmt. Für solche
muss dann n eben noch größer sein, bis die Approximation durch die Normalverteilung
hinreichend genau ist.
5.1.7 Negative Binomialverteilung, Normalverteilung
Aufgrund des zentralen Grenzwertsatzes (siehe Satz 3.8) kann man auch eine negativ binomialverteilte Zufallsvariable für große r durch eine Normalverteilung approximieren. Auch
hier werden nur Voraussetzungen über r gemacht. Der Parameter bestimmt aber, wie groß
r sein muss, damit man von einer guten Approximation sprechen kann.
78
KAPITEL 5. BEZIEHUNGEN ZWISCHEN VERTEILUNGEN
Satz 5.7 Sei
X
NB (r; ) :
Wenn r ,,groß” ist, so gilt asymptotisch:
X _ N (; 2 )
mit
= r(1
)=
und
2 = r(1
)= 2 :
5.1.8 Summen poissonverteilter Zufallsvariablen
Satz 5.8 Die Zufallsvariablen X1 und X2 seien unabhängig und poissonverteilt mit den
Parametern 1 bzw. 2 . Dann gilt:
X1 + X2 P o(1 + 2 ) :
Die Summe von zwei und damit von beliebig vielen unabhängigen poissonverteilten Zufallsvariablen ist also wieder poissonverteilt. Die Parameter sind zu addieren. Damit kann
man sich die Poissonverteilung für großes auch als Verteilung der Summe von vielen unabhängig und identisch verteilten Zufallsvariablen vorstellen und den zentralen Grenzwertsatz (siehe Satz 3.8) anwenden.
5.1.9 Poissonverteilung, Normalverteilung
Die Poissonverteilung kann für große bekanntlich (siehe S. 70) durch eine Normalverteilung approximiert werden.
Satz 5.9 Sei
X
P o() :
Wenn ,,groß” ist, so gilt asymptotisch:
X _ N (; 2 )
mit
=
und
2 = :
5.2. STETIGE VERTEILUNGEN
79
5.2 Stetige Verteilungen
5.2.1 Exponentialverteilung, Gammaverteilung, Normalverteilung
Die Exponentialverteilung ist ein Spezialfall der Gammaverteilung, denn es gilt nach Gleichung (3.6):
Exp() G(1; ) :
Wir erhalten also eine Exponentialverteilung, wenn der Parameter der Gammaverteilung 1
ist. Darüberhinaus erhalten wir eine Gammaverteilung als Summe unabhängiger exponentialverteilter Zufallsvariablen (siehe Satz 3.11).
Satz 5.10 Wenn X1 ; X2 ; :::; X unabhängig und identisch exponentialverteilt sind, d.h.
Xi Exp(), so gilt:
X
i=1
Xi G( ; ) :
Nun kann man wieder den zentralen Grenzwertsatz (Satz 3.8) anwenden, um zu folgern:
Satz 5.11 Sei
X
G( ; ) :
Wenn ,,groß” ist, so gilt asymptotisch:
X _ N (; 2 )
mit
=
und
2 =
:
2
5.2.2 Summe von gammaverteilten Zufallsvariablen
Satz 5.12 Die Zufallsvariablen X1 und X2 seien unabhängig und gammaverteilt mit den
Parametern 1 bzw. 2 und identischem Parameter . Dann gilt:
X1 + X2 G(1 + 2 ; ) :
Die Summe von zwei und damit beliebig vielen gammaverteilten Zufallsvariablen mit identischem Parameter ist wieder gammaverteilt. Der Parameter ist die Summe der beiden
Parameter 1 und 2 .
80
KAPITEL 5. BEZIEHUNGEN ZWISCHEN VERTEILUNGEN
5.2.3 Gammaverteilung, 2 -Verteilung, Normalverteilung
Die 2 -Verteilung ist ein Spezialfall der Gammaverteilung. Nach Satz 3.12 gilt:
2n G(n=2; 1=2) :
Es folgt aus Satz 5.12, dass die Summe unabhängiger 2 -verteilter Zufallsvariablen wieder
2 -verteilt ist, wobei die Freiheitsgrade zu addieren sind.
Satz 5.13 Die Zufallsvariablen X1 und X2 seien unabhängig und 2 -verteilt mit den
Parametern n1 bzw. n2 . Dann gilt:
X1 + X2 2n1 +n2 :
Mit dem zentralen Grenzwertsatz (Satz 3.8) oder aus Satz 5.11 folgt wieder:
Satz 5.14 Sei
X
2n :
Wenn n ,,groß” ist, so gilt asymptotisch:
X _ N (; 2 )
mit
=n
und
2 = 2n :
5.2.4 Summen normalverteilter Zufallsvariablen
Satz 5.15 Seien X1 ; X2 ; : : : ; Xn unabhängig und identisch N (; 2 )-verteilt. Dann gilt:
X=
n
X
i=1
Xi N (n; n 2 ) :
Für nicht identisch normalverteilte Zufallsvariablen gilt:
5.2. STETIGE VERTEILUNGEN
81
Satz 5.16 Seien X1 ; X2 ; : : : ; Xn unabhängig N (i ; i2 )-verteilt. Dann gilt:
X=
n
X
i=1
Xi N (
n
X
i=1
i ;
n
X
i=1
i2 ) :
5.2.5 Normalverteilung, 2 -Verteilung
Satz 5.17 Es gelte
N (0; 1) :
X
Dann gilt:
X 2 21 :
Das Quadrat einer standarnormalverteilten Zufallsvariablen ist also 2 -verteilt mit einem
Freiheitsgrad. Mit Satz 5.13 folgt, dass auch die Summe der Quadrate unabhängiger N (0; 1)verteilter Zufallsvariablen 2 -verteilt ist.
Satz 5.18 Seien X1 ; X2 ; :::; Xn unabhängig und identisch N (0; 1)-verteilt. Dann gilt:
X=
n
X
i=1
Xi2 2n :
Für praktische Anwendungen wichtig ist der folgende Satz:
Satz 5.19 Seien X1 ; X2 ; :::; Xn unabhängig und identisch N (; 2 )-verteilt. Sei
n
n
1X
1X
2
X=
Xi und S =
(Xi
n i=1
Dann gilt:
n i=1
nS 2
2
2 (n
1) :
X )2 :
82
KAPITEL 5. BEZIEHUNGEN ZWISCHEN VERTEILUNGEN
Man benutzt dieses Resultat, um Hypothesen über die Varianz in einer normalverteilten
Grundgesamtheit zu testen. Um die Nullhypothese
H0 : 2 = 02
gegen die Alternative
H1 : 2 =
6 02
zu testen, verwendet man die Prüfgröße
nS 2
;
02
die nach Satz 5.19 unter der Hypothese eine 2 -Verteilung mit n
1 Freiheitsgraden besitzt.
Die 2 -Verteilung ist eine wichtige Verteilung in der Varianzanalyse. Die dort berechneten
Summen der Quadrate von normalverteilten Zufallsvariablen sind verteilt wie 2 2 , wobei
2 die Varianz ist (siehe Beispiel 5.1).
5.2.6 Normalverteilung, t-Verteilung
Definition 5.1 Die Dichtefunktion der t-Verteilung ist gegeben durch
2
( +1
= ) ( +1)=2
2 )(1
p+ x(=
fX (x) =
2)
Die t-Verteilung besitzt einen Parameter , für den gilt Wir schreiben
X
1 < x < 1 ::
2 IN .
t ;
wenn eine Zufallsvariable eine t-Verteilung besitzt. Wir sagen dann auch, dass X eine tVerteilung mit Freiheitsgraden besitzt.
Abbildung 5.1 zeigt einige Dichtefunktionen der t-Verteilung. Sie ist wie die Normalverteilung symmetrisch um eine senkrechte Achse bei 0 und nähert sich mit wachsender Zahl der
Freiheitsgrade der Dichtefunktion der Standardnormalverteilung.
Aufgrund der Symmetrie der Dichtefunktion folgt:
Satz 5.20 Es gelte
X
t :
Dann gilt für den Erwartungswert:
EX = 0 :
5.2. STETIGE VERTEILUNGEN
83
0.5
1000
0.4
f(x)
5
0.3
0.2
1
0.1
0.0
-6
-4
-2
0
x
2
4
6
Abbildung 5.1: Dichtefunktionen der t-Verteilung mit = 1; 5; 1 000
Um von der Normalverteilung zur t-Verteilung zu kommen, benötigen wir das folgende Resultat, das wir hier der Vollständigkeit halber formulieren, obwohl wir den Begriff der Unabhängigkeit (siehe Definition 6.16) noch nicht definiert haben.
Satz 5.21 Seien X1 ; :::; Xn unabhängig und identisch N (; 2 )-verteilt. Sei
X =
n
1X
Xi und S2 =
n i=1
n
1
n
X
1 i=1
(Xi
X )2 :
und S2 sind unabhängig.
Dann gilt: X
Satz 5.22 Die Zufallsvariablen X1 und X2 seien unabhängig und
X1 N (0; 1);
Dann gilt
X1
X2 =
q
X2 2 ( ) :
t( ) ;
d.h. t-verteilt mit Freiheitsgraden.
Satz 5.23 Die Zufallsvariablen X1 ; X2 ; : : : ; Xn seien unabhängig und identisch
N (; 2 )-verteilt. Dann gilt:
X p
S = n
tn
1
:
84
KAPITEL 5. BEZIEHUNGEN ZWISCHEN VERTEILUNGEN
Beweis:
werden wir
Es gilt (ohne kompletten Beweis, den Erwartungswert und die Varianz von X
später berechnen)
X p
= n
N (0; 1) :
Nach Satz 5.19 gilt:
(n 1)S2
2
2 (n
1) :
und S2 nach Satz 5.21 unabhängig. Damit gilt nach Satz 5.22:
Ferner sind X
X p
= n
r
(n 1)S2
2 (n 1)
=
X p
S = n
t(n
1) :
}
Man verwendet
T=
X p
S = n
tn
1
als Prüfgröße im t-Test zur Prüfung von Hypothesen über den Erwartungswert in einer normalverteilten Grundgesamtheit, z.B.
H0 :
= 0
H1 :
6= 0 :
gegen die Alternative
Unter der Nullhypothese H0 besitzt die Prüfgröße T dann die in Satz 5.23 angegebene Verteilung. Dieses Resultat wird ferner bei der Konstruktion von Konfidenzintervallen für den
Parameter der Normalverteilung benutzt.
R-Befehle zur t-Verteilung:
dt(x, df) berechnet die Dichtefunktion der t-Verteilung mit dem Parameter an der Stelle x. Dabei kann x ein Vektor sein.
=df
pt(q, df, ncp=0) berechnet die Verteilungsfunktion der t-Verteilung mit dem
Parameter =df an der Stelle q . Dabei kann q ein Vektor sein. Mit dem optionalen
Argument ncp wird der Nichtzentralitätsparameter festgelegt. Wir behandeln hier die
zentrale t-Verteilung, für die ncp=0 ist.
qt(p, df) berechnet die Umkehrfunktion der Verteilungsfunktion der t-Verteilung
mit dem Parameter =df an der Stelle p. Dabei muss p ein Vektor von Wahrscheinlichkeiten, d.h. von Zahlen zwischen 0 und 1 sein.
rt(n, df) erzeugt n t-verteilte Zufallszahlen mit dem Parameter =df.
5.2. STETIGE VERTEILUNGEN
85
5.2.7 Normalverteilung, F-Verteilung
Definition 5.2 Die Dichtefunktion der F-Verteilung ist gegeben durch:
( 1 +2 2 ) 1 1 =2 1 =2
fX (x) = 1 2
x
( 2 ) ( 2 ) 2
1
1 x 1+
2
(1 +2 )=2
Die F-Verteilung hat zwei Parameter 1 und 2 , für die gelten muss i
x0
2 IN; i = 1; 2.
Beachten Sie, dass für den Koeffizienten in der Dichteverteilung der F-Verteilung gilt:
( 1 +2 2 )
1
= 1 2 :
1
2
( 2 ) ( 2 ) B( 2 ; 2 )
Wir schreiben
X
F (1 ; 2) ;
wenn die Zufallsvariable X eine F -Verteilung besitzt. Die Parameter werden auch Freiheitsgrade genannt, dabei heißen 1 die Freiheitsgrade im Zähler und 2 die Freiheitsgrade im
Nenner.
1.0
1
f(x)
0.8
20
2 10
0.6
3
0.4
0.2
0.0
0
1
2
3
4
5
x
Abbildung 5.2: Dichtefunktionen der F -Verteilung mit 1
= 1; 2; 3; 10; 20; 2 = 20
Satz 5.24 Die Zufallsvariablen X1 und X2 seien unabhängig 2 -verteilt mit 1 bzw. 2
Freiheitsgraden, dann gilt:
X1 =1
X2 =2
F (1; 2) :
86
KAPITEL 5. BEZIEHUNGEN ZWISCHEN VERTEILUNGEN
Beispiel 5.1 (Varianzanalyse) In der Grundvorlesung haben Sie bereits einen F -Test kennengelernt. Die Situation kann wie folgt beschrieben werden. Es liegen Beobachtungen in I Gruppen vor.
Yij = i + eij
i = 1; 2; : : : ; I ; j = 1; 2; : : : ; J:
Dabei seien i Konstante, die eij seien normalverteilte unabhängige Zufallsvariablen mit E (eij ) = 0
und V ar (eij ) = 2 . Es soll die Hypothese
H0 : 1 = 2 = : : : = I
geprüft werden. Die Prüfgröße ist dann
1
PG =
I 1
1
I (J 1)
I
P
J Yi:
i=1
I P
J
P
i=1 j =1
Yij
Y::
2
Yi:
2
Diese Prüfgröße ist typisch für viele F -Prüfgrößen, die Ihnen in Regressionsanalysen (z.B. in der
Vorlesung Ökonometrie) oder in Varianzanalysen (in der Vorlesung Lineare Modelle) oder bei der
Analyse von Daten mit Statistikprogrammpaketen begegnen werden. Die Summen der Quadrate in
Zähler und Nenner der Prüfgröße
I
P
i=1
J Yi:
I P
J
P
i=1 j =1
Y::
Yij
2
Yi:
Summe der Quadrate Gruppen
2
Summe der Quadrate Rest
sind jeweils verteilt wie 2 2 mit I 1 bzw. I (J 1) Freiheitsgraden. Außerdem sind die beiden
Summen der Quadrate unabhängig. Es folgt dann aus Satz 5.24, dass der Quotient eine F -Verteilung
mit I 1 und I (J 1) Freiheitsgraden besitzt.
Beispiel 5.2 Auch den fogenden F -Test haben Sie in der Grundvorlesung im Zusammenhang mit
der Regressionsanalyse kennengelernt. Das Modell M2 bezeichne eine Vereinfachung des Modells
M1 , d.h. einige der Parameter aus M1 fehlen in M2 . Zur Prüfung der Hypothese, dass die Modellvereinfachung gilt, d.h. die in M2 fehlenden Parameter aus M1 null sind, wird die Prüfgröße
PG =
(SQ(Res; M2 )
SQ(Res; M1 ))=(F G(M2 )
SQ(Res; M1 )=F G(M1 )
F G(M1 ))
verwendet, die unter der Nullhypothese eine F -Verteilung mit F G(M2 ) F G(M1 ) und F G(M1 )
Freiheitsgraden hat. Dabei sind SQ(Res; M1 ) und SQ(Res; M2 ) die Summe der Quadrate der Residuale unter den Modellen M1 und M2 und F G bezeichnen die jeweiligen Freiheitsgrade.
R-Befehle zur F-Verteilung:
df(x, df1, df2) berechnet die Dichtefunktion der F-Verteilung mit den Parametern 1 =df1 und 2 =df2 an der Stelle x. Dabei kann x ein Vektor sein.
pf(q, df1, df2, ncp=0) berechnet die Verteilungsfunktion der F-Verteilung
mit den Parametern 1 =df1 und 2 =df2 an der Stelle q . Dabei kann q ein Vektor
sein. Mit dem optionalen Argument ncp wird der Nichtzentralitätsparameter festgelegt. Wir behandeln hier die zentrale F-Verteilung, für die ncp=0 ist.
5.2. STETIGE VERTEILUNGEN
87
qf(p, df1, df2) berechnet die Umkehrfunktion der Verteilungsfunktion der FVerteilung mit den Parametern 1 =df1 und 2 =df2 an der Stelle p. Dabei muss p
ein Vektor von Wahrscheinlichkeiten, d.h. von Zahlen zwischen 0 und 1 sein.
rf(n, df1, df2) erzeugt n F-verteilte Zufallszahlen mit den Parametern 1
und 2 =df2 .
=df1
5.2.8 Normalverteilung, Lognormalverteilung
Definition 5.3 Die Dichtefunktion der Lognormalverteilung ist gegeben durch
8
>
<
p1
f (x) = > x 2
:
e
2
(log x
)2 =22
0
x>0
sonst :
Die Lognormalverteilung hat zwei Parameter und 2 , für die gelten muss
1<<1
Wir schreiben
X
und
2 > 0 :
(; 2) ;
wenn die Zufallsvariable X eine Lognormalverteilung besitzt. Der folgende Satz erklärt den
Namen Lognormalverteilung. Die Zufallsvariable log X besitzt nämlich eine Normalverteilung, wenn X eine Lognormalverteilung besitzt.
Satz 5.25
a) Es gelte X
(; 2), dann gilt:
log X N (; 2 ) :
b) Es gelte Y
N (; 2), dann gilt:
eY
(; 2) :
Die Verteilungsfunktion der Lognormalnormalverteilung kann man auf die der Standardnormalverteilung zurückführen.
88
KAPITEL 5. BEZIEHUNGEN ZWISCHEN VERTEILUNGEN
Satz 5.26 Für die Verteilungsfunktion FX einer lognormalverteilten Zufallsvariablen
X gilt
!
FX (x) = log x ;
wobei die Verteilungsfunktion der Standardnormalverteilung bezeichne.
Beweis:
Für x 0 gilt:
FX (x) = P (fX xg)
=
Zx
p1
t 2
0
Wir substituieren
(log t
e
2
)2 =22 dt
:
s = log t :
Dann ist
ds 1
=
dt t
1
ds = dt :
t
Dabei ändern sich die Grenzen wie folgt:
Wenn t
! 0, gilt s ! 1 :
Wenn t = x, ist s = log x :
Damit folgt, wenn man beachtet, dass der folgende Integrand die Dichtefunktion einer Normalverteilung mit den Parametern und 2 ist, unter Anwendung von Satz 3.6
FX (x) =
log
Z x
1
= p1
e
(s
2
!
log x 2
)2 =22 ds
:
}
Satz 5.27 Es gelte
X
(; 2) :
Dann gilt für den Erwartungswert und die Varianz von X :
EX = e+
2 =2
und
2
V arX = e2 e (e
2
1) :
5.2. STETIGE VERTEILUNGEN
89
0.8
f(x)
0.6
0.4
0.2
0.0
0
2
4
6
x
8
10
12
Abbildung 5.3: Dichtefunktion der Lognormalverteilung mit = 0; 2
=1
In Anwendungen findet man die Lognormalverteilung als Modell für viele Zufallsvariablen, die nur positive Werte annehmen können. Wie Abbildung 5.3 zeigt, ist die Lognormalverteilung insbesondere geeignet für Daten mit einer schiefen Verteilung. Durch geeignete
Wahl der Parameter (insbesondere von 2 ) kann man jedoch erreichen, dass die Gestalt der
Lognormalverteilung wieder sehr ähnlich der Gestalt einer Normalverteilung wird. In manchen Fällen erhält man damit ein realistischeres Modell als mit der Normalverteilung. Die
Lognormalverteilung findet Anwendung als Modell für das Einkommen, für Lebensdauern
(von produzierten Gütern) oder Verweildauern (z.B. von Beschäftigten in einem Betrieb) und
auch ganz aktuell als Modell für Aktienkurse.
R-Befehle zur Lognormalverteilung
dlnorm(x, meanlog=0, sdlog=1) berechnet die Dichtefunktion der Lognormalverteilung mit den Parametern =meanlog und 2 = sdlog2 an der Stelle x,
wobei x ein Vektor ist. Dabei ist zu beachten, dass sdlog die Standardabweichung,
also die Quadratwurzel aus der Varianz 2 der logarithmierten Zufallsvariablen ist.
plnorm(q, meanlog=0, sdlog=1) berechnet die Verteilungsfunktion der
Lognormalverteilung mit den Parametern =meanlog und 2 = sdlog2 an der
Stelle q, wobei q ein Vektor ist.
qlnorm(p, meanlog=0, sdlog=1) berechnet die Umkehrfunktion der Verteilungsfunktion der Lognormalverteilung mit den Parametern =meanlog und
2 = sdlog2 an der Stelle p, wobei p ein Vektor von Wahrscheinlichkeiten, also
Zahlen zwischen 0 und 1, ist.
rlnorm(n, meanlog=0, sdlog=1) erzeugt n lognormalverteilte Zufallszahlen mit den Parametern =meanlog und 2 = sdlog2 .