Chapter 3 Discrete Random Variables
Kapitel 3.4-3.8 + lite till: Speciella diskreta sannolikhetsfördelningar
Fortsättning
Vi har nu presenterat några välkända diskreta fördelningar med egna namn:
Likformig diskret fördelning
Bernoullifördelning
Binomialfördelning
Geometrisk fördelning
Negativ binomialfördelning
Hypergeometrisk fördelning
Poissonfördelning
Likheter mellan fördelningar
Tre av de sju fördelningar som vi nu gått igenom kan användas i situationer som påminner om varandra. Det är Binomialfördelningen, Hypergeometrisk fördelning och Poissonfördelningen. Alla dessa tre fördelningar handlar om situationer där slumpvariabeln Y anger antalet “lyckade händelser”.
Exempel på tre slumpförsöks-situationer som liknar varandra.
-
Kasta en tärning 10 gånger. Bestäm sannolikheten för att du får exakt två sexor.
-
I en säck finns 30 bollar blandade. Fem av dem är svarta och resten är vita. Du plockar upp 10 bollar på måfå. Bestäm sannolikheten för att du får exakt två svarta bollar bland dessa tio.
-
I en viss affär kommer det i genomsnitt in en kund var sjätte minut. Bestäm sannolikheten för att det under en 10-minuters-period kommer in exakt två kunder.
LÖSNINGAR
Exempel 1
Låt \(Y\)=antal sexor som du får på dina tio kast.
Detta är en typisk binomialsituation; 10 likadana försök som alla har samma sannolikhet (p = 1/6) att lyckas, så \(Y \sim Bin(10, \frac{1}{6})\)
Sannolikheten för att få exakt två sexor blir då \(p(2)=\) \(\left( \begin{array}{c} 10 \\ 2 \end{array} \right) \cdot \left( \frac{1}{6} \right)^2 \cdot \left( \frac{5}{6} \right)^8\) \(\approx 0.29071\).
Exempel 2
Låt Y = antal svarta bollar du får upp bland de tio bollarna.
Här är antalet svarta begränsat, så sannolikheten blir 1/6 bara första gången.
Hypergeometrisk fördelning måste användas; \(Y \sim Hyp(30,5,10)\).
Sannolikheten för att få exakt två svarta bollar blir då \(p(2)=\) \(\frac{\left( \begin{array}{c} 5 \\ 2 \end{array} \right) \cdot \left( \begin{array}{c} 25 \\ 8 \end{array} \right)}{\left( \begin{array}{c} 30 \\ 10 \end{array} \right)}\) \(\approx 0.35998\)
Exempel 3
Låt Y = antal kunder som kommer in under de tio minuterna. Här har vi under varje minut inte bara möjligheten “kund” eller “inte kund”, utan det kan komma fler kunder en viss minut, så Poissonfördelning måste användas; \(Y \sim Po(\lambda)\)
Om vi hade haft tidsenheten en minut, hade vi haft \(\lambda=\frac{1}{6}\), men nu har vi tio minuter, så vi ska använda \(\lambda=10 \cdot \frac{1}{6}=\frac{10}{6}=\frac{5}{3}\)
Sannolikheten för att det under en 10-minuters-period kommer in exakt två kunder blir då \(p(2)=\) \(\frac{\left( \frac{5}{3} \right)^2}{2 \ !} \cdot e^{-\frac{5}{3}}\) \(\approx 0.34632\)
Exempel där approximation kan användas
Om vi jämför svaren på de tre exemplen ovan med varandra, ser vi att de har ungefär samma värden. Det beror på att situationerna liknar varandra.
Nu följer tre exempel av samma sort, där svaren kommer att likna varandra ännu mer:
-
Ett lotterihjul har 100 fält numrerade 1-100. Du drar på hjulet 20 gånger. Bestäm sannolikheten för att du får numret “100” exakt en gång.
-
I en säck finns 3000 bollar blandade. 30 av dem är svarta och resten är vita. Du plockar upp 20 bollar på måfå. Bestäm sannolikheten för att du får exakt en svart boll bland dessa tjugo.
-
I en bit radioaktivt material uppstår det i genomsnitt ett radioaktivt sönderfall var hundrade minut. Bestäm sannolikheten för att det under en 20-minuters-period uppstår exakt ett radioaktivt sönderfall.
LÖSNINGAR
Exempel 1
Låt Y=antal gånger du får “100” av dina tjugo drag. Detta är en typisk binomialsituation; 20 likadana försök som alla har samma sannolikhet (p = 0.01) att lyckas, så \(Y \sim Bin(20, 0.01)\)
Sannolikheten för att du får numret “100” exakt en gång blir då \(p(1)=\) \(\left( \begin{array}{c} 20 \\ 1 \end{array} \right) \cdot 0.01^1 \cdot 0.99^{19}\) \(\approx 0.16523\).
Exempel 2
Låt Y = antal svarta bollar du får upp bland de tjugo bollarna. Här är antalet svarta begränsat, så sannolikheten blir 1/100 bara första gången. Hypergeometrisk fördelning måste användas; \(Y \sim Hyp(3000,30,20)\).
Sannolikheten för att få exakt en svart boll blir då \(p(1)=\) \(\frac{\left( \begin{array}{c} 30 \\ 1 \end{array} \right) \cdot \left( \begin{array}{c} 2970 \\ 19 \end{array} \right)}{\left( \begin{array}{c} 3000 \\ 20 \end{array} \right)}\) \(\approx 0.16619\)
Exempel 3
Låt Y = antal sönderfall som uppstår under de tjugo minuterna. Här har vi under varje minut inte bara möjligheten “sönderfall” eller “inte sönderfall”, utan det kan komma fler sönderfall en viss minut, så Poissonfördelning måste användas; \(Y \sim Po(\lambda)\)
Om vi hade haft tidsenheten en minut, hade vi haft \(\lambda=\frac{1}{100}=0.01\), men nu har vi 20 minuter, så vi ska använda \(\lambda=20 \cdot 0.01=0.2\)
Sannolikheten för att det under en 20-minuters-period uppstår exakt ett radioaktivt sönderfall blir då \(p(1)=\) \(\frac{0.2^1}{1 \ !} \cdot e^{-0.2}\) \(\approx 0.16375\)
Den här gången är svaren på de tre exemplen nästan samma. Situationerna i dessa tre exempel liknar varandra mer än situationerna i de tre föregående exemplen.
Till exempel är sannolikheten att få en svart boll i exempel 2 nästan lika med 0.01 i alla dina tjugo försök. Detta beror på att du har så många bollar totalt, så även om du tar en svart boll i ditt första försök, så är andelen svarta bollar inför ditt andra försök också nästan 0.01. (\(\frac{29}{2999} \approx 0.00967\)).
Därför får man nästan samma svar om man istället för \(Y \sim Hyp(3000,30,20)\) använder \(Y \sim Bin(20, 0.01)\).
Parametern p som behövs för Binomialfördelningen erhålls ur följande \(p= \frac{r}{N} =\frac{30}{3000} =0.01\)).
Om man ska beräkna sitt svar med en miniräknare, går det ännu fortare att använda Poissonfördelningen med parametern \(\lambda =n \cdot p\):
\(\lambda =20 \cdot 0.01 =0.2\)
Om man gör en approximation får man alltså inte exakt rätt svar, men beräkningen går fortare.
Hur ska man veta när man får använda approximation?
Det finns tumregler för när approximation kan accepteras. Villkoren (“gränserna”) i tumreglerna varierar mellan olika författare. Nedan följer ett förslag till uppsättning av tumregler:
För att förstå vilka parametrar som ska användas i den approximativa fördelningen, behöver man känna till följande:
Från \(Hyp(N,r,n)\) till \(Bin(n,p)\): \(p= \frac{r}{N}\)
Till \(Po(\lambda)\): \(\lambda =n \cdot p\), där \(p= \frac{r}{N}\)
-
Approximation av Hypergeometrisk fördelning
-
till Binomialfördelning: Villkor: \(\frac{n}{N} \leq 0.1\)
-
till Poissonfördelning: Villkor: \(\frac{n}{N}+p \leq 0.1\) och \(n \geq 10\)
-
-
Approximation av Binomialfördelning
- till Poissonfördelning: Villkor: \(p \leq 0.1\) och \(n \geq 10\)
Exempel där approximation används
Exempel 18
Bestäm p(3) approximativt om \(Y \sim Bin(100, 0.02)\)
Exempel 19 Du tar 5 lotter i ett lotteri med 1000 lotter, varav 20 % vinstlotter. Låt Y=antal vinstlotter som du får upp av dessa fem lotter.
- Bestäm vilken fördelning som Y följer exakt
- vilken approximativ fördelning kan användas för Y?
Lösning Exempel 18
Eftersom vi har \(p =0.02\) och \(n =100\),
så gäller \(p \leq 0.1\) och \(n \geq 10\).
Då kan Binomalfördelningen approximeras med en Poissonfördelning med \(\lambda =n \cdot p\), dvs \(\lambda =100\cdot 0.02\)
Med \(Y \sim Po(2)\) får vi då \(p(3)=\frac{2^3}{3 \ !} e^{-2}\approx 0.1804\)
Lösning Exempel 19
19a) Den exakta fördelningen är \(Y \sim Hyp(1000,200,5)\)
19b) Fördelningen kan approximeras med \(Y \sim Bin(5, 0.2)\),
men den kan inte approximeras med \(Y \sim Po(1)\)
Momentgenererande funktioner (Kapitel 3.9)
Tidigare om moment, och några nya beteckningar
Från kapitel 3.4 och fram hit har vi gått igenom sju namngivna diskreta sannolikhetsfördelningar. Före dess gjordes bl.a. en introduktion av begreppet moment
Då presenterades dessa definitioner:
- \(E(Y^k)\) kallas det k:te momentet runt origo.
- \(E((Y-b)^k)\) kallas det k:te momentet runt b.
- \(E((Y-E(Y))^k)\) kallas det k:te centralmomentet.
- \(E(Y\cdot(Y-1)\cdot(Y-2)\cdot \cdot\) \(\cdot \cdot (Y-k+1))\) kallas det k:te faktorialmomentet.
Här introduceras ytterligare några beteckningar för några av momenten ovan; momenten kring origo och momenten kring väntevärdet (kallas centralmomenten)
- Kring origo: \(E(Y^k)\) kan också betecknas \(\mu’_k\)
- Kring väntevärdet: \(E((Y-E(Y))^k)\) kan också betecknas \(\mu_k\)
Exempel 20
Vi har en okänd slumpvariabel Y för vilken vi känner till följande information:
\(\mu’_1=2\) och \(\mu’_2=5\).
20a) Bestäm väntevärdet E(Y)
20b) Bestäm variansen V(Y)
20c) Bestäm \(\mu_1\)
20d) Bestäm \(\mu_2\)
20e) Bestäm sannolikhetsfördelningen för Y
Lösning Exempel 20
20a) \(E(Y)=E(Y^1)\) \(=\mu’_1=2\)
20b) \(V(Y)=E(Y^2)-(E(Y))^2\) \(=\mu’_2-(\mu’_1)^2\) \(=5-2^2=1\)
20c) \(\mu_1=E((Y-E(Y))^1)\) \(=E(Y-2)=E(Y)-E(2)\) \(=2-2=0\)
20d) \(\mu_2=E((Y-E(Y))^2)\) \(=V(Y)=1\) enligt b
20e) Som nämndes vid första genomgången av begreppet moment (före kap3.4) är inte information om de två första momenten tillräcklig för att entydigt bestämma sannolikhetsfördelningen för Y.
Det finns alltså många olika sannolikhetsfördelningar som har \(\mu’_1=2\) och \(\mu’_2=5\), dvs E(Y)=2 och V(Y)=1.
T.ex. gäller E(Y)=2 och V(Y)=1 för följande tre exempel på slumpvariabler:
1) Slumpvariabeln Y med följande sannolikhetsfördelning/pdf:
\(y\) | \(p(y)\) |
---|---|
0 | 0.125 |
2 | 0.75 |
4 | 0.125 |
2) Slumpvariabeln Y med följande sannolikhetsfördelning/pdf:
\(y\) | \(p(y)\) |
---|---|
1 | 0.5 |
3 | 0.5 |
3) Slumpvariabeln Y med följande sannolikhetsfördelning/pdf:
\(Y \sim Bin(4, 0.5)\)
Sätt att presentera en sannolikhetsfördelning/pdf
- Man kan ge en tabell
- Man kan ge en formel/fördelningsbeskrivning
- Man kan ge mgf (moment-genererande funktion)
Begreppet mgf
Inledning
Vid den första genomgången av begreppet moment (före kap3.4) nämndes att om vi har värdena för alla moment, finns möjlighet att entydigt bestämma funktionen \(p(y)\) för sannolikhetsfördelningen.
En moment-genererande funktion (mgf) för en slumpvariabel Y är en funktion ur vilken man kan få information om alla moment för Y.
Denna funktion genererar alltså värdena för alla moment, därav namnet “genererande”.
En momentgenererande funktion mgf beskrivs som en funktion \(m(t)\).
Ett exempel
Bland de tre slumpvariablerna ovan, har nummer 2 följande mgf: \(m(t)=0.5 \cdot e^t+0.5 \cdot e^{3t}\)
Ur denna mgf man direkt läsa ut de möjliga värdena för slumpvariabeln Y och motsvarande sannolikheter:
De möjliga värdena för y är koefficienterna för t i exponenten för respektive term; 1t respektive 3t.
Motsvarande sannolikheter är koefficienten framför e-potensen; 0.5 och 0.5.
Om egenskaper hos mgf
Vi använder exemplet ovan med \(m(t)=0.5 \cdot e^t+0.5 \cdot e^{3t}\).
Vi ska studera \(m(0)\), \(m'(0)\) och \(m”(0)\).
\(m(t)=0.5 \cdot e^t+0.5 \cdot e^{3t}\) ger \(m(0)=1\)
\(m'(t)=0.5 \cdot e^t+1.5 \cdot e^{3t}\) ger \(m'(0)=2\)
\(m”(t)=0.5 \cdot e^t+4.5 \cdot e^{3t}\) ger \(m”(0)=5\)
Vi kan konstatera att
\(m(0)=1\)
\(m'(0)=E(Y)\)
\(m”(0)=E(Y^2)\)
Allmänt om mgf
Den momentgenererande funktionen (mgf) för en slumpvariabel Y definieras som \(m(t)=E(e^{tY})\)
För en diskret slumpvariabel Y har vi tidigare konstaterat att väntevärdet för en funktion g av en slumpvariabel blir enligt följande:
\(\displaystyle E(g(Y))=\sum_{y\in S} (g(y) \cdot p(y))\) (Sats 3.2)
Detta innebär att \(m(t)=\displaystyle \sum_{y\in S} (e^{yt} \cdot p(y))\).
Denna summa kan utvecklas på två olika sätt.
Ett alternativ är att göra såhär:
( Exemplet som jag kallar nummer 2 ovan, med \(S=\{1,3 \}\) )
\(m(t)= \displaystyle \sum_{y\in S} (e^{yt} \cdot p(y))\) \(=e^{1t} \cdot p(1)+e^{3t} \cdot p(3)\)
Ett annat alternativ är att använda Maclaurin-utvecklingen av \(e^{yt}\)
I kapitel 3.8, i samband med några härledningar, presenterades Maclaurin-utveclingen som formeln (M):
\(e^x=\frac{x^0}{0 \ !}+ \frac{x^1}{1 \ !}+\frac{x^2}{2 \ !}+\frac{x^3}{3 \ !} + \cdot \cdot \cdot\)
Då får vi att \(e^{yt}=\) \(\frac{(ty)^0}{0 \ !}+ \frac{(ty)^1}{1 \ !}\) \(+\frac{(ty)^2}{2 \ !}+\frac{(ty)^3}{3 \ !} + \cdot \cdot \cdot\) \(=1+ty+\frac{t^2}{2}\cdot y^2\) \(+\frac{t^3}{6}\cdot y^3+\cdot\cdot\cdot\)
och \(m(t)= \displaystyle \sum_{y\in S} (e^{yt} \cdot p(y))\) \(= \displaystyle \sum_{y\in S} \textstyle \left( p(y) \cdot (1+ty+\frac{t^2}{2}\cdot y^2+\frac{t^3}{6}\cdot y^3+\cdot\cdot\cdot) \right)\)
Eftersom man kan summera termer i vilken ordning man vill, kan vi lika gärna skriva:
\(m(t)= \displaystyle \sum_{y\in S} p(y)+\) \(t \cdot \displaystyle \sum_{y\in S} (y\cdot p(y)) +\) \(\textstyle \frac{t^2}{2} \cdot \displaystyle \sum_{y\in S} (y^2\cdot p(y)) +\) \(\textstyle \frac{t^3}{3 \ !} \cdot \displaystyle \sum_{y\in S} (y^3\cdot p(y))+ \cdot \cdot \cdot\)
\(\ \ \ \ \ \ \ = E(Y^0) \ \ \ +\) \(\ \ \ t \cdot E(Y^1) \ \ \ +\) \(\ \ \ \frac{t^2}{2} \cdot E(Y^2)\ \ \ +\) \(\ \ \ \frac{t^3}{3 \ !} \cdot E(Y^3) \ \ \ + \cdot \cdot \cdot\)
\(\ \ \ \ \ \ \ = \displaystyle \sum_{k=0}^\infty \frac{t^k}{k \ !} E(Y^k)=\) \(\displaystyle \sum_{k=0}^\infty \frac{t^k}{k \ !}\mu’_k\)
Om exemplet igen; jämförelse mellan de två alternativen
Enligt alternativ 1 får vi
\(m(t)= \displaystyle \sum_{y\in S} (e^{yt} \cdot p(y))=\) \(e^{1t} \cdot p(1)+e^{3t} \cdot p(3)=\) \(0.5 \cdot e^{t}+0.5 \cdot e^{3t}\)
Enligt alternativ 2 får vi
\(m(t) = E(Y^0) +\) \(t \cdot E(Y^1)+\) \(frac{t^2}{2} \cdot E(Y^2)+\) \(\frac{t^3}{3 \ !} \cdot E(Y^3)+ \cdot \cdot \cdot=\) \(1+t\cdot 2+\frac{t^2}{2} \cdot 5 + \cdot \cdot \cdot\).
Förklaring till den sista förenklingen:
\(E(Y^0)=E(1)=1\)
\(E(Y^1)=E(Y)=2\); konstaterades i exemplet, tidigare.
\(E(Y^2)=5\); konstaterades i exemplet, tidigare.
Vi ska alltså visa att
\(0.5 \cdot e^{t}+0.5 \cdot e^{3t} =\) \(1+t\cdot 2+\frac{t^2}{2} \cdot 5 + \cdot \cdot \cdot\)
För att komma fram till den utvecklade formen i högerledet utnyttjar vi Maclaurin-formeln (M) igen:
\(e^t=\frac{t^0}{0 \ !}+ \frac{t^1}{1 \ !}+\) \(\frac{t^2}{2 \ !}+\frac{t^3}{3 \ !} + \cdot \cdot \cdot\)
(M) ger också:
\(e^{3t}=\frac{(3t)^0}{0 \ !}+ \frac{(3t)^1}{1 \ !}+\) \(\frac{(3t)^2}{2 \ !}+\frac{(3t)^3}{3 \ !} + \cdot \cdot \cdot\)
Om vi nu skriver om vänsterledet med hjälp av dessa två Maclaurin-utvecklingar får vi
\(0.5 \cdot \left( \frac{t^0}{0 \ !}+ \frac{t^1}{1 \ !}+\frac{t^2}{2 \ !}+\frac{t^3}{3 \ !} + \cdot \cdot \cdot \right)+\) \(0.5 \cdot \left( \frac{(3t)^0}{0 \ !}+ \frac{(3t)^1}{1 \ !}+\frac{(3t)^2}{2 \ !}+\frac{(3t)^3}{3 \ !} + \cdot \cdot \cdot \right)\)
\(=0.5 + 0.5 t +0.25 t^2+\frac{1}{12} t^3 + \cdot \cdot \cdot\) \(+0.5 + 1.5 t +2.25 t^2+2.25 t^3 + \cdot \cdot \cdot\)
\(=1 + 2 t +2.5 t^2+\frac{7}{3} t^3 + \cdot \cdot \cdot\) vilket är detsamma som högerledet.
Nu har vi studerat den momentgenererande funktionen för Exempel 2 i början av kap 3.9.
Vi fick alltså att
\(m(t)=0.5 \cdot e^{t}+0.5 \cdot e^{3t} =\) \(1 + 2 t +2.5 t^2+\frac{7}{3} t^3 + \cdot \cdot \cdot\)
Om vi skulle göra motsvarande för Exempel 1 skulle vi få
\(m(t)=0.125 \cdot e^{0t}+0.75 \cdot e^{2t}+0.125 \cdot e^{4t} =\) \(1 + 2 t +2.5 t^2+12 t^3 + \cdot \cdot \cdot\)
Användning av mgf
Vi ser att de första två momenten är lika, men att det tredje momentet är olika i exempel 1 och exempel 2.
Det är först när man vet att alla moment är lika, som man kan veta att två fördelningar är identiska. Och ur mgf för en slumpvariabel Y kan man få fram alla moment \(E(Y^k)\).
Momentgenererande funktioner (mgf) används därför i bevisföring (se senare i kursen) när man vill bevisa att två slumpvariabler har exakt samma fördelning.
Man visar då att deras mgf är samma funktion.
mgf för namngivna fördelningar
När man har t.ex. en Binomialfördelning, finns det färdiga formler för mgf.
Om \(Y\sim Bin(n,p)\) fås motsvarande mgf ur följande formel: \(m(t)= \left((1-p)+pe^t) \right)^n\)
I formelsamlingen hittar du formler för mgf för följande diskreta sannolikhetsfördelningar:
Binomialfördelning
Geometrisk fördelning
Negativ binomialfördelning
Hypergeometrisk fördelning
Poissonfördelning
Exempel 3 ovan
Om vi använder formelsamlingen för \(Y \sim Bin(4, 0.5)\)
får vi att mgf blir \(m(t)= \left(0.5+0.5e^t \right)^4\)
Om vi Maclaurinutvecklar \(e^t\) och sedan utvecklar parentesen får vi så småningom
\(m(t)= 1 + 2 t +2.5 t^2+ \cdot \cdot \cdot\)
De två första momenten är samma som för Exempel 1 och Exempel 2 (som vi konstaterade tidigare), medan de följande momenten skiljer sig från de andra.
(Exempel 2 och exempel 3 har visserligen samma koefficient för \(t^3\), men därefter blir det skillnad.)
Bevis av egenskaperna hos derivatorna till mgf
Vi ska också visa att
\(m(0)=1\)
\(m'(0)=E(Y)\)
\(m”(0)=E(Y^2)\)
Här är det lättast att utgå från den utvecklade varianten av mgf:
\(m(t) = E(Y^0) +\) \(t \cdot E(Y^1)+\) \(\frac{t^2}{2} \cdot E(Y^2)+\) \(\frac{t^3}{3 \ !} \cdot E(Y^3)+ \cdot \cdot \cdot=\) \(1 +t \cdot E(Y) + \frac{t^2}{2} \cdot E(Y^2)+\) \(\frac{t^3}{3 \ !} \cdot E(Y^3) + \cdot \cdot \cdot\)
Exempel
Exempel 21
21a) Härled formeln för mgf för Poissonfördelningen.
21b) Bevisa allmänt för mgf \(m(t)\)
att följande gäller: \(m(0)=1\), \(m'(0)=E(Y)\) och \(m”(0)=E(Y^2)\)
21c) En slumpvariabel \(Y\) har följande mgf: \(m(t)=1 + t + 3 t^2+2 t^3 + 3 t^4 \cdot \cdot \cdot\)
Bestäm \(E(Y)\), \(E(Y^2)\) och \(E(Y^3)\)
Lösningar Exempel 21
21a) Svaret finns i formelsamlingen,
härledningen finns i boken (Ex. 3.23)
21b) Utgå från den utvecklade varianten av mgf ovan, derivera och sätt in \(t=0\).
21c) Svar: \(E(Y)=1\), \(E(Y^2)=6\) och \(E(Y^3)=12\)
// add bootstrap table styles to pandoc tables $(document).ready(function () { $('tr.header').parent('thead').parent('table').addClass('table table-condensed'); });