Chapter 3 Discrete Random Variables
Kapitel 3.4-3.8 + lite till: Speciella diskreta sannolikhetsfördelningar
Fortsättning
Vi har nu presenterat några välkända diskreta fördelningar med egna namn:
Likformig diskret fördelning
Bernoullifördelning
Binomialfördelning
Geometrisk fördelning
Negativ binomialfördelning
Nu återstår följande två diskreta sannolikhetsfördelningar:
Hypergeometrisk fördelning i kapitel 3.7
Poissonfördelning i kapitel 3.8
Åter till situationen med ett bestämt antal försök
I de två närmast föregående avsnitten har vi gått igenom Negativ Binomialfördelning (allmänt \(r\) ) och specialfallet Geometrisk fördelning (där \(r=1\) ).
Där höll vi på och gjorde försök tills vi uppnådde ett bestämt antal (\(r\) stycken) lyckade försök. Slumpvariabeln Y angav då hur många försök som behövdes för detta.
Nu ska vi åter till en situation som liknar den för Binomialfördelningen: Vi gör ett bestämt antal försök, och slumpvariabeln Y anger hur många av dessa försök som lyckas.
Hypergeometrisk fördelning (Kap 3.7)
Exempel
I en skrivbordslåda ligger 9 pennor, men det är bara 5 av dem som fungerar. Du plockar upp 5 pennor ur lådan på måfå.
Låt Y vara antalet fungerande pennor du får upp när du plockar upp 5 stycken. Då säger man att Y följer en Hypergeometrisk fördelning.
(En gissning i förväg: Det troligaste borde vara att Y blir 2 eller 3; Sannolikheten att man skulle råka få just alla de 5 fungerande är nog liten.)
Varför kan man inte använda binomialfördelningen?
Anledningen till att binomialfördelningen inte kan användas, är att inte alla villkor som karakteriserar en binomialfördelning är uppfyllda:
(Den intressanta händelsen \(A\) är här att få en fungerande penna.)
Sannolikheten för \(A\) är inte densamma i varje försök och den är beroende av tidigare försök.
Sannolikheten för \(A\) är 5/9 bara i första försöket.
När man tar nästa penna får sannolikheten för \(A\) ett annat värde,
och den sannolikheten beror också på om den första pennan man fick upp var fungerande eller inte.
Formeln för p(y)
Vi kan alltså inte använda den formel vi skulle kunnat använda om \(Y\sim Bin(5,\frac{5}{9})\), eftersom villkoren för binomialfördelning inte är uppfyllda.
Vi får resonera på annat sätt.
Vi tar ett exempel, och beräknar p(3).
Det innebär att vi ska beräkna sannolikheten att tre av de fem pennor du plockar upp är fungerande (och två är defekta).
Vi kan använda den klassiska sannolikhetsdefinitionen.
Vi börjar med att beräkna det totala antalet utfall när man plockar upp fem pennor bland nio.
Det antalet beräknas som \(\left( \begin{array}{c} 9 \\ 5 \end{array} \right)=126\).
Därefter beräknar vi antalet intressanta utfall, som innehåller precis tre fungerande och två defekta:
Antalet intressanta utfall kan vi beräkna i tre steg:
Steg 1.
Börja med antalet sätt att välja tre fungerande pennor bland de fem fungerande pennor som finns. Det antalet är \(\left( \begin{array}{c} 5 \\ 3 \end{array} \right)=10\).
Steg 2.
För var och en av de 10 kombinationerna av tre fungerande pennor finns lika många (till och med exakt samma uppsättning) kombinationer av två defekta pennor.
Det antalet kombinationer (antalet sätt att välja två defekta pennor bland de fyra defekta som finns) är \(\left( \begin{array}{c} 4 \\ 2 \end{array} \right)=6\).
Steg 3. Antalet utfall som innehåller tre fungerande och två defekta pennor är då \(10 \cdot 6 = 60\).
Enligt den klassiska sannolikhetsdefinitionen (“antalet intressanta utfall delat med antalet möjliga utfall”) blir då
\(p(3)=\frac{60}{126} \approx 0.4762\)
För att få en tydligare bild av hur värdena 126, 10 och 6 uppkommer, se följande dokument: HypGeomEx.pdf
För att kunna komma fram till en formel skriver vi ut motsvarande beräkningar för alla möjliga värden som Y kan anta:
\(y\) | \(p(y)\) |
---|---|
0 | 0 (se anmärkning under tabellen) |
1 | \(\frac{\left( \begin{array}{c} 5 \\ 1 \end{array} \right) \cdot \left( \begin{array}{c} 4 \\ 4 \end{array} \right)}{\left( \begin{array}{c} 9 \\ 5 \end{array} \right)}=\frac{5}{126} \approx 0.0397\) |
2 | \(\frac{\left( \begin{array}{c} 5 \\ 2 \end{array} \right) \cdot \left( \begin{array}{c} 4 \\ 3 \end{array} \right)}{\left( \begin{array}{c} 9 \\ 5 \end{array} \right)}=\frac{40}{126} \approx 0.3175\) |
3 | \(\frac{\left( \begin{array}{c} 5 \\ 3 \end{array} \right) \cdot \left( \begin{array}{c} 4 \\ 2 \end{array} \right)}{\left( \begin{array}{c} 9 \\ 5 \end{array} \right)}=\frac{60}{126} \approx 0.4762\) |
4 | \(\frac{\left( \begin{array}{c} 5 \\ 4 \end{array} \right) \cdot \left( \begin{array}{c} 4 \\ 1 \end{array} \right)}{\left( \begin{array}{c} 9 \\ 5 \end{array} \right)}=\frac{20}{126} \approx 0.1587\) |
5 | \(\frac{\left( \begin{array}{c} 5 \\ 5 \end{array} \right) \cdot \left( \begin{array}{c} 4 \\ 0 \end{array} \right)}{\left( \begin{array}{c} 9 \\ 5 \end{array} \right)}=\frac{1}{126} \approx 0.0079\) |
Anmärkning:
Slumpvariabelns värde kan inte bli 0, eftersom man då vore tvungen att få 5 defekta pennor, och det finns bara 4 defekta i lådan.
Summan av sannolikheterna blir 1, som de ska!
Vi konstaterar att p(5) blev ett litet tal, som vi gissade i förväg. De högsta sannolikheterna var p(2) och p(3), som förväntat.
Formeln för p(y) i det här exemplet (med 5 fungerande och 4 defekta) blir \(p(y)=\frac{\left( \begin{array}{c} 5 \\ y \end{array} \right) \cdot \left( \begin{array}{c} 4 \\ 5-y \end{array} \right)}{\left( \begin{array}{c} 9 \\ 5 \end{array} \right)}\)
Vi ser att vi har begränsningar av värdet för \(y\);
\(y\) måste vara mindre än eller lika med 5 (det finns totalt 5 fungerande),
och \(5-y\) måste vara mindre än eller lika med 4 (det finns totalt 4 defekta).
Dessa två begränsningar ger att \(1\leq y \leq 5\)
Allmänt
Antag att man har \(N\) stycken objekt, varav \(r\) stycken har en viss egenskap (och följaktligen \(N-r\) stycken inte har den egenskapen).
Bland dessa \(N\) stycken objekt, plockar man slumpmässigt upp \(n\) stycken.
Om \(Y\) är antalet av dessa \(n\) stycken som har den speciella egenskapen, säger vi att \(Y\) följer en Hypergeometrisk fördelning med \(S_Y \subseteq\{0,1, … ,n \}\), där parametrarna \(N,r\) och \(n\) entydigt beskriver sannolikhetsfördelningen.
Det är antalen i de två mängderna (mängden av objekt som har den speciella egenskapen respektive mängden av de objekt som inte har den speciella egenskapen) som bestämmer hur stor delmängd av \(\{0,1, … ,n \}\) som \(S_Y\) utgör.
De två mängdernas storlekar ger följande begränsningar: \(0 \leq y \leq r\) och \(0 \leq n-y \leq N-r\).
Vi får följande egenskaper för slumpvariabeln Y:
\(p(y)=\frac{\left( \begin{array}{c} r \\ y \end{array} \right) \cdot \left( \begin{array}{c} N-r \\ n-y \end{array} \right)}{\left( \begin{array}{c} N \\ n \end{array} \right)}\) för \(y\) som uppfyller \(0 \leq y \leq r\) och \(0 \leq n-y \leq N-r\).
Väntevärde: \(E(Y)=n \cdot \frac{r}{N}\)
Varians: \(V(Y)=\) \(n \cdot \frac{r}{N} \cdot \left(\frac{N-r}{N} \right) \cdot \left(\frac{N-n}{N-1} \right)\)
Övningar
Exempel 15
15a) Antag att man har ett litet lotteri med 20 lotter, varav 20 % är vinstlotter. Om man tar upp tre lotter, bestäm sannolikheten att få upp minst en vinstlott.
15b) Bestäm hur många fungerande pennor som man bör få upp i genomsnitt i penn-exemplet ovan.
15c) Bestäm standardavvikelsen för antalet fungerande pennor man får upp i penn-exemplet ovan.
Svar
15a) Ca 51 % (0.508772)
15b) 0.6 (väntevärdet)
15c) 0.65534…
Ytterligare en situation med ett bestämt antal försök
Här följer en ny situation som också påminner om Binomialfördelningen: Vi gör ett bestämt antal försök, och slumpvariabeln Y anger hur många av dessa försök som lyckas.
Jämförelse mellan Binomialfördelning och Poissonförelning
Om man förenklat skulle beskriva skillnaden mellan Binomialfördelningen och Poissonfördelningen skulle man kunna säga såhär:
När det gäller Binomialfördelningen så har vi i varje försök två alternativ;
antingen inträffar den händelse \(A\) som vi är intresserade av, eller inte.
Detta skulle vi också kunna uttrycka såhär:
I varje försök inträffar \(A\) en gång eller noll gånger (om \(\bar{A}\) inträffar.)
Det som (något förenklat) utmärker Poissonfördelningen är att i varje försök
kan den intressanta händelsen inträffa 0,1 eller fler gånger.
Jämförelseexempel där man kan se att Poissonfördelningen är en bättre modell för verkligheten än vad Binomialfördelningen är:
Antag att du jobbar i en affär och att slumpförsöket är att du en viss minut kollar om det kommer in en kund eller inte.
Antag att du vet att sannolikheten för att det kommer in en kund en viss minut är 20 %, och att den sannolikheten är densamma alla minuter.
Låt Y vara antalet kunder som kommer in under 10 minuter.
Varför duger inte \(Y \sim Bin(10,0.2)\) som modell för detta exempel? Svaret är att modellen inte tar hänsyn till att det kan råka komma in fler kunder under en viss minut.
Nedan ska vi reda ut hur Poissonfördelningen hanterar en sådan situation,
genom att gå igenom sättet att tänka, i ett annat exempel. (om koppartråd.)
Poissonfördelningen (Kap 3.8)
Typiska situationer där Poissonfördelningen kan användas är när du vet att att något inträffar slumpmässigt med avseende på tid/avstånd/volym etc.
och där du känner till det “genomsnittliga beteendet” (5 kunder per minut/2 fläckar per meter/ 23 smutspartiklar per kubikmeter etc.)
Exempel
Exempel som visar hur man kan tänka i en “Poisson-situation”:
Vid tillverkning av koppartråd uppstår det små skador slumpmässigt utefter tråden. Man känner till att det i genomsnitt uppstår 5 skador per meter. Vi vill beräkna sannnolikheten för att det uppstår 6 skador på en slumpvis utvald meterlängd av koppartråden.
Vi utgår från det sätt vi känner till; Binomialfördelningen:
Modell 1:
Dela in metern i tio bitar (Varje bit blir då en decimeter).
Eftersom det förväntas finnas 5 skador på en meter, är då sannolikheten för en skada på en bit lika med 0.5.
Om Y = antal skador på hela metern, skulle vi då få denna modell om vi använder Binomialfördelningen: \(Y \sim Bin(10,0.5)\). Sannolikheten för sex skador på metern blir då
\(p(6)=\) \(\left( \begin{array}{c} 10 \\ 6 \end{array} \right)\cdot 0.5^6 \cdot 0.5^4\) \(\approx 0.2051\).
Men denna modell är inte korrekt, eftersom vi inte har tagit hänsyn till att det skulle kunna finnas fler än en skada på varje decimeterbit.
Vi försöker med en ny modell, som borde ge ett svar närmare sanningen:
Modell 2:
Dela in metern i hundra bitar (Varje bit blir då en centimeter).
Eftersom det förväntas finnas 5 skador på en meter, är då sannolikheten för en skada på en bit lika med 0.05.
Om Y = antal skador på hela metern, skulle vi då få denna modell om vi använder Binomialfördelningen: \(Y \sim Bin(100,0.05)\). Sannolikheten för sex skador på metern blir då
\(p(6)=\) \(\left( \begin{array}{c} 100 \\ 6 \end{array} \right)\cdot 0.05^6 \cdot 0.95^{94}\) \(\approx 0.1500\). Men denna modell är inte heller korrekt, eftersom vi inte har tagit hänsyn till att det skulle kunna finnas fler än en skada på varje centimeterbit.
Vi försöker med ytterligare en modell, som borde ge ett svar ännu närmare sanningen:
Modell 3:
Dela in metern i tusen bitar (Varje bit blir då en millimeter).
Eftersom det förväntas finnas 5 skador på en meter, är då sannolikheten för en skada på en bit lika med 0.005.
Om Y = antal skador på hela metern, skulle vi då få denna modell om vi använder Binomialfördelningen: \(Y \sim Bin(1000,0.005)\). Sannolikheten för sex skador på metern blir då
\(p(6)=\) \(\left( \begin{array}{c} 1000 \\ 6 \end{array} \right)\cdot 0.005^6 \cdot 0.995^{994}\) \(\approx 0.1465\). Men denna modell är inte heller helt korrekt, eftersom vi inte har tagit hänsyn till att det skulle kunna finnas fler än en skada på varje millimeterbit.
Om vi sammanfattar vad det är vi har gjort i våra försök till modeller, så har vi gjort följande:
- Vi har delat in metern i n stycken likadana bitar ( \(\frac{1}{n}\) meter långa).
- På varje sådan bit är sannolikheten för en skada lika med \(\frac{5}{n}\).
- För \(Y\) = antal skador på hela metern, har vi använt \(Y \sim Bin(n,\frac{5}{n})\)
Här följer en sammanställning av de tre modeller vi har provat, samt ytterligare två modeller
där fler decimaler har tagits med för att man ska kunna se om det blir någon skillnad mellan svaren.
\(n\) | \(p(6)=P(Y=6)\) |
---|---|
10 | 0.2051 |
100 | 0.1500 |
1000 | 0.1465 |
10000 | 0.146259 |
100000 | 0.146226 |
Det verkar som att vi närmar oss det rätta svaret på uppgiften, som också är Poissonfördelningens svar på uppgiften.
Formeln för p(y)
För att komma fram till den formel för p(y) som gäller för Poissonfördelningen, utnyttjar vi exemplet med koppartråden, och börjar med p(6)
\(p(6)=\) \(\left( \begin{array}{c} n \\ 6 \end{array}\right)\cdot \left( \frac{5}{n}\right)^6\) \(\cdot \left( 1- \frac{5}{n}\right)^{n-6}\)
Innan vi låter \(n\rightarrow \infty\), skriver vi om uttrycket för att lättare inse vad som händer när n växer mot oändligheten:
Uttrycket \(\left( \begin{array}{c} n \\ 6 \end{array}\right)\cdot \left( \frac{5}{n}\right)^6 \cdot \left( 1- \frac{5}{n}\right)^{n-6}\) ska utvecklas:
Utttycket består av tre faktorer.
Den första faktorn:
\(\left( \begin{array}{c} n \\ 6 \end{array}\right)=\frac{n\cdot(n-1) \ \cdot\cdot\cdot \ (n-5)}{6\cdot 5 \ \cdot\cdot\cdot \ 1}\)=\(\frac{n\cdot(n-1) \ \cdot\cdot\cdot \ (n-6+1)}{6 \ !}\)
Den andra faktorn:
\(\left( \frac{5}{n}\right)^6= \frac{5^6}{n^6}\)
Den tredje faktorn:
\(\left( 1- \frac{5}{n}\right)^{n-6}\)=\(\left( 1- \frac{5}{n}\right)^n\cdot\left( 1- \frac{5}{n}\right)^{-6}\)
Nu multiplicerar vi ihop de omskrivna faktorerna:
\(p(6)=\frac{n\cdot(n-1) \ \cdot\cdot\cdot \ (n-6+1)}{6 \ !}\cdot\frac{5^6}{n^6}\) \(\cdot \left( 1- \frac{5}{n}\right)^n\cdot\left( 1- \frac{5}{n}\right)^{-6}\)
För att kunna förenkla uttrycket fortsätter vi omskrivningarna:
\(p(6)=\frac{n\cdot(n-1) \ \cdot\cdot\cdot \ (n-6+1)}{n^6}\cdot\frac{5^6}{6 \ !} \cdot \left( 1- \frac{5}{n}\right)^n\cdot\left( 1- \frac{5}{n}\right)^{-6}\)
\(p(6)=\) \(\frac{n\cdot(n-1)\cdot(n-2)\cdot(n-3)\ \cdot(n-4)\cdot(n-5)}{n\cdot n\cdot \ n\cdot \ n\cdot \ n\cdot \ n }\) \(\cdot\frac{5^6}{6 \ !} \cdot \left( 1- \frac{5}{n}\right)^n\) \(\cdot\left( 1- \frac{5}{n}\right)^{-6}\)
\(p(6)=\) \(\frac{n}{n}\cdot\frac{n-1}{n}\cdot\frac{n-2}{n}\cdot\frac{n-3}{n}\cdot\frac{n-4}{n}\cdot\frac{n-5}{n}\) \(\cdot\frac{5^6}{6 \ !} \cdot \left( 1- \frac{5}{n}\right)^n\) \(\cdot\left( 1- \frac{5}{n}\right)^{-6}\)
\(p(6)=1 \cdot \left( 1-\frac{1}{n}\right) \cdot \left( 1-\frac{2}{n}\right)\) \(\cdot \left( 1-\frac{3}{n}\right)\cdot \left( 1-\frac{4}{n}\right)\cdot \left( 1-\frac{5}{n}\right)\) \(\cdot\frac{5^6}{6 \ !} \cdot \left( 1- \frac{5}{n}\right)^n\) \(\cdot\left( 1- \frac{5}{n}\right)^{-6}\)
Nu är vi färdiga med omskrivningen av uttrycket för p(6) så att vi lättare kan inse vad som händer när n växer mot oändligheten.
Så nu låter vi \(n\rightarrow \infty\):
Sju av de nio faktorererna i detta uttryck går då mot 1.
De enda två faktorer som inte går mot 1 är \(\frac{5^6}{6 \ !}\) och \(\left( 1- \frac{5}{n}\right)^n\).
Faktorn \(\frac{5^6}{6 \ !}\) är inga problem; den är alltid samma tal (ca 21.7).
Faktorn \(\left( 1- \frac{5}{n}\right)^n\) är mer spännande; vad händer med denna faktor när \(n\rightarrow \infty\),
dvs vad blir \(\displaystyle \lim_{n\rightarrow \infty} \textstyle \left( 1- \frac{5}{n}\right)^n\) ?
Om du vill se en kort introduktion till begreppet gränsvärde och symbolen lim, läs här: [http://www.matteboken.se/lektioner/matte-3/polynom-och-ekvationer/gransvarde]
Det finns ett speciellt intressant gränsvärde som inte nämns i länken ovan, och det är att \(\displaystyle \lim_{n\rightarrow \infty} \textstyle \left( 1+ \frac{1}{n}\right)^n=e\)
Det gränsvärde presenteras istället här:
[https://www.khanacademy.org/economics-finance-domain/core-finance/interest-tutorial/cont-comp-int-and-e/v/e-as-limit]
Ungefär motsvarande på svenska (första halvan av denna video): [https://www.youtube.com/watch?v=44Stsq9oJD8]
För den som är mer intresserad: Lite mer teoretiskt perspektiv, utgående från en annan egenskap hos det intressanta talet e. [http://aleph0.clarku.edu/~djoyce/ma122/elimit.pdf]
Om vi nu har accepterat att \(\displaystyle \lim_{n\rightarrow \infty} \textstyle \left( 1+ \frac{1}{n}\right)^n=e\),
så är det förhoppningsvis möjligt att inse att därav följer även att
\(\displaystyle \lim_{n\rightarrow \infty} \textstyle \left( 1+ \frac{t}{n}\right)^n=e^t\)
Tillämpar vi detta på \(t=-5\) får vi att \(\displaystyle \lim_{n\rightarrow \infty} \textstyle \left( 1+ \frac{-5}{n}\right)^n=e^{-5}\),
vilket är detsamma som att \(\displaystyle \lim_{n\rightarrow \infty} \textstyle \left( 1- \frac{5}{n}\right)^n=e^{-5}\)
Sammanfattningsvis:
\(p(6)=\left( \begin{array}{c} n \\ 6 \end{array}\right)\cdot \left( \frac{5}{n}\right)^6 \cdot \left( 1- \frac{5}{n}\right)^{n-6}\) kan skrivas om till
\(p(6)=1 \cdot \left( 1-\frac{1}{n}\right) \cdot \left( 1-\frac{2}{n}\right)\) \(\cdot \left( 1-\frac{3}{n}\right)\cdot \left( 1-\frac{4}{n}\right)\cdot \left( 1-\frac{5}{n}\right)\) \(\cdot\frac{5^6}{6 \ !}\) \(\cdot \left( 1- \frac{5}{n}\right)^n\) \(\cdot\left( 1- \frac{5}{n}\right)^{-6}\)
När vi låter \(n\rightarrow \infty\) får vi:
\(p(6)=1 \cdot 1 \cdot 1\cdot 1\cdot 1\cdot 1\) \(\cdot\frac{5^6}{6 \ !} \cdot e^{-5}\cdot\ 1=\) \(\frac{5^6}{6 \ !} \cdot e^{-5} \approx 0.146223\)
Det verkar rimligt att högerspalten i tabellen tidigare går mot 0.146223 när \(n\rightarrow \infty\)
Vad är det vi har kommit fram till; vad säger \(p(6) \approx 0.146223\) ?
Vi har alltså kommit fram till att \(p(6)=\frac{5^6}{6 \ !} \cdot e^{-5}\)
Vi har en koppartråd där det i genomsnitt uppstår 5 skador per meter.
\(p(6)\) är sannolikheten för att det uppstår 6 skador på en slumpvis utvald meterlängd av koppartråden.
Allmänt
Vi har en händelse A som inträffar slumpmässigt med avseende på tid/avstånd/volym etc. Det “genomsnittliga beteendet” är \(\lambda\) händelser per enhet.
(Om vi har tid och enheten minut är det i genomsnitt \(\lambda\) händelser per minut; om vi har sträcka och enheten meter är det i genomsnitt \(\lambda\) händelser per meter, etc.)
Låt \(Y\) vara antalet händelser som inträffar på en viss enhet. (antalet händelser under en viss minut, antalet händelser på en viss meter etc.)
Vi säger då att \(Y\) följer en Poissonfördelning med \(S_Y=\{0,1,2,3,… \}\),
där parametern \(\lambda\) entydigt beskriver sannolikhetsfördelningen.
Vi skriver \(Y \sim Po(\lambda)\)
Vi får följande egenskaper för slumpvariabeln \(Y\):
\(p(y)=\frac{\lambda^y}{y \ !} \cdot e^{-\lambda}\) (för y=0,1,2,…)
(Den formeln får man om man utför den långa härledningen ovan med \(y\) istället för 6 och \(\lambda\) istället för 5. Det är också den härledning som genomförs i kursbokens kapitel 3.8)
Eftersom det finns oändligt många olika möjliga värden för y är det här särskilt intressant att kolla villkor nummer 2 som måste gälla för alla diskreta slumpvariabler, nämligen \(\displaystyle\sum_{y\in S} p(y)=1\)
För att bevisa detta behöver vi lite matematik igen:
Vi ska kolla på ytterligare en sorts summa som kallas Maclaurin-utveckling. Nästan alla funktioner går att skriva om som polynom, om man tar med oändligt många termer.
Vill du veta hur man skapar sådana så kallade Maclaurin-polynom, kan du kolla följande video:
[https://www.youtube.com/watch?v=u_Rwp_YQNrA]
I videon får man följande resultat för en allmän funktion \(f(x)\):
Maclaurinpolynomet av ordning(grad) n till funktionen \(f\) ges av följande formel:
\(P_n(x)=f(0)+f'(0) x+\frac{f”(0)}{2} x^2\) \(+\frac{f^{(3)}(0)}{3 \ !} x^3 + \cdot \cdot \cdot +\frac{f^{(n)}(0)}{n \ !} x^n\)
Exempel: Maclaurinpolynomet av grad 4 till funktionen \(e^x\) blir
\(P_4(x)=1+ x+\frac{1}{2} x^2\) \(+\frac{1}{6 } x^3 + \frac{1}{24} x^4\).
(Detta är det fjärdegradspolynom som bäst följer kurvan \(y=e^x\) i närheten av den punkt där \(x=0\))
Om man tar fram ett Maclaurinpolynom av oändlig grad, får man en exakt likhet enligt nedan.
Summan till höger om likamedtecknet kallas för Maclaurin-utvecklingen av funktionen \(e^x\)
\(e^x=1+ x+\frac{x^2}{2}+\frac{x^3}{3 \ !} + \cdot \cdot \cdot\)
(Så t.ex. blir
\(e^{0.3}=1+ 0.3+\frac{0.3^2}{2}+\frac{0.3^3}{3 \ !} + \cdot \cdot \cdot\))
Eftersom \(\frac{x^0}{0 \ !}=1\) och \(\frac{x^1}{1 \ !}=x\), kan vi skriva Maclaurin-utvecklingen såhär också:
\(e^x=\frac{x^0}{0 \ !}+ \frac{x^1}{1 \ !}+\frac{x^2}{2 \ !}+\frac{x^3}{3 \ !} + \cdot \cdot \cdot\) \(=\displaystyle \sum_{i=0}^{\infty}\frac{x^i}{i \ !}\) (M)
Formeln (M): \(e^x=\displaystyle \sum_{i=0}^{\infty}\frac{x^i}{i \ !}\) ska nu användas
för att bevisa att \(\displaystyle\sum_{y\in S} p(y)=1\) gäller för \(Y \sim Po(\lambda)\).
Eftersom \(S=\{0,1,2,… \}\),
innebär det att vi ska bevisa att \(\displaystyle\sum_{y=0}^{\infty} p(y)=1\), där \(p(y)=\frac{\lambda^y}{y \ !} \cdot e^{-\lambda}\).
Vi får \(\displaystyle\sum_{y=0}^{\infty} \frac{\lambda^y}{y \ !} \cdot e^{-\lambda}\).
Eftersom \(e^{-\lambda}\) är en konstant när vi summerar över de olika y-värdena, kan vi bryta ut den ur summan så att vi får
\(e^{-\lambda}\cdot\displaystyle\sum_{y=0}^{\infty} \frac{\lambda^y}{y \ !}\).
Men summan \(\displaystyle\sum_{y=0}^{\infty} \frac{\lambda^y}{y \ !}\) blir – enligt formeln (M) – lika med \(e^{\lambda}\)
Sammanfattningsvis får vi
\(\displaystyle\sum_{y=0}^{\infty}p(y)=\displaystyle\sum_{y=0}^{\infty}\frac{\lambda^y}{y \ !} \cdot e^{-\lambda}\) \(=e^{-\lambda}\cdot\displaystyle\sum_{y=0}^{\infty} \frac{\lambda^y}{y \ !}\) \(=e^{-\lambda}\cdot e^{\lambda}=1\),
vilket skulle bevisas.
Väntevärde
Poisson-situationen är ju definerad som en siuation med ett genomsnitt på \(\lambda\) händelser per enhet.
Y = antalet händelser som inträffar på en viss enhet.
Detta innebär att \(E(Y)=\lambda\).
Vi kan också visa att \(E(Y)=\lambda\) utgående från definitionen av \(E(Y)\),
dvs \(\displaystyle E(Y)=\sum_{y\in S} (y \cdot p(y))\).
Här har vi \(p(y)=\frac{\lambda^y}{y \ !} e^{-\lambda}\) och \(S=\{0,1,2,… \}\).
Det innebär att \(E(Y)=\displaystyle\sum_{y=0}^{\infty} y \frac{\lambda^y}{y \ !} e^{-\lambda}\).
Den första termen i denna summa blir noll, så det blir ingen skillnad om vi startar summeringen vid y=1.
Alltså \(E(Y)=\displaystyle\sum_{y=1}^{\infty} y \frac{\lambda^y}{y \ !} e^{-\lambda}\) (1)
Vi kan också förenkla uttrycket som ska summeras, såhär:
\(y\cdot \frac{\lambda^y}{y \ !} \cdot e^{-\lambda}\) \(=\frac{y}{y \ !} \cdot \lambda^y \cdot e^{-\lambda}\) \(=\frac{y}{y\cdot(y-1) \ !} \cdot \lambda^y \cdot e^{-\lambda}\) \(=\frac{1}{(y-1) \ !} \cdot \lambda^y \cdot e^{-\lambda}\) \(=\frac{1}{(y-1) \ !} \cdot \lambda \cdot \lambda^{y-1} \cdot e^{-\lambda}\) (2)
Om vi nu kombinerar (1) och (2) får vi följande:
\(E(Y)=\) \(\displaystyle\sum_{y=1}^{\infty}\frac{1}{(y-1) \ !} \cdot \lambda \cdot \lambda^{y-1} \cdot e^{-\lambda}\)
Eftersom \(\lambda\) och \(e^{-\lambda}\) är konstanter när vi summerar över de olika y-värdena, kan vi bryta ut dessa ur summan så att vi får
\(E(Y)=\) \(\lambda \cdot e^{-\lambda}\cdot \displaystyle\sum_{y=1}^{\infty}\frac{\lambda^{y-1}}{(y-1) \ !}\)
Vi kan hantera summan \(\displaystyle\sum_{y=1}^{\infty}\frac{\lambda^{y-1}}{(y-1) \ !}\) såhär:
Sätt \(z=y-1\). Då börjar summeringen på z=0 (och går fortfarande till oändligt stort z).
Summan blir \(\displaystyle\sum_{z=0}^{\infty}\frac{\lambda^{z}}{z \ !}\)
Tidigare har vi konstaterat att \(\displaystyle\sum_{y=0}^{\infty} \frac{\lambda^y}{y \ !}\) blir – enligt formeln (M) – lika med \(e^{\lambda}\)
Det spelar ingen roll om summationsvariabeln kallas för y eller för z, så då blir även \(\displaystyle\sum_{z=0}^{\infty} \frac{\lambda^{z}}{z \ !}\) lika med \(e^{\lambda}\).
Det betyder att \(E(Y)=\) \(\lambda \cdot e^{-\lambda}\cdot \displaystyle\sum_{y=1}^{\infty}\frac{\lambda^{y-1}}{(y-1) \ !}\) \(=\lambda \cdot e^{-\lambda}\cdot\displaystyle\sum_{z=0}^{\infty} \frac{\lambda^{z}}{z \ !}\) \(=\lambda \cdot e^{-\lambda}\cdot e^{\lambda}=\lambda\), vilket skulle bevisas.
Varians
Härledningen av formeln för variansen går till på liknande sätt som för väntevärdet.
Här presenteras enbart resultatet: \(V(Y)=\lambda\).
Det innebär att standardavvikelsen för \(Y \sim Po(\lambda)\) blir \(\sqrt{\lambda}\)
Övningar
Exempel 16:
I en viss affär kommer det in kunder slumpmässigt; i genomsnitt 2 kunder per minut.
16a) Bestäm sannolikheten för att det under en viss minut kommer in precis 3 kunder.
16b) Bestäm sannolikheten för att antalet kunder under en viss minut avviker mindre än en standardavvikelse från väntevärdet.
Lösning Exempel 16
Låt \(Y\) = antal kunder som kommer in under en minut.
Eftersom det genomsnittliga antalet kunder per minut är 2, gäller att
\(Y \sim Po(2)\).
16a) Vi söker \(p(3)\):
\(p(3)=\frac{2^3}{3 \ !} e^{-2}\approx 0.1804\)
16b) Väntevärdet är lika med \(\lambda =2\)
Standardavvikelsen är lika med roten ur variansen \(=\sqrt{V(Y)}=\sqrt{2}\) \(\approx 1.41\).
De värden \(y\) som avviker mindre än 1.41 från väntevärdet 2 är bara \(y=1\), \(y=2\) och \(y=3\).
Den sökta sannolikheten är då \(p(1)+p(2)+p(3)\)
För att beräkna denna sannolikhet kan du använda formeln \(p(y)=\frac{2^y}{y \ !} e^{-2}\)
eller använda tabellsamlingen (som innehåller fördelningsfunktionen):
Då blir \(p(1)+p(2)+p(3)\) \(=P(Y \leq 3)-P(Y \leq 0)\) \(=F(3)-F(0)\approx\) \(0.8571-0.1353\) \(=0.7218\)
Fler exempel som visar “flexibiliteten” med Poisson-fördelningen
Exempel 17
Vid en viss datakommunikation uppstår det slumpmässigt fel i överföringen. I genomsnitt uppstår 4 fel per sekund.
17a) Bestäm sannolikheten för att det uppstår exakt 10 fel på 5 sekunder.
17b) Bestäm sannolikheten för att det uppstår högst 10 fel på 5 sekunder.
17c) Gör om a-uppgiften genom att utnyttja tabellsamlingen istället.
Lösning Exempel 17
Låt \(Y\) = antal fel som uppstår under 5 sekunder.
Observera att tidsenheten är 5 sekunder.
Om det uppstår i genomsnitt 4 fel per sekund, kan vi här använda Poisson-fördelningen med parametern \(\lambda =20\).
(Det är det jag menar med flexibilitet; anpassa parametern efter tidsperioden.)
17a) Den sökta sannolikheten blir
\(p(10)=\frac{20^{10}}{10 \ !} e^{-20}\approx 0.0058\)
17b) Den sökta sannolikheten blir
\(P(Y \leq 10)\) \(= p(0)+p(1)+ … +p(10)\)
Snabbaste sättet att beräkna detta, är att använda tabellsamlingen.
Där har vi ju fördelningsfunktionen, så där är det bara att läsa av
\(F(10)=P(Y \leq 10)\) \(\approx 0.0108\)
17c) Om vi ska använda tabellsamlingen för a-uppgiften,
får vi tänka såhär: \(P(Y=10)=P(Y \leq 10)-P(Y \leq 9)\) \(=F(10)-F(9)\approx\) \(0.0108-0.0050\) \(=0.0058\)
// add bootstrap table styles to pandoc tables $(document).ready(function () { $('tr.header').parent('thead').parent('table').addClass('table table-condensed'); });