Chapter 5 Multivariate Probability Distributions
Diskreta bivariata sannolikhetsfördelningar, forts
Fler samband och viktiga resultat (Kap 5.8)
Väntevärden (Sats 5.12 a)
När det gäller väntevärden är räknereglerna/formlerna enkla:
1
T.ex. kan vi från sats 5.8 komma fram till att \(E (Y_1+Y_2)=E (Y_1)+E(Y_2)\)
2
Om vi kombinerar sats 5.7 och 5.8 kan vi få en mer generell regel: \(E\left( a_{1}Y_{1}+a_{2}Y_{2}\right) =a_{1}E\left( Y_{1}\right)+a_{2}E\left( Y_{2}\right)\)
3
Med hjälp av satserna 5.7 och 5.8 kan vi dessutom visa följande:
\(E\left( a_{1}Y_{1}+a_{2}Y_{2} + \cdot \cdot \cdot +a_{n}Y_{n} \right)\) = \(a_{1}E\left( Y_{1}\right)+a_{2}E\left( Y_{2}\right)\) \(\cdot \cdot \cdot + a_{n}E\left( Y_{n}\right)\)
Detta kan också beskrivas såhär:
Låt \(Y_{1},Y_{2},…,Y_{n}\) vara slumpvariabler med \(E\left(Y_{i}\right) =\mu _{i}\).
Om \(U=\displaystyle \sum_{i=1}^{n}a_{i}Y_{i}\) så gäller \(\displaystyle E( U) =\sum_{i=1}^{n}a_{i}\mu _{i}\)
Varianser (Sats 5.12 b)
Frågan är om räknereglerna/formlerna är lika enkla för varianser som för väntervärden.
1
Vi börjar med att kolla om \(V (Y_1+Y_2)=V(Y_1)+V(Y_2)\).
Kollar med hjälp av ett exempel
Om man misstänker att detta inte är sant, och vill ha stöd för detta, räcker det att hitta ett exempel där det inte stämmer.
Vi tar exemplet med klotsarna;
Slumpförsöket är att plocka upp en klots ur mängden av klotsar som finns avbildad i följande dokument: Klotsar100.pdf
Det är 100 runda klotsar med olika form; det finns 3 olika tjocklekar (1,2,3) och 4 olika längder (1,2,3,4).
Det finns två intressanta slumpvariabler för slumpförsöket “Tag en slumpvis utvald klots”;
\(Y_1\) som är den valda klotsens tjocklek, och \(Y_2\) som är den valda klotsens längd.
Beskrivningen av den simultana sannolikhetsfördelningen för \(Y_1\) och \(Y_2\) finns i början av kapitel 5.
Enligt beräkningarna i Ex 3a och 3b fick vi \(E(Y_1)=2.35\) och \(E(Y_2)=2.49\).
Och enligt Ex 5b2 gäller \(E(Y_1^2)=6.15\) och \(E(Y_2^2)=6.59\)
Det ger:
\(V(Y_1)=E(Y_1^2)-(E(Y_1))^2\) = \(6.15-2.35^2=0.6275\)
och \(V(Y_2)=E(Y_2^2)-(E(Y_2))^2\) = \(7.61-2.49^2=1.4099\)
Dags för \(V(Y_1+Y_2)\) Blir det 2.0374 månntro?
Vi kollar; samma metod som vanligt:
\(V(Y_1+Y_2)\) = \(E \left((Y_1+Y_2)^2 \right)\) – \(\left(E(Y_1+Y_2) \right)^2\)
Börjar med \(=E \left((Y_1+Y_2)^2 \right)\):
\(E \left((Y_1+Y_2)^2 \right)\) = \(\displaystyle \sum_{(y_1,y_2)\in S} (y_1+y_2)^2 p(y_1,y_2)\) = \(2^2 \cdot p(1,1)\) + \(3^2 \cdot p(1,2))\) + \(\cdot \cdot \cdot + 7^2 \cdot p(3,4))\) = \(24.3\)
Från exempel 3a och 3b har vi \(E(Y_1)=2.35\) och \(E(Y_2)=2.49\).
Regeln för väntevärden ger dessutom \(E (Y_1+Y_2)=E(Y_1)+E(Y_2)\),
så \(\left(E(Y_1+Y_2) \right)^2=(2.35+2.49)^2=23.4256\)
Vi får \(V(Y_1+Y_2)\) = \(E \left((Y_1+Y_2)^2 \right)\) – \(\left(E(Y_1+Y_2) \right)^2=\) \(24.3-23.4256=0.8744\)
Vi fick alltså att \(V(Y_1+Y_2)=0.8744\) medan \(V(Y_1)+V(Y_2)=2.0374\)
Nu vet vi att \(V (Y_1+Y_2)=V (Y_1)+V(Y_2)\) INTE gäller allmänt.
Kollar med hjälp av definitionen
Det kanske är lättare att kolla direkt med hjälp av definitionen av varians om \(V (Y_1+Y_2)=V (Y_1)+V(Y_2)\) är sant eller inte.
Det kommer här; först själva definitionerna:
\(V(Y_1+Y_2)\) = \(E \Bigl( \bigl ( Y_1+Y_2 \ \ -(\mu_1+\mu_2) \bigr)^2 \Bigr)\)
\(V(Y_1)=E \Bigl( \bigl ( Y_1 \ \ -\mu_1 \bigr)^2 \Bigr)\)
\(V(Y_2)=E \Bigl( \bigl ( Y_2 \ \ -\mu_2 \bigr)^2 \Bigr)\)
Dags för omskrivning av \(V (Y_1+Y_2)\) med inriktning på att “hitta” \(V(Y_1)\) och \(V(Y_2)\)
\(V(Y_1+Y_2)\) = \(E \Bigl( \bigl ( Y_1+Y_2 \ \ -(\mu_1+\mu_2) \bigr)^2 \Bigr)=\) \(E \Bigl( \bigl( \ (Y_1-\mu_1) + (Y_2-\mu_2) \ \bigr)^2 \Bigr)=\) \(E \Bigl( (Y_1-\mu_1)^2 +2 (Y_1-\mu_1) (Y_2-\mu_2)+ (Y_2-\mu_2)^2 \Bigr)=\)
Hittills har vi bara använt vanlig algebra; nu tillämpas satserna 5.7 och 5.8 inför nästa omskrivning:
\(=E \bigl( (Y_1-\mu_1)^2 \bigr)\) + \(2 E \bigl( (Y_1-\mu_1) (Y_2-\mu_2) \bigr)\) + \(E \bigl((Y_2-\mu_2)^2 \bigr)=\) \(V(Y_1) +2 E \bigl( (Y_1-\mu_1) (Y_2-\mu_2) \bigr) + V(Y_2)\)
Den mellersta termen kan också kännas igen; den är \(2 \cdot Cov(Y_1,Y_2)\)
Nu har vi fått fram ett resultat; man brukar skriva termerna i denna ordning: \(V(Y_1+Y_2)\) = \(V(Y_1)+ V(Y_2) +2 Cov(Y_1,Y_2)\)
1 Resultat
\(V(Y_1+Y_2)=V(Y_1)+ V(Y_2)+2 Cov(Y_1,Y_2)\)
Kollar formeln (1) i klotsexemplet
Om man beräknar kovariansen i klotsexemplet får man \(Cov(Y_1,Y_2)=-0.5815\) (Gör det som träning, om du vill)
Ovan fick vi \(V(Y_1)=0.6275\) och \(V(Y_2)=1.4099\)
Då blir \(V(Y_1)+ V(Y_2)+2 Cov(Y_1,Y_2)=\) \(0.6275+1.4099+2 \cdot (-0.5815)\) = \(0.8744\),
vilket är precis detsamma som \(V(Y_1+Y_2)\) enligt beräkningarna ovan.
Fallet där \(V(Y_1+Y_2)=V(Y_1)+V(Y_2)\)
Det kan också hända att \(V(Y_1+Y_2)=V(Y_1)+V(Y_2)\)
Detta händer om \(Y_1\) och \(Y_2\) är oberoende, eftersom då \(Cov(Y_1,Y_2)=0\).
Exempel
Prova själv med exemplet med det “fixade” klotsexemplet där \(Y_1\) och \(Y_2\) är oberoende (från kap 5.4)
Lösning (Alla delberäkningar redovisas inte; bara huvudstegen)
\(V(Y_1)=E(Y_1^2)-(E(Y_1))^2\) = \(5.9-2.3^2=0.61\)
och \(V(Y_2)=E(Y_2^2)-(E(Y_2))^2\) = \(8.4-2.6^2=1.64\)
\(V(Y_1+Y_2)\) = \(E \left((Y_1+Y_2)^2 \right)\) – \(\left(E(Y_1+Y_2) \right)^2\) = \(26.26-(2.3+2.6)^2\) = \(2.25\)
I detta exempel stämmer \(V(Y_1+Y_2)=V(Y_1)+ V(Y_2)\)
Men formeln \(V(Y_1+Y_2)=V(Y_1)+ V(Y_2) +2 Cov(Y_1,Y_2)\) är ALLMÄNGILTIG.
Den stämmer även i de fall där \(Y_1\) och \(Y_2\) är oberoende, eftersom den sista termen då blir noll.
2
\(V\left( a_{1}Y_{1}+a_{2}Y_{2}\right) =a_{1}^2 V\left( Y_{1}\right)+a_{2}^2 V \left( Y_{2}\right)+2 a_{1} a_{2} Cov(Y_1,Y_2)\)
Bevis (Försök först själv som övning; jämför med utvecklingen av \(V(Y_1+Y_2)\) under 1 ovan.)
\(V(a_1 Y_1+a_2 Y_2)\) = \(E \Bigl( \bigl ( a_1 Y_1+a_2 Y_2 \ \ -E(a_1 Y_1+a_2 Y_2) \bigr)^2 \Bigr)\) = \(E \Bigl( \bigl ( a_1 Y_1+a_2 Y_2 \ \ -E(a_1 Y_1)-E(a_2 Y_2) \bigr)^2 \Bigr)\) = \(E \Bigl( \bigl( \ [a_1 Y_1-a_1 E(Y_1)] + [a_2 Y_2-a_2 E(Y_2)] \ \bigr)^2 \Bigr)\) = \(E \Bigl( a_1^2 (Y_1-\mu_1)^2 +2 a_1 a_2 (Y_1-\mu_1) (Y_2-\mu_2)+ a_2^2 (Y_2-\mu_2)^2 \Bigr)\) = \(a_1^2 E \bigl( (Y_1-\mu_1)^2 \bigr)\) + \(2 a_1 a_2 E \bigl( (Y_1-\mu_1) (Y_2-\mu_2) \bigr)\) + \(a_2^2 E \bigl((Y_2-\mu_2)^2 \bigr)\) = \(a_1^2 V(Y_1)\) + \(2 a_1 a_2 Cov(Y_1,Y_2)\) + \(a_2^2 V(Y_2)\)
3
Man kan också visa följande: \(V\left( a_{1}Y_{1}+a_{2}Y_{2} + \cdot \cdot \cdot +a_{n}Y_{n} \right)\) = \(a_{1}^2 V\left( Y_{1}\right)\) + \(a_{2}^2 V\left( Y_{2}\right)\) + \(\cdot \cdot \cdot + a_{n}^2 V\left( Y_{n}\right)\) + \(2 a_1 a_2 Cov(Y_1,Y_2)\) + \(2 a_1 a_3 Cov(Y_1,Y_3)+ \cdot \cdot \cdot\)
Detta kan också beskrivas såhär:
Låt \(Y_{1},Y_{2},…,Y_{n}\) vara slumpvariabler.
Om \(U=\displaystyle \sum_{i=1}^{n}a_{i}Y_{i}\) så gäller \(V(U)\) = \(\displaystyle \sum_{i=1}^{n} a_{i}^2 V(Y_{i})\) + \(2 \displaystyle \sum_{i<j} a_{i} a_{j} Cov(Y_{i},Y_{j})\)
Anmärkning
Innebörden i \(\displaystyle \sum_{i<j}\) är att endast de termer där i < j ska vara med.
Exempel med 4 slumpvariabler \(Y_{1},Y_{2},Y_{3},Y_{4}\)
Om \(U=a_1 Y_{1} + a_2 Y_{2} +a_3 Y_{3} + a_4 Y_{4}\) så blir \(V(U)=a_1^2 V\left( Y_{1}\right)\) + \(a_2^2 V\left( Y_{2}\right)\) + \(a_3^2 V\left( Y_{3}\right)\) + \(a_4^2 V\left( Y_{4}\right)\) + \(2 \Bigl( a_1 a_2 Cov(Y_1,Y_2)+ a_1 a_3 Cov(Y_1,Y_3)+ a_1 a_4 Cov(Y_1,Y_4)+ a_2 a_3 Cov(Y_2,Y_3) + a_2 a_4 Cov(Y_2,Y_4)+ a_3 a_4 Cov(Y_3,Y_4) \Bigr)\)
\(=a_1^2 V\left( Y_{1}\right)\) + \(a_2^2 V\left( Y_{2}\right)\) + \(a_3^2 V\left( Y_{3}\right)\) + \(a_4^2 V\left( Y_{4}\right)\) + \(2 a_1 a_2 Cov(Y_1,Y_2)\) + \(2 a_1 a_3 Cov(Y_1,Y_3)\) + \(2a_1 a_4 Cov(Y_1,Y_4)\) + \(2 a_2 a_3 Cov(Y_2,Y_3)\) + \(2 a_2 a_4 Cov(Y_2,Y_4)\) + \(2 a_3 a_4 Cov(Y_3,Y_4)\)
Kovarianser (Sats 5.12c)
Detta moment ingår inte i kursen
Övningar
Exempel 10
Låt \(U=a Y + b\).
Härled formler för \(E(U)\) och \(V(U)\).
Lösning Exempel 10
Använd definitionen på samma sätt som i härledningarna för formlerna \(V(Y_1+Y_2)\) och \(V\left( a_{1}Y_{1}+a_{2}Y_{2}\right)\) ovan.
I de två följande exemplen (11 och 12) ska du istället för definitionen använda formeln under punkt 3 för Väntevärden respektive formeln under punkt 3 för Varianser ovan. (Satserna 5.12a respektive 5.12b)
Exempel 11
11a) Antag att vi har tre slumpvariabler \(Y_{1},Y_{2},Y_{3}\) där \(E(Y_{1})=1,E(Y_{2})=2,E(Y_{3})=-1\) och
\(V(Y_{1})=1,V(Y_{2})=3,V(Y_{3})=-5\) och
\(Cov(Y_1,Y_2)=-0.4,Cov(Y_1,Y_3)=0.5, Cov(Y_2,Y_3)=2\)
Bestäm \(E(Y_{1}-2 Y_{2} + Y_{3})\)
och \(V(Y_{1}-2 Y_{2} + Y_{3})\)
11b) Vi återvänder till det gamla klotsexemplet med en “kvalitetspoäng” K enligt följande: \(K=2 \cdot Y_1 + Y_2\).
Uppgiften är att bestämma variansen för K genom att utnyttja de formler vi just gått igenom här i kap 5.8, kombinerat med den information du redan har om varianser och kovarians från beräkningar i tidigare exempel.
Svar Exempel 11
11a)
\(E(Y_{1}-2 Y_{2} + Y_{3})=-4\)
och \(V(Y_{1}-2 Y_{2} + Y_{3})=12.6\)
(Lösning finns i del 1 av Exempel 5.25 i kursboken.)
11b) Tidigare info som behövs:
\(V(Y_1)=0.6275\), \(V(Y_2)=1.4099\) och \(Cov(Y_1,Y_2)=-0.5815\)
Svaret blir \(V(K)=1.5939\)
ur \(2^2 V(Y_1)+1^2 V(Y_2)+2 \cdot 1 \cdot 2 \cdot Cov(Y_1,Y_2)\)
Exempel 12
12a) Låt \(Y_{1},Y_{2},…,Y_{n}\) vara oberoende slumpvariabler med \(E\left(Y_{i}\right) =\mu\) och \(V\left(Y_{i}\right)=\sigma^2\) .
( \(Y_{1},Y_{2},…,Y_{n}\) skulle t.ex. kunna vara utfallen av \(n\) stycken oberoende försök i ett experiment. Det kan också handla om ett stickprov av storlek n från en population vars populationsmedelvärde är \(\mu\) och populationsstandardavvikelse \(\sigma\) )
Definiera (stickprovs)medelvärdet som \(\displaystyle \bar{Y} = \frac{1}{n} \cdot \sum_{i=1}^{n} Y_i\)
Visa att \(E \bigl( \bar{Y} \bigr) = \mu\)
och att \(V \bigl( \bar{Y} \bigr) = \frac{\sigma^2}{n}\)
12b) Låt \(\hat{P}\) vara en slumpvariabel som anger stickprovsandelen för ett stickprov av storlek \(n\) från en population där populationsandelen är \(p\) .
Bestäm \(E \left( \hat{P} \right)\) och \(V \left( \hat{P} \right)\).
12c) I kapitel 3.7 presenterades hypergeometrisk fördelning; \(Y \sim Hyp(N,r,n)\) .
Då hade vi inte tillräckligt med “redskap” för att härleda formlerna för \(E(Y)\) och \(V(Y)\) .
Men nu med formlerna i sats 5.12 och följande konstruktion går det att härleda formlerna:
Konstruktionen är att \(Y\) sätts som \(Y = \displaystyle \sum_{i=1}^{n} X_i\) ,
där \(X_i\) är en slumpvariabel som sätts till \(1\) om det \(i:te\) försöket ger en av de \(r\) stycken speciella.
Svar Exempel 12
12a) Lösning finns i Exempel 5.27
12b) Ledning: Låt \(Y\) vara en slumpvariabel som anger stickprovs-antalet. Utgå från att du redan har bevisat formlerna för \(E(Y)\) och \(V(Y)\) för \(Y \sim Bin(n,p)\).
12c) Det räcker att du kan följa och förstå stegen i Exempel 5.29; du behöver inte kunna utför alla steg helt utan hjälp.
// add bootstrap table styles to pandoc tables $(document).ready(function () { $('tr.header').parent('thead').parent('table').addClass('table table-condensed'); });