Chapter 5 Multivariate Probability Distributions
Diskreta bivariata sannolikhetsfördelningar, forts
Oberoende slumpvariabler (Kap 5.4)
Inledning (klotsexemplet)
Är slumpvariablerna \(Y_1\) och \(Y_2\) oberoende?
Frågan är alltså om längden och tjockleken är oberoende. Denna fråga kan även formuleras såhär (två olika alternativ) :
1 Är det så att sannolikheten för en viss längd är oberoende av klotsens tjocklek?
2 Är det så att sannolikheten för en viss tjocklek är oberoende av klotsens längd?
Svaret är nej; det är t.ex. större andel korta klotsar bland de tjocka klotsarna, än bland de smala klotsarna, se följande jämförelse:
En tjock klots är en klots med värdet \(y_1=3\). En kort klots är en klots med värdet \(y_2=1\).
Andelen korta klotsar bland de tjocka klotsarna =
sannolikheten för att få en kort klots givet att den är tjock =
\(P((Y_2=1)|(Y_1=3))=p(1|3)\) \(=\displaystyle \frac{p(3,1)}{p_1(3)}\) \(=\displaystyle \frac{0.25}{0.55}\) \(\approx 0.45\).
En smal klots är en klots med värdet \(y_1=1\). En kort klots är en klots med värdet \(y_2=1\).
Andelen korta klotsar bland de smala klotsarna =
sannolikheten för att få en kort klots givet att den är smal =
\(P((Y_2=1)|(Y_1=1))=p(1|1)\) \(=\displaystyle \frac{p(1,1)}{p_1(1)}\) \(=\displaystyle \frac{0.01}{0.25}\) \(= 0.05\).
Vi ser alltså att andelen korta klotsar bland de tjocka klotsarna är ca 45 %,
medan den andelen korta klotsar bland de smala klotsarna bara är 5 %.
Alltså är längden beroende av tjockleken.
Tvärtom gäller också. (tjockleken är beroende av längden)
Fixar klotsexemplet så att \(Y_1\) och \(Y_2\) blir oberoende
Hur kan man fixa klotsexemplet så att tjockleken och längden är oberoende?
Vi kan kolla på exemplet ovan.
Om längden ska vara oberoende av tjockleken, måste t.ex. \(P((Y_2=1)|(Y_1=3))\) och \(P((Y_2=1)|(Y_1=1))\) vara lika, inte olika som ovan (0.45 respektive 0.05).
Även \(P((Y_2=1)|(Y_1=2))\) måste vara lika de övriga två.
Det betyder att andelen korta klotsar ska vara lika stor oavsett tjocklek.
Men då betyder det att andelen korta klotsar totalt sett också måste vara samma tal, dvs
\(P((Y_2=1)|(Y_1=3))\) = \(P((Y_2=1)|(Y_1=2))\) = \(P((Y_2=1)|(Y_1=1))\) = \(P(Y_2=1)\)
Om vi kommer ihåg att det är \(Y_2\) som står “före strecket”, kan likheten också skrivas såhär:
\(p(1|3)\) =\(p(1|2)\)= \(p(1|1)\) = \(p_2(1)\)
Alltså i alla ekvationer \(p(1|y_1)=\displaystyle \frac{p(y_1,1)}{p_1(y_1)}\) kan vi likaväl skriva \(p_2(1)=\displaystyle \frac{p(y_1,1)}{p_1(y_1)}\).
Detta måste förstås gälla för alla längder \(y_2\), dvs om \(Y_1\) och \(Y_2\) ska vara oberoende måste \(p_2(y_2)=\displaystyle \frac{p(y_1,y_2)}{p_1(y_1)}\).
Om vi skriver om den sista ekvationen som en multiplikation får vi följande villkor:
\(p(y_1,y_2)=p_1(y_1) \cdot p_2(y_2)\) för ALLA par \((y_1,y_2)\)
DETTA ÄR VILLKORET för att \(Y_1\) och \(Y_2\) är oberoende
Ett exempel där \(Y_1\) och \(Y_2\) är oberoende
Här har vi ett exempel där \(Y_1\) och \(Y_2\) är oberoende:
Jag har också lagt till de båda marginalfördelningarna \(p_1(y_1)\) och \(p_2(y_2)\) i tabellen.
Här har vi t.ex. att \(P((Y_2=1)|(Y_1=3))\) = \(P((Y_2=1)|(Y_1=2))\) = \(P((Y_2=1)|(Y_1=1))\) = \(P(Y_2=1)\) = \(0.3\)
(30 % av de smala, 30 % av de mellantjocka, 30 % av de tjocka och 30 % av alla
är korta.)
För att kolla att \(Y_1\) och \(Y_2\) är oberoende, måste man kolla att \(p(y_1,y_2)=p_1(y_1) \cdot p_2(y_2)\) för ALLA tolv rutorna.
Övningar
Övningar på att avgöra oberoende finns bland exemplen i nästa delkapitel (Kap 5.7)
Kovarians mellan två slumpvariabler (Kap 5.7)
Exempel avgöra oberoende
Exemplen finner du i följande dokument: Beroende.pdf
Avgör för vart och ett av de åtta exemplen om \(Y_1\) och \(Y_2\) är oberoende. (Tips: Fyll i marginalfördelningarna först, för att kunna kolla villkoret för oberoende.)
Kommentar: “Krysset” i graferna markerar punkten \((7,15)\) , där \(E(Y_1)=7\) och \(E(Y_2)=15\) .
Introduktion till begreppet kovarians
I exemplen nyss avgjorde vi bara om \(Y_1\) och \(Y_2\) var oberoende eller inte.
(Oberoende gäller endast i exempel b )
Kovariansen \(Cov(Y_1,Y_2)\) säger hur starkt beroende det finns mellan \(Y_1\) och \(Y_2\) .
Om \(Y_1\) och \(Y_2\) är oberoende blir \(Cov(Y_1,Y_2)=0\).
I exempel a är det ett starkt beroende mellan \(Y_2\) och \(Y_1\):
Om man vet att \(Y_1\) blir 5, så vet man med 100% säkerhet att \(Y_2\) blir 10,
och om man vet att \(Y_1\) blir 9, så vet man med 100% säkerhet att \(Y_2\) blir 20.
Sambandet är positivt; när \(Y_1\) ökar, så ökar \(Y_2\)
I exempel c är det också ett beroende mellan \(Y_2\) och \(Y_1\), men inte riktigt lika starkt;
Om man vet att \(Y_1\) blir 5, så vet man bara med 80% säkerhet att \(Y_2\) blir 10,
och om man vet att \(Y_1\) blir 9, så vet man bara med 80% säkerhet att \(Y_2\) blir 20.
Men huvuddraget är fortfarande att sambandet är positivt.
Definition av kovarians
Nu ska vi definiera ett mått som kommer att ge ett högre värde för exempel a än för exempel c ; kovariansen (Det kan översättas med samvarians ; beskriver samvariationen mellan de två slumpvariablerna.)
Definition :
\(Cov(Y_1,Y_2)\) = \(E \left( (Y_1-{\mu}_1) \cdot (Y_2-{\mu}_2) \right)\)
där \({\mu}_1=E(Y_1)\) och \({\mu}_2=E(Y_2)\)
Beräkning :
Enligt kap 5.5 beräknas väntevärdet för ett uttryck som innehåller två diskreta slumpvariabler \(Y_1\) och \(Y_2\) såhär:
\(E \left(g(Y_1,Y_2) \right)\) = \(\displaystyle \sum_{(y_1,y_2)\in S} \Big(g(y_1,y_2) \cdot p(y_1,y_2) \Big)\)
Så kovariansen mellan \(Y_1\) och \(Y_2\) blir:
\(Cov(Y_1,Y_2)\) = \(\displaystyle \sum_{(y_1,y_2)\in S} \big( (y_1-{\mu}_1) \cdot (y_2-{\mu}_2) \big) p(y_1,y_2)\)
Exempel på beräkning av kovarians
Exempel 7
7a) Bestäm kovariansen för exempel a i Beroende.pdf
Lösning 7a
Först beräknas \({\mu}_1=E(Y_1)=7\) och \({\mu}_2=E(Y_2)=15\).
Sedan blir \(Cov(Y_1,Y_2)\) = \((5-7) \cdot (10-15) \cdot p(5,10)\) + \((5-7) \cdot (20-15) \cdot p(5,20)\) + \((9-7) \cdot (10-15) \cdot p(9,10)\) + \((9-7) \cdot (20-15) \cdot p(9,20)\) = \((-2) \cdot (-5) \cdot 0.50\) + \((-2) \cdot 5 \cdot 0\) + \(2 \cdot (-5) \cdot 0\) + \(2 \cdot 5 \cdot 0.50\) = \(10\)
7b) Bestäm kovariansen för Exempel b i Beroende.pdf
7c) Bestäm kovariansen för Exempel c i Beroende.pdf
7e) Bestäm kovariansen för Exempel e i Beroende.pdf
Några kommentarer, bl.a. om kovariansens tecken
Som vi ser har kovariansen den önskade egenskapen; att exempel a har högre kovarians än exempel c.
Dessutom; i exempel b där \(Y_1\) och \(Y_2\) är oberoende blir \(Cov(Y_1,Y_2)=0\).
I exempel a blir de termer som inte är noll positiva.
Om man bara tar med dessa termer som ger något bidrag till summan, får man \((-2) \cdot (-5)\cdot 0.5\) + \((+2) \cdot (+5)\cdot 0.5\)
Så blir det när man har punkter som ligger i nedre vänstra hörnet och i övre högra hörnet i förhållande till krysset. Så ligger ju punkter om man har ett positivt linjärt samband, så kovariansen blir positiv när man har ett positivt samband.
I exempel e blir de termer som inte är noll negativa.
Om man bara tar med dessa termer som ger något bidrag till summan, får man \((-2) \cdot (+5) \cdot 0.5\) + \((+2) \cdot (-5)\cdot 0.5\)
Så blir det när man har punkter som ligger i övre vänstra hörnet och nedre högra hörnet i förhållande till krysset. Så ligger ju punkter om man har ett negativt linjärt samband, så kovariansen blir negativ när man har ett negativt samband.
Alternativ beräkningsformel för kovariansen
Definitionen av kovarians var \(Cov(Y_1,Y_2)=E \left( (Y_1-{\mu}_1) \cdot (Y_2-{\mu}_2) \right)\)
där \({\mu}_1=E(Y_1)\) och \({\mu}_2=E(Y_2)\)
En alternativ formel för kovariansen är följande:
\(Cov(Y_1,Y_2)=E(Y_1 \cdot Y_2)-E(Y_1) \cdot E(Y_2)\)
Exempel med den alternativa beräkningsformeln
Exempel 8
8a) Använd den alternativa beräkningsformeln för att bestämma \(Cov(Y_1,Y_2)\) för exempel a i Beroende.pdf
8b) Visa allmänt att \(E \left( (Y_1-{\mu}_1) \cdot (Y_2-{\mu}_2) \right)\) = \(E(Y_1 \cdot Y_2)-E(Y_1) \cdot E(Y_2)\)
Lösning 8a
Vi vet redan att \(E(Y_1)=7\) och \(E(Y_2)=15\)
Vi behöver också \(E(Y_1 \cdot Y_2)\) som beräknas enligt följande (det vanliga sättet):
\(E \left(Y_1 \cdot Y_2) \right)\) = \(\displaystyle \sum_{(y_1,y_2)\in S} y_1 y_2 p(y_1,y_2)\) = \(5 \cdot 10 \cdot p(5,10)\) + \(5 \cdot 20 \cdot p(5,20)\) + \(9 \cdot 10 \cdot p(9,10)\) + \(9 \cdot 20 \cdot p(9,20)\) = \(50 \cdot 0.50\) + \(100 \cdot 0\) + \(90 \cdot 0\) + \(180 \cdot 0.5\) = \(115\)
Vi får \(Cov(Y_1,Y_2)\) = \(E(Y_1 \cdot Y_2)-E(Y_1) \cdot E(Y_2)\) = \(115-7 \cdot 15=10\) STÄMMER!
Lösning 8b
Lösningen finns i (beviset av) sats 5.10.
Fortsättning med exempel
7g1) Bestäm kovariansen för Exempel g i Beroende.pdf
7g2) Jämför exemplen c och g i Beroende.pdf.
Anser du att sambandet är starkare i g än i c?
Kommentar om kovariansens storlek
Om vi jämför exemplen c och g i Beroende.pdf så är det egentligen ingen skillnad, förutom skalan på axlarna. Det kan ju vara så att i c är värdena i cm, medan man i g har använt mm för måtten.
Detta gör att kovariansen blir högre i g trots att sambanden är exakt likadana.
Svar till exempel 7
7a) \(Cov(Y_1,Y_2)=10\)
7b) \(Cov(Y_1,Y_2)=0\)
7c) \(Cov(Y_1,Y_2)=6\)
7d) \(Cov(Y_1,Y_2)=2\)
7e) \(Cov(Y_1,Y_2)=-10\)
7f) \(Cov(Y_1,Y_2)=-6\)
7g) \(Cov(Y_1,Y_2)=600\)
7h) \(Cov(Y_1,Y_2)=0\)
Korrelation
Korrelation är ett bättre mått än kovarians, eftersom det tar hänsyn till skalan.
Korrelationen kommer att få samma värde i c och g.
Såhär definieras korrelationen \(\rho\) mellan \(Y_1\) och \(Y_2\):
\(\rho (Y_1,Y_2)\) = \(\displaystyle \frac{Cov(Y_1,Y_2)}{ \sqrt{V(Y_1) \cdot V(Y_2)} }\)
Ofta skriver man bara \(\rho\) när det är underförstått vilka slumpvariabler det handlar om.
Exempel på beräkning av korrelation
Exempel 9
9a) Bestäm korrelationen för exempel a i Beroende.pdf
Lösning Exempel 9a
\(\rho =\displaystyle \frac{Cov(Y_1,Y_2)}{ \sqrt{V(Y_1) \cdot V(Y_2)} }\)
Vi behöver \(Cov(Y_1,Y_2)\) , \(V(Y_1)\) och \(V(Y_2)\) .
Delberäkningar:
\(Cov(Y_1,Y_2)\): Den har vi redan beräknat på två sätt (7a och 8a), och fått \(Cov(Y_1,Y_2)=10\)
\(V(Y_1)\): Vi använder “det gamla vanliga” för att få fram variansen: \(V(Y_1)=E(Y_1^2)-(E(Y_1))^2\)
Beräkning av \(E(Y_1^2)\): \(E \left(Y_1^2) \right)\) = \(\displaystyle \sum_{(y_1,y_2)\in S} \Big(y_1^2 p(y_1,y_2) \Big)\) = \(25 \cdot 0.50\) + \(25 \cdot 0\) + \(81 \cdot 0\) + \(81 \cdot 0.5\) = \(53\)
Det ger \(V(Y_1)=E(Y_1^2)-(E(Y_1))^2=53-7^2=4\)
ANM För beräkning av \(E(Y_1^2)\) kan man också använda “genvägen för väntevärde” eftersom bara en variabel är inblandad (Se kap 5.5). Detsamma gäller \(E(Y_2^2)\) nedan.
\(V(Y_2)\): \(V(Y_2)=E(Y_2^2)-(E(Y_2))^2\)
Beräkning av \(E(Y_2^2)\):
\(\displaystyle E \left(Y_2^2 \right) =\sum_{(y_1,y_2)\in S} \left(y_2^2 p(y_1,y_2) \right)=\) \(100 \cdot 0.50 + 400 \cdot 0 + 100 \cdot 0 +400 \cdot 0.5=250\)
Det ger \(V(Y_2)=E(Y_2^2)-(E(Y_2))^2=250-15^2=25\)
Nu har vi alla delar; \(Cov(Y_1,Y_2)=10\), \(V(Y_1)=4\) och \(V(Y_2)=25\), så nu kan vi beräkna korrelationen:
\(\rho =\displaystyle \frac{Cov(Y_1,Y_2)}{ \sqrt{V(Y_1) \cdot V(Y_2)} }\) = \(\displaystyle \frac{10}{ \sqrt{4 \cdot 2}}=1\)
Svar till exempel 9 (Lösningen är enligt samma princip som i 9a så du behöver nog inte göra alla.)
9a) \(\rho=1\)
9b) \(\rho=0\)
9c) \(\rho=0.6\)
9d) \(\rho=0.2\)
9e) \(\rho=-1\)
9f) \(\rho=-0.6\)
9g) \(\rho=0.6\)
9h) \(\rho=0\)
Här ser vi att korrelationen får samma värde i c och g; i båda fallen blir \(\rho=0.6\), medan kovariansen får olika värden; 6 respektive 600.
Korrelationens storlek
Korrelationen \(\rho\) blir alltid ett tal mellan \(-1\) och \(1\) .
Om \(\rho=1\) innebär det att vi har starkast möjliga positiva (linjära) samband mellan \(Y_2\) och \(Y_1\). (som i exempel a i Beroende.pdf )
Om \(\rho=-1\) innebär det att vi har starkast möjliga negativa (linjära) samband mellan \(Y_2\) och \(Y_1\). (som i exempel e i Beroende.pdf )
Anmärkning Korrelationen är ett mått på det linjära beroendet mellan \(Y_2\) och \(Y_1\).
Samband mellan korrelation/kovarians och oberoende
Vi har konstaterat att om \(Y_1\) och \(Y_2\) är oberoende blir \(Cov(Y_1,Y_2)=0\).
Men i ett av exemplen i Beroende.pdf , nämligen i exempel h har vi \(Cov(Y_1,Y_2)=0\), trots att inte \(Y_1\) och \(Y_2\) är oberoende.
Alltså gäller inte \(Cov(Y_1,Y_2)=0\) \(\Rightarrow\) “\(Y_1\) och \(Y_2\) är oberoende.”
Det är bara följande som är sant:
“\(Y_1\) och \(Y_2\) är oberoende” \(\Rightarrow\) \(Cov(Y_1,Y_2)=0\)
Ett undantag finns, där implikationen gäller åt båda hållen; om de två slumpvariablerna \(Y_1\) och \(Y_2\) kommer från en bivariat normalfördelning (Se kap 5.10)
Fler samband och viktiga resultat (Kap 5.8)
Väntevärden (Sats 5.12 a)
När det gäller väntevärden är räknereglerna/formlerna enkla:
1
T.ex. kan vi från sats 5.8 komma fram till att \(E (Y_1+Y_2)=E (Y_1)+E(Y_2)\)
2
Om vi kombinerar sats 5.7 och 5.8 kan vi få en mer generell regel: \(E\left( a_{1}Y_{1}+a_{2}Y_{2}\right) =a_{1}E\left( Y_{1}\right)+a_{2}E\left( Y_{2}\right)\)
3
Med hjälp av satserna 5.7 och 5.8 kan vi dessutom visa följande:
\(E\left( a_{1}Y_{1}+a_{2}Y_{2} + \cdot \cdot \cdot +a_{n}Y_{n} \right)\) = \(a_{1}E\left( Y_{1}\right)+a_{2}E\left( Y_{2}\right)\) \(\cdot \cdot \cdot + a_{n}E\left( Y_{n}\right)\)
Detta kan också beskrivas såhär:
Låt \(Y_{1},Y_{2},…,Y_{n}\) vara slumpvariabler med \(E\left(Y_{i}\right) =\mu _{i}\).
Om \(U=\displaystyle \sum_{i=1}^{n}a_{i}Y_{i}\) så gäller \(\displaystyle E( U) =\sum_{i=1}^{n}a_{i}\mu _{i}\)
Varianser (Sats 5.12 b)
Frågan är om räknereglerna/formlerna är lika enkla för varianser som för väntervärden.
1
Vi börjar med att kolla om \(V (Y_1+Y_2)=V(Y_1)+V(Y_2)\).
Kollar med hjälp av ett exempel
Om man misstänker att detta inte är sant, och vill ha stöd för detta, räcker det att hitta ett exempel där det inte stämmer.
Vi tar exemplet med klotsarna;
Slumpförsöket är att plocka upp en klots ur mängden av klotsar som finns avbildad i följande dokument: Klotsar100.pdf
Det är 100 runda klotsar med olika form; det finns 3 olika tjocklekar (1,2,3) och 4 olika längder (1,2,3,4).
Det finns två intressanta slumpvariabler för slumpförsöket “Tag en slumpvis utvald klots”;
\(Y_1\) som är den valda klotsens tjocklek, och \(Y_2\) som är den valda klotsens längd.
Beskrivningen av den simultana sannolikhetsfördelningen för \(Y_1\) och \(Y_2\) finns i början av kapitel 5.
Enligt beräkningarna i Ex 3a och 3b fick vi \(E(Y_1)=2.35\) och \(E(Y_2)=2.49\).
Och enligt Ex 5b2 gäller \(E(Y_1^2)=6.15\) och \(E(Y_2^2)=6.59\)
Det ger:
\(V(Y_1)=E(Y_1^2)-(E(Y_1))^2\) = \(6.15-2.35^2=0.6275\)
och \(V(Y_2)=E(Y_2^2)-(E(Y_2))^2\) = \(7.61-2.49^2=1.4099\)
Dags för \(V(Y_1+Y_2)\) Blir det 2.0374 månntro?
Vi kollar; samma metod som vanligt:
\(V(Y_1+Y_2)\) = \(E \left((Y_1+Y_2)^2 \right)\) – \(\left(E(Y_1+Y_2) \right)^2\)
Börjar med \(=E \left((Y_1+Y_2)^2 \right)\):
\(E \left((Y_1+Y_2)^2 \right)\) = \(\displaystyle \sum_{(y_1,y_2)\in S} (y_1+y_2)^2 p(y_1,y_2)\) = \(2^2 \cdot p(1,1)\) + \(3^2 \cdot p(1,2))\) + \(\cdot \cdot \cdot + 7^2 \cdot p(3,4))\) = \(24.3\)
Från exempel 3a och 3b har vi \(E(Y_1)=2.35\) och \(E(Y_2)=2.49\).
Regeln för väntevärden ger dessutom \(E (Y_1+Y_2)=E(Y_1)+E(Y_2)\),
så \(\left(E(Y_1+Y_2) \right)^2=(2.35+2.49)^2=23.4256\)
Vi får \(V(Y_1+Y_2)\) = \(E \left((Y_1+Y_2)^2 \right)\) – \(\left(E(Y_1+Y_2) \right)^2=\) \(24.3-23.4256=0.8744\)
Vi fick alltså att \(V(Y_1+Y_2)=0.8744\) medan \(V(Y_1)+V(Y_2)=2.0374\)
Nu vet vi att \(V (Y_1+Y_2)=V (Y_1)+V(Y_2)\) INTE gäller allmänt.
Kollar med hjälp av definitionen
Det kanske är lättare att kolla direkt med hjälp av definitionen av varians om \(V (Y_1+Y_2)=V (Y_1)+V(Y_2)\) är sant eller inte.
Det kommer här; först själva definitionerna:
\(V(Y_1+Y_2)\) = \(E \Bigl( \bigl ( Y_1+Y_2 \ \ -(\mu_1+\mu_2) \bigr)^2 \Bigr)\)
\(V(Y_1)=E \Bigl( \bigl ( Y_1 \ \ -\mu_1 \bigr)^2 \Bigr)\)
\(V(Y_2)=E \Bigl( \bigl ( Y_2 \ \ -\mu_2 \bigr)^2 \Bigr)\)
Dags för omskrivning av \(V (Y_1+Y_2)\) med inriktning på att “hitta” \(V(Y_1)\) och \(V(Y_2)\)
\(V(Y_1+Y_2)\) = \(E \Bigl( \bigl ( Y_1+Y_2 \ \ -(\mu_1+\mu_2) \bigr)^2 \Bigr)=\) \(E \Bigl( \bigl( \ (Y_1-\mu_1) + (Y_2-\mu_2) \ \bigr)^2 \Bigr)=\) \(E \Bigl( (Y_1-\mu_1)^2 +2 (Y_1-\mu_1) (Y_2-\mu_2)+ (Y_2-\mu_2)^2 \Bigr)=\)
Hittills har vi bara använt vanlig algebra; nu tillämpas satserna 5.7 och 5.8 inför nästa omskrivning:
\(=E \bigl( (Y_1-\mu_1)^2 \bigr)\) + \(2 E \bigl( (Y_1-\mu_1) (Y_2-\mu_2) \bigr)\) + \(E \bigl((Y_2-\mu_2)^2 \bigr)=\) \(V(Y_1) +2 E \bigl( (Y_1-\mu_1) (Y_2-\mu_2) \bigr) + V(Y_2)\)
Den mellersta termen kan också kännas igen; den är \(2 \cdot Cov(Y_1,Y_2)\)
Nu har vi fått fram ett resultat; man brukar skriva termerna i denna ordning: \(V(Y_1+Y_2)\) = \(V(Y_1)+ V(Y_2) +2 Cov(Y_1,Y_2)\)
1 Resultat
\(V(Y_1+Y_2)=V(Y_1)+ V(Y_2)+2 Cov(Y_1,Y_2)\)
Kollar formeln (1) i klotsexemplet
Om man beräknar kovariansen i klotsexemplet får man \(Cov(Y_1,Y_2)=-0.5815\) (Gör det som träning, om du vill)
Ovan fick vi \(V(Y_1)=0.6275\) och \(V(Y_2)=1.4099\)
Då blir \(V(Y_1)+ V(Y_2)+2 Cov(Y_1,Y_2)=\) \(0.6275+1.4099+2 \cdot (-0.5815)\) = \(0.8744\),
vilket är precis detsamma som \(V(Y_1+Y_2)\) enligt beräkningarna ovan.
Fallet där \(V(Y_1+Y_2)=V(Y_1)+V(Y_2)\)
Det kan också hända att \(V(Y_1+Y_2)=V(Y_1)+V(Y_2)\)
Detta händer om \(Y_1\) och \(Y_2\) är oberoende, eftersom då \(Cov(Y_1,Y_2)=0\).
Exempel
Prova själv med exemplet med det “fixade” klotsexemplet där \(Y_1\) och \(Y_2\) är oberoende (från kap 5.4)
Lösning (Alla delberäkningar redovisas inte; bara huvudstegen)
\(V(Y_1)=E(Y_1^2)-(E(Y_1))^2\) = \(5.9-2.3^2=0.61\)
och \(V(Y_2)=E(Y_2^2)-(E(Y_2))^2\) = \(8.4-2.6^2=1.64\)
\(V(Y_1+Y_2)\) = \(E \left((Y_1+Y_2)^2 \right)\) – \(\left(E(Y_1+Y_2) \right)^2\) = \(26.26-(2.3+2.6)^2\) = \(2.25\)
I detta exempel stämmer \(V(Y_1+Y_2)=V(Y_1)+ V(Y_2)\)
Men formeln \(V(Y_1+Y_2)=V(Y_1)+ V(Y_2) +2 Cov(Y_1,Y_2)\) är ALLMÄNGILTIG.
Den stämmer även i de fall där \(Y_1\) och \(Y_2\) är oberoende, eftersom den sista termen då blir noll.
2
\(V\left( a_{1}Y_{1}+a_{2}Y_{2}\right) =a_{1}^2 V\left( Y_{1}\right)+a_{2}^2 V \left( Y_{2}\right)+2 a_{1} a_{2} Cov(Y_1,Y_2)\)
Bevis (Försök först själv som övning; jämför med utvecklingen av \(V(Y_1+Y_2)\) under 1 ovan.)
\(V(a_1 Y_1+a_2 Y_2)\) = \(E \Bigl( \bigl ( a_1 Y_1+a_2 Y_2 \ \ -E(a_1 Y_1+a_2 Y_2) \bigr)^2 \Bigr)\) = \(E \Bigl( \bigl ( a_1 Y_1+a_2 Y_2 \ \ -E(a_1 Y_1)-E(a_2 Y_2) \bigr)^2 \Bigr)\) = \(E \Bigl( \bigl( \ [a_1 Y_1-a_1 E(Y_1)] + [a_2 Y_2-a_2 E(Y_2)] \ \bigr)^2 \Bigr)\) = \(E \Bigl( a_1^2 (Y_1-\mu_1)^2 +2 a_1 a_2 (Y_1-\mu_1) (Y_2-\mu_2)+ a_2^2 (Y_2-\mu_2)^2 \Bigr)\) = \(a_1^2 E \bigl( (Y_1-\mu_1)^2 \bigr)\) + \(2 a_1 a_2 E \bigl( (Y_1-\mu_1) (Y_2-\mu_2) \bigr)\) + \(a_2^2 E \bigl((Y_2-\mu_2)^2 \bigr)\) = \(a_1^2 V(Y_1)\) + \(2 a_1 a_2 Cov(Y_1,Y_2)\) + \(a_2^2 V(Y_2)\)
3
Man kan också visa följande: \(V\left( a_{1}Y_{1}+a_{2}Y_{2} + \cdot \cdot \cdot +a_{n}Y_{n} \right)\) = \(a_{1}^2 V\left( Y_{1}\right)\) + \(a_{2}^2 V\left( Y_{2}\right)\) + \(\cdot \cdot \cdot + a_{n}^2 V\left( Y_{n}\right)\) + \(2 a_1 a_2 Cov(Y_1,Y_2)\) + \(2 a_1 a_3 Cov(Y_1,Y_3)+ \cdot \cdot \cdot\)
Detta kan också beskrivas såhär:
Låt \(Y_{1},Y_{2},…,Y_{n}\) vara slumpvariabler.
Om \(U=\displaystyle \sum_{i=1}^{n}a_{i}Y_{i}\) så gäller \(V(U)\) = \(\displaystyle \sum_{i=1}^{n} a_{i}^2 V(Y_{i})\) + \(2 \displaystyle \sum_{i<j} a_{i} a_{j} Cov(Y_{i},Y_{j})\)
Anmärkning
Innebörden i \(\displaystyle \sum_{i<j}\) är att endast de termer där i < j ska vara med.
Exempel med 4 slumpvariabler \(Y_{1},Y_{2},Y_{3},Y_{4}\)
Om \(U=a_1 Y_{1} + a_2 Y_{2} +a_3 Y_{3} + a_4 Y_{4}\) så blir \(V(U)=a_1^2 V\left( Y_{1}\right)\) + \(a_2^2 V\left( Y_{2}\right)\) + \(a_3^2 V\left( Y_{3}\right)\) + \(a_4^2 V\left( Y_{4}\right)\) + \(2 \Bigl( a_1 a_2 Cov(Y_1,Y_2)+ a_1 a_3 Cov(Y_1,Y_3)+ a_1 a_4 Cov(Y_1,Y_4)+ a_2 a_3 Cov(Y_2,Y_3) + a_2 a_4 Cov(Y_2,Y_4)+ a_3 a_4 Cov(Y_3,Y_4) \Bigr)\)
\(=a_1^2 V\left( Y_{1}\right)\) + \(a_2^2 V\left( Y_{2}\right)\) + \(a_3^2 V\left( Y_{3}\right)\) + \(a_4^2 V\left( Y_{4}\right)\) + \(2 a_1 a_2 Cov(Y_1,Y_2)\) + \(2 a_1 a_3 Cov(Y_1,Y_3)\) + \(2a_1 a_4 Cov(Y_1,Y_4)\) + \(2 a_2 a_3 Cov(Y_2,Y_3)\) + \(2 a_2 a_4 Cov(Y_2,Y_4)\) + \(2 a_3 a_4 Cov(Y_3,Y_4)\)
Kovarianser (Sats 5.12c)
Detta moment ingår inte i kursen
Övningar
Exempel 10
Låt \(U=a Y + b\).
Härled formler för \(E(U)\) och \(V(U)\).
Lösning Exempel 10
Använd definitionen på samma sätt som i härledningarna för formlerna \(V(Y_1+Y_2)\) och \(V\left( a_{1}Y_{1}+a_{2}Y_{2}\right)\) ovan.
I de två följande exemplen (11 och 12) ska du istället för definitionen använda formeln under punkt 3 för Väntevärden respektive formeln under punkt 3 för Varianser ovan. (Satserna 5.12a respektive 5.12b)
Exempel 11
11a) Antag att vi har tre slumpvariabler \(Y_{1},Y_{2},Y_{3}\) där \(E(Y_{1})=1,E(Y_{2})=2,E(Y_{3})=-1\) och
\(V(Y_{1})=1,V(Y_{2})=3,V(Y_{3})=-5\) och
\(Cov(Y_1,Y_2)=-0.4,Cov(Y_1,Y_3)=0.5, Cov(Y_2,Y_3)=2\)
Bestäm \(E(Y_{1}-2 Y_{2} + Y_{3})\)
och \(V(Y_{1}-2 Y_{2} + Y_{3})\)
11b) Vi återvänder till det gamla klotsexemplet med en “kvalitetspoäng” K enligt följande: \(K=2 \cdot Y_1 + Y_2\).
Uppgiften är att bestämma variansen för K genom att utnyttja de formler vi just gått igenom här i kap 5.8, kombinerat med den information du redan har om varianser och kovarians från beräkningar i tidigare exempel.
Svar Exempel 11
11a)
\(E(Y_{1}-2 Y_{2} + Y_{3})=-4\)
och \(V(Y_{1}-2 Y_{2} + Y_{3})=12.6\)
(Lösning finns i del 1 av Exempel 5.25 i kursboken.)
11b) Tidigare info som behövs:
\(V(Y_1)=0.6275\), \(V(Y_2)=1.4099\) och \(Cov(Y_1,Y_2)=-0.5815\)
Svaret blir \(V(K)=1.5939\)
ur \(2^2 V(Y_1)+1^2 V(Y_2)+2 \cdot 1 \cdot 2 \cdot Cov(Y_1,Y_2)\)
Exempel 12
12a) Låt \(Y_{1},Y_{2},…,Y_{n}\) vara oberoende slumpvariabler med \(E\left(Y_{i}\right) =\mu\) och \(V\left(Y_{i}\right)=\sigma^2\) .
( \(Y_{1},Y_{2},…,Y_{n}\) skulle t.ex. kunna vara utfallen av \(n\) stycken oberoende försök i ett experiment. Det kan också handla om ett stickprov av storlek n från en population vars populationsmedelvärde är \(\mu\) och populationsstandardavvikelse \(\sigma\) )
Definiera (stickprovs)medelvärdet som \(\displaystyle \bar{Y} = \frac{1}{n} \cdot \sum_{i=1}^{n} Y_i\)
Visa att \(E \bigl( \bar{Y} \bigr) = \mu\)
och att \(V \bigl( \bar{Y} \bigr) = \frac{\sigma^2}{n}\)
12b) Låt \(\hat{P}\) vara en slumpvariabel som anger stickprovsandelen för ett stickprov av storlek \(n\) från en population där populationsandelen är \(p\) .
Bestäm \(E \left( \hat{P} \right)\) och \(V \left( \hat{P} \right)\).
12c) I kapitel 3.7 presenterades hypergeometrisk fördelning; \(Y \sim Hyp(N,r,n)\) .
Då hade vi inte tillräckligt med “redskap” för att härleda formlerna för \(E(Y)\) och \(V(Y)\) .
Men nu med formlerna i sats 5.12 och följande konstruktion går det att härleda formlerna:
Konstruktionen är att \(Y\) sätts som \(Y = \displaystyle \sum_{i=1}^{n} X_i\) ,
där \(X_i\) är en slumpvariabel som sätts till \(1\) om det \(i:te\) försöket ger en av de \(r\) stycken speciella.
Svar Exempel 12
12a) Lösning finns i Exempel 5.27
12b) Ledning: Låt \(Y\) vara en slumpvariabel som anger stickprovs-antalet. Utgå från att du redan har bevisat formlerna för \(E(Y)\) och \(V(Y)\) för \(Y \sim Bin(n,p)\).
12c) Det räcker att du kan följa och förstå stegen i Exempel 5.29; du behöver inte kunna utför alla steg helt utan hjälp.
// add bootstrap table styles to pandoc tables $(document).ready(function () { $('tr.header').parent('thead').parent('table').addClass('table table-condensed'); });