Transcript
Teoria de Matrizes para Estat´ıstica
Jos´ e Carlos Fogo
Mar¸co, 2008
Teoria de Matrizes para Estat´ıstica
Conceitos Iniciais
1 1.1
Vetores
Defini¸ c˜ ao: Na F´ısica: ´e uma forma de se representar matematicamentegrandezas f´ısicas que possuam mais de um aspecto para ser definida. Exemplo: a for¸ca, necessita da magnitude, dire¸c˜ao e sentido em que ´e aplicada; Na Matem´ atica: ´e uma tripla constitu´ıda de uma dire¸c˜ao, um sentido e um n´ umero n˜ao negatico (m´odulo), Venturini, J.J. Obs: Usando a teoria de matrizes, pode-se definir um vetor como qalquer matriz coluna, ou matriz linha. Na Wikip´ edia: ´e um conceito caracterizado por uma magnitude (m´odulo) e uma orienta¸c˜ao (dire¸c˜ao e sentido). Nota¸c˜ ao: ~v , ~x, ~a (letras min´ usculas). Na disciplina, vamos adotar a nota¸c˜ao usual em publica¸c˜oes, ou seja, com letras mn´ usculas, em negrito: v, x, a.
x=
x1 x2 .. . xp
,
´e um vetor de dimens˜ao p.
Exemplo:
x=
1 2 3 4
,
´e um vetor de dimens˜ao 4.
2
Teoria de Matrizes para Estat´ıstica 1.1.1
Representa¸c˜ ao gr´ afica no ℜ2
Exemplo: Sejam x=
"
2 5
#
e y=
"
3 0.5
#
,
4
5
6
Representação gráfica de vetores no plano
3 1
2
dim 2
x
0
y
0
1
2
3
dim 1
Figura 1: Vetores no plano
1.1.2
Propriedades alg´ ebricas
i ) u + v = v + u; ii ) (u + v) + w = u + (v + w); iii ) c (u + v) = c v + c u,
c = escalar;
iv ) (c + d) u = c u + d u,
c, d = escalares.
3
4
Teoria de Matrizes para Estat´ıstica 1.1.3
Vetores especiais
i ) vetor nulo:
0=
0 0 .. . 0
;
ii ) vetor de 1’s:
1=
1 1 .. . 1
;
iii ) vetor transposto: ′
v = 1.1.4
h
v1 , v2 , · · · , vp
i
.
Produto entre vetores
A multiplica¸c˜ao de vetores pode ser feita basicamente de duas maneiras: o produto vetorial, ou produto externo e o produto escalar, ou produto interno. De qualquer forma, nos dois casos os vetores devem ter mesmas dimens˜oes. Al´em dos dois tipos de produtos acima, pode-se, ainda, realizar o produto elemento-aelemento entre dois vetores. Nota: Na disciplina estaremos interessados apenas nos produtos interno e elemento-a-elemento. Considere os vetores
v=
v1 v2 .. . vp
e x=
4
x1 x2 .. . xp
.
Teoria de Matrizes para Estat´ıstica a) Produto elemento-a-elemento1 :
x∗v =
x1 · v 1 x1 · v 2 .. . xp · v p
.
b) Produto interno: ′
x·v =x v =
p X i=1
xi · v i
Exemplo:
2 Sejam x = −5 −1
• de (a):
3 e v = 2 , −3
(2) · (3) 6 x ∗ v = (−5) · (2) = −10 ; (−1) · (−3) 3
• de (b): x′ v = (2) · (3) + (−5) · (2) + (−1) · (−3) = −1. Nota: Existe, ainda, o produto Kronecker, ou produto direto, representado por x⊗v, que n˜ao ser´a abordado por ora.
1
Como n˜ao temos uma nota¸c˜ao para um operador elemento-a-elemento, vamos utilizar o asterisco (*)
5
Teoria de Matrizes para Estat´ıstica 1.1.5
Propriedades alg´ ebricas do produto interno entre vetores
i ) u′ v = v′ u; ii ) (u′ + v′ )w = u′ w + v′ w; iii ) (c v′ )u = c (v′ u) = v′ (c u),
c = escalar;
iv ) u′ u ≥ 0 e, u′ u = 0 ⇔ u = 0. 1.1.6
M´ odulo ou comprimenro de um vetor
O comprimento, m´odulo ou norma de um vetor v ´e definido por q √ Lv = v′ v = v12 + v22 + . . . + vp2 .
Exemplo: Dados os vetores v′ = (2, -5, -1), x′ = (3, 2, -3) e u′ = (0.8, 0.6), ent˜ao √ 4 + 25 + 9 = 30; √ √ = 9 + 4 + 9 = 22; √ √ = 0.64 + 0.36 = 1 = 1.
Lv = Lx Lu
√
O vetor u′ = (0.64, 0.36, tem comprimento 1, por ieeo ´e chamado de vetor unit´ ario. Outros resultados ˆ i ) Angulo entre vetores:
u
v θ
ˆ Figura 2: Angulo entre vetores.
6
Teoria de Matrizes para Estat´ıstica
u′ v u′ v √ √ cos(θ) = = , Lu Lv u′ u v′ v se θ = 90◦ , cos(θ) = 0, portanto: u⊥v ⇔ u′ v = 0. ii ) Proje¸c˜ao de um vetor sobre outro: Considere os vetores u e v. Ent˜ao, a proje¸c˜ao de u sobre v ´e obtida por: Pu/v =
u′ v v′ v
v=
u′ v L2v
v.
O m´odulo da proje¸c˜ao, por sua vez, ´e dado por: ′ ′ ′ uv u v √ u v ′ Pu/v = v ′ v v v = L2 Lv = Lv Lu Lu v Pu/v = |cos(θ)| Lu .
2.5
Exemplo: Dados os vetores u′ = (1, 2), v′ = (2, 1), encontar a proje¸c˜ao de u sobre v e calcular o seu m´odulo.
dim2
1.5
2.0
u
1.0
v
0.5
Pu
v
0.0
θ
0.0
0.5
1.0
1.5
2.0
2.5
dim1
Figura 3: Proje¸c˜ao de um vetor u sobre um vetor v. C´alculos: √ √ Lu = 11 + 22 = 5 √ Lv = Lu = 5 u′ v = 2 · 1 + 1 · 2 = 4 cos(θ) =
u′ v 4 = √ √ = 0.8 Lu Lv 5 5
⇒
θ∼ = 36.9◦
7
Teoria de Matrizes para Estat´ıstica Proje¸c˜ao de u sobre v: Pu/v =
u′ v v′ v
4 v= 5
"
2 1
#
=
"
1.6 0.8
#
.
Comprimento da proje¸c˜ao: √ √ Pu/v = |cos(θ)| Lu = 0.8 5 = 3.2
De fato
h i Pu/v 2 = 1.6 0.8
1.2
"
1.6 0.8
#
= 3.2,
logo, √ Pu/v = 3.2.
Matrizes
Defini¸ c˜ ao: Matriz ´e uma cole¸c˜ao retangular n × p de valores reais, representada por
An×p
=
a11 a12 · · · a1p a21 a22 · · · a2p . .. . . .. . .. . . ap1 ap2 · · · app
,
onde: n ´e o n´ umero de linhas e p ´e o n´ umero de colunas da matriz. 1.2.1
Casos Especiais
i ) Matriz Transposta: denotada por A′ , ´e obtida trocando-se as linhas de A pelas colunas. Exemplo:
A2×3 =
"
3 −2 1 1 5 4
#
A′3×2
8
3 1 = 5 −2 . 4 1
Teoria de Matrizes para Estat´ıstica ii ) Matriz Quadrada: ocorre quando o n´ umero de linhas ´e igual ao de colunas.
Exemplo:
A3×3
a11 a12 a13 = a21 a22 a23 . a31 a32 a33
iii ) Matriz Diagonal: matriz quadrada na qual apenas os elementos da diagonal s˜ao diferentes de zero.
Exemplo:
Ap×p
=
a11 0 · · · 0 0 a22 · · · 0 .. .. . . . . .. . . 0 0 · · · app
.
Nota: A matriz identidade ´e um caso particular da matriz diagonal. Denotada por Ip×p , seus elementos da diagonal s˜ao todos iguais a 1, ou seja, a11 = a22 = . . . = app = 1.
Exemplo:
A3×3
1 0 0 = 0 1 0 . 0 0 1
iv ) Matriz Sim´ etrica: matriz quadrada em que A = A′ , ou seja, quando aij = aji , i, j = 1, 2, . . . , p.
Exemplo:
1.2.2
A3×3
Opera¸c˜ oes
i ) Multiplica¸c˜ao por um escalar:
9
1 2 3 = 2 4 5 . 3 5 6
Teoria de Matrizes para Estat´ıstica Exemplo:
c An×p
=
c a11 c a12 · · · c a1p c a21 c a22 · · · c a2p .. .. .. ... . . . c ap1 c ap2 · · · c app
.
ii ) Adi¸c˜ao de matrizes de mesmas dimens˜oes: Exemplo:
An×p + Bn×p
=
Resultados a) A + B = B + A b) (A + B) + C = A + (B + C) c) c (A + B) = c A + c B d ) (c + d) A = c A + d A
a11 + b11 a21 + b21 .. .
a12 + b12 · · · a22 + b22 · · · .. ... .
a1p + b1p a2p + b2p .. .
an1 + bn1 an2 + bn2 · · · anp + bnp
.
e) (c d) A = c (dA) f ) (A + B)′ = A′ + B′ g) (A B)′ = B′ A′ h) (c A)′ = c A′
iii ) Multiplica¸c˜ao de matrizes: Para a multiplica¸c˜ao de matrizes o n´ umero de colunas da primeira (A) deve ser igual ao n´ umero de linhas da segunda (B) An×k Bk×p = A Bn×p , em que A B tem elementos formados pelo produto interno das linhas de A pelas colunas de B. Exemplo:
A2×3 =
AB=
"
"
3 −1 2 1 5 −4
#
B3×2
(−6 − 7 + 18) (3 − 6) (−2 + 35 − 36) (1 + 12)
−2 1 = 7 0 , 9 −3
#
=
"
5 −3 −3 13
#
.
Nota: A matriz identidade ´e o elemento neutro da multiplica¸c˜ao de matrizes, ou seja, A I = A. 10
Teoria de Matrizes para Estat´ıstica Resultados (as matrizes A, B e C s˜ao de dimens˜oes tais que os produtos abaixo sejam definidos) a) c (A B) = (c A) B b) A (B + C) = A B + A C) c) A (B C) = (A B) C) Notas: 1) Em geral n˜ao vale a propriedade comutativa, ou seja, A B6=B A, 2) Se A B = 0, n˜ao implica que A = 0 ou que B = 0. 1.2.3
A Matriz Inversa
Denotada por A−1 , ´e tal que: A A−1 = I. Caso especial: a inversa de uma matriz 2×2 ´e dada por
A=
"
a11 a12 a21 a22
#
A−1
,
1 = |A|
"
a22 −a11 −a11 a11
#
.
em que |A| ´e o determinante da matriz A. Exemplo: A=
"
2 3 1 4
#
,
A−1
1 = 5
"
4 −3 −1 2
#
.
Resultados (as matrizes A, B e C s˜ao tais que as inversas existam e os produtos sejam definidos) a) (A−1 )′ = (A′ )−1 b) (A B)−1 = A−1 +B−1 c) Se a inversa de uma matriz A existe, ent˜ao |A| = 6 0. 1.2.4
Matriz N˜ ao Singular
Uma matriz quadrada Ak×k ´e n˜ao singular se: Ax=0
=⇒
x = 0.
Notas: 1) Note que A x = a1 x1 + a2 x2 + . . . + ak xk , onde ai ´e a i-´esima coluna de A, i = 1, 2, . . . , k. Portanto, uma matriz ´e n˜ao singular se as suas colunas forem linearmente independentes, 11
Teoria de Matrizes para Estat´ıstica 2) Uma matriz quadrada ´e n˜ao singular se o seu rank for igual ao seu n´ umero de linhas (ou colunas), 3) Se A ´e n˜ao singular, ent˜ao existe uma u ´nica matriz inversa A−1 . 1.2.5
Matriz Ortogonal
Uma matriz quadrada ´e dita ser ortogonal se suas linhas, consideradas como vetores, s˜ao mutuamente perpendiculares e de comprimento 1, o que equivale a dizer que A A′ = I. Exemplo:
A=
−1/2 1/2 1/2 1/2 1/2 −1/2 1/2 1/2 1/2 1/2 −1/2 1/2 1/2 1/2 1/2 −1/2
,
ent˜ao A A′ = I.
Nota: Uma matriz A ´e ortogonal, se e somente se, A′ = A−1 . 1.2.6
Medidas Relacionadas
i ) Determinante: Seja uma matriz quadrada A, ent˜ao, seu determinante ´e um escalar denotado por |A| e ´e definido por: |A| =
k X j=1
(−1)j+1 a1j |A1j | ,
k > 1.
em que a1j ´e o j-´esimo elemento da primeira linha de A e A1j ´e a matriz obtida eliminando-se a primeira linha e a j-´esima coluna de A. O resultado tamb´em ´e v´alido quando exclu´ımos qualquer uma das outras linhas, ou seja |A| =
k X j=1
(−1)j+1 aij |Aij | ,
Exemplo:
A=
12
k > 1,
i = 1, 2, . . . , k.
2 1 3 1 −1 2 −2 0 3 4 1 −1
0 2 3 2
.
Teoria de Matrizes para Estat´ıstica • Eliminando-se a primeira linha:
−1 2 2 |A| = (−1)1+1 (2) 0 3 3 + (−1)1+2 (1) 1 −1 2 1 −1 2 (−1)1+3 (3) −2 0 3 + (−1)1+4 (0) 4 1 2
1 2 2 −2 3 3 + 4 −1 2 −1 −1 3 −2 0 3 4 1 −1
|A| = (−1)2 (2) (−9) + (−1)3 (1) (21) + (−1)4 (3) (−23) + (−1)5 (0) (17) |A| = −18 − 21 − 69 = −108. • Eliminando-se a terceira linha: |A| = (−1)2 (−2) (18) + (−1)3 (0) (30) + (−1)4 (3) (−2) + (−1)5 (3) (22) |A| = −36 − 6 − 66 = −108. Casos especiais: a) k = 2: A =
"
a11 a12 a21 a22
#
,
|A| = a11 a22 − a12 a21 .
Exemplo: A=
"
1 3 6 4
#
,
|A| = 1 · 4 − 3 · 6 = −14.
b) k = 3:
a11 a12 a13 A = a21 a22 a23 , a31 a32 a33 |A| = a21 a32 a13 + a11 a22 a33 + a12 a23 a31 − a12 a21 a33 − a13 a22 a31 − a11 a23 a32 .
13
Teoria de Matrizes para Estat´ıstica Exemplo:
3 1 6 A = 7 4 5 , 2 −7 1 |A| = 10 + 12 − 294 − 7 − 48 + 105 = −222. Resultados (as matrizes A, B s˜ao tais que as inversas existam e os produtos sejam definidos) a) |A| = |A′ |, b) Se os elementos de uma linha (ou coluna) s˜ao iguais a zero, ent˜ao, |A| = 0, c) Se duas linhas (ou colunas) s˜ao iguais, ent˜ao, |A| = 0, d ) Se A ´e n˜ao singular, ent˜ao |A| = 1/|A−1 |, isto ´e |A|·|A−1 = 1, e) |A B| = |A|· |B|, f ) c |A| = ck |A|,em que k ´e o n´ umero de linhas (ou de colunas) de A, g) |I| = 1. Observa¸ c˜ ao: Para uma matriz Ak×k os resultados a seguir s˜ao equivalentes i) A x = 0 ⇒ x = 0, ii ) |A| = 6 0, iii ) Existe A−1 tal que, A−1 A = I.
ii ) Rank: O rank de uma matriz Ak×k ´e dado pelo n´ umero m´aximo de linhas (ou colunas) linearmente independentes (LI). Exemplos:
3 0 1 A = 1 3 1 , 4 3 4
rank(A) = 3,
todas as colunas, ou linhas, de A s˜ao LI.
14
Teoria de Matrizes para Estat´ıstica
4 1 −3 B = −1 4 5 , 2 2 0
rank(B) = 2,
a primeira coluna de B ´e combina¸c˜ao linear das demais. Notas: 1) Uma matriz quadrada Ak×k ´e dita ser de posto completo se o seu rank for igual ao n´ umero de colunas (nesse caso k), 2) Uma matriz quadrada ´e de posto completo se, e s´o se, ela ´e n˜ao singular, 3) Nos exemplos acima, a matriz A ´e de posto completo, enquanto que, a matriz B n˜ao ´e de posto completo. iii ) Tra¸ co: Seja uma matriz quadrada Ak×k , ent˜ao o tra¸co de A, denotado por tr(A), ´e dado pela soma dos elementos de sua diagonal principal tr(A =
k X
aii .
i=1
Exemplos:
3 0 1 A = 1 3 1 , 4 3 4
tr(A) = 3 + 3 + 4 = 10.
4 1 −3 B = −1 4 5 , 2 2 0 Resultados a) tr(c A) = c tr(A), b) tr(A ± B) = tr(A) ± tr(B), c) tr(A B) = tr(B A), d ) tr(B−1 A B) = tr(A) P P e) tr(A A′ ) = ki=1 kj=1 a2ij
15
tr(B) = 8.
Teoria de Matrizes para Estat´ıstica 1.2.7
Autovalores e Autovetores
Considere a matriz A e os vetores u e v: " # " # 3 −2 −1 A= u= 1 0 1
v=
"
2 1
#
Ent˜ao, as transforma¸c˜oes operadas por A resultam em "
# " # −1 −5 Au = = 1 −1 " #" # " # 3 −2 2 4 Av = = =2v 1 0 1 2 3 −2 1 0
#"
Representando as transforma¸c˜oes graficamente temos: x2
2
Av
v 1
u
x1 −1
2
4
−1
−5
Au
Figura 4: Transforma¸c˜oes do tipo Ax. Tomando como foco as transforma¸c˜oes lineares do tipo A x = λ x,
com λ constante,
temos transforma¸c˜oes nas quais o vetor x tem seu tamanho expandido ou diminuido. Nota: Toda transforma¸c˜ao linear de Rn em Rm pode ser representada por uma matriz m × n.
16
Teoria de Matrizes para Estat´ıstica
1 1 Por exemplo, A = 1 2 1 −1 x1 + x2 resulta em A x = x1 + 2x2 x1 − x2
aplicada no vetor x =
"
x1 x2
#
Defini¸ c˜ oes: i ) Autovetor: um autovetor de uma matriz Ak × k ´e um vetor x, n˜ao nulo, tal que A x = λx, para algum escalar λ. ii ) Autovalor: um escalar λ ´e chamado de autovalor de A se existe solu¸c˜ao n˜ao trivial x para A x = λx. Notas: 1) Os valores λ e x e s˜ao chamados autovalor e autovetor asociado, 2) Normamente, os autovetores s˜ao dados na forma padronizada e, tal que e′ e=1, em que e′ e =
x x =√ . |x| x′ x
Considere a transforma¸c˜ao A x = λ x, ent˜ao temos A x − λ x = (A − λ I) x = 0. Calculando o deteminante, temos |A − λ I| x = 0, que equivale a |A − λ I| = 0. Nota: A equa¸c˜ao polinomial |A x − λ I| = 0 ´e chamada fun¸c˜ao caracter´ıstica. Desta forma, devemos obter os valores de λ que s˜ao ra´ızes da fun¸c˜ao caracter´ıstica. Resultado: Seja Ak×k uma matriz quadrada, ent˜ao existem k autovalores λ1 , λ2 , . . . , λk que satisfazem a equa¸c˜ao polinomial |A x − λ I| = 0. Assim sendo, existem k autovetores e1 , e2 , . . . , ek associados.
17
Teoria de Matrizes para Estat´ıstica Exemplos: i ) Seja a matriz: A=
"
1 0 1 3
#
, ent˜ao
(1 − λ) 0 |A − λ I| = 1 (3 − λ) 3 − 4λ + λ2 = 0 4+
= (1 − λ) (3 − λ) = 0
√
16 − 12 =3 2 √ 4 − 16 − 12 λ2 = =1 2 λ1 =
Portanto, os autovalores de A s˜ao λ1 = 3 e λ2 = 1. Para encontrar os autovetores associados devemos fazer: • Autovetor e1 associado ao autovalor λ1 = 3: A x1 = λ1 x1 "
1 0 1 3
#"
(
x11 = 3x11 x11 + 3x12 = 3x12
x11 x12
#
=3
"
x11 x12
#
Do sistema acima temos que x11 = 0 e x12 pode ser um valor arbitr´ario, o qual ser´a considerado igual a 1. O primeiro autovetor ´e, portanto, x′1 = (0, 1). Padronizando o autovetor x1 temos x1 = e1 = p ′ x1 x1
18
"
0 1
#
.
Teoria de Matrizes para Estat´ıstica • Autovetor e2 associado ao autovalor λ2 = 1: A x2 = λ2 x2 "
1 0 1 3
#"
(
x21 = x21 x21 + 3x22 = x22
x21 x22
#
=
"
x21 x22
#
Da segunda equa¸c˜ao temos x21 = −2x22 . Tomando x22 = 1, ent˜ao x21 fica igual a x21 = −2 e o segundo autovetor ´e, portanto, x′2 = (−2, 1).
Padronizando o autovetor x2 temos
1 x2 =√ e2 = p ′ 5 x2 x2
ii ) Outro exemplo: A=
"
λ1 = 7
3 4 1 6
#
,
ent˜ao
"
−2 1
#
=
"
√ # −2/ 5 √ . 1/ 5
(3 − λ) 4 1 (6 − λ)
= 14 − 9λ + λ2 = 0
λ2 = 2 • Autovetor e1 associado ao autovalor λ1 = 7: ( 3x11 + 4x12 = 7x11 x11 + 6x12 = 7x12 Do sistema acima temos que x11 = x12 , portando, x′1 = (1, 1) e, e1 =
"
√ # 1/ 2 √ . 1/ 2
• Autovetor e2 associado ao autovalor λ2 = 2: ( 3x21 + 4x22 = 2x21 x21 + 6x22 = 2x22
19
Teoria de Matrizes para Estat´ıstica Do sistema acima temos que x21 = −4x22 , portando, x′2 = (1, −1/4) e, e2 = 1.2.8
"
√ # 4/ 17 √ . −1/ 17
Decomposi¸c˜ ao Espectral
Seja a matriz Ak×k , sim´etrica, ent˜ao A pode escrita por: A=
k X
λi ei e′i .
i=1
Exemplo: A=
"
2.2 0.4 0.4 2.8 "
λ1 = 3, e1 =
λ2 = 2, e2 =
"
#
, ent˜ao
√1 5 √2 5
#
;
√2 5 −1 √ 5
#
.
Logo, " √ # √ # 2 −1 1 2 2/ 5 1/ 5 √ , √ √ , √ √ √ +2 = A = 3 5 5 5 5 2/ 5 −1/ 5 " # " # " # 3/5 6/5 8/5 −4/5 2.2 0.4 = + = . 6/5 12/5 −4/5 1/5 0.4 2.8 "
Vamos definir uma matriz U, ortogonal, cujas colunas s˜ao formadas pelos autovetores e1 , e2 , . . ., ek e, da mesma forma, uma matriz ortogonal V, tal que V = V′ , ou seja U =
h
e1 | e2 | . . . | ek
V = U = ′
e′1 e′2 .. . e′k
20
.
i
, e
Teoria de Matrizes para Estat´ıstica Definindo, ainda, uma matriz diagonal formada pelos autovalores λ1 , λ2 , . . ., λk , ou seja,
Λ =
λ1 0 · · · 0 0 λ2 · · · 0 .. .. . . . . .. . . 0 0 · · · λk
,
podemos escrever A = U Λ V ou A = U Λ U′ . No caso 2×2, temos U=
h
e1 | e2
i
e Λ=
"
λ1 0 0 λ2
#
.
Desta forma, uma matriz A2×2 pode ser representada por A =
h
e1 | e2
i
"
λ1 0 0 λ2
#"
e′1 e′2
#
= λ1 e1 e′1 + λ2 e2 e′2 . Exemplo: No exemplo anterior temos A=
1.2.9
"
2.2 0.4 0.4 2.8
#
,
U=
"
√ √ # 1/ 5 2/ 5 √ √ 2/ 5 −1/ 5
e Λ=
"
3 0 0 2
#
.
Matriz Definida Positiva
Considere o produto x′ Ax. Como temos apenas termos quadr´aticos x2i e termos cruzados xi xj , x′ A x recebe o nome de forma quadr´atica. Se uma matriz Ak×k , simetrica, ´e tal que x′ A x > 0,
∀ x n˜ao nulo,
ent˜ao, dizemos que A ´e uma matriz definida positiva. Nota: Se uma matriz Ak×k ´e definida positiva, ent˜ao os seus autovalores s˜ao todos positivos, isto ´e λi > 0, ∀ i = 1, 2, . . . , k. 21
Teoria de Matrizes para Estat´ıstica Exemplo: Considere a forma quadr´atica 6x21 + 4x1 x2 + 3x22 , ent˜ao x′ A x =
h
Como 6x21 + 4x1 x2 + 3x22 > 0,
x1 x2
"
i
6 2 2 3
#"
∀ x 6= 0, ent˜ao, A =
x1 x2 "
#
.
6 2 2 3
#
´e definida positiva.
Notas: 1) Se x′ A x ≥ 0, ∀ x n˜ao nulo, ent˜ao A ´e semi-definida positiva, 2) Se x′ A x < 0, ∀ x n˜ao nulo, ent˜ao A ´e definida negativa, 3) Se x′ A x ≤ 0, ∀ x n˜ao nulo, ent˜ao A ´e semi-definida negativa. Casos especiais: a) Matriz inversa: a inversa de uma matriz Ak×k , sim´etrica, pode ser obtida fazendo A−1 =
k X 1 ei e′i , λ i=1 i
ou ainda,
A−1 = U Λ−1 U′ . b) Matriz raiz quadrada: a matriz raiz quadrada de uma matriz Ak×k , definida positiva, ´e uma matriz tal que A1/2 A1/2 = A, podendo ser obtida de A1/2 =
k p X λi ei e′i , i=1
ou, equivalentemente, A1/2 = UΛ1/2 U′ , em que Λ1/2 ´e dada por
1/2
Λ
√
=
λ1 0 ··· 0 √ λ2 · · · 0 0 .. .. .. ... . . . √ λk 0 0 ···
22
.
Teoria de Matrizes para Estat´ıstica Outras rela¸c˜oes envolvendo a matriz raiz quadrada s˜ao apresentadas a seguir: • A−1/2 = (A1/2 )−1 = UΛ−1/2 U′ ; • A−1/2 A−1/2 = A−1 . Exemplo: Considere a matriz A =
ent˜ao, U =
"
Desta forma, fazendo Λ1/2 =
A1/2
1/2
A
"
# 2.2 0.4 , 0.4 2.8
√ √ # 1/ 5 2/ 5 √ √ 2/ 5 −1/ 5
e Λ=
"
#
3 0 0 2
.
" √
# 3 0 √ , temos 0 2
#" √ √ #" √ √ # √ 2/ 5 3 0 1/ 5 2/ 5 1/ 5 √ √ √ √ √ = 2/ 5 −1/ 5 0 2 2/ 5 −1/ 5 √ √ # " √ √ "
(2 3−2 2) √5 √ (4 3+ 2) 5
( 3+4 2) √ 5 √ (2 3−2 2) 5
=
.
A matriz A1/2 ´e a matriz raiz quadrada de A sendo que, de fato A1/2 A1/2 =
"
√ √ ( 3+4 2) √ 5 √ (2 3−2 2) 5
Agora, fazendo Λ−1/2 =
A−1/2
A−1/2
√ √ (2 3−2 2) √ 5 √ (4 3+ 2) 5
"
#"
√ √ ( 3+4 2) √ 5 √ (2 3−2 2) 5
√ √ (2 3−2 2) √ 5 √ (4 3+ 2) 5
#
=
"
2.2 0.4 0.4 2.8
#
# √ 1/ 3 0 √ , temos 0 1/ 2
#" √ √ #" √ √ # √ 2/ 5 1/ 3 0 1/ 5 2/ 5 1/ 5 √ √ √ √ √ = 2/ 5 −1/ 5 0 1/ 2 2/ 5 −1/ 5 1 2 4 2 √ √ √ √ + − = 5 3 5 2 5 3 5 2 , 4 2 √ √ − 5√2 2 + 5√1 2 5 3 5 3 "
sendo assim, teremos A−1/2 A−1/2
1 = 6
"
2.8 −0.2 −0.2 2.2 23
#
= A−1 .
= A.
Teoria de Matrizes para Estat´ıstica 1.2.10
Decomposi¸c˜ ao em Valores Singulares
Seja a matriz Am×k uma matriz de valores reais. Existem matrizes Um×m e Vk×k , ortogonais, tais que A = UΛV′ , em que Λ ´e uma matriz do tipo Λ=
"
Dr×r 0 0 0
#
,
com r = posto de A,
m×k
e D ´e uma matriz diagonal com os r valores singulares de A. A decomposi¸c˜ao em valores singulares pode ser expressa numa rela¸c˜ao matricial que depende do rank da matriz. Considerando m > k, ent˜ao, existem r constantes positivas, λ1 , λ2 , . . . , λr , r autovetores u1 , u2 , . . . , ur , de dimens˜ao m × 1 e r autovetores v1 , v2 , . . . , vr , de dimens˜ao k × 1, tal que k p X λi ui e′i = Ur Λr Vr′ , A= i=1
em que Ur = [u1 | u2 | · · · | ur ] e Vr = [v1 | v2 | · · · | vr ], s˜ao matrizes ortogonais e Λr ´e uma matriz diagonal do tipo √
Λr =
λ1 0 ··· 0 √ 0 λ2 · · · 0 .. .. .. ... . . . √ 0 0 ··· λr
.
Nessa situa¸c˜ao, λ1 , λ2 , . . . , λr e u1 , u2 , . . . , ur , s˜ao pares de autovalores e autovetores de A A′ , obtidos de A A′ ui = λi ui , em que λ1 > λ2 > . . . > λr > 0, s˜ao valores estritamente positivos. Os vetores vi , por sua vez, est˜ao relacionados aos autovetores ui , i = 1, 2, . . . , r, pela rela¸c˜ao 1 vi = √ A′i ui . λi Alternativamente, vi , i = 1, 2, . . . , r, s˜ao autovetores associados aos mesmos autovalores positivos λ1 > λ2 > . . . > λr > 0 de A′ A. 24
Teoria de Matrizes para Estat´ıstica Desta forma, a decomposi¸c˜ao em valores singulares pode ser escrita pela express˜ao A = U Λ V′ , com U, V e Λ dadas pelas rela¸c˜oes acima. Exemplo: Seja A =
"
A A′ =
# 4 8 8 , ent˜ao, A A′ ´e dada por 3 6 −9 "
4 8 8 3 6 −9
#
" # 4 3 144 −12 . 6 = 8 −12 126 8 −9
Os autovalores de A A′ s˜ao λ1 = 150 e λ2 = 120 com autovetores associados, u1 =
"
√ # −2/ 5 √ 1/ 5
e u2 =
"
√ # 1/ 5 √ , 2/ 5
respectivamente. Os vetores v1 e v2 , por sua vez, s˜ao obtidos de
√ √ # 4 3 " −1/ 30 √ 1 −2/√5 v1 = √ = −2/ 30 6 8 √ 1/ 5 150 −5/ 30 8 −9 √ 1/ 6 4 3 " √ # √ 1 1/√5 = 2/ 6 . v2 = √ 6 8 √ 2/ 5 120 −1/ 6 8 −9
Assim sendo, a matriz A pode ser escrita como A = U Λ V′ ,
ou seja,
=
"
#" √ #" √ √ √ # √ √ 150 0 −1/ 30 −2/ 30 −5/ 30 −2/ 5 1/ 5 √ √ √ √ √ √ . 1/ 5 2/ 5 0 120 1/ 6 2/ 6 −1/ 6
=
"
4 8 8 3 6 −9
#
25
Teoria de Matrizes para Estat´ıstica
Vetores aleat´ orios
2
Aplica¸ c˜ oes das t´ ecnicas multivariadas Alguns exemplos em Johnson & Wichern, 3a ed. • medicina e sa´ ude; • meio ambiente; • sociologia; • meteorologia; • economia e neg´ocios; • geologia; • educa¸c˜ao; • psicologia; • biologia; • esportes.
2.1
Vetores aleat´ orios
Defini¸ c˜ ao: Um vetor X, dado por:
X=
X1 X2 .. . Xp
,
´e um vetor aleat´orio se X1 , X2 , . . . , Xp forem vari´aveis aleat´orias (va’s). Nota: Da mesma maneira, uma matriz aleat´oria ´e uma matriz cujos elementos s˜ao vari´aveis aleat´orias. Como um vetor aleat´orio X ´e uma representa¸c˜ao generalizada para uma vari´avel aleat´oria, aqui tamb´em iremos represent´a-lo por va.
2.2
Valor esperado de um vetor aleat´ orio
O valor esperado de um vetor aleat´orio ´e dado por:
E(X) =
E(X1 ) E(X2 ) .. . E(Xp )
,
em que E(Xi ), i = 1, 2, . . . , p, ´e o valor esperado da i-´esima va.
26
Teoria de Matrizes para Estat´ıstica Propriedades: i ) Sejam um va X e a um vetor de coeficientes lineares, ent˜ao a combina¸c˜ao linear a′ X tem valor esparado E(a′ X) = a′ E(X). Se temos k combina¸c˜oes lineares com coeficientes dados pelas linhas da matriz Ak×p , ent˜ao: E(AX) = AE(X). Exemplos: a) Sejam X′ =(X1 , X2 , X3 ) e E ′ (X)=(2, -1, 1). Se a′ =(4, 3, 3), ent˜ao
E(a′ X) =
h
4, 3, 3
i
2 −1 = 8 − 3 + 3 = 8. 1
b) Se temos k = 4 combina¸c˜oes lineares com coeficientes dados pela matriz
A=
ent˜ao E(AX) =
2 −1 1 0.5 0 1 1 2 1 −1 1 2
2 −1 1 4+1+1 2 0.5 0 1 1+0+1 −1 = 2−2+1 1 2 1 1 −1 1 2 −2 − 1 + 2
=
6 2 1 −1
.
ii ) Se X e Y s˜ao vetores alat´orios com mesmas dimens˜oes, ent˜ao E(X + Y) = E(X) + E(Y). Ainda, se a e b s˜ao vetores de coeficientes lineares, ent˜ao a combina¸c˜ao linear a′ X+b′ Y tem valor esparado E(a′ X + b′ Y) = a′ E(X) + b′ E(Y).
27
Teoria de Matrizes para Estat´ıstica Nota: Normalmente o vetor de m´edias ´e denotado por µ, isto ´e,
µ=
em que
µi =
2.3
E(Xp )
=
µ1 µ2 .. . µp
,
R xi xi fi (xi )dxi , se xi ´e cont´ınua, P
xi
i = 1, 2, . . . , p.
E(X1 ) E(X2 ) .. .
xi pi (xi ),
se xi ´e discreta,
Matriz de variˆ ancias e covariˆ ancias de um va
Pela defini¸c˜ao a matriz de variˆancias e covariˆancias de um va X, ´e dada por Σ = Cov(X) = E [(X − µ)(X − µ)′ ] =
= E
= E
(X1 − µ1 ) (X2 − µ2 ) .. . (Xp − µp )
h i (X1 − µ1 ), (X2 − µ2 ), · · · , (Xp − µp ) =
(X1 − µ1 )2 (X1 − µ1 )(X2 − µ2 ) (X2 − µ2 )(X1 − µ1 ) (X2 − µ2 )2 .. .. . . (Xp − µp )(X1 − µ1 ) (Xp − µp )(X2 − µ2 )
· · · (X1 − µ1 )(Xp − µp ) · · · (X2 − µ2 )(Xp − µp ) .. ... . ···
(Xp − µp )2
Como podemos ver, cada termo de Σ ´e da forma σij = E [(Xi − µi )(Xj − µj )] ,
i, j = 1, 2, . . . , p,
em que, σij = Cov(Xi , Xj ) e, σii = V ar(Xi ), logo,
Σ=
σ11 σ12 · · · σ1p σ21 σ22 · · · σ2p .. .. .. ... . . . σp1 σp2 · · · σpp 28
.
.
Teoria de Matrizes para Estat´ıstica Exemplo: Considere dois va’s X1 e X2 com a fun¸c˜ao de probabilidade conjunta representada pela tabela (Johnson & Wichern, 3a ed., p. 71) x2 x1 -1 0 1 p2 (x2 )
0 0.24 0.16 0.40 0.80
1 p1 (x1 ) 0.06 0.30 0.14 0.30 0.00 0.40 0.20 1.00
Calculando dos valores esperados: µ1 =
X
x1 p1 (x1 ) = (−1)(0.30) + (0)(0.30) + (1)(0.40) = 0.10
x1
µ2 =
X
x2 p2 (x2 ) = (0)(0.80) + (1)(0.20) = 0.20
x2
Calculando as variˆancias e covariˆancias: X σ11 = E (X1 − µ1 )2 = (x1 − 0.1)2 p1 (x1 ) = x1
2
= (−1 − 0.1) (0.30) + (0 − 0.1)2 (0.30) + (1 − 0.1)2 (0.40) = 0.69
X σ22 = E (X2 − µ2 )2 = (x2 − 0.2)2 p2 (x2 ) = x2
2
= (0 − 0.2) (0.80) + (1 − 0.2)2 (0.20) = 0.16
σ12 = E [(X1 − µ1 )(X2 − µ2 )] =
X
x1 ,x2
(x1 − 0.1)(x2 − 0.2) p12 (x12 ) =
= (−1 − 0.1)(0 − 0.2)(0.24) + (0 − 0.1)(0 − 0.2)(0.16) + (1 − 0.1)(0 − 0.2)(0.40) + +(−1 − 0.1)(1 − 0.2)(0.06) + (0 − 0.1)(1 − 0.2)(0.14) + (1 − 0.1)(1 − 0.2)(0.00)
= −0.08
σ21 = E [(X2 − µ2 )(X1 − µ1 )] = σ12 Desta forma, temos: µ=
"
0.10 0.20
#
,
Σ=
"
29
0.69 −0.08 −0.08 0.16
#
.
Teoria de Matrizes para Estat´ıstica
2.4
Matriz de correla¸co ˜es de um va
A correla¸c˜ao entre duas va’s Xi e Xj , i, j = 1, 2, . . . , p, ´e definida por Corr(Xi , Xj ) = ρij = √
σij √
σii σjj
.
Assim sendo, a matriz de correla¸c˜oes do va ´e, portanto,
ρ=
1 ρ12 · · · ρ1p ρ21 1 · · · ρ2p .. .. . . . . .. . . ρp1 ρp2 · · · 1
.
Fazendo
V = diag(Σ) =
σ11 0 · · · 0 0 σ22 · · · 0 .. .. . . .. . . . . 0 0 · · · σpp
,
ent˜ao,
1/2
V
√ σ11 0 ··· 0 √ 0 σ22 · · · 0 = . . .. ... . .. . . √ σpp 0 0 ···
.
Desta forma, podemos escrever: ρ = (V1/2 )−1 Σ (V1/2 )−1 , ou ainda, ρ = V−1/2 Σ V−1/2 . A matriz de covariˆancias, portanto, ´e dada pela seguinte rela¸c˜ao: Σ = V1/2 ρ V1/2 .
30
Teoria de Matrizes para Estat´ıstica Exemplos: a) Considerando o exemplo anterior, temos que V = diag(Σ) =
"
0.69 0 0 0.16
#
,
e, portanto, a matriz de correla¸c˜ao ´e dada por #" #" √ # √ 0.69 −0.08 1/ 0.69 1/ 0.69 0 0 √ √ ρ = −0.08 0.16 0 1/ 0.16 0 1/ 0.16 " # 1 −0.2408 ρ = −0.2408 1 "
b) Considere um vetor aleat´orio com matriz de covariˆancias
4 1 2 Σ= 1 9 −3 . 2 −3 25 A matriz de variˆancias diagonal ´e dada por
4 0 0 V = 0 9 0 , 0 0 25 e a matriz de correla¸c˜ao, obtida de
1/2 0 0 4 1 2 1/2 0 0 ρ = 0 1/3 0 1 9 −3 0 1/3 0 0 0 1/5 2 −3 25 0 0 1/5 1 1/6 1/5 ρ = 1/6 1 −1/5 . 1/5 −1/5 1 Propriedades: a) Seja um va Xp×1 , com matriz de covariˆancias Σp×p e seja ap×1 um vetor de coeficientes lineares, ent˜ao a combina¸c˜ao linear a′ X tem variˆancia dada por V ar(a′ X) = a′ Cov(X)a = a′ Σa.
31
Teoria de Matrizes para Estat´ıstica Se temos k combina¸c˜oes lineares com coeficientes dados pelas linhas da matriz Ak×p , ent˜ao, a matriz de covariˆancias dessas combina¸c˜oes lineares ´e calculada por Cov(AX) = ACov(X)A′ = AΣA′ . Exemplos: c) Conforme exemplo anterior, seja X′ =(X1 , X2 , X3 ) com
4 1 2 Cov(X) = 1 9 −3 . 2 −3 25 Se a′ =(4, 3, 3), ent˜ao
4 1 2 4 h i ′ Cov(a X) = 4, 3, 3 1 9 −3 3 = 388. 2 −3 25 3 d ) Se temos k = 4 combina¸c˜oes lineares com coeficientes dados pela matriz
A=
2 −1 1 0.5 0 1 1 2 1 −1 1 2
ent˜ao:
Cov(AX) =
Cov(AX) =
2 −1 1 4 1 2 2 0.5 1 −1 0.5 0 1 9 −3 −1 0 2 1 1 1 2 1 2 −3 25 1 1 1 2 −1 1 2 60.0 36.5 21.0 45.0 36.5 28.0 25.0 45.5 . 21.0 25.0 61.0 50.0 45.0 45.5 50.0 91.0
32
Teoria de Matrizes para Estat´ıstica Nesse caso, a matriz de correla¸c˜oes ´e dada por
ρ =
1.000 0.891 0.347 0.609
0.891 1.000 0.605 0.901
0.347 0.605 1.000 0.671
0.609 0.901 0.671 1.000
.
Nota: Seja o va Xp×1 e um vetor de constantes bp×1 , ent˜ao, Cov(X + b) = Cov(X) = Σ. Ainda, se A ´e uma matriz de coeficientes k × p e b um vetores de constantes k × 1, ent˜ao, as combina¸c˜oes lineares AX + b tem matriz de covariˆancias Cov(AX + b) = ACov(X)A′ = AΣA′ . 2.4.1
Particionando um va
O vetor aleat´orio X pode ser particionado em grupos de vari´aveis de acordo com as suas naturezas. Por exemplo: i ) Estudo do efeito da estrutura organizacional sobre a satisfa¸ca˜o no trabalho.
X=
"
X(1) X(2)
# =
(1)
X1 (1) X2 (1) X3 (1) X4 (1) X5 (2) X1 (2) X2 (2) X3 (2) X4 (2) X5 (2) X6 (2) X7
=
feedback/retorno siginificˆancia das tarefas variedades das tarefas identifica¸c˜ao com as tarefas autonomia satisfa¸c˜ao com a supervis˜ao satisfa¸c˜ao com o futuro da carreira satisfa¸c˜ao financeira satisfa¸c˜ao com a carga de trabalho identifica¸c˜ao com a companhia satisfa¸c˜ao com o tipo de trabalho satisfa¸c˜ao geral
No exemplo acima, s˜ao dois os grupos de vari´aveis: X(1) : caracter´ısticas do trabalho e X(2) : medidas da satisfa¸c˜ao do funcion´ario.
33
Teoria de Matrizes para Estat´ıstica ii ) Medidas de ossos de frangos num estudo antropom´etrico das aves.
=
(1)
X (2) X= X X(3)
X1 X2 X3 X4 X5 X6
= = = = = =
extens˜ao do crˆanio largura do crˆanio comprimento do femur = comprimento da t´ıbia comprimento do u ´mero comprimento da ulna
(1)
X1 (1) X2 (2) X1 (2) X2 (3) X1 (3) X2
Nesse outro exemplo, temos trˆes grupos de vari´aveis: X(1) : medidas da cabe¸ca; X(2) : medidas das patas; X(3) : medidas das asas. Parti¸ c˜ ao do vetor de m´ edias: Seja o vetor aleat´orio particionado em dois grupos X(1) e X(2) com q e (p − q) vari´aveis, respectivamente X=
"
X(1) X(2)
#
Ent˜ao, o vetor de m´edias deve acompanhar a parti¸c˜ao, E(X) =
"
E(X(1) ) E(X(2) )
#
=
"
µ(1) µ(2)
#
,
em que,
(1)
µ
=
(1)
µ1 (1) µ2 .. . (1)
µq
(2)
e µ
=
(2)
µ1 (2) µ2 .. . (2)
µp−q
.
Parti¸ c˜ ao da matriz de covariˆ ancias: Considere, ainda, a mesma parti¸c˜ao X(1) e X(2) do vetor aleat´orio X, ent˜ao a matriz de covariˆancias pode ser escrita na forma Σ=
"
Σ11 Σ12 Σ21 Σ22
34
#
Teoria de Matrizes para Estat´ıstica em que Σij = (X(i) − µ(i) )(X(j) − µ(j) )′ , i, j = 1, 2. Notas: Assim sendo, temos i ) Σ11 = cov(X(1) ); ii ) Σ22 = cov(X(2) ); iii ) Σ12 = cov(X(1) , X(2) ), ´e a matriz de covariˆancias entre os componentes de X(1) e X(2) , sendo que Σ12 n˜ao ´e necessariamente sim´etrica, nem quadrada; iv ) Σ21 = Σ′21 .
De fato, Σ pode ser calculada por: Σ = E [(X − µ)(X − µ)′ ] = "
= E
= E
"
(X(1) − µ(1) ) (X(2) − µ(2) )
#
h
(X(1) − µ(1) ) (X(2) − µ(2) )
i
!
=
(X(1) − µ(1) )(X(1) − µ(1) )′ (X(1) − µ(1) )(X(2) − µ(2) )′ (X(2) − µ(2) )(X(1) − µ(1) )′ (X(2) − µ(2) )(X(2) − µ(2) )′
#
.
Calculando a matriz de correla¸ c˜ oes: A matriz decorrela¸c˜oes deve ser calculada da mesma forma como no caso anterior levando em conta, agora, a parti¸c˜ao de X. Definindo: V11 = diag(Σ11 ) e V22 = diag(Σ22 ) temos que a matriz variˆancias-diagonal ´e particionada por V=
"
V11 0 0 V22
35
#
.
Teoria de Matrizes para Estat´ıstica As correla¸c˜oes dos grupos X(1) e X(2) s˜ao calculadas pelas express˜oes −1/2
Σ11 V11
−1/2
Σ22 V22 .
ρ11 = V11 ρ22 = V22
−1/2
−1/2
A correla¸c˜ao entre os grupos, dada pela matriz ρ12 , por sua vez, ´e dada por −1/2
−1/2
ρ12 = V11 Σ12 V22 . Essas express˜oes podem obtidas diretamente do produto das matrizes Σ e V particionadas, isto ´e, ρ = V−1/2 Σ V−1/2 =
"
V11 0
=
"
V11 Σ11 V11 Σ12 −1/2 −1/2 V22 Σ21 V22 Σ22
=
"
V11 Σ11 V11 V11 Σ12 V22 −1/2 −1/2 −1/2 −1/2 V22 Σ21 V11 V22 Σ22 V22
=
"
ρ11 ρ12 ρ21 ρ22
−1/2
0 −1/2
V22
#"
Σ11 Σ12 Σ21 Σ22
−1/2
−1/2
−1/2
−1/2
#"
X(1)
X1 = X2 X3
−1/2
−1/2
−1/2
#
e X(2) =
"
X4 X5
#
Conhecendo
Σ=
4 −1 25 1 2 0 1 9 3 −2 2 3 4 1 −1 , 4 −2 1 9 6 −1 0 −1 6 16
36
−1/2
V11 0
V11 0
Exemplo: Sejam as va’s X1 , X2 , X3 , X4 , X5 tal que
#"
.
−1/2
V22
0 −1/2
V11 #
0
#
#
Teoria de Matrizes para Estat´ıstica temos que as matrizes de covariˆancias s˜ao
Σ11
25 1 2 = 1 9 3 , 2 3 4
Σ22 =
"
9 6 6 16
#
e Σ12
4 −1 = −2 0 . 1 −1
Desta forma, as matrizes de correla¸c˜oes dos grupos e entre grupos s˜ao
ρ11
1/5 0 0 25 1 2 1/5 0 0 1 1/15 2/10 = 0 1/3 0 1 9 3 0 1/3 0 = 1/15 1 1/2 , 0 0 1/2 2 3 4 0 0 1/2 2/10 1/2 1
ρ22 =
ρ12
"
1/3 0 0 1/4
#"
9 6 6 16
#"
1/3 0 0 1/4
#
=
"
1 1/2 1/2 1
#
,
# 1/5 0 0 4 −1 " 4/15 −1/20 1/3 0 = 0 1/3 0 −2 = −2/9 0 0 . 0 1/4 0 0 1/2 1 1 1/6 1/16
A matriz de correla¸c˜oes global, ´e, portanto, dada por:
ρ =
1 1/15 1/5 4/15 −1/20 0 1/15 1 1/2 −1/9 1/5 1/2 1 1/12 1/16 . 4/15 −1/9 1/12 1 1/2 −1/20 0 1/16 1/2 1
37
Teoria de Matrizes para Estat´ıstica
Distribui¸c˜ oes Multivariadas
3 3.1
Distribui¸c˜ ao Exponencial Bivariada (ACBVE)
Defini¸ c˜ ao: Um vetor X′ = (X1 , X2 ) tem distribui¸c˜ao exponencial bivariada absolutamente cont´ınua (ACBVE) de Block & Basu (1974), se sua densidade conjunta for:
f (x1 , x2 ) =
λ1 λ(λ2 + λ12 ) exp {−λ1 x1 − (λ2 + λ12 ) x2 } , λ1 + λ2 λ λ(λ1 + λ12 ) 2 exp {−(λ1 + λ12 ) x1 − λ2 x2 } , λ1 + λ2
0 < x1 < x2 ,
x1 > x2 > 0,
em que λ = λ1 + λ2 + λ12 . Nota¸c˜ ao: (X1 , X2 )
Considerando Λ =
"
e ACBV E(λ1 , λ2 , λ12 ). λ1 0 λ12 λ2
#
,x=
"
x1 x2
#
e1=
"
# 1 , temos 1
" #" # h i λ 0 1 1 ′ = λ1 x1 + (λ2 + λ12 )x2 x Λ 1 = x1 x2 λ12 λ2 1 x′ Λ′ 1 = (λ + λ )x + λ x . 1 12 1 2 2 Logo, na nota¸c˜ao matricial, λ1 λ(λ2 + λ12 ) exp {−x′ Λ 1} , λ1 + λ2 f (x1 , x2 ) = λ λ(λ1 + λ12 ) 2 exp {−x′ Λ′ 1} , λ1 + λ2
38
x1 < x2 ,
x1 > x2 ,
e
Teoria de Matrizes para Estat´ıstica Notas: 1) Existem express˜oes para E(X1 ), E(X2 ), V ar(X1 ), V ar(X2 ) e Cov(X1 , X2 ). Por exemplo λ2 λ12 1 + , (λ1 + λ12 ) λ (λ1 + λ2 ) (λ1 + λ12 )
E(X1 ) =
(λ11 + λ22 ) λ12 λ + λ1 λ2 λ212 . λ2 (λ1 + λ2 ) (λ1 + λ12 ) (λ2 + λ12 )
Cov(X1 , X2 ) = 2) min(X1 , X2 )
e Exponencial (λ), com λ = λ1 + λ2 + λ12 .
Exemplo: Assumindo que λ1 = 1/2, λ2 = 1/4 e λ12 = 1/20, temos
f (x1 , x2 ) =
Ainda, E(X1 ) =
3.2
4 25
11 75
exp − 12 x1 −
3 x 10 2
,
1 exp − 11 x − x , 1 2 20 4
0 < x1 < x2 , x1 > x2 > 0.
245 1025 = 1.856 e Cov(X1 , X2 ) = = 0.1618. 132 6336
Distribui¸c˜ ao Normal Multivariada
Caso univariado: (x − µ)2 1 , exp − f (x) = √ 2σ 2 2πσ
−∞ < x < ∞,
−∞ < µ < ∞ e σ > 0.
em que, µ ´e a m´edia da distribui¸c˜ao e σ 2 a sua variˆancia. Nota¸c˜ ao: X
2 e N (µ, σ ).
Algumas probabilidades associadas com o modelo normal univariado: P (µ − σ ≤ X ≤ µ + σ) ∼ = 0.68, P (µ − 2σ ≤ X ≤ µ + 2σ) ∼ = 0.95. Podemos escrever o expoente
x−µ σ
x−µ σ
2
2
da seguinte forma
= (x − µ)(σ 2 )−1 (x − µ). 39
Teoria de Matrizes para Estat´ıstica Se Xp×1 ´e um va, esse termo pode ser generalizado pela nota¸c˜ao matricial (x − µ)′ Σ−1 (x − µ), em que x ´e o vetor de observa¸c˜oes multivariado, µ ´e o vetor de m´edias e Σ ´e a matriz de covariˆancias.
µ
Figura 5: Gr´afico da normal univariada com m´edia µ e desvio padr˜ao σ.
Assim sendo, a fdp de um va X com distribui¸c˜ao normal multivariada ´e dada por f (x) =
1 (2π)p/2 |Σ|1/2
Nota¸c˜ ao: X
1 −1 ′ exp − (x − µ) Σ (x − µ) , 2
e Np (µ, Σ).
Exemplo: Normal bivariada X µ=
"
e N2 (µ, Σ),
µ1 µ2
#
Σ=
"
40
σ11 σ12 σ12 σ22
−∞ < xi < ∞,
#
.
i = 1, 2, . . . , p.
Teoria de Matrizes para Estat´ıstica Desta forma, temos 2 |Σ| = σ11 σ22 − σ12
Como ρ = ρ12 = √ Σ−1
e Σ−1 =
1 2 (σ11 σ22 − σ12 )
"
σ22 −σ12 −σ12 σ11
#
.
σ12 √ , ent˜ao, σ12 = ρ σ11 σ22 , logo σ11 σ22 1 = σ11 σ22 (1 − ρ2 )
"
# √ σ22 −ρ σ11 σ22 . √ σ11 −ρ σ11 σ22
Resultado: O produto x′ A x, com A sim´etrica, ´e conhecido como forma quadr´atica. No caso 2 × 2 temos " #" # h i a b x 1 x′ A x = x1 x2 b c x2 " # h i x 1 = (a x1 + b x2 ) (b x1 + c x2 ) x2 = a x21 + 2b x1 x2 + c x22 . Desta forma (x − µ)′ Σ−1 (x − µ) = =
h
(x1 − µ1 ) (x2 − µ2 )
i
Σ−1
"
x1 − µ 1 x2 − µ 2
#
√ σ22 (x1 − µ1 )2 + σ11 (x2 − µ2 )2 − 2ρ σ11 σ22 (x1 − µ1 )(x2 − µ2 ) = σ11 σ22 (1 − ρ2 ) " 2 2 # x1 − µ 1 1 x2 − µ 2 x2 − µ 2 x1 − µ 1 = + − 2ρ . √ √ √ √ (1 − ρ2 ) σ11 σ22 σ11 σ22
41
Teoria de Matrizes para Estat´ıstica Portanto, a densidade normal bivariada conjunta de X1 e X2 ´e dada por (
1
1 p f (x1 , x2 ) = exp − 2(1 − ρ2 ) (2 π) σ11 σ22 (1 − ρ2 ) x2 − µ2 x1 − µ 1 . −2ρ √ √ σ11 σ22
"
x1 − µ 1 √ σ11
2
+
x2 − µ 2 √ σ22
2
Se X1 e X2 foram independentes, ent˜ao ρ = 0 e " ( 2 2 #) x1 − µ 1 1 x2 − µ2 1 . + exp − f (x1 , x2 ) = √ √ √ (2 π) σ11 σ22 2 σ11 σ22
Exemplo: Considere uma distribui¸c˜ao normal bivariada centrada no 0 = (0,0) e com " # 2 1 Σ= , ent˜ao ρ = 1/4, |Σ| = 15 e 1 8 ( " 2 2 #) 1 1 x2 1 x1 x2 x1 √ exp − √ √ √ f (x1 , x2 ) = + √ −2 2(15/16) 4 (2 π) 15 2 8 2 8 8 x21 x22 x1 x2 1 √ exp − + − . f (x1 , x2 ) = 15 2 8 8 (2 π) 15
Ainda, se X1 e X2 foram independentes, com Σ =
"
# 2 0 , ent˜ao ρ = 0 e a densidade 0 8
conjunta ´e dada por 2 1 x1 x22 f (x1 , x2 ) = exp − − (8 π) 4 16 2 2 1 x1 x 1 √ exp − √ exp − 2 √ f (x1 , x2 ) = √ 4 16 2π 2 2π 8 f (x1 , x2 ) = f (x1 ) f (x2 ). Como podemos perceber, X1
e N (0, 2) e X2 e N (0, 8).
42
Teoria de Matrizes para Estat´ıstica 3.2.1
Contornos da Normal Bivariada
Considere a densidade normal bivariada 1 1 −1 ′ exp − (x − µ) Σ (x − µ) , f (x) = 2 (2π) |Σ|1/2
−∞ < xi < ∞,
i = 1, 2, . . . , p.
Fazendo f (x) constante igual a h, temos que 1/2
2π |Σ|
1 −1 ′ h = exp − (x − µ) Σ (x − µ) , 2
−2 log(2π |Σ|1/2 h) = (x − µ)′ Σ−1 (x − µ). Com c2 = −2 log(2π |Σ|1/2 h), ent˜ao (x − µ)′ Σ−1 (x − µ) = c2 , ou seja, os contornos dados por f (x) = h, s˜ao elipses. Exemplo: c˜ao # normal bivariada com vetor de m´edias " # Seja o vetor (X, Y ) com distribui¸ " 5 2.5 2.0 µ= e matriz de covariˆancias Σ = . 2 2.0 3.2
Figura 6: fdp conjunta de X e Y , na presen¸ca de correla¸c˜ao Ent˜ao, |Σ| = 2.5 · 3.2 − (2.0)2 = 4 e a correla¸c˜ao entre X e Y ´e ρ = √ 43
√ 2 = 0.5. 2.5 · 3.2
Teoria de Matrizes para Estat´ıstica
Portanto, a f dp conjnunta de X e Y ´e da forma (x − 5)2 (y − 2)2 (x − 5)(y − 2) 1 exp − − + f (x, y) = 4π 2.5 3.2 2 Considerando, " # agora, a situa¸c˜ao de independˆencia, a matriz de covariˆancias ´e dada por 2.5 0 Σ= . Desta forma, ρ = 0, |Σ| = 8 e a f (x, y) ´e dada por 0 3.2 (x − 5)2 (y − 2)2 1 √ exp − − f (x, y) = 5 6.4 4π 2
A seguir apresentamos os contornos nas duas situa¸c˜oes, nas quais podemos verificar a diferen¸ca de comportamento das f dp’s. No primeiro caso, com uma alta correla¸c˜ao, verificamos uma inclina¸c˜ao dos eixos das elipses em rela¸c˜ao aos eixos das coordenadas. No segundo caso, entretanto, os eixos das elipses s˜ao paralelos aos eixos das coordenadas.
Figura 7: Contornos da distribui¸c˜ao normal bivariada para ρ = mente
√
0.5 e ρ = 0, respectiva-
Notas: 1) Os valores de x tais que (x − µ)′ Σ−1 (x − µ) = c2 s˜ao elips´oides centrados em µ; 2) Os eixos dos elips´oides est˜ao nas dire¸c˜oes dos autovetores de Σ−1 e os seus comprimentos s˜ao proporcionais aos autovalores de Σ−1 ; 3) Os elips´oides podem, ainda, serem determinados pela decomposi¸c˜ao espectral de Σ: se Σ ´e definida positiva, Σ−1 existe e Σ e = λe
Σ−1 e =
=⇒ 44
1 e, λ
Teoria de Matrizes para Estat´ıstica ou seja, o par (λ,e) de autovalor e autovetor de Σ, corresponde ao par (1/λ,e) de Σ−1 .
Exemplo: No exemplo acima, com Σ =
"
# 2.5 2.0 , tem-se: 2.0 3.2
λ1 = 4.880, e1 = (0.6432, 0.7656) e λ2 = 0.819, e2 = (-0.7656, 0.6432). Desta forma, assumindo c2 = 1, o eixo principal da elipse formada tem comprimento √ √ c λ1 = 2.209 e o eixo secund´ario tem comprimento c λ2 = 0.905.
Figura 8: Contorno da normal bivariada
45
Teoria de Matrizes para Estat´ıstica 3.2.2
Propriedades
Seja X um v.a. com distribui¸c˜ao normal Np (µ; Σ), ent˜ao i ) combina¸c˜oes lineares de X s˜ao normalmente distribu´ıdos; ii ) subconjuntos de componentes de X tˆem distribui¸c˜oes marginais normais, multivariadas quando for o caso; iii ) as distribui¸c˜oes condicionais dos componentes de X s˜ao normais, multivariadas quando for o caso; iv ) se a covariˆancias de componentes de X for igual a zero, ent˜ao, os componentes correspondentes s˜ao independentes.
Exemplo: Considere a combina¸c˜ao linear Y = a X = a1 X1 + a2 X2 + . . . + ap Xp . Como E(Y) = a′ E(X) e V ar(Y) = a′ V ar(X) a, ent˜ao Y Se a = (1, 0, 0, . . . , 0), ent˜ao
′
Y =aX=
h
′ ′ e N (a µ; a Σ a).
i 1 0 ··· 0
X1 X2 .. . Xp
= X1 ,
desta forma, temos que
E(Y ) = a′ µ =
h
i 1 0 ··· 0
µ1 µ2 .. . µp
= µ1 ,
σ11 σ12 · · · σ1p h i σ12 σ22 · · · σ2p V ar(Y ) = a′ Σa = 1 0 ··· 0 .. .. ... .. . . . σ1p σ2p · · · σpp 1 h i 0 = σ11 σ12 · · · σ1p .. = σ11 . . 0
46
1 0 .. . 0
=
Teoria de Matrizes para Estat´ıstica Do resultado acima, segue-se que as distribui¸c˜oes marginais de Xi , i = 1, 2, . . . , p, s˜ao normais, ou seja Xi
e N (µi ; σ ii ).
No caso em que se tem k combina¸c˜oes lineares dadas pelas linhas da matriz Ak×p , ent˜ao Y = A X tem distribui¸c˜ao normal Y
′ e Nk (A µ; A Σ A ).
Notas: 1) Y = A X + c, ent˜ao Y e Nk (A µ + c; A Σ A′ ); 2) As marginais de Y tamb´em s˜ao normais. Exemplos:
a) Seja X
e N3 (µ; Σ) e seja a matriz de combina¸c˜oes lineares A, dada por "
# 1 −1 0 A = , 0 1 −1 " # X1 − X2 Y = AX= . X2 − X3
O valor esperado e a matriz de covariˆancias de Y s˜ao E(Y) =
"
V ar(Y) =
"
µ1 − µ2 µ2 − µ3
#
e
σ11 + σ22 − 2σ12 σ12 + σ23 − σ22 − σ13 σ12 + σ23 − σ22 − σ13 σ22 + σ33 − 2σ23
#
.
#
.
b) Considere a parti¸c˜ao de X X=
"
(1)
Xq×1 (2) X(p−q)×1
#
"
,
com µ =
h
Iq×q 0q×(p−q)
µ1 µ2
#
e Σ=
"
Σ11 Σ12 Σ21 Σ22
Ent˜ao: X(1) X(2)
e Nq (µ1 ; Σ11 ) e
e N(p−q) (µ2 ; Σ22 )
No 1◦ grupo, fazendo A =
47
i
q×p
, da´ı o resultado segue direto.
Teoria de Matrizes para Estat´ıstica Portanto, podemos selecionar componentes de X, ou combina¸c˜oes lineares de componentes, escolhendo convenientemente a matriz de coeficientes A. Se X
(1)′ e N5 (µ; Σ) e se X = (X2 , X4 ), ent˜ao:
X(1)
e N2
"
µ2 µ4
!
σ22 σ24 σ24 σ44
;
! #
.
Nesse caso, a matriz de coeficientes A ´e da forma A=
"
0 1 0 0 0 0 0 0 1 0
#
.
Considere um vetor aleat´orio X com distribui¸c˜ao normal multivariada. Os resultados a seguir definem as condi¸c˜oes, segundo as quais, vari´aveis com correla¸c˜ao nula equivale `a independˆencia estat´ıstica. i ) Se os vetores (X1 )q1 ×1 e (X2 )q2 ×1 s˜ao independentes, ent˜ao Cov(X1 , X2 ) = 0q1 ×q2 ; " # ! ! # " X1 Σ11 Σ12 X1 ii ) Se ; , e Nq1 +q2 X2 X2 Σ12 Σ22 ent˜ao X1 e X2 s˜ao independentes se, e somente se, Σ12 = 0.
iii ) Se X1 e X2 s˜ao independentes e normalmente distribu´ıdos, com densidades conjuntas X1 e Nq1 (µ1 ; Σ11 ) e X2 e Nq2 (µ2 ; Σ22 ), ent˜ao "
X1 X2
#
Exemplos:
a) Seja X
e Nq1 +q2
e
"
X1 X2
!
Σ11 0 0 Σ22
;
! #
.
4 1 0 N3 (µ; Σ) com Σ = 1 3 0 . 0 0 2
De Σ conclui-se que:
- X1 e X2 n˜ao s˜ao independentes; ! " # X1 0 - X1 = e X3 s˜ao independentes, pois Σ12 = , o que implica que X3 X2 0 ´e independente de X1 e tamb´em de X2 ;
48
Teoria de Matrizes para Estat´ıstica
b) Seja X
e
3 3 −1 1 N3 (µ; Σ) com µ = −1 e Σ = −1 1 0 . 1 1 0 2
i ) Se a′ = (1, 1, 1), a combina¸c˜ao linear Y = a′ X = X1 +X2 +X3 tem m´edia e variˆancia a′ µ = 3
e
a′ Σ a = 6,
ou seja,
Y
e N (3; 6).
ii ) As vari´aveis X2 e X3 s˜ao independentes. 1 1 1 iii ) Se A = 0 1 −1 , ent˜ao 0 1/2 1/2 6 −3 3/2 3 A µ = 1 , A Σ A′ = −3 3 −1/2 0 3/2 −1/2 3/4 AX
e
′ e N (A µ; A Σ A ).
c) Seja X = (X1 , X2 , X3 , X4 , X5 ), com matriz de covariˆancias
Σ=
2 1 1 9 0 0 0 0 4 −1
0 0 4 2 0
0 4 0 −1 2 0 , indicar quais os grupos de vari´aveis independentes: 8 0 0 3
i ) Reordenando a 5a coluna de Σ imediatamente ap´os a 2a , temos 2 1 4 0 0 1 9 −1 0 0 , Σ= 0 0 0 4 2 0 0 0 2 8 4 −1 3 0 0
ii ) Fazendo o mesmo com a 5a linha, o resultado final ´e 2 1 4 0 0 1 9 −1 0 0 . Σ= 4 −1 3 0 0 0 0 4 2 0 0 0 0 2 8
Desta forma, verifica-se que os grupos de vari´aveis X′1 = (X1 , X2 , X5 ) e X′2 = (X3 , X4 ) s˜ao independentes.
49
Teoria de Matrizes para Estat´ıstica Distribui¸c˜ ao normal condicional
3.2.3
Seja X
e Np (µ; Σ), em que µ=
"
µ1 µ2
#
e
Σ=
"
Σ11 Σ12 Σ21 Σ22
#
,
com
|Σ22 | > 0,
ent˜ao, a distribui¸c˜ao condicional de X1 |X2 = x2 ´e normal com vetor de m´edias e matriz de covariˆancias dados por E (X1 |X2 ) = µ1|2 = µ1 + Σ12 Σ−1 22 (x2 − µ2 ) , V ar (X1 |X2 ) = Σ11|2 = Σ11 − Σ12 Σ−1 22 Σ21 .
O caso bivariado: ! X1 X= e N2 (µ; Σ) X2 ent˜ao: X1 |X2 = x2
em que
µ=
e N (µ1|2 ; σ11|2 ), em que
µ1|2 = µ1 +
σ12 (x2 − µ2 ) σ22
"
µ1 µ2
#
e
e σ11|2 = σ11 −
Σ=
"
σ11 σ12 σ21 σ22
#
,
2 σ12 . σ22
Prova: Da teoria de probabilidades, temos que a densidade condicional de X1 |X2 ´e dada por f (x1 |x2 ) = f (x1 , x2 )/f (x2 ), nesse caso, temos que −1
(2π) f (x1 |x2 ) =
−1/2
(2π) =
−1/2
|Σ|
o n −1 1 ′ |Σ| exp − 2(1−ρ2 ) (x − µ) Σ (x − µ) 2 1 x√ 2 −µ2 −1/2 −1/2 (2π) (σ22 ) exp − 2 σ22 −1/2
2 2 x1 −µ1 x2 −µ2 x2 −µ2 x1 −µ1 1 √ √ exp − 2(1−ρ2 ) + √σ22 − 2ρ √σ11 σ11 σ22 2 2 (σ22 )−1/2 exp − 21 x√2 −µ σ22
50
Teoria de Matrizes para Estat´ıstica " ( 2 2 x1 − µ 1 1 (2π)−1/2 |Σ|−1/2 x2 − µ 2 exp − = + − √ √ (σ22 )−1/2 2(1 − ρ2 ) σ11 σ22
−2ρ
x1 − µ 1 √ σ11
x2 − µ2 √ σ22
1 + 2
x2 − µ 2 √ σ22
2 )
Completando o quadrado de com ρ
2
x2 − µ 2 √ σ22
2
x1 − µ 1 √ σ11
2
− 2ρ
x1 − µ 1 √ σ11
x2 − µ 2 √ σ22
, temos
(x1 − µ1 ) ρ (x2 − µ2 ) − √ √ σ11 σ22
2
−ρ
2
x2 − µ2 √ σ22
2
=
2 2 r σ11 x2 − µ 2 1 2 x1 − µ1 − ρ . (x2 − µ2 ) − ρ = √ σ11 σ22 σ22 √ σ11 ρ σ12 σ12 Como ρ = √ , ent˜ao √ = , que, substitu´ıdo na express˜ao anterior resulta σ11 σ22 σ22 σ22 2 2 1 σ12 x2 − µ 2 2 x1 − µ1 + , (x2 − µ2 ) −ρ √ σ11 σ22 σ22 e, segundo a nota¸c˜ao adotada, a express˜ao acima pode ser escrita por 2 1 x1 − µ1|2 − ρ2 σ11
x2 − µ 2 √ σ22
2
.
Retornando ao exponente da express˜ao inicial, temos que 1 − 2(1 − ρ2 )
"
x1 − µ1|2 σ11
2
−ρ
2
x2 − µ 2 √ σ22
2
51
+
x2 − µ2 √ σ22
2 #
1 + 2
x2 − µ 2 √ σ22
2
=
Teoria de Matrizes para Estat´ıstica
1 = − 2(1 − ρ2 )
"
x1 − µ1|2 σ11
2
+ 1−ρ
2
x2 − µ2 √ σ22
2 #
1 + 2
x2 − µ 2 √ σ22
2
2 1 x1 − µ1|2 = − . 2 (1 − ρ2 ) σ11 2 ´ f´acil verificar-se que (1 − ρ2 ) σ11 = σ11 σ12 = σ1|2 , logo, a express˜ao inicial ´e escrita por E σ22 ( 2 ) x1 − µ1|2 1 f (x1 |x2 ) = p . exp − 2σ1|2 (2π) |Σ|1/2 (σ22 )−1/2 2 1/2 Mostra-se, finalmente, que |Σ|1/2 (σ22 )−1/2 = (σ11 σ22 − σ12 ) (σ22 )−1/2 = σ11 −
portanto
1
f (x1 |x2 ) = p √ (2π) σ1|2
(
x1 − µ1|2 exp − 2σ1|2
2 )
2 σ12 , σ22
,
o que conclui a prova. Exemplos:
i ) Seja o vetor aleat´orio X′ = (X1 , X2 , X3 , X4 ), particionado por X′1 = (X1 , X2 ) e X′2 = (X3 , X4 ), com distribui¸c˜ao normal
X
e
N4
1 −1 −1 1
Encontrar a distribui¸c˜ao de X1 |X2 = Temos que Σ22 =
µ1|2 =
1 −1
!
3 2 2 4
!
+
1 1 0 4
; 1 1
, logo Σ−1 22 = !
4 2 1 1
1 0 3 2
!
1 4 2 4
.
.
1/2 −1/4 −1/4 3/8
1/2 −1/4 −1/4 3/8
52
2 9 0 4
!"
!
, assim
1 1
!
−
−1 1
! #
Teoria de Matrizes para Estat´ıstica
µ1|2 =
Σ11|2 =
4 2 2 9
!
−
=
4 2 2 9
!
−
=
3.625 1.5 1.5 3.0
1 1
Portanto X1 |X2 =
ii ) Seja X =
!
1 −1
X1 X2
!
!
e N2
+
e N2
"
1/2 −2
1 1 0 4
2 0 !
3/8 1/2 1/2 6 !
"
1 −1
!
1.5 −3.0 !
;
!
=
1/2 −1/4 −1/4 3/8 !
!
4 2 2 6
;
σ11|2 = 4 −
22 10 = , 6 3
logo, X1 |X2 = 2
e N [ 2 ; 10/3 ]
2 1 b) µ2|1 = 1 + (0 − 1) = , 4 2 σ22|1 = 6 −
22 = 5, 4
logo, X2 |X1 = 0
e N [ 0.5 ; 5 ]
53
! !
3.625 1.5 1.5 3.0
! #
,
encontrar as distribui¸c˜oes de X1 |X2 = 2 e X2 |X1 = 0. 2 a) µ1|2 = 1 + (2 + 1) = 2, 6
1.5 −3.0
1 0 1 4
! #
.
!