Preview only show first 10 pages with watermark. For full document please download

Teoria De Matrizes Para Estatística

Estatística

   EMBED

  • Rating

  • Date

    December 2018
  • Size

    298.9KB
  • Views

    8,810
  • Categories


Share

Transcript

Teoria de Matrizes para Estat´ıstica Jos´ e Carlos Fogo Mar¸co, 2008 Teoria de Matrizes para Estat´ıstica Conceitos Iniciais 1 1.1 Vetores Defini¸ c˜ ao: Na F´ısica: ´e uma forma de se representar matematicamentegrandezas f´ısicas que possuam mais de um aspecto para ser definida. Exemplo: a for¸ca, necessita da magnitude, dire¸c˜ao e sentido em que ´e aplicada; Na Matem´ atica: ´e uma tripla constitu´ıda de uma dire¸c˜ao, um sentido e um n´ umero n˜ao negatico (m´odulo), Venturini, J.J. Obs: Usando a teoria de matrizes, pode-se definir um vetor como qalquer matriz coluna, ou matriz linha. Na Wikip´ edia: ´e um conceito caracterizado por uma magnitude (m´odulo) e uma orienta¸c˜ao (dire¸c˜ao e sentido). Nota¸c˜ ao: ~v , ~x, ~a (letras min´ usculas). Na disciplina, vamos adotar a nota¸c˜ao usual em publica¸c˜oes, ou seja, com letras mn´ usculas, em negrito: v, x, a.    x=   x1 x2 .. . xp    ,   ´e um vetor de dimens˜ao p. Exemplo:    x=  1 2 3 4    ,  ´e um vetor de dimens˜ao 4. 2 Teoria de Matrizes para Estat´ıstica 1.1.1 Representa¸c˜ ao gr´ afica no ℜ2 Exemplo: Sejam x= " 2 5 # e y= " 3 0.5 # , 4 5 6 Representação gráfica de vetores no plano 3 1 2 dim 2 x 0 y 0 1 2 3 dim 1 Figura 1: Vetores no plano 1.1.2 Propriedades alg´ ebricas i ) u + v = v + u; ii ) (u + v) + w = u + (v + w); iii ) c (u + v) = c v + c u, c = escalar; iv ) (c + d) u = c u + d u, c, d = escalares. 3 4 Teoria de Matrizes para Estat´ıstica 1.1.3 Vetores especiais i ) vetor nulo:    0=   0 0 .. . 0    ;   ii ) vetor de 1’s:    1=   1 1 .. . 1    ;   iii ) vetor transposto: ′ v = 1.1.4 h v1 , v2 , · · · , vp i . Produto entre vetores A multiplica¸c˜ao de vetores pode ser feita basicamente de duas maneiras: o produto vetorial, ou produto externo e o produto escalar, ou produto interno. De qualquer forma, nos dois casos os vetores devem ter mesmas dimens˜oes. Al´em dos dois tipos de produtos acima, pode-se, ainda, realizar o produto elemento-aelemento entre dois vetores. Nota: Na disciplina estaremos interessados apenas nos produtos interno e elemento-a-elemento. Considere os vetores    v=   v1 v2 .. . vp          e x=   4 x1 x2 .. . xp    .   Teoria de Matrizes para Estat´ıstica a) Produto elemento-a-elemento1 :    x∗v =   x1 · v 1 x1 · v 2 .. . xp · v p    .   b) Produto interno: ′ x·v =x v = p X i=1 xi · v i Exemplo:   2   Sejam x =  −5  −1 • de (a):   3   e v =  2 , −3     (2) · (3) 6     x ∗ v =  (−5) · (2)  =  −10  ; (−1) · (−3) 3 • de (b): x′ v = (2) · (3) + (−5) · (2) + (−1) · (−3) = −1. Nota: Existe, ainda, o produto Kronecker, ou produto direto, representado por x⊗v, que n˜ao ser´a abordado por ora. 1 Como n˜ao temos uma nota¸c˜ao para um operador elemento-a-elemento, vamos utilizar o asterisco (*) 5 Teoria de Matrizes para Estat´ıstica 1.1.5 Propriedades alg´ ebricas do produto interno entre vetores i ) u′ v = v′ u; ii ) (u′ + v′ )w = u′ w + v′ w; iii ) (c v′ )u = c (v′ u) = v′ (c u), c = escalar; iv ) u′ u ≥ 0 e, u′ u = 0 ⇔ u = 0. 1.1.6 M´ odulo ou comprimenro de um vetor O comprimento, m´odulo ou norma de um vetor v ´e definido por q √ Lv = v′ v = v12 + v22 + . . . + vp2 . Exemplo: Dados os vetores v′ = (2, -5, -1), x′ = (3, 2, -3) e u′ = (0.8, 0.6), ent˜ao √ 4 + 25 + 9 = 30; √ √ = 9 + 4 + 9 = 22; √ √ = 0.64 + 0.36 = 1 = 1. Lv = Lx Lu √ O vetor u′ = (0.64, 0.36, tem comprimento 1, por ieeo ´e chamado de vetor unit´ ario. Outros resultados ˆ i ) Angulo entre vetores: u v θ ˆ Figura 2: Angulo entre vetores. 6 Teoria de Matrizes para Estat´ıstica u′ v u′ v √ √ cos(θ) = = , Lu Lv u′ u v′ v se θ = 90◦ , cos(θ) = 0, portanto: u⊥v ⇔ u′ v = 0. ii ) Proje¸c˜ao de um vetor sobre outro: Considere os vetores u e v. Ent˜ao, a proje¸c˜ao de u sobre v ´e obtida por: Pu/v =  u′ v v′ v  v=  u′ v L2v  v. O m´odulo da proje¸c˜ao, por sua vez, ´e dado por: ′ ′ ′ uv u v √ u v ′ Pu/v = v ′ v v v = L2 Lv = Lv Lu Lu v Pu/v = |cos(θ)| Lu . 2.5 Exemplo: Dados os vetores u′ = (1, 2), v′ = (2, 1), encontar a proje¸c˜ao de u sobre v e calcular o seu m´odulo. dim2 1.5 2.0 u 1.0 v 0.5 Pu v 0.0 θ 0.0 0.5 1.0 1.5 2.0 2.5 dim1 Figura 3: Proje¸c˜ao de um vetor u sobre um vetor v. C´alculos: √ √ Lu = 11 + 22 = 5 √ Lv = Lu = 5 u′ v = 2 · 1 + 1 · 2 = 4 cos(θ) = u′ v 4 = √ √ = 0.8 Lu Lv 5 5 ⇒ θ∼ = 36.9◦ 7 Teoria de Matrizes para Estat´ıstica Proje¸c˜ao de u sobre v: Pu/v =  u′ v v′ v  4 v= 5 " 2 1 # = " 1.6 0.8 # . Comprimento da proje¸c˜ao: √ √ Pu/v = |cos(θ)| Lu = 0.8 5 = 3.2 De fato h i Pu/v 2 = 1.6 0.8 1.2 " 1.6 0.8 # = 3.2, logo, √ Pu/v = 3.2. Matrizes Defini¸ c˜ ao: Matriz ´e uma cole¸c˜ao retangular n × p de valores reais, representada por An×p    =   a11 a12 · · · a1p a21 a22 · · · a2p . .. . . .. . .. . . ap1 ap2 · · · app    ,   onde: n ´e o n´ umero de linhas e p ´e o n´ umero de colunas da matriz. 1.2.1 Casos Especiais i ) Matriz Transposta: denotada por A′ , ´e obtida trocando-se as linhas de A pelas colunas. Exemplo: A2×3 = " 3 −2 1 1 5 4 # A′3×2 8   3 1   =  5 −2  . 4 1 Teoria de Matrizes para Estat´ıstica ii ) Matriz Quadrada: ocorre quando o n´ umero de linhas ´e igual ao de colunas. Exemplo: A3×3   a11 a12 a13   =  a21 a22 a23  . a31 a32 a33 iii ) Matriz Diagonal: matriz quadrada na qual apenas os elementos da diagonal s˜ao diferentes de zero. Exemplo: Ap×p    =   a11 0 · · · 0 0 a22 · · · 0 .. .. . . . . .. . . 0 0 · · · app    .   Nota: A matriz identidade ´e um caso particular da matriz diagonal. Denotada por Ip×p , seus elementos da diagonal s˜ao todos iguais a 1, ou seja, a11 = a22 = . . . = app = 1. Exemplo: A3×3   1 0 0   =  0 1 0 . 0 0 1 iv ) Matriz Sim´ etrica: matriz quadrada em que A = A′ , ou seja, quando aij = aji , i, j = 1, 2, . . . , p. Exemplo: 1.2.2 A3×3 Opera¸c˜ oes i ) Multiplica¸c˜ao por um escalar: 9   1 2 3   =  2 4 5 . 3 5 6 Teoria de Matrizes para Estat´ıstica Exemplo: c An×p    =   c a11 c a12 · · · c a1p c a21 c a22 · · · c a2p .. .. .. ... . . . c ap1 c ap2 · · · c app    .   ii ) Adi¸c˜ao de matrizes de mesmas dimens˜oes: Exemplo: An×p + Bn×p    =   Resultados a) A + B = B + A b) (A + B) + C = A + (B + C) c) c (A + B) = c A + c B d ) (c + d) A = c A + d A a11 + b11 a21 + b21 .. . a12 + b12 · · · a22 + b22 · · · .. ... . a1p + b1p a2p + b2p .. . an1 + bn1 an2 + bn2 · · · anp + bnp    .   e) (c d) A = c (dA) f ) (A + B)′ = A′ + B′ g) (A B)′ = B′ A′ h) (c A)′ = c A′ iii ) Multiplica¸c˜ao de matrizes: Para a multiplica¸c˜ao de matrizes o n´ umero de colunas da primeira (A) deve ser igual ao n´ umero de linhas da segunda (B) An×k Bk×p = A Bn×p , em que A B tem elementos formados pelo produto interno das linhas de A pelas colunas de B. Exemplo: A2×3 = AB= " " 3 −1 2 1 5 −4 # B3×2 (−6 − 7 + 18) (3 − 6) (−2 + 35 − 36) (1 + 12)   −2 1   = 7 0 , 9 −3 # = " 5 −3 −3 13 # . Nota: A matriz identidade ´e o elemento neutro da multiplica¸c˜ao de matrizes, ou seja, A I = A. 10 Teoria de Matrizes para Estat´ıstica Resultados (as matrizes A, B e C s˜ao de dimens˜oes tais que os produtos abaixo sejam definidos) a) c (A B) = (c A) B b) A (B + C) = A B + A C) c) A (B C) = (A B) C) Notas: 1) Em geral n˜ao vale a propriedade comutativa, ou seja, A B6=B A, 2) Se A B = 0, n˜ao implica que A = 0 ou que B = 0. 1.2.3 A Matriz Inversa Denotada por A−1 , ´e tal que: A A−1 = I. Caso especial: a inversa de uma matriz 2×2 ´e dada por A= " a11 a12 a21 a22 # A−1 , 1 = |A| " a22 −a11 −a11 a11 # . em que |A| ´e o determinante da matriz A. Exemplo: A= " 2 3 1 4 # , A−1 1 = 5 " 4 −3 −1 2 # . Resultados (as matrizes A, B e C s˜ao tais que as inversas existam e os produtos sejam definidos) a) (A−1 )′ = (A′ )−1 b) (A B)−1 = A−1 +B−1 c) Se a inversa de uma matriz A existe, ent˜ao |A| = 6 0. 1.2.4 Matriz N˜ ao Singular Uma matriz quadrada Ak×k ´e n˜ao singular se: Ax=0 =⇒ x = 0. Notas: 1) Note que A x = a1 x1 + a2 x2 + . . . + ak xk , onde ai ´e a i-´esima coluna de A, i = 1, 2, . . . , k. Portanto, uma matriz ´e n˜ao singular se as suas colunas forem linearmente independentes, 11 Teoria de Matrizes para Estat´ıstica 2) Uma matriz quadrada ´e n˜ao singular se o seu rank for igual ao seu n´ umero de linhas (ou colunas), 3) Se A ´e n˜ao singular, ent˜ao existe uma u ´nica matriz inversa A−1 . 1.2.5 Matriz Ortogonal Uma matriz quadrada ´e dita ser ortogonal se suas linhas, consideradas como vetores, s˜ao mutuamente perpendiculares e de comprimento 1, o que equivale a dizer que A A′ = I. Exemplo:    A=  −1/2 1/2 1/2 1/2 1/2 −1/2 1/2 1/2 1/2 1/2 −1/2 1/2 1/2 1/2 1/2 −1/2    ,  ent˜ao A A′ = I. Nota: Uma matriz A ´e ortogonal, se e somente se, A′ = A−1 . 1.2.6 Medidas Relacionadas i ) Determinante: Seja uma matriz quadrada A, ent˜ao, seu determinante ´e um escalar denotado por |A| e ´e definido por: |A| = k X j=1 (−1)j+1 a1j |A1j | , k > 1. em que a1j ´e o j-´esimo elemento da primeira linha de A e A1j ´e a matriz obtida eliminando-se a primeira linha e a j-´esima coluna de A. O resultado tamb´em ´e v´alido quando exclu´ımos qualquer uma das outras linhas, ou seja |A| = k X j=1 (−1)j+1 aij |Aij | , Exemplo:    A=  12 k > 1, i = 1, 2, . . . , k. 2 1 3 1 −1 2 −2 0 3 4 1 −1 0 2 3 2    .  Teoria de Matrizes para Estat´ıstica • Eliminando-se a primeira linha: −1 2 2 |A| = (−1)1+1 (2) 0 3 3 + (−1)1+2 (1) 1 −1 2 1 −1 2 (−1)1+3 (3) −2 0 3 + (−1)1+4 (0) 4 1 2 1 2 2 −2 3 3 + 4 −1 2 −1 −1 3 −2 0 3 4 1 −1 |A| = (−1)2 (2) (−9) + (−1)3 (1) (21) + (−1)4 (3) (−23) + (−1)5 (0) (17) |A| = −18 − 21 − 69 = −108. • Eliminando-se a terceira linha: |A| = (−1)2 (−2) (18) + (−1)3 (0) (30) + (−1)4 (3) (−2) + (−1)5 (3) (22) |A| = −36 − 6 − 66 = −108. Casos especiais: a) k = 2: A = " a11 a12 a21 a22 # , |A| = a11 a22 − a12 a21 . Exemplo: A= " 1 3 6 4 # , |A| = 1 · 4 − 3 · 6 = −14. b) k = 3:   a11 a12 a13   A =  a21 a22 a23  , a31 a32 a33 |A| = a21 a32 a13 + a11 a22 a33 + a12 a23 a31 − a12 a21 a33 − a13 a22 a31 − a11 a23 a32 . 13 Teoria de Matrizes para Estat´ıstica Exemplo:   3 1 6   A =  7 4 5 , 2 −7 1 |A| = 10 + 12 − 294 − 7 − 48 + 105 = −222. Resultados (as matrizes A, B s˜ao tais que as inversas existam e os produtos sejam definidos) a) |A| = |A′ |, b) Se os elementos de uma linha (ou coluna) s˜ao iguais a zero, ent˜ao, |A| = 0, c) Se duas linhas (ou colunas) s˜ao iguais, ent˜ao, |A| = 0, d ) Se A ´e n˜ao singular, ent˜ao |A| = 1/|A−1 |, isto ´e |A|·|A−1 = 1, e) |A B| = |A|· |B|, f ) c |A| = ck |A|,em que k ´e o n´ umero de linhas (ou de colunas) de A, g) |I| = 1. Observa¸ c˜ ao: Para uma matriz Ak×k os resultados a seguir s˜ao equivalentes i) A x = 0 ⇒ x = 0, ii ) |A| = 6 0, iii ) Existe A−1 tal que, A−1 A = I. ii ) Rank: O rank de uma matriz Ak×k ´e dado pelo n´ umero m´aximo de linhas (ou colunas) linearmente independentes (LI). Exemplos:   3 0 1   A =  1 3 1 , 4 3 4 rank(A) = 3, todas as colunas, ou linhas, de A s˜ao LI. 14 Teoria de Matrizes para Estat´ıstica   4 1 −3   B =  −1 4 5 , 2 2 0 rank(B) = 2, a primeira coluna de B ´e combina¸c˜ao linear das demais. Notas: 1) Uma matriz quadrada Ak×k ´e dita ser de posto completo se o seu rank for igual ao n´ umero de colunas (nesse caso k), 2) Uma matriz quadrada ´e de posto completo se, e s´o se, ela ´e n˜ao singular, 3) Nos exemplos acima, a matriz A ´e de posto completo, enquanto que, a matriz B n˜ao ´e de posto completo. iii ) Tra¸ co: Seja uma matriz quadrada Ak×k , ent˜ao o tra¸co de A, denotado por tr(A), ´e dado pela soma dos elementos de sua diagonal principal tr(A = k X aii . i=1 Exemplos:   3 0 1   A =  1 3 1 , 4 3 4  tr(A) = 3 + 3 + 4 = 10.  4 1 −3   B =  −1 4 5 , 2 2 0 Resultados a) tr(c A) = c tr(A), b) tr(A ± B) = tr(A) ± tr(B), c) tr(A B) = tr(B A), d ) tr(B−1 A B) = tr(A) P P e) tr(A A′ ) = ki=1 kj=1 a2ij 15 tr(B) = 8. Teoria de Matrizes para Estat´ıstica 1.2.7 Autovalores e Autovetores Considere a matriz A e os vetores u e v: " # " # 3 −2 −1 A= u= 1 0 1 v= " 2 1 # Ent˜ao, as transforma¸c˜oes operadas por A resultam em " # " # −1 −5 Au = = 1 −1 " #" # " # 3 −2 2 4 Av = = =2v 1 0 1 2 3 −2 1 0 #" Representando as transforma¸c˜oes graficamente temos: x2 2 Av v 1 u x1 −1 2 4 −1 −5 Au Figura 4: Transforma¸c˜oes do tipo Ax. Tomando como foco as transforma¸c˜oes lineares do tipo A x = λ x, com λ constante, temos transforma¸c˜oes nas quais o vetor x tem seu tamanho expandido ou diminuido. Nota: Toda transforma¸c˜ao linear de Rn em Rm pode ser representada por uma matriz m × n. 16 Teoria de Matrizes para Estat´ıstica   1 1   Por exemplo, A =  1 2  1 −1    x1 + x2 resulta em A x = x1 + 2x2   x1 − x2 aplicada no vetor x = " x1 x2 # Defini¸ c˜ oes: i ) Autovetor: um autovetor de uma matriz Ak × k ´e um vetor x, n˜ao nulo, tal que A x = λx, para algum escalar λ. ii ) Autovalor: um escalar λ ´e chamado de autovalor de A se existe solu¸c˜ao n˜ao trivial x para A x = λx. Notas: 1) Os valores λ e x e s˜ao chamados autovalor e autovetor asociado, 2) Normamente, os autovetores s˜ao dados na forma padronizada e, tal que e′ e=1, em que e′ e = x x =√ . |x| x′ x Considere a transforma¸c˜ao A x = λ x, ent˜ao temos A x − λ x = (A − λ I) x = 0. Calculando o deteminante, temos |A − λ I| x = 0, que equivale a |A − λ I| = 0. Nota: A equa¸c˜ao polinomial |A x − λ I| = 0 ´e chamada fun¸c˜ao caracter´ıstica. Desta forma, devemos obter os valores de λ que s˜ao ra´ızes da fun¸c˜ao caracter´ıstica. Resultado: Seja Ak×k uma matriz quadrada, ent˜ao existem k autovalores λ1 , λ2 , . . . , λk que satisfazem a equa¸c˜ao polinomial |A x − λ I| = 0. Assim sendo, existem k autovetores e1 , e2 , . . . , ek associados. 17 Teoria de Matrizes para Estat´ıstica Exemplos: i ) Seja a matriz: A= " 1 0 1 3 # , ent˜ao (1 − λ) 0 |A − λ I| = 1 (3 − λ) 3 − 4λ + λ2 = 0 4+ = (1 − λ) (3 − λ) = 0 √ 16 − 12 =3 2 √ 4 − 16 − 12 λ2 = =1 2 λ1 = Portanto, os autovalores de A s˜ao λ1 = 3 e λ2 = 1. Para encontrar os autovetores associados devemos fazer: • Autovetor e1 associado ao autovalor λ1 = 3: A x1 = λ1 x1 " 1 0 1 3 #" ( x11 = 3x11 x11 + 3x12 = 3x12 x11 x12 # =3 " x11 x12 # Do sistema acima temos que x11 = 0 e x12 pode ser um valor arbitr´ario, o qual ser´a considerado igual a 1. O primeiro autovetor ´e, portanto, x′1 = (0, 1). Padronizando o autovetor x1 temos x1 = e1 = p ′ x1 x1 18 " 0 1 # . Teoria de Matrizes para Estat´ıstica • Autovetor e2 associado ao autovalor λ2 = 1: A x2 = λ2 x2 " 1 0 1 3 #" ( x21 = x21 x21 + 3x22 = x22 x21 x22 # = " x21 x22 # Da segunda equa¸c˜ao temos x21 = −2x22 . Tomando x22 = 1, ent˜ao x21 fica igual a x21 = −2 e o segundo autovetor ´e, portanto, x′2 = (−2, 1). Padronizando o autovetor x2 temos 1 x2 =√ e2 = p ′ 5 x2 x2 ii ) Outro exemplo: A= " λ1 = 7 3 4 1 6 # , ent˜ao " −2 1 # = " √ # −2/ 5 √ . 1/ 5 (3 − λ) 4 1 (6 − λ) = 14 − 9λ + λ2 = 0 λ2 = 2 • Autovetor e1 associado ao autovalor λ1 = 7: ( 3x11 + 4x12 = 7x11 x11 + 6x12 = 7x12 Do sistema acima temos que x11 = x12 , portando, x′1 = (1, 1) e, e1 = " √ # 1/ 2 √ . 1/ 2 • Autovetor e2 associado ao autovalor λ2 = 2: ( 3x21 + 4x22 = 2x21 x21 + 6x22 = 2x22 19 Teoria de Matrizes para Estat´ıstica Do sistema acima temos que x21 = −4x22 , portando, x′2 = (1, −1/4) e, e2 = 1.2.8 " √ # 4/ 17 √ . −1/ 17 Decomposi¸c˜ ao Espectral Seja a matriz Ak×k , sim´etrica, ent˜ao A pode escrita por: A= k X λi ei e′i . i=1 Exemplo: A= " 2.2 0.4 0.4 2.8 " λ1 = 3, e1 = λ2 = 2, e2 = " # , ent˜ao √1 5 √2 5 # ; √2 5 −1 √ 5 # . Logo, " √ # √ #   2 −1 1 2 2/ 5 1/ 5 √ , √ √ , √ √ √ +2 = A = 3 5 5 5 5 2/ 5 −1/ 5 " # " # " # 3/5 6/5 8/5 −4/5 2.2 0.4 = + = . 6/5 12/5 −4/5 1/5 0.4 2.8 " Vamos definir uma matriz U, ortogonal, cujas colunas s˜ao formadas pelos autovetores e1 , e2 , . . ., ek e, da mesma forma, uma matriz ortogonal V, tal que V = V′ , ou seja U = h e1 | e2 | . . . | ek    V = U =   ′ e′1 e′2 .. . e′k 20    .   i , e Teoria de Matrizes para Estat´ıstica Definindo, ainda, uma matriz diagonal formada pelos autovalores λ1 , λ2 , . . ., λk , ou seja,    Λ =    λ1 0 · · · 0 0 λ2 · · · 0 .. .. . . . . .. . . 0 0 · · · λk    ,   podemos escrever A = U Λ V ou A = U Λ U′ . No caso 2×2, temos U= h e1 | e2 i e Λ= " λ1 0 0 λ2 # . Desta forma, uma matriz A2×2 pode ser representada por A = h e1 | e2 i " λ1 0 0 λ2 #" e′1 e′2 # = λ1 e1 e′1 + λ2 e2 e′2 . Exemplo: No exemplo anterior temos A= 1.2.9 " 2.2 0.4 0.4 2.8 # , U= " √ √ # 1/ 5 2/ 5 √ √ 2/ 5 −1/ 5 e Λ= " 3 0 0 2 # . Matriz Definida Positiva Considere o produto x′ Ax. Como temos apenas termos quadr´aticos x2i e termos cruzados xi xj , x′ A x recebe o nome de forma quadr´atica. Se uma matriz Ak×k , simetrica, ´e tal que x′ A x > 0, ∀ x n˜ao nulo, ent˜ao, dizemos que A ´e uma matriz definida positiva. Nota: Se uma matriz Ak×k ´e definida positiva, ent˜ao os seus autovalores s˜ao todos positivos, isto ´e λi > 0, ∀ i = 1, 2, . . . , k. 21 Teoria de Matrizes para Estat´ıstica Exemplo: Considere a forma quadr´atica 6x21 + 4x1 x2 + 3x22 , ent˜ao x′ A x = h Como 6x21 + 4x1 x2 + 3x22 > 0, x1 x2 " i 6 2 2 3 #" ∀ x 6= 0, ent˜ao, A = x1 x2 " # . 6 2 2 3 # ´e definida positiva. Notas: 1) Se x′ A x ≥ 0, ∀ x n˜ao nulo, ent˜ao A ´e semi-definida positiva, 2) Se x′ A x < 0, ∀ x n˜ao nulo, ent˜ao A ´e definida negativa, 3) Se x′ A x ≤ 0, ∀ x n˜ao nulo, ent˜ao A ´e semi-definida negativa. Casos especiais: a) Matriz inversa: a inversa de uma matriz Ak×k , sim´etrica, pode ser obtida fazendo A−1 = k X 1 ei e′i , λ i=1 i ou ainda, A−1 = U Λ−1 U′ . b) Matriz raiz quadrada: a matriz raiz quadrada de uma matriz Ak×k , definida positiva, ´e uma matriz tal que A1/2 A1/2 = A, podendo ser obtida de A1/2 = k p X λi ei e′i , i=1 ou, equivalentemente, A1/2 = UΛ1/2 U′ , em que Λ1/2 ´e dada por 1/2 Λ  √   =   λ1 0 ··· 0 √ λ2 · · · 0 0 .. .. .. ... . . . √ λk 0 0 ··· 22    .   Teoria de Matrizes para Estat´ıstica Outras rela¸c˜oes envolvendo a matriz raiz quadrada s˜ao apresentadas a seguir: • A−1/2 = (A1/2 )−1 = UΛ−1/2 U′ ; • A−1/2 A−1/2 = A−1 . Exemplo: Considere a matriz A = ent˜ao, U = " Desta forma, fazendo Λ1/2 = A1/2 1/2 A " # 2.2 0.4 , 0.4 2.8 √ √ # 1/ 5 2/ 5 √ √ 2/ 5 −1/ 5 e Λ= " # 3 0 0 2 . " √ # 3 0 √ , temos 0 2 #" √ √ #" √ √ # √ 2/ 5 3 0 1/ 5 2/ 5 1/ 5 √ √ √ √ √ = 2/ 5 −1/ 5 0 2 2/ 5 −1/ 5 √ √ # " √ √ " (2 3−2 2) √5 √ (4 3+ 2) 5 ( 3+4 2) √ 5 √ (2 3−2 2) 5 = . A matriz A1/2 ´e a matriz raiz quadrada de A sendo que, de fato A1/2 A1/2 = " √ √ ( 3+4 2) √ 5 √ (2 3−2 2) 5 Agora, fazendo Λ−1/2 = A−1/2 A−1/2 √ √ (2 3−2 2) √ 5 √ (4 3+ 2) 5 " #" √ √ ( 3+4 2) √ 5 √ (2 3−2 2) 5 √ √ (2 3−2 2) √ 5 √ (4 3+ 2) 5 # = " 2.2 0.4 0.4 2.8 # # √ 1/ 3 0 √ , temos 0 1/ 2 #" √ √ #" √ √ # √ 2/ 5 1/ 3 0 1/ 5 2/ 5 1/ 5 √ √ √ √ √ = 2/ 5 −1/ 5 0 1/ 2 2/ 5 −1/ 5       1 2 4 2 √ √ √ √ + − =  5 3 5 2 5 3 5 2  , 4 2 √ √ − 5√2 2 + 5√1 2 5 3 5 3 " sendo assim, teremos A−1/2 A−1/2 1 = 6 " 2.8 −0.2 −0.2 2.2 23 # = A−1 . = A. Teoria de Matrizes para Estat´ıstica 1.2.10 Decomposi¸c˜ ao em Valores Singulares Seja a matriz Am×k uma matriz de valores reais. Existem matrizes Um×m e Vk×k , ortogonais, tais que A = UΛV′ , em que Λ ´e uma matriz do tipo Λ= " Dr×r 0 0 0 # , com r = posto de A, m×k e D ´e uma matriz diagonal com os r valores singulares de A. A decomposi¸c˜ao em valores singulares pode ser expressa numa rela¸c˜ao matricial que depende do rank da matriz. Considerando m > k, ent˜ao, existem r constantes positivas, λ1 , λ2 , . . . , λr , r autovetores u1 , u2 , . . . , ur , de dimens˜ao m × 1 e r autovetores v1 , v2 , . . . , vr , de dimens˜ao k × 1, tal que k p X λi ui e′i = Ur Λr Vr′ , A= i=1 em que Ur = [u1 | u2 | · · · | ur ] e Vr = [v1 | v2 | · · · | vr ], s˜ao matrizes ortogonais e Λr ´e uma matriz diagonal do tipo  √   Λr =    λ1 0 ··· 0 √ 0 λ2 · · · 0 .. .. .. ... . . . √ 0 0 ··· λr    .   Nessa situa¸c˜ao, λ1 , λ2 , . . . , λr e u1 , u2 , . . . , ur , s˜ao pares de autovalores e autovetores de A A′ , obtidos de A A′ ui = λi ui , em que λ1 > λ2 > . . . > λr > 0, s˜ao valores estritamente positivos. Os vetores vi , por sua vez, est˜ao relacionados aos autovetores ui , i = 1, 2, . . . , r, pela rela¸c˜ao 1 vi = √ A′i ui . λi Alternativamente, vi , i = 1, 2, . . . , r, s˜ao autovetores associados aos mesmos autovalores positivos λ1 > λ2 > . . . > λr > 0 de A′ A. 24 Teoria de Matrizes para Estat´ıstica Desta forma, a decomposi¸c˜ao em valores singulares pode ser escrita pela express˜ao A = U Λ V′ , com U, V e Λ dadas pelas rela¸c˜oes acima. Exemplo: Seja A = " A A′ = # 4 8 8 , ent˜ao, A A′ ´e dada por 3 6 −9 " 4 8 8 3 6 −9 #   " # 4 3 144 −12   . 6 =  8 −12 126 8 −9 Os autovalores de A A′ s˜ao λ1 = 150 e λ2 = 120 com autovetores associados, u1 = " √ # −2/ 5 √ 1/ 5 e u2 = " √ # 1/ 5 √ , 2/ 5 respectivamente. Os vetores v1 e v2 , por sua vez, s˜ao obtidos de    √  √ # 4 3 " −1/ 30 √  1    −2/√5 v1 = √ =  −2/ 30  6   8 √ 1/ 5 150 −5/ 30 8 −9   √  1/ 6 4 3 " √ # √  1    1/√5 =  2/ 6  . v2 = √ 6   8 √ 2/ 5 120 −1/ 6 8 −9  Assim sendo, a matriz A pode ser escrita como A = U Λ V′ , ou seja, = " #" √ #" √ √ √ # √ √ 150 0 −1/ 30 −2/ 30 −5/ 30 −2/ 5 1/ 5 √ √ √ √ √ √ . 1/ 5 2/ 5 0 120 1/ 6 2/ 6 −1/ 6 = " 4 8 8 3 6 −9 # 25 Teoria de Matrizes para Estat´ıstica Vetores aleat´ orios 2 Aplica¸ c˜ oes das t´ ecnicas multivariadas Alguns exemplos em Johnson & Wichern, 3a ed. • medicina e sa´ ude; • meio ambiente; • sociologia; • meteorologia; • economia e neg´ocios; • geologia; • educa¸c˜ao; • psicologia; • biologia; • esportes. 2.1 Vetores aleat´ orios Defini¸ c˜ ao: Um vetor X, dado por:    X=   X1 X2 .. . Xp    ,   ´e um vetor aleat´orio se X1 , X2 , . . . , Xp forem vari´aveis aleat´orias (va’s). Nota: Da mesma maneira, uma matriz aleat´oria ´e uma matriz cujos elementos s˜ao vari´aveis aleat´orias. Como um vetor aleat´orio X ´e uma representa¸c˜ao generalizada para uma vari´avel aleat´oria, aqui tamb´em iremos represent´a-lo por va. 2.2 Valor esperado de um vetor aleat´ orio O valor esperado de um vetor aleat´orio ´e dado por:    E(X) =    E(X1 ) E(X2 ) .. . E(Xp )    ,   em que E(Xi ), i = 1, 2, . . . , p, ´e o valor esperado da i-´esima va. 26 Teoria de Matrizes para Estat´ıstica Propriedades: i ) Sejam um va X e a um vetor de coeficientes lineares, ent˜ao a combina¸c˜ao linear a′ X tem valor esparado E(a′ X) = a′ E(X). Se temos k combina¸c˜oes lineares com coeficientes dados pelas linhas da matriz Ak×p , ent˜ao: E(AX) = AE(X). Exemplos: a) Sejam X′ =(X1 , X2 , X3 ) e E ′ (X)=(2, -1, 1). Se a′ =(4, 3, 3), ent˜ao E(a′ X) = h 4, 3, 3 i   2    −1  = 8 − 3 + 3 = 8. 1 b) Se temos k = 4 combina¸c˜oes lineares com coeficientes dados pela matriz    A=     ent˜ao E(AX) =    2 −1 1 0.5 0 1    1 2 1  −1 1 2    2 −1 1  4+1+1 2   0.5 0 1    1+0+1   −1  =   2−2+1 1 2 1  1 −1 1 2 −2 − 1 + 2       =   6 2 1 −1    .  ii ) Se X e Y s˜ao vetores alat´orios com mesmas dimens˜oes, ent˜ao E(X + Y) = E(X) + E(Y). Ainda, se a e b s˜ao vetores de coeficientes lineares, ent˜ao a combina¸c˜ao linear a′ X+b′ Y tem valor esparado E(a′ X + b′ Y) = a′ E(X) + b′ E(Y). 27 Teoria de Matrizes para Estat´ıstica Nota: Normalmente o vetor de m´edias ´e denotado por µ, isto ´e,    µ=   em que µi = 2.3 E(Xp )       =     µ1 µ2 .. . µp    ,    R   xi xi fi (xi )dxi , se xi ´e cont´ınua,   P xi i = 1, 2, . . . , p. E(X1 ) E(X2 ) .. . xi pi (xi ), se xi ´e discreta, Matriz de variˆ ancias e covariˆ ancias de um va Pela defini¸c˜ao a matriz de variˆancias e covariˆancias de um va X, ´e dada por Σ = Cov(X) = E [(X − µ)(X − µ)′ ] =     = E      = E        (X1 − µ1 ) (X2 − µ2 ) .. . (Xp − µp )   h i     (X1 − µ1 ), (X2 − µ2 ), · · · , (Xp − µp )  =     (X1 − µ1 )2 (X1 − µ1 )(X2 − µ2 ) (X2 − µ2 )(X1 − µ1 ) (X2 − µ2 )2 .. .. . . (Xp − µp )(X1 − µ1 ) (Xp − µp )(X2 − µ2 ) · · · (X1 − µ1 )(Xp − µp ) · · · (X2 − µ2 )(Xp − µp ) .. ... . ··· (Xp − µp )2 Como podemos ver, cada termo de Σ ´e da forma σij = E [(Xi − µi )(Xj − µj )] , i, j = 1, 2, . . . , p, em que, σij = Cov(Xi , Xj ) e, σii = V ar(Xi ), logo,    Σ=   σ11 σ12 · · · σ1p σ21 σ22 · · · σ2p .. .. .. ... . . . σp1 σp2 · · · σpp 28    .      .   Teoria de Matrizes para Estat´ıstica Exemplo: Considere dois va’s X1 e X2 com a fun¸c˜ao de probabilidade conjunta representada pela tabela (Johnson & Wichern, 3a ed., p. 71) x2 x1 -1 0 1 p2 (x2 ) 0 0.24 0.16 0.40 0.80 1 p1 (x1 ) 0.06 0.30 0.14 0.30 0.00 0.40 0.20 1.00 Calculando dos valores esperados: µ1 = X x1 p1 (x1 ) = (−1)(0.30) + (0)(0.30) + (1)(0.40) = 0.10 x1 µ2 = X x2 p2 (x2 ) = (0)(0.80) + (1)(0.20) = 0.20 x2 Calculando as variˆancias e covariˆancias:   X σ11 = E (X1 − µ1 )2 = (x1 − 0.1)2 p1 (x1 ) = x1 2 = (−1 − 0.1) (0.30) + (0 − 0.1)2 (0.30) + (1 − 0.1)2 (0.40) = 0.69   X σ22 = E (X2 − µ2 )2 = (x2 − 0.2)2 p2 (x2 ) = x2 2 = (0 − 0.2) (0.80) + (1 − 0.2)2 (0.20) = 0.16 σ12 = E [(X1 − µ1 )(X2 − µ2 )] = X x1 ,x2 (x1 − 0.1)(x2 − 0.2) p12 (x12 ) = = (−1 − 0.1)(0 − 0.2)(0.24) + (0 − 0.1)(0 − 0.2)(0.16) + (1 − 0.1)(0 − 0.2)(0.40) + +(−1 − 0.1)(1 − 0.2)(0.06) + (0 − 0.1)(1 − 0.2)(0.14) + (1 − 0.1)(1 − 0.2)(0.00) = −0.08 σ21 = E [(X2 − µ2 )(X1 − µ1 )] = σ12 Desta forma, temos: µ= " 0.10 0.20 # , Σ= " 29 0.69 −0.08 −0.08 0.16 # . Teoria de Matrizes para Estat´ıstica 2.4 Matriz de correla¸co ˜es de um va A correla¸c˜ao entre duas va’s Xi e Xj , i, j = 1, 2, . . . , p, ´e definida por Corr(Xi , Xj ) = ρij = √ σij √ σii σjj . Assim sendo, a matriz de correla¸c˜oes do va ´e, portanto,    ρ=   1 ρ12 · · · ρ1p ρ21 1 · · · ρ2p .. .. . . . . .. . . ρp1 ρp2 · · · 1    .   Fazendo    V = diag(Σ) =    σ11 0 · · · 0 0 σ22 · · · 0 .. .. . . .. . . . . 0 0 · · · σpp    ,   ent˜ao, 1/2 V  √ σ11 0 ··· 0 √   0 σ22 · · · 0 = . . .. ...  . .. .  . √ σpp 0 0 ···    .   Desta forma, podemos escrever: ρ = (V1/2 )−1 Σ (V1/2 )−1 , ou ainda, ρ = V−1/2 Σ V−1/2 . A matriz de covariˆancias, portanto, ´e dada pela seguinte rela¸c˜ao: Σ = V1/2 ρ V1/2 . 30 Teoria de Matrizes para Estat´ıstica Exemplos: a) Considerando o exemplo anterior, temos que V = diag(Σ) = " 0.69 0 0 0.16 # , e, portanto, a matriz de correla¸c˜ao ´e dada por #" #" √ # √ 0.69 −0.08 1/ 0.69 1/ 0.69 0 0 √ √ ρ = −0.08 0.16 0 1/ 0.16 0 1/ 0.16 " # 1 −0.2408 ρ = −0.2408 1 " b) Considere um vetor aleat´orio com matriz de covariˆancias   4 1 2   Σ= 1 9 −3  . 2 −3 25 A matriz de variˆancias diagonal ´e dada por   4 0 0   V =  0 9 0 , 0 0 25 e a matriz de correla¸c˜ao, obtida de     1/2 0 0 4 1 2 1/2 0 0     ρ =  0 1/3 0   1 9 −3   0 1/3 0  0 0 1/5 2 −3 25 0 0 1/5   1 1/6 1/5   ρ =  1/6 1 −1/5  . 1/5 −1/5 1 Propriedades: a) Seja um va Xp×1 , com matriz de covariˆancias Σp×p e seja ap×1 um vetor de coeficientes lineares, ent˜ao a combina¸c˜ao linear a′ X tem variˆancia dada por V ar(a′ X) = a′ Cov(X)a = a′ Σa. 31 Teoria de Matrizes para Estat´ıstica Se temos k combina¸c˜oes lineares com coeficientes dados pelas linhas da matriz Ak×p , ent˜ao, a matriz de covariˆancias dessas combina¸c˜oes lineares ´e calculada por Cov(AX) = ACov(X)A′ = AΣA′ . Exemplos: c) Conforme exemplo anterior, seja X′ =(X1 , X2 , X3 ) com   4 1 2   Cov(X) =  1 9 −3  . 2 −3 25 Se a′ =(4, 3, 3), ent˜ao    4 1 2 4 h i    ′ Cov(a X) = 4, 3, 3  1 9 −3   3  = 388. 2 −3 25 3 d ) Se temos k = 4 combina¸c˜oes lineares com coeficientes dados pela matriz    A=   2 −1 1 0.5 0 1    1 2 1  −1 1 2 ent˜ao:    Cov(AX) =      Cov(AX) =      2 −1 1  4 1 2 2 0.5 1 −1 0.5 0 1     9 −3   −1 0 2 1   1  1 2 1 2 −3 25 1 1 1 2 −1 1 2  60.0 36.5 21.0 45.0 36.5 28.0 25.0 45.5   . 21.0 25.0 61.0 50.0  45.0 45.5 50.0 91.0 32 Teoria de Matrizes para Estat´ıstica Nesse caso, a matriz de correla¸c˜oes ´e dada por    ρ =   1.000 0.891 0.347 0.609 0.891 1.000 0.605 0.901 0.347 0.605 1.000 0.671 0.609 0.901 0.671 1.000    .  Nota: Seja o va Xp×1 e um vetor de constantes bp×1 , ent˜ao, Cov(X + b) = Cov(X) = Σ. Ainda, se A ´e uma matriz de coeficientes k × p e b um vetores de constantes k × 1, ent˜ao, as combina¸c˜oes lineares AX + b tem matriz de covariˆancias Cov(AX + b) = ACov(X)A′ = AΣA′ . 2.4.1 Particionando um va O vetor aleat´orio X pode ser particionado em grupos de vari´aveis de acordo com as suas naturezas. Por exemplo: i ) Estudo do efeito da estrutura organizacional sobre a satisfa¸ca˜o no trabalho.  X= " X(1) X(2)          #    =            (1) X1 (1) X2 (1) X3 (1) X4 (1) X5 (2) X1 (2) X2 (2) X3 (2) X4 (2) X5 (2) X6 (2) X7                                       =                                    feedback/retorno siginificˆancia das tarefas variedades das tarefas identifica¸c˜ao com as tarefas autonomia satisfa¸c˜ao com a supervis˜ao satisfa¸c˜ao com o futuro da carreira satisfa¸c˜ao financeira satisfa¸c˜ao com a carga de trabalho identifica¸c˜ao com a companhia satisfa¸c˜ao com o tipo de trabalho satisfa¸c˜ao geral No exemplo acima, s˜ao dois os grupos de vari´aveis: X(1) : caracter´ısticas do trabalho e X(2) : medidas da satisfa¸c˜ao do funcion´ario. 33 Teoria de Matrizes para Estat´ıstica ii ) Medidas de ossos de frangos num estudo antropom´etrico das aves.        =      (1) X  (2) X= X X(3) X1 X2 X3 X4 X5 X6 = = = = = =    extens˜ao do crˆanio       largura do crˆanio      comprimento do femur =   comprimento da t´ıbia         comprimento do u ´mero    comprimento da ulna  (1) X1 (1) X2 (2) X1 (2) X2 (3) X1 (3) X2 Nesse outro exemplo, temos trˆes grupos de vari´aveis: X(1) : medidas da cabe¸ca; X(2) : medidas das patas; X(3) : medidas das asas. Parti¸ c˜ ao do vetor de m´ edias: Seja o vetor aleat´orio particionado em dois grupos X(1) e X(2) com q e (p − q) vari´aveis, respectivamente X= " X(1) X(2) # Ent˜ao, o vetor de m´edias deve acompanhar a parti¸c˜ao, E(X) = " E(X(1) ) E(X(2) ) # = " µ(1) µ(2) # , em que, (1) µ    =   (1) µ1 (1) µ2 .. . (1) µq       (2) e µ    =   (2) µ1 (2) µ2 .. . (2) µp−q    .   Parti¸ c˜ ao da matriz de covariˆ ancias: Considere, ainda, a mesma parti¸c˜ao X(1) e X(2) do vetor aleat´orio X, ent˜ao a matriz de covariˆancias pode ser escrita na forma Σ= " Σ11 Σ12 Σ21 Σ22 34 # Teoria de Matrizes para Estat´ıstica em que Σij = (X(i) − µ(i) )(X(j) − µ(j) )′ , i, j = 1, 2. Notas: Assim sendo, temos i ) Σ11 = cov(X(1) ); ii ) Σ22 = cov(X(2) ); iii ) Σ12 = cov(X(1) , X(2) ), ´e a matriz de covariˆancias entre os componentes de X(1) e X(2) , sendo que Σ12 n˜ao ´e necessariamente sim´etrica, nem quadrada; iv ) Σ21 = Σ′21 . De fato, Σ pode ser calculada por: Σ = E [(X − µ)(X − µ)′ ] = " = E = E " (X(1) − µ(1) ) (X(2) − µ(2) ) # h (X(1) − µ(1) ) (X(2) − µ(2) ) i ! = (X(1) − µ(1) )(X(1) − µ(1) )′ (X(1) − µ(1) )(X(2) − µ(2) )′ (X(2) − µ(2) )(X(1) − µ(1) )′ (X(2) − µ(2) )(X(2) − µ(2) )′ # . Calculando a matriz de correla¸ c˜ oes: A matriz decorrela¸c˜oes deve ser calculada da mesma forma como no caso anterior levando em conta, agora, a parti¸c˜ao de X. Definindo: V11 = diag(Σ11 ) e V22 = diag(Σ22 ) temos que a matriz variˆancias-diagonal ´e particionada por V= " V11 0 0 V22 35 # . Teoria de Matrizes para Estat´ıstica As correla¸c˜oes dos grupos X(1) e X(2) s˜ao calculadas pelas express˜oes −1/2 Σ11 V11 −1/2 Σ22 V22 . ρ11 = V11 ρ22 = V22 −1/2 −1/2 A correla¸c˜ao entre os grupos, dada pela matriz ρ12 , por sua vez, ´e dada por −1/2 −1/2 ρ12 = V11 Σ12 V22 . Essas express˜oes podem obtidas diretamente do produto das matrizes Σ e V particionadas, isto ´e, ρ = V−1/2 Σ V−1/2 = " V11 0 = " V11 Σ11 V11 Σ12 −1/2 −1/2 V22 Σ21 V22 Σ22 = " V11 Σ11 V11 V11 Σ12 V22 −1/2 −1/2 −1/2 −1/2 V22 Σ21 V11 V22 Σ22 V22 = " ρ11 ρ12 ρ21 ρ22 −1/2 0 −1/2 V22 #" Σ11 Σ12 Σ21 Σ22 −1/2 −1/2 −1/2 −1/2 #" X(1)  X1   =  X2  X3 −1/2 −1/2 −1/2 # e X(2) = " X4 X5 # Conhecendo     Σ=     4 −1 25 1 2  0  1 9 3 −2  2 3 4 1 −1  ,  4 −2 1 9 6  −1 0 −1 6 16 36 −1/2 V11 0 V11 0 Exemplo: Sejam as va’s X1 , X2 , X3 , X4 , X5 tal que  #" . −1/2 V22 0 −1/2 V11 # 0 # # Teoria de Matrizes para Estat´ıstica temos que as matrizes de covariˆancias s˜ao Σ11   25 1 2   =  1 9 3 , 2 3 4 Σ22 = " 9 6 6 16 # e Σ12   4 −1   =  −2 0 . 1 −1 Desta forma, as matrizes de correla¸c˜oes dos grupos e entre grupos s˜ao ρ11       1/5 0 0 25 1 2 1/5 0 0 1 1/15 2/10       =  0 1/3 0   1 9 3   0 1/3 0  =  1/15 1 1/2  , 0 0 1/2 2 3 4 0 0 1/2 2/10 1/2 1 ρ22 = ρ12 " 1/3 0 0 1/4 #" 9 6 6 16 #" 1/3 0 0 1/4 # = " 1 1/2 1/2 1 # ,      # 1/5 0 0 4 −1 " 4/15 −1/20     1/3 0  =  0 1/3 0   −2 =  −2/9 0  0 . 0 1/4 0 0 1/2 1 1 1/6 1/16 A matriz de correla¸c˜oes global, ´e, portanto, dada por:     ρ =      1 1/15 1/5 4/15 −1/20  0  1/15 1 1/2 −1/9  1/5 1/2 1 1/12 1/16  .  4/15 −1/9 1/12 1 1/2  −1/20 0 1/16 1/2 1 37 Teoria de Matrizes para Estat´ıstica Distribui¸c˜ oes Multivariadas 3 3.1 Distribui¸c˜ ao Exponencial Bivariada (ACBVE) Defini¸ c˜ ao: Um vetor X′ = (X1 , X2 ) tem distribui¸c˜ao exponencial bivariada absolutamente cont´ınua (ACBVE) de Block & Basu (1974), se sua densidade conjunta for: f (x1 , x2 ) =  λ1 λ(λ2 + λ12 )   exp {−λ1 x1 − (λ2 + λ12 ) x2 } ,    λ1 + λ2   λ λ(λ1 + λ12 )    2 exp {−(λ1 + λ12 ) x1 − λ2 x2 } , λ1 + λ2 0 < x1 < x2 , x1 > x2 > 0, em que λ = λ1 + λ2 + λ12 . Nota¸c˜ ao: (X1 , X2 ) Considerando Λ = " e ACBV E(λ1 , λ2 , λ12 ). λ1 0 λ12 λ2 # ,x= " x1 x2 # e1= " # 1 , temos 1  " #" # h i  λ 0 1  1 ′   = λ1 x1 + (λ2 + λ12 )x2  x Λ 1 = x1 x2 λ12 λ2 1      x′ Λ′ 1 = (λ + λ )x + λ x . 1 12 1 2 2 Logo, na nota¸c˜ao matricial,  λ1 λ(λ2 + λ12 )   exp {−x′ Λ 1} ,    λ1 + λ2 f (x1 , x2 ) =   λ λ(λ1 + λ12 )    2 exp {−x′ Λ′ 1} , λ1 + λ2 38 x1 < x2 , x1 > x2 , e Teoria de Matrizes para Estat´ıstica Notas: 1) Existem express˜oes para E(X1 ), E(X2 ), V ar(X1 ), V ar(X2 ) e Cov(X1 , X2 ). Por exemplo λ2 λ12 1 + , (λ1 + λ12 ) λ (λ1 + λ2 ) (λ1 + λ12 ) E(X1 ) = (λ11 + λ22 ) λ12 λ + λ1 λ2 λ212 . λ2 (λ1 + λ2 ) (λ1 + λ12 ) (λ2 + λ12 ) Cov(X1 , X2 ) = 2) min(X1 , X2 ) e Exponencial (λ), com λ = λ1 + λ2 + λ12 . Exemplo: Assumindo que λ1 = 1/2, λ2 = 1/4 e λ12 = 1/20, temos f (x1 , x2 ) = Ainda, E(X1 ) = 3.2    4 25   11 75  exp − 12 x1 − 3 x 10 2 ,  1 exp − 11 x − x , 1 2 20 4 0 < x1 < x2 , x1 > x2 > 0. 245 1025 = 1.856 e Cov(X1 , X2 ) = = 0.1618. 132 6336 Distribui¸c˜ ao Normal Multivariada Caso univariado:   (x − µ)2 1 , exp − f (x) = √ 2σ 2 2πσ −∞ < x < ∞, −∞ < µ < ∞ e σ > 0. em que, µ ´e a m´edia da distribui¸c˜ao e σ 2 a sua variˆancia. Nota¸c˜ ao: X 2 e N (µ, σ ). Algumas probabilidades associadas com o modelo normal univariado: P (µ − σ ≤ X ≤ µ + σ) ∼ = 0.68, P (µ − 2σ ≤ X ≤ µ + 2σ) ∼ = 0.95. Podemos escrever o expoente   x−µ σ x−µ σ 2 2 da seguinte forma = (x − µ)(σ 2 )−1 (x − µ). 39 Teoria de Matrizes para Estat´ıstica Se Xp×1 ´e um va, esse termo pode ser generalizado pela nota¸c˜ao matricial (x − µ)′ Σ−1 (x − µ), em que x ´e o vetor de observa¸c˜oes multivariado, µ ´e o vetor de m´edias e Σ ´e a matriz de covariˆancias. µ Figura 5: Gr´afico da normal univariada com m´edia µ e desvio padr˜ao σ. Assim sendo, a fdp de um va X com distribui¸c˜ao normal multivariada ´e dada por f (x) = 1 (2π)p/2 |Σ|1/2 Nota¸c˜ ao: X   1 −1 ′ exp − (x − µ) Σ (x − µ) , 2 e Np (µ, Σ). Exemplo: Normal bivariada X µ= " e N2 (µ, Σ), µ1 µ2 # Σ= " 40 σ11 σ12 σ12 σ22 −∞ < xi < ∞, # . i = 1, 2, . . . , p. Teoria de Matrizes para Estat´ıstica Desta forma, temos 2 |Σ| = σ11 σ22 − σ12 Como ρ = ρ12 = √ Σ−1 e Σ−1 = 1 2 (σ11 σ22 − σ12 ) " σ22 −σ12 −σ12 σ11 # . σ12 √ , ent˜ao, σ12 = ρ σ11 σ22 , logo σ11 σ22 1 = σ11 σ22 (1 − ρ2 ) " # √ σ22 −ρ σ11 σ22 . √ σ11 −ρ σ11 σ22 Resultado: O produto x′ A x, com A sim´etrica, ´e conhecido como forma quadr´atica. No caso 2 × 2 temos " #" # h i a b x 1 x′ A x = x1 x2 b c x2 " # h i x 1 = (a x1 + b x2 ) (b x1 + c x2 ) x2 = a x21 + 2b x1 x2 + c x22 . Desta forma (x − µ)′ Σ−1 (x − µ) = = h (x1 − µ1 ) (x2 − µ2 ) i Σ−1 " x1 − µ 1 x2 − µ 2 # √ σ22 (x1 − µ1 )2 + σ11 (x2 − µ2 )2 − 2ρ σ11 σ22 (x1 − µ1 )(x2 − µ2 ) = σ11 σ22 (1 − ρ2 ) " 2  2  #  x1 − µ 1 1 x2 − µ 2 x2 − µ 2 x1 − µ 1 = + − 2ρ . √ √ √ √ (1 − ρ2 ) σ11 σ22 σ11 σ22 41 Teoria de Matrizes para Estat´ıstica Portanto, a densidade normal bivariada conjunta de X1 e X2 ´e dada por ( 1 1 p f (x1 , x2 ) = exp − 2(1 − ρ2 ) (2 π) σ11 σ22 (1 − ρ2 )    x2 − µ2 x1 − µ 1 . −2ρ √ √ σ11 σ22 " x1 − µ 1 √ σ11 2 +  x2 − µ 2 √ σ22 2 Se X1 e X2 foram independentes, ent˜ao ρ = 0 e " ( 2  2 #) x1 − µ 1 1 x2 − µ2 1 . + exp − f (x1 , x2 ) = √ √ √ (2 π) σ11 σ22 2 σ11 σ22 Exemplo: Considere uma distribui¸c˜ao normal bivariada centrada no 0 = (0,0) e com " # 2 1 Σ= , ent˜ao ρ = 1/4, |Σ| = 15 e 1 8 ( " 2  2  #)  1 1 x2 1 x1 x2 x1 √ exp − √ √ √ f (x1 , x2 ) = + √ −2 2(15/16) 4 (2 π) 15 2 8 2 8    8 x21 x22 x1 x2 1 √ exp − + − . f (x1 , x2 ) = 15 2 8 8 (2 π) 15 Ainda, se X1 e X2 foram independentes, com Σ = " # 2 0 , ent˜ao ρ = 0 e a densidade 0 8 conjunta ´e dada por   2 1 x1 x22 f (x1 , x2 ) = exp − − (8 π) 4 16  2  2 1 x1 x 1 √ exp − √ exp − 2 √ f (x1 , x2 ) = √ 4 16 2π 2 2π 8 f (x1 , x2 ) = f (x1 ) f (x2 ). Como podemos perceber, X1 e N (0, 2) e X2 e N (0, 8). 42 Teoria de Matrizes para Estat´ıstica 3.2.1 Contornos da Normal Bivariada Considere a densidade normal bivariada   1 1 −1 ′ exp − (x − µ) Σ (x − µ) , f (x) = 2 (2π) |Σ|1/2 −∞ < xi < ∞, i = 1, 2, . . . , p. Fazendo f (x) constante igual a h, temos que 1/2 2π |Σ|   1 −1 ′ h = exp − (x − µ) Σ (x − µ) , 2 −2 log(2π |Σ|1/2 h) = (x − µ)′ Σ−1 (x − µ). Com c2 = −2 log(2π |Σ|1/2 h), ent˜ao (x − µ)′ Σ−1 (x − µ) = c2 , ou seja, os contornos dados por f (x) = h, s˜ao elipses. Exemplo: c˜ao # normal bivariada com vetor de m´edias " # Seja o vetor (X, Y ) com distribui¸ " 5 2.5 2.0 µ= e matriz de covariˆancias Σ = . 2 2.0 3.2 Figura 6: fdp conjunta de X e Y , na presen¸ca de correla¸c˜ao Ent˜ao, |Σ| = 2.5 · 3.2 − (2.0)2 = 4 e a correla¸c˜ao entre X e Y ´e ρ = √ 43 √ 2 = 0.5. 2.5 · 3.2 Teoria de Matrizes para Estat´ıstica Portanto, a f dp conjnunta de X e Y ´e da forma   (x − 5)2 (y − 2)2 (x − 5)(y − 2) 1 exp − − + f (x, y) = 4π 2.5 3.2 2 Considerando, " # agora, a situa¸c˜ao de independˆencia, a matriz de covariˆancias ´e dada por 2.5 0 Σ= . Desta forma, ρ = 0, |Σ| = 8 e a f (x, y) ´e dada por 0 3.2   (x − 5)2 (y − 2)2 1 √ exp − − f (x, y) = 5 6.4 4π 2 A seguir apresentamos os contornos nas duas situa¸c˜oes, nas quais podemos verificar a diferen¸ca de comportamento das f dp’s. No primeiro caso, com uma alta correla¸c˜ao, verificamos uma inclina¸c˜ao dos eixos das elipses em rela¸c˜ao aos eixos das coordenadas. No segundo caso, entretanto, os eixos das elipses s˜ao paralelos aos eixos das coordenadas. Figura 7: Contornos da distribui¸c˜ao normal bivariada para ρ = mente √ 0.5 e ρ = 0, respectiva- Notas: 1) Os valores de x tais que (x − µ)′ Σ−1 (x − µ) = c2 s˜ao elips´oides centrados em µ; 2) Os eixos dos elips´oides est˜ao nas dire¸c˜oes dos autovetores de Σ−1 e os seus comprimentos s˜ao proporcionais aos autovalores de Σ−1 ; 3) Os elips´oides podem, ainda, serem determinados pela decomposi¸c˜ao espectral de Σ: se Σ ´e definida positiva, Σ−1 existe e Σ e = λe Σ−1 e = =⇒ 44 1 e, λ Teoria de Matrizes para Estat´ıstica ou seja, o par (λ,e) de autovalor e autovetor de Σ, corresponde ao par (1/λ,e) de Σ−1 . Exemplo: No exemplo acima, com Σ = " # 2.5 2.0 , tem-se: 2.0 3.2 λ1 = 4.880, e1 = (0.6432, 0.7656) e λ2 = 0.819, e2 = (-0.7656, 0.6432). Desta forma, assumindo c2 = 1, o eixo principal da elipse formada tem comprimento √ √ c λ1 = 2.209 e o eixo secund´ario tem comprimento c λ2 = 0.905. Figura 8: Contorno da normal bivariada 45 Teoria de Matrizes para Estat´ıstica 3.2.2 Propriedades Seja X um v.a. com distribui¸c˜ao normal Np (µ; Σ), ent˜ao i ) combina¸c˜oes lineares de X s˜ao normalmente distribu´ıdos; ii ) subconjuntos de componentes de X tˆem distribui¸c˜oes marginais normais, multivariadas quando for o caso; iii ) as distribui¸c˜oes condicionais dos componentes de X s˜ao normais, multivariadas quando for o caso; iv ) se a covariˆancias de componentes de X for igual a zero, ent˜ao, os componentes correspondentes s˜ao independentes. Exemplo: Considere a combina¸c˜ao linear Y = a X = a1 X1 + a2 X2 + . . . + ap Xp . Como E(Y) = a′ E(X) e V ar(Y) = a′ V ar(X) a, ent˜ao Y Se a = (1, 0, 0, . . . , 0), ent˜ao ′ Y =aX= h ′ ′ e N (a µ; a Σ a).  i  1 0 ··· 0    X1 X2 .. . Xp     = X1 ,   desta forma, temos que E(Y ) = a′ µ = h  i  1 0 ··· 0     µ1 µ2 .. . µp     = µ1 ,   σ11 σ12 · · · σ1p  h i  σ12 σ22 · · · σ2p V ar(Y ) = a′ Σa = 1 0 ··· 0  .. .. ...  .. . .  . σ1p σ2p · · · σpp   1  h i 0    = σ11 σ12 · · · σ1p   ..  = σ11 .  .  0 46            1 0 .. . 0    =   Teoria de Matrizes para Estat´ıstica Do resultado acima, segue-se que as distribui¸c˜oes marginais de Xi , i = 1, 2, . . . , p, s˜ao normais, ou seja Xi e N (µi ; σ ii ). No caso em que se tem k combina¸c˜oes lineares dadas pelas linhas da matriz Ak×p , ent˜ao Y = A X tem distribui¸c˜ao normal Y ′ e Nk (A µ; A Σ A ). Notas: 1) Y = A X + c, ent˜ao Y e Nk (A µ + c; A Σ A′ ); 2) As marginais de Y tamb´em s˜ao normais. Exemplos: a) Seja X e N3 (µ; Σ) e seja a matriz de combina¸c˜oes lineares A, dada por " # 1 −1 0 A = , 0 1 −1 " # X1 − X2 Y = AX= . X2 − X3 O valor esperado e a matriz de covariˆancias de Y s˜ao E(Y) = " V ar(Y) = " µ1 − µ2 µ2 − µ3 # e σ11 + σ22 − 2σ12 σ12 + σ23 − σ22 − σ13 σ12 + σ23 − σ22 − σ13 σ22 + σ33 − 2σ23 # . # . b) Considere a parti¸c˜ao de X X= " (1) Xq×1 (2) X(p−q)×1 # " , com µ = h Iq×q 0q×(p−q) µ1 µ2 # e Σ= " Σ11 Σ12 Σ21 Σ22 Ent˜ao: X(1) X(2) e Nq (µ1 ; Σ11 ) e e N(p−q) (µ2 ; Σ22 ) No 1◦ grupo, fazendo A = 47 i q×p , da´ı o resultado segue direto. Teoria de Matrizes para Estat´ıstica Portanto, podemos selecionar componentes de X, ou combina¸c˜oes lineares de componentes, escolhendo convenientemente a matriz de coeficientes A. Se X (1)′ e N5 (µ; Σ) e se X = (X2 , X4 ), ent˜ao: X(1) e N2 " µ2 µ4 ! σ22 σ24 σ24 σ44 ; ! # . Nesse caso, a matriz de coeficientes A ´e da forma A= " 0 1 0 0 0 0 0 0 1 0 # . Considere um vetor aleat´orio X com distribui¸c˜ao normal multivariada. Os resultados a seguir definem as condi¸c˜oes, segundo as quais, vari´aveis com correla¸c˜ao nula equivale `a independˆencia estat´ıstica. i ) Se os vetores (X1 )q1 ×1 e (X2 )q2 ×1 s˜ao independentes, ent˜ao Cov(X1 , X2 ) = 0q1 ×q2 ; " # ! ! # " X1 Σ11 Σ12 X1 ii ) Se ; , e Nq1 +q2 X2 X2 Σ12 Σ22 ent˜ao X1 e X2 s˜ao independentes se, e somente se, Σ12 = 0. iii ) Se X1 e X2 s˜ao independentes e normalmente distribu´ıdos, com densidades conjuntas X1 e Nq1 (µ1 ; Σ11 ) e X2 e Nq2 (µ2 ; Σ22 ), ent˜ao " X1 X2 # Exemplos: a) Seja X e Nq1 +q2 e " X1 X2 ! Σ11 0 0 Σ22 ; ! # .   4 1 0   N3 (µ; Σ) com Σ =  1 3 0 . 0 0 2 De Σ conclui-se que: - X1 e X2 n˜ao s˜ao independentes; ! " # X1 0 - X1 = e X3 s˜ao independentes, pois Σ12 = , o que implica que X3 X2 0 ´e independente de X1 e tamb´em de X2 ; 48 Teoria de Matrizes para Estat´ıstica b) Seja X e     3 3 −1 1     N3 (µ; Σ) com µ =  −1  e Σ =  −1 1 0 . 1 1 0 2 i ) Se a′ = (1, 1, 1), a combina¸c˜ao linear Y = a′ X = X1 +X2 +X3 tem m´edia e variˆancia a′ µ = 3 e a′ Σ a = 6, ou seja, Y e N (3; 6). ii ) As vari´aveis X2 e X3 s˜ao independentes.   1 1 1   iii ) Se A =  0 1 −1 , ent˜ao 0 1/2 1/2     6 −3 3/2 3     A µ =  1  , A Σ A′ =  −3 3 −1/2  0 3/2 −1/2 3/4 AX e ′ e N (A µ; A Σ A ). c) Seja X = (X1 , X2 , X3 , X4 , X5 ), com matriz de covariˆancias     Σ=    2 1 1 9 0 0 0 0 4 −1 0 0 4 2 0  0 4  0 −1   2 0  , indicar quais os grupos de vari´aveis independentes:  8 0  0 3 i ) Reordenando a 5a coluna de Σ imediatamente ap´os a 2a , temos   2 1 4 0 0    1 9 −1 0 0    , Σ= 0 0 0 4 2     0 0 0 2 8   4 −1 3 0 0 ii ) Fazendo o mesmo com a 5a linha, o resultado final ´e   2 1 4 0 0    1 9 −1 0 0    . Σ= 4 −1 3 0 0     0 0 4 2   0 0 0 0 2 8 Desta forma, verifica-se que os grupos de vari´aveis X′1 = (X1 , X2 , X5 ) e X′2 = (X3 , X4 ) s˜ao independentes. 49 Teoria de Matrizes para Estat´ıstica Distribui¸c˜ ao normal condicional 3.2.3 Seja X e Np (µ; Σ), em que µ= " µ1 µ2 # e Σ= " Σ11 Σ12 Σ21 Σ22 # , com |Σ22 | > 0, ent˜ao, a distribui¸c˜ao condicional de X1 |X2 = x2 ´e normal com vetor de m´edias e matriz de covariˆancias dados por E (X1 |X2 ) = µ1|2 = µ1 + Σ12 Σ−1 22 (x2 − µ2 ) , V ar (X1 |X2 ) = Σ11|2 = Σ11 − Σ12 Σ−1 22 Σ21 . O caso bivariado: ! X1 X= e N2 (µ; Σ) X2 ent˜ao: X1 |X2 = x2 em que µ= e N (µ1|2 ; σ11|2 ), em que µ1|2 = µ1 + σ12 (x2 − µ2 ) σ22 " µ1 µ2 # e e σ11|2 = σ11 − Σ= " σ11 σ12 σ21 σ22 # , 2 σ12 . σ22 Prova: Da teoria de probabilidades, temos que a densidade condicional de X1 |X2 ´e dada por f (x1 |x2 ) = f (x1 , x2 )/f (x2 ), nesse caso, temos que −1 (2π) f (x1 |x2 ) = −1/2 (2π) = −1/2 |Σ| o n −1 1 ′ |Σ| exp − 2(1−ρ2 ) (x − µ) Σ (x − µ)   2  1 x√ 2 −µ2 −1/2 −1/2 (2π) (σ22 ) exp − 2 σ22 −1/2   2  2    x1 −µ1 x2 −µ2 x2 −µ2 x1 −µ1 1 √ √ exp − 2(1−ρ2 ) + √σ22 − 2ρ √σ11 σ11 σ22    2 2 (σ22 )−1/2 exp − 21 x√2 −µ σ22 50 Teoria de Matrizes para Estat´ıstica " ( 2  2 x1 − µ 1 1 (2π)−1/2 |Σ|−1/2 x2 − µ 2 exp − = + − √ √ (σ22 )−1/2 2(1 − ρ2 ) σ11 σ22 −2ρ  x1 − µ 1 √ σ11  x2 − µ2 √ σ22  1 + 2  x2 − µ 2 √ σ22 2 ) Completando o quadrado de  com ρ 2  x2 − µ 2 √ σ22 2 x1 − µ 1 √ σ11 2 − 2ρ  x1 − µ 1 √ σ11  x2 − µ 2 √ σ22  , temos  (x1 − µ1 ) ρ (x2 − µ2 ) − √ √ σ11 σ22 2 −ρ 2  x2 − µ2 √ σ22 2 =  2 2  r σ11 x2 − µ 2 1 2 x1 − µ1 − ρ . (x2 − µ2 ) − ρ = √ σ11 σ22 σ22 √ σ11 ρ σ12 σ12 Como ρ = √ , ent˜ao √ = , que, substitu´ıdo na express˜ao anterior resulta σ11 σ22 σ22 σ22   2 2  1 σ12 x2 − µ 2 2 x1 − µ1 + , (x2 − µ2 ) −ρ √ σ11 σ22 σ22 e, segundo a nota¸c˜ao adotada, a express˜ao acima pode ser escrita por 2 1 x1 − µ1|2 − ρ2 σ11  x2 − µ 2 √ σ22 2 . Retornando ao exponente da express˜ao inicial, temos que 1 − 2(1 − ρ2 ) " x1 − µ1|2 σ11 2 −ρ 2  x2 − µ 2 √ σ22 2 51 +  x2 − µ2 √ σ22 2 # 1 + 2  x2 − µ 2 √ σ22 2 = Teoria de Matrizes para Estat´ıstica 1 = − 2(1 − ρ2 ) " x1 − µ1|2 σ11 2 + 1−ρ  2  x2 − µ2 √ σ22 2 # 1 + 2  x2 − µ 2 √ σ22 2 2 1 x1 − µ1|2 = − . 2 (1 − ρ2 ) σ11 2 ´ f´acil verificar-se que (1 − ρ2 ) σ11 = σ11 σ12 = σ1|2 , logo, a express˜ao inicial ´e escrita por E σ22 ( 2 ) x1 − µ1|2 1 f (x1 |x2 ) = p . exp − 2σ1|2 (2π) |Σ|1/2 (σ22 )−1/2 2 1/2 Mostra-se, finalmente, que |Σ|1/2 (σ22 )−1/2 = (σ11 σ22 − σ12 ) (σ22 )−1/2 = σ11 − portanto 1 f (x1 |x2 ) = p √ (2π) σ1|2 ( x1 − µ1|2 exp − 2σ1|2 2 ) 2 σ12 , σ22 , o que conclui a prova. Exemplos: i ) Seja o vetor aleat´orio X′ = (X1 , X2 , X3 , X4 ), particionado por X′1 = (X1 , X2 ) e X′2 = (X3 , X4 ), com distribui¸c˜ao normal X e     N4         1 −1 −1 1 Encontrar a distribui¸c˜ao de X1 |X2 = Temos que Σ22 = µ1|2 = 1 −1 ! 3 2 2 4 ! + 1 1 0 4      ;      1 1 , logo Σ−1 22 = !   4 2 1 1 1 0 3 2 ! 1 4 2 4          .   . 1/2 −1/4 −1/4 3/8 1/2 −1/4 −1/4 3/8 52 2 9 0 4 !" ! , assim 1 1 ! − −1 1 ! # Teoria de Matrizes para Estat´ıstica µ1|2 = Σ11|2 = 4 2 2 9 ! − = 4 2 2 9 ! − = 3.625 1.5 1.5 3.0 1 1 Portanto X1 |X2 = ii ) Seja X = ! 1 −1 X1 X2 ! ! e N2 + e N2 " 1/2 −2 1 1 0 4 2 0 ! 3/8 1/2 1/2 6 ! " 1 −1 ! 1.5 −3.0 ! ; ! = 1/2 −1/4 −1/4 3/8 ! ! 4 2 2 6 ; σ11|2 = 4 − 22 10 = , 6 3 logo, X1 |X2 = 2 e N [ 2 ; 10/3 ] 2 1 b) µ2|1 = 1 + (0 − 1) = , 4 2 σ22|1 = 6 − 22 = 5, 4 logo, X2 |X1 = 0 e N [ 0.5 ; 5 ] 53 ! ! 3.625 1.5 1.5 3.0 ! # , encontrar as distribui¸c˜oes de X1 |X2 = 2 e X2 |X1 = 0. 2 a) µ1|2 = 1 + (2 + 1) = 2, 6 1.5 −3.0 1 0 1 4 ! # . !