Preview only show first 10 pages with watermark. For full document please download

58765291 - Algebra - Linear

algebra linear

   EMBED

  • Rating

  • Date

    December 2018
  • Size

    1.6MB
  • Views

    3,555
  • Categories


Share

Transcript

PONTIFÍCIA UNIVERSIDADE CATÓLICA DE MINAS GERAIS ÁLGEBRA LINEAR ROBERTO DE MARIA NUNES MENDES Professor do Departamento de Matemática e Estatística e do Programa de Pós-graduação em Engenharia Elétrica 2009 Sumário Prefácio 1 1 Espaços Vetoriais 1.1 Definições e Exemplos . . . . . . . . . . 1.2 Subespaços . . . . . . . . . . . . . . . . 1.3 Independência Linear. Bases. Dimensão 1.4 Espaços Produto e Quociente . . . . . . 1.5 Somas e Somas Diretas . . . . . . . . . . 1.6 Exercícios do Capítulo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Aplicações Lineares 2.1 Definições e Exemplos . . . . . . . . . . . . . 2.2 Composição e Inversão de Aplicações Lineares 2.3 Álgebra das Aplicações Lineares . . . . . . . . 2.4 Exercícios do Capítulo 2 . . . . . . . . . . . . 3 Matrizes 3.1 Definições . . . . . . . . . 3.2 Produto de Matrizes . . . 3.3 Aplicação Linear × Matriz 3.4 Mudança de Bases . . . . 3.5 Exercícios do Capítulo 3 . . . . . . . . . . . 4 Formas Lineares. Dualidade 4.1 Definição . . . . . . . . . . . 4.2 Anulador de um Subespaço 4.3 Transposição . . . . . . . . 4.4 Exercícios do Capítulo 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 5 7 11 13 16 . . . . 18 18 23 28 30 . . . . . 32 32 34 35 42 47 . . . . 49 49 52 53 57 5 Determinantes 58 5.1 Aplicações r-lineares alternadas . . . . . . . . . . . . . . . . . 58 i SUMÁRIO 5.2 5.3 5.4 5.5 ii Determinante de um Operador Linear . . . . . . . . . . . . . Desenvolvimento em relação aos elementos de uma coluna (ou de uma linha) . . . . . . . . . . . . . . . . . . . . . . . . . . Matrizes Elementares . . . . . . . . . . . . . . . . . . . . . . Equações Lineares . . . . . . . . . . . . . . . . . . . . . . . 6 Autovalores e Autovetores 6.1 Definições . . . . . . . . . . . . . . . 6.2 Diagonalização . . . . . . . . . . . . 6.3 Polinômios de Operadores e Matrizes 6.4 Exercícios do Capítulo 6 . . . . . . . 7 Produto Interno 7.1 Definições e Exemplos . 7.2 Bases Ortonormais . . . 7.3 Relações entre V e V ∗ . 7.4 Adjunta . . . . . . . . . 7.5 Exercícios do Capítulo 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Operadores Unitários e Normais 8.1 Definições . . . . . . . . . . . . . . . . . . . 8.2 Operadores Positivos . . . . . . . . . . . . . 8.3 Matrizes Simétricas Positivas. Decomposição 8.4 Teorema dos Valores Singulares . . . . . . . 8.5 Exercícios do Capítulo 8 . . . . . . . . . . . 9 Formas Bilineares e Quadráticas 9.1 Generalidades . . . . . . . . . . . . 9.2 Matriz de uma forma bilinear . . . 9.3 Mudanças de Bases . . . . . . . . . 9.4 Formas Quadráticas . . . . . . . . . 9.5 Formas Bilineares Simétricas Reais 10 Miscelânea 10.1 Orientação . . . . . . . . . 10.2 Volume de Paralelepípedo 10.3 Matriz de Gram . . . . . . 10.4 Produto Vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 . 66 . 71 . 78 . . . . 84 84 89 94 97 . . . . . . . . . . . . . . . . . . . . 99 99 105 108 110 113 . . . . . . . . . . . . . . de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 114 119 122 124 127 . . . . . 129 . 129 . 131 . 131 . 132 . 132 . . . . 136 . 136 . 137 . 138 . 139 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exercícios de Revisão 141 Bibliografia 143 Prefácio A origem dessas notas de Álgebra Linear remonta a um curso feito para alunos do Bacharelado em Matemática da UFMG. Na ocasião, fizemos uma primeira redação revista pelos professores do ICEx-UFMG, Michel Spira e Wilson Barbosa, a quem muito agradecemos. Mais recentemente, retomamos o trabalho e, após várias mudanças, aproveitamos parte do material na disciplina “Métodos Matemáticos” do Programa de Pós-Graduação em Engenharia Elétrica da PUCMINAS. A versão final das notas foi revista pela professora Mariana Cornelissen Hoyos da PUCMINAS, a quem agradecemos a generosa assistência. Agradecemos também a Eric Fernandes de Mello Araújo pela eficiência e boa vontade na digitação do manuscrito. As notas nada contêm de original; são apenas um resumo do material exposto, com muito mais profundidade, nos livros indicados na Bibliografia e que utilizamos livremente. Ao leitor, bom proveito. Belo Horizonte, julho de 2009 Roberto N. Mendes 1 Capítulo 1 Espaços Vetoriais 1.1 Definições e Exemplos Seja K um corpo com elementos neutros distintos 0 e 1, por exemplo, K = R ou K = C. Definição 1.1 Um espaço vetorial sobre K é um conjunto V munido de duas leis: V × V −→ V e (u, v) 7−→ u + v K × V −→ V (a, v) 7−→ av tais que, para quaisquer u, v, w ∈ V e a, b ∈ K, se tenha: (1) u + v = v + u (2) (u + v) + w = u + (v + w) (3) existe 0 ∈ V , chamado o vetor zero, tal que v + 0 = v (4) dado v ∈ V , existe (−v) ∈ V , chamado o oposto de v, tal que v+(−v) = 0 (5) 1 · v = v (6) a(bv) = (ab)v (7) a(u + v) = au + av (8) (a + b)v = av + bv. Exemplo 1.1.1 Seja V = K n , onde n ∈ N, com as leis: (x1 , ..., xn ) + (y1 , ..., yn ) = (x1 + y1 , ..., xn + yn ) É fácil verificar que, com estas leis, K n é um espaço vetorial sobre K. Observação: Os elementos de um espaço vetorial V são chamados de vetores, enquanto que os de K são chamados de escalares. Essa nomenclatura 2 CAPÍTULO 1. ESPAÇOS VETORIAIS 3 deriva do exemplo acima. As leis são chamadas de adição e multiplicação por escalar, respectivamente. No exemplo 1.1.1, se n = 1, vemos que K é um espaço vetorial sobre si mesmo, de modo que seus elementos são, ao mesmo tempo, escalares e vetores. Exemplo 1.1.2 Seja V = Pn , onde n ∈ N, o conjunto das funções polinomiais de grau estritamente menor que n, com coeficientes em K, juntamente com a função zero. Se p = a0 +a1 t+...+an−1 tn−1 e q = b0 +b1 t+...+bn−1 tn−1 , definimos p + q ∈ V e cp ∈ V , onde c ∈ K, por: p + q = (a0 + b0 ) + (a1 + b1 )t + ... + (an−1 + bn − 1)tn−1 cp = ca0 + ca1 t + ... + can−1 tn−1 Resulta que Pn é um espaço vetorial sobre K. Exemplo 1.1.3 Seja V = K[t] o conjunto de todos os polinômios a uma variável, com coeficientes em K. Definindo as leis como no exemplo 1.1.2, é imediato que K[t] é um espaço vetorial sobre K. Exemplo 1.1.4 Seja V = F(I, R) o conjunto das funções f : I 7−→ R, onde I ⊂ R é um intervalo. Se f, g ∈ V e a ∈ R, definimos f + g e af por: (f + g)(x) = f (x) + g(x) (af )(x) = a · f (x) para todo x ∈ I. Verifica-se imediatamente que essas leis tornam F(I, R) um espaço vetorial real, isto é, sobre R. Consequências Imediatas da Definição (a) Se u, v ∈ V definimos: u − v = u + (−v) Se a ∈ K, então a(u − v) + av = a[(u − v) + v] = a[u + (−v) + v] = a(u + 0) = au. Somando −av aos dois membros, vem: a(u − v) + av − av = au − av, CAPÍTULO 1. ESPAÇOS VETORIAIS 4 donde: a(u − v) = au − av. Fazendo u = v, obtemos a·0=0 e também a(−v) = a(0 − v) = a · 0 − av = −av. (b) Se a, b ∈ K e v ∈ V , então: (a − b)v + bv = (a − b + b)v = av, donde: (a − b)v = av − bv Fazendo a = b, vem 0·v =0 e também (−a)v = (0 − a)v = 0 · v − av = −av. (c) Para todo a ∈ K e todo v ∈ V vimos que 0·v =a·0=0 Suponhamos que av = 0. Se a 6= 0 então 0 = a−1 · 0 = a−1 (av) = 1 · v = v. Portanto, av = 0 implica ou a = 0 ou v = 0. Exercícios 1. O conjunto de todos os polinômios de grau 3, com coeficientes reais e munido das leis usuais, juntamente com o polinômio zero, forma um espaço vetorial real? 2. Dê exemplo de um conjunto M que verifique todos os axiomas de espaço vetorial, exceto 1 · v = v para todo v ∈ M . CAPÍTULO 1. ESPAÇOS VETORIAIS 5 3. O conjunto das sequências complexas z = (zn )n≥1 tais que zn+2 = zn+1 + zn , n ≥ 1, munido das leis usuais, forma um espaço vetorial complexo? 4. O conjunto das funções f : R 7−→ R duas vezes continuamente deriváveis e tais que f 00 + af 0 + bf = 0 (a e b reais fixos), munido das leis usuais, forma um espaço vetorial real? 5. Prove que o conjunto das funções limitadas f : R 7−→ R, munido das leis usuais, é um espaço vetorial real. 6. Seja l1 (N) o conjunto das sequências x = (xn )n≥1 onde xn ∈ C e ∞ X |xn | < ∞. Prove que, com as leis usuais, l1 (N) é um espaço ven=1 torial complexo. 1.2 Subespaços Seja V um espaço vetorial sobre o corpo K. Definição 1.2 Dizemos que W ⊂ V é um subespaço de V se: (a) 0 ∈ W (b) u, v ∈ W =⇒ u + v ∈ W (c) a ∈ K, v ∈ W =⇒ av ∈ W É claro que W , com as leis induzidas pelas de V , é um espaço vetorial sobre K. Exemplo 1.2.1 Em V = K n verifica-se imediatamente que W = {(x1 , ..., xn ) ∈ K n ; x1 = 0} é um subespaço. Exemplo 1.2.2 Em V = F(R, R), espaço vetorial real das funções f : R → R, o subconjunto formado pelas funções contínuas é um subespaço. Proposição 1.1 Seja V um espaço vetorial sobre K. A interseção de uma família qualquer de subespaços de V é um subespaço de V . Dem. Seja (Wα )α∈A uma família de subespaços de V , e seja W = \ α∈A Então: Wα . CAPÍTULO 1. ESPAÇOS VETORIAIS 6 (a) 0 ∈ W pois 0 ∈ Wα para todo α ∈ A. (b) u, v ∈ W ⇐⇒ u, v ∈ Wα para todo α ∈ A =⇒ (u + v) ∈ Wα para todo α ∈ A =⇒ (u + v) ∈ W . (c) α ∈ K, v ∈ W =⇒ av ∈ Wα para todo α ∈ A =⇒ av ∈ W . Definição 1.3 Seja X um subconjunto não-vazio do espaço vetorial V sobre m X K. Todo elemento da forma a1 v1 + ... + am vm = ai vi , onde m ∈ N, vi ∈ i=1 X, ai ∈ K, 1 ≤ i ≤ m, é chamado de combinação linear de elementos de X. É fácil verificar que o conjunto de todas as combinações lineares de elementos de X é um subespaço de V , chamado de subespaço gerado por X. Proposição 1.2 O subespaço gerado por X ⊂ V, X 6= ∅, é a interseção de todos os subespaços de V contendo X, ou seja, é o “menor” (para a inclusão de conjuntos) subespaço de V contendo X. Dem. Seja (Wα )α∈A \ a família de todos os subespaços de V contendo X. Sabemos que W = Wα é um subespaço de V . É claro que W contém X α∈A e, portanto, que W contém todas as combinações lineares de elementos de X, ou seja, W contém o subespaço S gerado por X. Como S é um subespaço de V contendo X, temos que W ⊂ S. Resulta W = S. Exercícios 1. Seja V = F(R, R) o espaço vetorial real das funções f : R → R. Verifique se W é subespaço de V nos seguintes casos: (a) W = conjunto das funções pares (b) W = conjunto das funções ímpares (c) W = conjunto das funções deriváveis (d) W = conjunto das funções C ∞ 2. Qual a expressão do elemento genérico do subespaço de K[t] gerado pelos polinômios t2 e t3 ? 3. Verifique se W = {(x, y, z) ∈ R3 ; x = 2y} é subespaço de R3 . 4. Mostre que W = {(0, y, z) ∈ R3 } é gerado por (0, 1, 1) e (0, 2, −1). 5. Mostre que o conjunto das funções f : R → R de classe C 2 tais que f 00 + af 0 + bf = 0 (a e b reais fixos) é um subespaço de F(R, R). 6. Mostre que, em geral, a união de dois subespaços não é um subespaço. CAPÍTULO 1. ESPAÇOS VETORIAIS 1.3 7 Independência Linear. Bases. Dimensão Definição 1.4 Sejam X 6= ∅, X ⊂ V, V um espaço vetorial sobre K. Dizemos que X é linearmente independente se, quaisquer que sejam v1 , ..., vm ∈ X, m ∈ N, a equação a1 v1 + ... + am vm = 0, onde a1 , ..., am ∈ K, implica a1 = a2 = ... = am = 0. Se X não é linearmente independente (LI) dizemos que X é linearmente dependente (LD); neste caso, existem v1 , ..., vp ∈ X, p ∈ N, e escalares não todos nulos, a1 , ..., ap , tais que a1 v1 + ... + ap vp = 0. Exemplo 1.3.1 Em K n consideremos os vetores e1 = (1, 0, ..., 0) e2 = (0, 1, ..., 0) .. . en = (0, ..., 0, 1) Esses vetores são LI, pois a1 e1 + ... + an en = (a1 , ..., an ) = 0 = (0, ..., 0) ⇔ a1 = 0, ..., an = 0. Exemplo 1.3.2 Em Pn os vetores 1, t, ..., tn−1 são LI pois a0 + a1 t + ... + an−1 tn−1 = 0 implica a0 = a1 = ... = an−1 = 0. Exemplo 1.3.3 No espaço das funções f : R → R de classe C 1 consideremos os vetores f1 (t) = er1 t , f2 (t) = er2 t onde r1 6= r2 são reais. f1 , f2 são LI pois se a1 f1 + a2 f2 = 0 então a1 er1 t + a2 er2 t = 0 para todo t ∈ R, donde a1 e(r1 −r2 )t + a2 = 0 para todo t ∈ R. Derivando: a1 (r1 − r2 )e(r1 −r2 )t = 0 para todo t ∈ R, donde a1 = 0 e, portanto, a2 = 0. Exemplo 1.3.4 Consideremos os elementos 1 e i de C. Considerando C como um espaço vetorial real, 1 e i são LI. Considerando C como um espaço vetorial complexo, 1 e i são LD. Proposição 1.3 Se v1 , ..., vn são vetores LI em V e a1 v1 + ... + an vn = b1 v1 + ... + bn vn , com ai ∈ K, bi ∈ K (1 ≤ i ≤ n), então ai = bi para todo i. Dem. A relação dada é equivalente a (a1 − b1 )v1 + ... + (an − bn )vn = 0, donde a1 − b1 = ... = an − bn = 0, isto é, ai = bi para i = 1, 2, ..., n. CAPÍTULO 1. ESPAÇOS VETORIAIS 8 Definição 1.5 Seja V um espaço vetorial sobre K. Dizemos que G ⊂ V gera V ou que G ⊂ V é um conjunto de geradores de V se todo v ∈ V é combinação linear de vetores de G, ou seja, se o subespaço gerado por G é V . Dizemos que o conjunto de geradores G é mínimo se, qualquer que seja g ∈ G, o conjunto G1 = G − {g} não gera V . Exemplo 1.3.5 Em K n os vetores e1 = (1, 0, ..., 0), ..., en = (0, ..., 0, 1) formam um conjunto de geradores mínimo. Definição 1.6 Seja X ⊂ V um conjunto LI no espaço vetorial V . Dizemos que X é um conjunto linearmente independente máximo se, para todo v ∈ V , v∈ / X, o conjunto X1 = X ∪ {v} é LD. Exemplo 1.3.6 Os vetores e1 = (1, 0, ..., 0), ..., en = (0, ..., 0, 1) de K n formam um conjunto LI máximo. Proposição 1.4 Sejam v1 , ..., vm vetores LI do espaço vetorial V gerado por w1 , ..., wp . Então m ≤ p e, alterando-se eventualmente a numeração dos wi , os vetores v1 , ..., vm , wm+1 , ..., wp ainda geram V . Dem. Seja v1 = a11 w1 + ... + ap1 wp ; sem perda de generalidade podemos supor a11 6= 0 e, então: w1 = b11 v1 + b21 w2 + ... + bp1 wp . Logo, toda combinação linear de w1 , ..., wp também é combinação linear de v1 , w2 , ..., wp , ou seja, estes vetores geram V . Seja v2 = a12 v1 +a22 w2 +...+ap2 wp ; ao menos um dos escalares a22 , ..., ap2 é diferente de zero pois v1 e v2 são LI. Podemos supor a22 6= 0 e, então: w2 = b12 v1 + b22 v2 + b32 w3 + ... + bp2 wp , e toda combinação linear de v1 , w2 , ...wp é também combinação linear de v1 , v2 , w3 , ..., wp , ou seja, estes vetores geram V . Repetindo essa operação um número finito de vezes, vemos que, para r ≤ min(m, p), os vetores v1 , ..., vr , wr+1 , ..., wp geram V . Se fosse m > p, tomando r = p, teríamos que v1 , ..., vp gerariam V e, portanto, vp+1 , ..., vm seriam combinações lineares de v1 , ..., vp , o que é absurdo já que v1 , ..., vm são LI. Portanto, m ≤ p e, ao fim de um número finito de operações, obteremos o conjunto de geradores v1 , ..., vm , wm+1 , ..., wp . CAPÍTULO 1. ESPAÇOS VETORIAIS 9 Corolário 1.4.1 Se w1 , ..., wp geram V e n > p, então v1 , ..., vn são LD. Em particular, p + 1 vetores que são combinações lineares de p vetores quaisquer são LD. Proposição 1.5 Seja X um subconjunto não-vazio do espaço vetorial V sobre K. As propriedades seguintes são equivalentes: (a) X é LI e gera V (b) X é um conjunto de geradores mínimo (c) X é um conjunto LI máximo Dem. (a) ⇒ (b): Sejam x ∈ X, Y = X − {x}. Se x fosse combinação linear n X de vetores de Y , x = ai yi , yi ∈ Y, ai ∈ K, 1 ≤ i ≤ n, então X seria i=1 LD, contradição. Portanto, Y não gera V , o que mostra que X é mínimo. (b) ⇒ (c): Se X fosse LD existiriam vetores x, x1 , ..., xn de X e escalares a, a1 , ..., an , não todos nulos, tais que ax+a1 x1 +...+an xn = 0. Sem perda de generalidade podemos supor a 6= 0, donde x = b1 x1 + ... + bn xn e, portanto, X não seria mínimo, contradição. Além disso, X é (um conjunto LI) máximo m X pois, dado v ∈ V , temos v = ai xi , xi ∈ X, ai ∈ K, 1 ≤ i ≤ m, ou seja, i=1 X ∪ {v} é LD. (c) ⇒ (a): Seja v ∈ V, v ∈ / X, então Y = X ∪ {v} é LD e existem vetores x1 , ..., xn de X e escalares a, a1 , ..., an , não todos nulos, tais que av + a1 x1 + ... + an xn = 0. Se fosse a = 0 resultaria X LD. Então a 6= 0 e v = b1 x1 + ... + bn xn , isto é, X gera V (e é LI). Definição 1.7 Seja V um espaço vetorial sobre K. X ⊂ V, X 6= ∅, é uma base de V se X possui uma das (e portanto as três) propriedades da proposição 1.5. Se V tem uma base finita X = {v1 , ..., vn } dizemos que V tem dimensão finita; neste caso, se v ∈ V , então v se escreve de modo único na forma v = a1 v1 + ... + an vn , ai ∈ K, 1 ≤ i ≤ n. Proposição 1.6 Sejam {v1 , ..., vn } e {w1 , ..., wp } bases do espaço vetorial V sobre K. Então: n=p CAPÍTULO 1. ESPAÇOS VETORIAIS 10 Dem. Como v1 , ..., vn são LI e w1 , ..., wp geram V , temos n ≤ p. Por simetria, p ≤ n. Logo, n = p. Definição 1.8 Sejam V um espaço vetorial sobre K e {v1 , ..., vn } uma base de V . Dizemos que n é a dimensão de V sobre K. Por definição a dimensão de V = {0} é zero. Notação: n = dimK V ou n = dim V Exemplo 1.3.7 K n tem dimensão n e {e1 , ..., en } é uma base de K n , chamada de base canônica. Exemplo 1.3.8 {1, t, ..., tn−1 } é base de Pn , donde dim Pn = n. Exemplo 1.3.9 V = K[t] não tem dimensão finita sobre K. Exemplo 1.3.10 dimR C = 2 e {1, i} é uma base. dimC C = 1 e {1} é uma base. Uma base de Cn sobre R é {e1 , ie1 , e2 , ie2 , ..., en , ien }. Corolários: (1) Se dim V = n e v1 , ..., vn são LI, então {v1 , ..., vn } é base de V (pois é um conjunto LI máximo). (2) Se W é subespaço de V e dim W = dim V , então W = V (pois toda base de W é também base de V ). (3) Se dim V = n e m > n então os vetores v1 , ..., vm são LD (pois o número máximo de vetores LI é n). Proposição 1.7 Seja V um espaço vetorial de dimensão n sobre K. Sejam v1 , ..., vr , r < n, vetores LI. Então existem vr+1 , ..., vn ∈ V tais que {v1 , ..., vr , vr+1 , ..., vn } seja base de V . Dem. Como r < n, {v1 , ..., vr } não é um conjunto LI máximo; logo, existe vr+1 ∈ V tal que {v1 , ..., vr , vr+1 } seja LI. Se r + 1 < n podemos repetir o argumento. Após um número finito de repetições obteremos n vetores LI, v1 , ..., vn , ou seja {v1 , ..., vn } é base de V . Exercícios 1. Mostre que t3 − t2 + 1, q = t2 − 1 e r = 2t3 + t − 1 são LI em P4 . CAPÍTULO 1. ESPAÇOS VETORIAIS 11 2. Prove que f, g, h ∈ F(R, R) são LI, onde f (t) = t, g(t) = et e h(t) = sen t. 3. Ache uma condição necessária e suficiente para que u = (a, b) ∈ K 2 e v = (c, d) ∈ K 2 sejam LD. 4. Seja W o subespaço de P4 gerado por u = t3 − t2 + 1, v = t2 − 1 e w = t3 − 3t2 + 3. Ache uma base para W . 5. Existe alguma base de P4 que não contenha nenhum polinômio de grau 2? 6. Seja (v1 , ..., vm ) uma sequência de vetores não-nulos do espaço vetorial V . Prove que se nenhum deles é combinação linear dos anteriores então o conjunto {v1 , ..., vm } é LI. 7. Seja V um espaço vetorial de dimensão finita. Prove que todo conjunto de geradores de V contém uma base. 1.4 Espaços Produto e Quociente Sejam V1 e V2 espaços vetoriais sobre K e V = V1 × V2 = {(v1 , v2 ); v1 ∈ V1 , v2 ∈ V2 } seu produto cartesiano. Vamos introduzir em V uma estrutura vetorial, definindo: (v1 , v2 ) + (u1 , u2 ) = (v1 + u1 , v2 + u2 ) a(v1 , v2 ) = (av1 , av2 ) , a ∈ K É imediato verificar que, com estas leis, V = V1 × V2 é um espaço vetorial sobre K. A definição do espaço produto se estende a um número finito qualquer de espaços vetoriais. Se V1 , ..., Vn são espaços vetoriais sobre K e V = V1 × ... × Vn , definimos: (v1 , ..., vn ) + (u1 , ..., un ) = (v1 + u1 , ..., vn + un ) a(v1 , ..., vn ) = (av1 , ..., avn ) , a ∈ K Desta maneira V fica munido de uma estrutura vetorial sobre K. Proposição 1.8 Se V1 e V2 têm dimensão finita sobre K, então dim(V1 × V2 ) = dim V1 + dim V2 . CAPÍTULO 1. ESPAÇOS VETORIAIS 12 Dem. Sejam {v1 , ..., vn } e {u1 , ..., up }, respectivamente, bases de V1 e V2 . Vamos provar que {(v1 , 0), ..., (vn , 0), (0, u1 ), ..., (0, up )} é base de V1 × V2 . Se v ∈ V1 e u ∈ V2 , existem escalares ai , bj tais que v = a1 v1 + ... + an vn e u = b1 u1 + ... + bp up . Então: (v, u) = (a1 v1 + ... + an vn , b1 u1 + ... + bp up ) = = a1 (v1 , 0) + ... + an (vn , 0) + b1 (0, u1 ) + ... + bp (0, up ), o que mostra que os vetores (v1 , 0), ..., (0, up ) geram V1 × V2 . Se tivermos a1 (v1 , 0) + ... + an (vn , 0) + b1 (0, u1 ) + ... + bp (0, up ) = 0 então (a1 v1 + ... + an vn , b1 u1 + ... + bp up ) = (0, 0), donde a1 v1 + ... + an vn = 0 e b1 u1 + ... + bp up = 0, que implicam a1 = ... = an = 0 e b1 = ... = bp = 0, ou seja, os vetores (v1 , 0), ..., (0, up ) são LI. Definição 1.9 Sejam V um espaço vetorial sobre K e W um seu subespaço. Se v ∈ V definimos v + W por: v + W = {v + w; w ∈ W } Observemos que v + W = u + W ⇔ v − u ∈ W . V = {v + W ; v ∈ V }. Para introduzir uma estrutura vetorial sobre Seja W V definamos: W (v + W ) + (u + W ) = (v + u) + W a(v + W ) = av + W , a ∈ K. Essas leis estão bem definidas pois se u + W = u1 + W e v + W = v1 + W , então (v1 + W ) + (u1 + W ) = (u1 + v1 ) + W = (u + v) + W = = (v + W ) + (u + W ), já que (u1 + v1 ) − (u + v) = = (u1 − u) + (v1 − v) ∈ W. Analogamente, se a ∈ K e v1 + W = v + W , temos: a(v1 + W ) = av1 + W = av + W = a(v + W ) pois av1 − av = a(v1 − v) ∈ W . CAPÍTULO 1. ESPAÇOS VETORIAIS 13 V se torna um espaço vetorial É pura rotina verificar que, com estas leis, W V V sobre K. O elemento neutro da adição em é a classe W = 0 + W . é W W chamado de espaço vetorial quociente de V por W . Exemplo 1.4.1 Sejam V = R2 e W uma reta pela origem de R2 . Um V V elemento típico de é uma reta v + W paralela a W , e consiste de W W todas as retas paralelas a W em R2 . Exercícios V , então v1 , ..., vn são LI 1. Prove que se v1 + W, ..., vn + W são LI em W em V . 2. Sejam V um espaço vetorial e W um subespaço. Para u, v ∈ V definamos u ≈ v se u − v ∈ W . Prove que ≈ é uma relação de equivalência em V e que o conjunto das classes de equivalência é o espaço quociente V . W 1.5 Somas e Somas Diretas Definição 1.10 Sejam V um espaço vetorial sobre K, U e W subespaços de V . A soma de U e W é definida por: U + W = {u + w, u ∈ U, w ∈ W }. CAPÍTULO 1. ESPAÇOS VETORIAIS 14 É fácil ver que U + W é um subespaço de V . De fato, se u1 , u2 ∈ U , w1 , w2 ∈ W e a ∈ K, temos: (a) 0 = 0 + 0 ∈ U + W (b) (u1 + w1 ) + (u2 + w2 ) = (u1 + u2 ) + (w1 + w2 ) ∈ U + W (c) a(u1 + w1 ) = au1 + aw1 ∈ U + W Dizemos que V é soma direta de U e W , e escrevemos V = U ⊕ W , se todo elemento v ∈ V se escreve, de modo único, na forma v = u + w, com u ∈ U e w ∈ W. Proposição 1.9 V = U ⊕ W se, e só se, V = U + W e U ∩ W = {0}. Dem. Se V = U ⊕ W é claro que V = U + W . Além disso, se v ∈ U ∩ W temos, de modo único, v = v + 0 = 0 + v, donde v = 0, isto é U ∩ W = {0}. Reciprocamente, seja v ∈ V arbitrário. Como V = U + W temos v = u + w, com u ∈ U, w ∈ W . Se tivéssemos também v = u1 +w1 , u1 ∈ U, w1 ∈ W , então teríamos u − u1 = w1 − w ∈ U ∩ W = {0}, donde u = u1 e w = w1 , ou seja, a representação de v na forma u + w é única. Logo, V = U ⊕ W . Proposição 1.10 Sejam V um espaço vetorial sobre K, de dimensão finita, e W um subespaço de V . Existe subespaço U de V tal que V = U ⊕ W . Dem. Seja {w1 , ..., wr } base de W . Sabemos que existem vetores u1 , ..., us ∈ V tais que {w1 , ..., wr , u1 , ..., us } seja base de V . Seja U o subespaço gerado por u1 , ..., us . É claro que V = U ⊕ W . Obs.: Em geral existem muitos subespaços U de V tais que V = U ⊕ W . Dizemos que um tal U é um subespaço suplementar de W. Proposição 1.11 Sejam V um espaço vetorial de dimensão finita sobre K, U e W dois de seus subespaços. Se V = U ⊕ W então dim V = dim U + dim W . Dem. Sejam {u1 , ..., ur } e {w1 , ..., ws } bases de U e W , respectivamente. Provemos que {u1 , ..., ur , w1 , ...ws } é base de V . Se v ∈ V então v = u + w, com u ∈ U e w ∈ W , ou seja, u = a1 u1 + ... + ar ur e w = b1 w1 + ... + bs ws . Portanto, v = a1 u1 + ... + ar ur + b1 w1 + ... + bs ws e os vetores u1 , ..., ur , w1 , ..., ws geram V . CAPÍTULO 1. ESPAÇOS VETORIAIS 15 Seja a1 u1 + ... + ar ur + b1 w1 + ... + bs ws = 0. Então: a1 u1 + ... + ar ur = −b1 w1 − ... − bs ws . Como U ∩ W = {0} resulta a1 u1 + ... + ar ur = 0 e b1 w1 + ... + bs ws = 0, donde a1 = ... = ar = 0 e b1 = ... = bs = 0, ou seja, u1 , ..., ur , w1 , ..., ws são LI. Logo, {u1 , ..., ur , w1 , ..., ws } é base de V e dim V = r + s = dim U + dim W . O conceito de soma direta se estende à soma de vários subespaços V1 , ..., Vn do espaço vetorial V . Dizemos que V é a soma direta de V1 , ..., Vn , e escrevemos V = V1 ⊕ V2 ⊕ ... ⊕ Vn , se todo v ∈ V se escreve, de modo único, na forma v = v1 + v2 + ... + vn , onde vi ∈ Vi , i = 1, 2, ..., n. Proposição 1.12 Sejam V um espaço vetorial de dimensão finita sobre K, V1 , ..., Vr subespaços de V e, para cada i = 1, ..., r, {vi1 , ...vini } base de Vi . V = V1 ⊕ ... ⊕ Vr se, e só se, B = {v11 , ..., v1n1 , ..., vr1 , vr2 , ..., vrnr } é base de V . Dem. Se V = V1 ⊕ ... ⊕ Vr então todo v ∈ V se escreve de modo único na forma v = v1 + ... + vr , onde vi ∈ Vi , 1 ≤ i ≤ r. Mas vi = ni X aki vik , 1 ≤ i ≤ r. k=1 Logo: v= ni r X X aki vik e B gera V. i=1 k=1 Suponhamos que ni r X X aki vik = 0. Pondo vi = i=1 k=1 ni X aki vik , temos que k=1 vi ∈ Vi , i = 1, ..., r. Então: v1 + ... + vr = 0 e, como a soma é direta, temos ni X vi = 0, isto é, aki vik = 0, donde aki = 0 pois vi1 , ..., vini são LI. Logo, B k=1 é LI e, portanto, B é base de V . Reciprocamente, se B é base de V , então v = vi = ni X k=1 ni r X X i=1 k=1 aki vik = r X vi , onde i=1 aki vik pertence a Vi , i ≤ i ≤ r. Logo: V = V1 + ... + Vr . A soma CAPÍTULO 1. ESPAÇOS VETORIAIS é direta pois se v1 + ... + vr = 0, vi ∈ Vi , então aki = 0 e, portanto, vi = 0, 1 ≤ i ≤ r. 16 ni r X X aki vik = 0, donde i=1 k=1 Exercícios 1. Sejam U, V, W os seguintes subespaços de R3 : U = {(x, y, z) ∈ R3 ; x + y + z = 0}; V = {(x, y, z) ∈ R3 ; x = z} e W = {(0, 0, z) ∈ R3 ; z ∈ R}. Mostre que R3 = U + V , R3 = U + W , R3 = V + W . Quando é que a soma é direta? 2. Sejam V = F(R, R), U o subespaço das funções pares e W o das ímpares. Mostre que V = U ⊕ W . 3. Sejam U e W subespaços de V. Se V = U + W e dim V = dim U + dim W < ∞, prove que V = U ⊕ W . 4. Sejam V um espaço vetorial de dimensão finita sobre K, U e W subespaços de V . Prove: dim(U + W ) ≤ dim U + dim W 1.6 Exercícios do Capítulo 1 1. Determine uma base para o subespaço de R4 descrito por x = (x1 , x2 , x3 , x4 ) tal que x1 = x2 − 3x3 , x3 = 2x4 . Complete a base obtida a uma base do R4 . 2. Em V = F(R, R) considere fk (t) = erk t onde rk ∈ R, 1 ≤ k ≤ n. Prove que f1 , ..., fn são LI se, e só se, r1 6= r2 6= ... 6= rn . 3. Sejam v1 , ..., vn LI e u = b1 v1 + ... + bj vj + ... + bn vn com bj 6= 0. Prove que v1 , ..., vj−1 , u, vj+1 , ..., vn são LI. 4. Seja W um subespaço do espaço vetorial V . Suponha que v1 , ..., vn ∈ V sejam LI e gerem um subespaço U tal que U ∩ W = {0}. Prove que os V . vetores v1 + W, ..., vn + W são LI em W CAPÍTULO 1. ESPAÇOS VETORIAIS 17 5. Sejam V um espaço vetorial, U e W seus subespaços. Se U e W têm dimensões finitas, prove que: dim U + dim W = dim(U + W ) + dim(U ∩ W ). 6. Sejam V um espaço vetorial real e u, v ∈ V . O segmento de reta de extremidades u e v é o conjunto [u, v] = {(1 − t)u + tv; 0 ≤ t ≤ 1}. X ⊂ V é convexo se u, v ∈ X ⇒ [u, v] ⊂ X. Prove: (a) Se X, Y ⊂ V são convexos, então X ∩ Y é convexo. (b) Se X ⊂ V é convexo e r, s, t são reais não negativos tais que r + s + t = 1, então u, v, w ∈ X ⇒ ru + sv + tw ∈ X. (c) Se X ⊂ V , a envoltória convexa de X é o conjunto C(X) das n X combinações t1 x1 + ... + tn xn , onde ti ≥ 0, ti = 1, n ∈ N, chamadas i=1 combinações convexas dos elementos de X. Prove que C(X) é convexo, que X ⊂ C(X) e que se C 0 é convexo e X ⊂ C 0 então C(X) ⊂ C 0 . 7. Seja V um espaço vetorial real. A ⊂ V é uma variedade afim se u, v ∈ A, t ∈ R ⇒ (1 − t)u + tv ∈ A. Prove: (a) Se A, B ⊂ V são variedades afins, então A ∩ B é variedade afim. (b) Se A 6= ∅ é uma variedade afim em V , existe um único subespaço vetorial W ⊂ V tal que para todo x ∈ A tem-se A = x + W = {x + w; w ∈ W }. 8. Dado o conjunto finito X = {a1 , ..., an }, ache uma base para o espaço vetorial real F(X, R) = {f : X → R}. Capítulo 2 Aplicações Lineares 2.1 Definições e Exemplos Definição 2.1 Sejam V e W espaços vetoriais sobre K. Dizemos que uma aplicação T : V → W é linear se: T (u + v) = T (u) + T (v) T (av) = a · T (u), quaisquer que sejam u, v ∈ V e a ∈ K. Exemplo 2.1.1 A aplicação identidade I : V → V , I(v) = v é linear, bem como a aplicação zero, 0 : V → V , 0(v) = 0 para todo v ∈ V . Exemplo 2.1.2 Seja V = K[t] o espaço vetorial dos polinômios na variável t com coeficientes em K. A aplicação derivada D : V → V , definida por D(a0 + a1 t + a2 t2 + ... + am tm ) = a1 + 2a2 t + ... + mam tm−1 , é uma aplicação linear. Exemplo 2.1.3 Se V1 e V2 são espaços vetoriais sobre K e V = V1 × V2 , as aplicações p1 : V → V1 e p2 : V → V2 definidas por p1 (v1 , v2 ) = v1 e p2 (v1 , v2 ) = v2 são lineares. Exemplo 2.1.4 Seja W um subespaço do espaço vetorial V. A aplicação V , π(v) = v + W , é linear. π:V → W Exemplo 2.1.5 Seja V = C 0 ([0, 1], R) o espaço vetorial real das funções contínuas f : [0, 1] → R. A aplicação f ∈ V 7−→ T (f ) ∈ V , onde Z x (T f )(x) = f (t)dt, x ∈ [0, 1], 0 18 CAPÍTULO 2. APLICAÇÕES LINEARES 19 Z é linear. É também linear a função f ∈ V 7−→ 1 f (t)dt ∈ R. 0 Proposição 2.1 Sejam V e W espaços vetoriais sobre K e (v1 , v2 , ..., vn ) uma base ordenada de V. Dada a sequência (w1 , ..., wn ) de vetores de W, existe uma e uma única aplicação linear T : V → W tal que T (vi ) = wi , 1 ≤ i ≤ n. Dem. Seja v ∈ V . Então v se escreve, de modo único, como v = a1 v1 + ... + an vn . Definamos T : V → W por T (v) = a1 w1 + ... + an wn . É claro que T (vi ) = wi , 1 ≤ i ≤ n. Mostremos que T é linear. Se u = b1 v1 + ... + bn vn , então: T (u + v) = T [(a1 + b1 )v1 + ... + (an + bn )vn ] = (a1 + b1 )w1 + ... + (an + bn )wn = = (a1 w1 + ... + an wn ) + b1 w1 + ... + bn wn = T (v) + T (u). Se c ∈ K, temos T (cv) = T (ca1 v1 + ... + can vn ) = ca1 w1 + ... + can wn = = c(a1 w1 + ... + an wn ) = c · T (v). Logo, T é linear. Se L : V → W é aplicação linear tal que L(vi ) = wi , 1 ≤ i ≤ n, então L(a1 v1 + ... + an vn ) = a1 w1 + ... + an wn = T (v) para todo v ∈ V , ou seja, T = L, o que mostra a unicidade de T. Proposição 2.2 Seja T : V → W linear. Então: (a) T (0) = 0 , T (−v) = −v. (b) Se U ⊂ V é subespaço, então T (U ) ⊂ W é subespaço. (c) Se U 0 ⊂ W é subespaço, então T −1 (U 0 ) ⊂ V é subespaço. Dem. (a) Como T é linear, T (av) = aT (v) para todo a ∈ K e todo v ∈ V . Fazendo a = 0, vem: T (0 · v) = 0 · T (v), donde: T (0) = 0. Fazendo a = −1, vem: T (−v) = −T (v) (b) T (U ) ⊂ W é subespaço pois: CAPÍTULO 2. APLICAÇÕES LINEARES 20 1. 0 = T (0) ∈ T (U ) 2. Se T (u), T (v) ∈ T (U ) então T (u) + T (v) = T (u + v) ∈ T (U ) 3. Se a ∈ K e T (v) ∈ T (U ) então aT (v) = T (av) ∈ T (U ) (c) T −1 (U 0 ) ⊂ V é subespaço pois: 1. 0 ∈ T −1 (U 0 ) já que T (0) = 0 ∈ U 0 2. Se u, v ∈ T −1 (U 0 ) então T (u), T (v) ∈ U 0 , donde T (u) + T (v) = T (u + v) ∈ U 0 , donde u + v ∈ T −1 (U 0 ) 3. Se a ∈ K e v ∈ T −1 (U 0 ) então aT (v) = T (av) ∈ U 0 e, portanto, av ∈ T −1 (U 0 ). Definição 2.2 Seja T : V → W linear. O subespaço T (V ) ⊂ W é chamado de imagem de T e anotado Im T . O subespaço T −1 (0) ⊂ V é chamado de núcleo de T e anotado N (T ). Assim, Im T = {T (v) ∈ W ; v ∈ V } N (T ) = {v ∈ V ; T (v) = 0} Obs.: Por definição T é sobrejetora se Im T = W e T é injetora se u 6= v implica T (u) 6= T (v). Proposição 2.3 Seja T : V → W linear. São equivalentes: (a) N (T ) = {0} (b) T é injetora (c) T transforma cada conjunto LI de vetores de V em conjunto LI de vetores de W. Dem. (a) ⇔ (b): N (T ) = {0} ⇔ T (w) = 0 implica w = 0 ⇔ T (u − v) = 0 implica u − v = 0 ⇔ T (u) = T (v) implica u = v ⇔ T é injetora. (b) ⇒ (c): Seja X ⊂ V um conjunto LI e seja Y = T (X). Vamos provar que Y é LI. De fato, se ai y1 + ... + ar yr = 0 onde r ∈ N e yi = T (xi ), 1 ≤ i ≤ r, xi ∈ X, ai ∈ K, então a1 T (x1 )+...+ar T (xr ) = 0 ∴ T (a1 x1 +...+ar xr ) = 0, donde a1 x1 +...+ar xr = 0 (pois N (T ) = {0}), o que implica a1 = ... = ar = 0 (pois X é LI), resultando Y ser LI. (c) ⇒ (a): Todo vetor v 6= 0 é LI, donde T (v) é LI, ou seja, T (v) 6= 0. Portanto: N (T ) = {0}. Obs.: Se T : V → W é linear e v1 , ..., vn geram V , então é claro que CAPÍTULO 2. APLICAÇÕES LINEARES 21 T (v1 ), ..., T (vn ) geram Im T pois todo w ∈ Im T é da forma w = T (v) para algum v ∈ V e v = a1 v1 + ... + an vn . Resulta que, se V tem dimensão finita, então dim Im T ≤ dim V . Definição 2.3 Seja T : V → W linear, V de dimensão finita. O posto de T é a dimensão de Im T : r = posto(T ) = dim Im T , donde r ≤ dim V. Proposição 2.4 Seja T : V → W linear. São equivalentes: (a) T é sobrejetora (b) T transforma conjunto de geradores de V em conjunto de geradores de W. Dem. (a) ⇒ (b): Sejam X um conjunto de geradores de V e Y = T (X). Vamos provar que Y gera W. Se w ∈ W e T é sobrejetora, existe v ∈ V tal que w = T (v). m m m X X X Mas v = ai xi , ai ∈ K, xi ∈ X. Logo, T (v) = ai T (xi ) = ai yi com i=1 i=1 i=1 yi ∈ Y , ou seja, Y gera W. (b) ⇒ (a): Sejam X um conjunto de geradores de V e Y = T (X). Então Y gera W. p X Se w ∈ W , temos w = ai yi , ai ∈ K, yi ∈ Y, yi = T (xi ), xi ∈ X. Logo, i=1 ! p p X X w= ai T (xi ) = T ai xi = T (v) com v ∈ V , isto é, T é sobrejetora. i=1 i=1 Exemplo 2.1.6 Seja T : C3 → C3 , T (x1 , x2 , x3 ) = (x1 − x2 , 2x1 + x2 + 3x3 , −x1 −2x2 −3x3 ). T é linear e Im T é gerada por T (1, 0, 0) = (1, 2, −1) = w1 , T (0, 1, 0) = (−1, 1, −2) = w2 e T (0, 0, 1) = (0, 3, −3) = w3 . É fácil ver que w1 e w2 são LI e que w3 = w1 + w2 . Portanto, {w1 , w2 } é base de Im T e posto(T ) = r = 2. O núcleo de T é definido pelas equações: x1 − x2 = 0 2x1 + x2 + 3x3 = 0 −x1 − 2x2 − 3x3 = 0 A solução deste sistema é dada por x1 = x2 = −x3 . Logo: N (T ) = {(−t, −t, t) ∈ C3 ; t ∈ C} e, por exemplo, (−1, −1, 1) é base de N (T ). Observemos que dim C3 = 3 = dim N (T ) + dim Im T , o que ilustra o teorema seguinte. CAPÍTULO 2. APLICAÇÕES LINEARES 22 Proposição 2.5 (Teorema do núcleo e da imagem) Sejam V, W espaços vetoriais sobre K e T : V → W linear. Se V tem dimensão finita, então: dim V = dim N (T ) + dim Im T. Dem. Seja {v1 , ..., vs } base de N (T ) e sejam vs+1 , ..., vn ∈ V tais que {v1 , ..., vs , vs+1 , ..., vn } seja base de V. Se w = T (v) ∈ Im T e v = a1 v1 + ... + an vn , então w = as+1 T (vs+1 ) + ... + an T (vn ) já que T (v1 ) = ... = T (vs ) = 0; logo T (vs+1 ), ..., T (vn ) geram Im T . Além disso, esses vetores são LI; de fato, se bs+1 T (vs+1 ) + .... + bn T (vn ) = 0, então T (bs+1 vs+1 + ... + bn vn ) = 0, ou seja, bs+1 vs+1 + ... + bn vn ∈ N (T ). Portanto, podemos escrever bs+1 vs+1 + ... + bn vn = b1 v1 + ... + bs vs . Como v1 , ..., vs , vs+1 , ..., vn são LI, resulta bs+1 = ... = bn = 0 (e também b1 = ... = bs = 0). Resulta que {T (vs+1 , ..., T (vn )} é base de Im T e dim Im T = n − s = dim V − dim N (T ), donde a tese. Corolário 2.5.1 Sejam T : V → W linear, dim V = n, dim W = p. Então: (a) T é injetora ⇔ r = posto(T ) = n. Neste caso, dim V ≤ dim W . (b) T é sobrejetora ⇔ r = posto(T ) = p. Neste caso, dim V ≥ dim W . Corolário 2.5.2 Seja T : V → W linear, com dim V = dim W < ∞. São equivalentes: (a) T é bijetora; (b) T é injetora; (c) T é sobrejetora; (d) se {v1 , ..., vn } é base de V, então {T v1 , ..., T vn } é base de W; (e) existe base {v1 , ..., vn } de V tal que {T v1 , ..., T vn } seja base de W. Dem. (a) ⇒ (b): É óbvio. (b) ⇒ (c): Como T é injetora, temos posto(T ) = dim V = dim W = n, donde Im T = W . (c) ⇒ (d): T v1 , ..., T vn geram Im T = W . Como dim W = n, resulta que {T v1 , ..., T vn } é base de W. (d) ⇒ (e): É óbvio. (e) ⇒ (a): Seja {v1 , ..., vn } base de V tal que {T v1 , ..., T vn } seja base de W. Como T v1 , ..., T vn ∈ Im T e geram W resulta que W ⊂ Im T , donde Im T = W , ou seja, T é sobrejetora. CAPÍTULO 2. APLICAÇÕES LINEARES 23 Se v = a1 v1 + ... + an vn é tal que T (v) = 0, então a1 T (v1 ) + ... + an T (vn ) = 0, donde a1 = ... = an = 0 pois T v1 , ..., T vn são LI. Logo, v = 0 e T é injetora. Portanto, T é bijetora. Exercícios 1. Seja T : V → W linear. Prove que são equivalentes: (a) T é injetora; (b) para toda decomposição V = V1 ⊕ V2 tem-se T (V ) = T (V1 ) ⊕ T (V2 ) 2. Ache T : R2 → R linear tal que T (1, 1) = −1 e T (1, 0) = 3. 3. Seja T : V → W linear. Prove que se T (v1 ), ..., T (vn ) são LI, então v1 , ..., vn são LI. 4. Ache T : R3 → R4 linear cuja imagem seja gerada por (1,0,2,-4) e (0,2,-1,3). 5. Seja T : V → V linear. Prove que se T v1 , ..., T vn geram V, então v1 , ..., vn geram V. 6. Seja T : R2 → R2 definido por T (x, y) = (ax + by, cx + dy), com ad − bc 6= 0. Prove: (a) v 6= 0 ⇒ T v 6= 0. (b) Toda reta l ⊂ R2 é transformada por T numa reta. (c) T transforma retas paralelas em retas paralelas. 2.2 Composição e Inversão de Aplicações Lineares Proposição 2.6 Sejam U, V, W espaços vetoriais sobre o corpo K e T : U → V, L : V → W aplicações lineares. Então a composta L ◦ T : U → W é linear. Dem. Se u, v ∈ U , então (L ◦ T )(u + v) = L(T (u + v)) = L(T u + T v) = L ◦ T (u) + L ◦ T (v). CAPÍTULO 2. APLICAÇÕES LINEARES 24 Se a ∈ K e u ∈ U , então (L ◦ T )(au) = L(T (au)) = L(aT (u)) = aL(T (u)) = a(L ◦ T )(u). Resulta que L ◦ T é linear. Proposição 2.7 Seja T : V → W linear bijetora. Então a aplicação inversa T −1 : W → V também é linear (e bijetora). Dem. Sejam w1 = T (v1 ) e w2 = T (v2 ) elementos arbitrários de W. Então: T −1 (w1 +w2 ) = T −1 (T v1 +T v2 ) = T −1 (T (v1 +v2 )) = v1 +v2 = T −1 (w1 )+T −1 (w2 ). Se a ∈ K e w = T (v) ∈ W , então: T −1 (aw) = T −1 (aT (v)) = T −1 (T (av)) = av = aT −1 (w). Resulta que T −1 : W → V é linear. Definição 2.4 Uma aplicação linear T : V → W é um isomorfismo de V sobre W se T é bijetora. Se, além disso, V = W então diremos que T é um automorfismo de V. Se existe um isomorfismo de V sobre W dizemos que V e W são isomorfos. Corolário 2.7.1 A composta de dois isomorfismos é um isomorfismo. A inversa de um isomorfismo é um isomorfismo. Obs.: Representamos por L(V, W ) o conjunto das aplicações lineares de V em W. No caso em que V = W é usual chamar uma aplicação linear T : V → V de operador linear em V e representar L(V, V ) simplesmente por L(V ) e por GL(V ) o conjunto dos automorfismos de V. Proposição 2.8 Seja V um espaço vetorial sobre o corpo K. Se T, L ∈ GL(V ) então T ◦ L ∈ GL(V ) e (T ◦ L)−1 = L−1 ◦ T −1 . Dem. Já vimos que a composta de automorfismos é automorfismo. Basta então verificar que (T ◦ L) ◦ (L−1 ◦ T −1 ) = (L−1 ◦ T −1 ) ◦ (T ◦ L) = I, operador identidade de V, o que é imediato. CAPÍTULO 2. APLICAÇÕES LINEARES 25 Proposição 2.9 Se T : V → W é linear sobrejetora, então W é isomorfo V ao espaço quociente . N (T ) V a aplicação quociente, isto é, π(v) = v + N (T ) N (T ), v ∈ V . É imediato que π é linear. V Seja L : → W definida por L(v +N (T )) = T (v), ou seja, L◦π = T N (T ) (dizemos então que o diagrama abaixo comuta). Mostremos que L está bem definida e é injetora: Dem. Seja π : V → L(u + N (T )) = L(v + N (T )) ⇔ T (u) = T (v) ⇔ T (u − v) = 0 ⇔ ⇔ u − v ∈ N (T ) ⇔ u + N (T ) = v + N (T ). Além disso, L é sobrejetora pois, dado w ∈ W , existe v ∈ V tal que T (v) = w (já que T é sobrejetora) e, portanto, L(v + N (T )) = w. Logo, L é bijetora. Resta provar que L é linear. Sejam u, v ∈ V , então: L(u + N (T ) + v + N (T )) = L(u + v + N (T )) = T (u + v) = T (u) + T (v) = L(u + N (T )) + L(v + N (T )). Se a ∈ K e v ∈ V , então: L(a(v + N (T ))) = V →W (av +N (T )) = T (av) = aT (v) = aL(v +N (T )). Resulta que L : N (T ) é um isomorfismo. Corolário 2.9.1 Sejam V um espaço vetorial sobre K, U e W subespaços de V V tais que V = U ⊕ W . Então, é isomorfo a W. U CAPÍTULO 2. APLICAÇÕES LINEARES 26 Dem. Seja p : V → W definida por p(v) = w, onde v = u + w com u ∈ U e w ∈ W . É imediato que p é linear sobrejetora e N (p) = {v ∈ V ; p(v) = 0} = U. Portanto, pela proposição 2.9, temos que V é isomorfo a W. U Corolário 2.9.2 Sejam T : V → W linear e U ⊂ V subespaço tal que V = N (T ) ⊕ U . Então U é isomorfo a Im T . Dem. Decorre da proposiçã 2.9 que 2.9.1 temos que V é isomorfo a Im T . Pelo corolário N (T ) V é isomorfo a U. Resulta que U e Im T são isomorfos. N (T ) Proposição 2.10 Sejam U e W subespaços do espaço vetorial V de dimensão finita sobre o corpo K. Então: dim U + dim W = dim (U + W ) + dim (U ∩ W ). Dem. Seja T : U × W → V, T (u, w) = u − w. É imediato que T é linear. Além disso, Im T = {v = u − w; u ∈ U, w ∈ W } = U + W N (T ) = {(u, w) ∈ U × W ; u = w} = {(u, u) ∈ U × W, u ∈ U ∩ W }. É fácil ver que a aplicação u ∈ U ∩ W 7−→ (u, u) ∈ N (T ) é um isomorfismo. Portanto, dim N (T ) = dim (U ∩ W ). Pela proposição 2.5, temos: dim (U × W ) = dim (U + W ) + dim (U ∩ W ), ou seja, dim U + dim W = dim (U + W ) + dim(U ∩ W ). Proposição 2.11 Todo espaço vetorial de dimensão n sobre K é isomorfo a K n. Dem. Seja V um espaço vetorial de dimensão n sobre K. Seja {v1 , ..., vn } uma base de V. Se v ∈ V , então v = a1 v1 +...+an vn , onde ai ∈ K, 1 ≤ i ≤ n. Seja T : V → K n definida por T (v) = T (a1 v1 + ... + an vn ) = (a1 , ..., an ) ∈ n K . É fácil verificar que T é um isomorfismo. CAPÍTULO 2. APLICAÇÕES LINEARES 27 Corolário 2.11.1 Todos os espaços vetoriais de mesma dimensão finita n sobre K são isomorfos entre si. Exemplo 2.2.1 Seja T : V → V linear tal que T 3 = 0. Prove que I − T é um automorfismo de V. 1 = 1+x+x2 +x3 +... nos sugere que (I −T )−1 = A igualdade formal 1−x I + T + T 2 + T 3 + ... = I + T + T 2 já que T 3 = 0, donde T n = 0 para n ≥ 3. De fato, temos: (I − T )(I + T + T 2 ) = I + T + T 2 − T − T 2 − T 3 = I (I + T + T 2 )(I − T ) = I − T + T − T 2 + T 2 − T 3 = I Portanto, I − T é um automorfismo de V e (I − T )−1 = I + T + T 2 . Exemplo 2.2.2 U e W sendo dois subespaços suplementares do espaço vetorial V, isto é, V = U ⊕ W , todo v ∈ V se escreve, de modo único, na forma v = u + w, onde u ∈ U e w ∈ W . Consideremos T : U × W → U ⊕ W definida por T (u, w) = u + w. É fácil ver que T é linear bijetora, ou seja, T é um isomorfismo de U × W sobre U ⊕ W . Reciprocamente, dados dois espaços vetoriais U e W sobre K, para todo v = (u, w) de V = U × W temos, de modo único: (u, w) = (u, 0) + (0, w). Se U 0 e W 0 são, respectivamente, os subespaços de V descritos por (u, 0) e (0, w), então é claro que U 0 é isomorfo a U e que W 0 é isomorfo a W. Então, V = U × W = U 0 ⊕ W 0 . Se identificarmos U com U 0 bem como W com W 0 , então poderemos considerar U e W como subespaços suplementares de U × W , o que significa identificar os dois espaços isomorfos U × W e U ⊕ W . Nestas condições, a aplicação de U ⊕ W sobre U dada por u + w 7−→ u, se identifica com p1 : U × W → U, p1 (u, w) = u, e é a projeção de V = U ⊕ W sobre o subespaço U, paralelamente ao subespaço suplementar W. Analogamente, a aplicação u + w 7−→ w se identifica com a projeção p2 : U × W → W, p2 (u, w) = w de V sobre o subespaço W paralelamente a U. Em particular, se V = U ⊕W tem dimensão finita, então: dim (U ×W ) = dim (U ⊕ W ) = dim U + dim W , já visto anteriormente. Exercícios 1. Sejam T, L ∈ L(V ) tais que L ◦ T = T ◦ L. Prove: (a) L(N (T ) ⊂ N (T ); (b) L(Im T ) ⊂ Im T . CAPÍTULO 2. APLICAÇÕES LINEARES 28 2. Sejam L : V → U, T : U → W lineares. Se U, V e W têm dimensão finita, prove que: (a) posto(T ◦ L) ≤ posto(T ); (b) posto(T ◦ L) ≤ posto(L). 3. Sejam V um espaço vetorial de dimensão finita sobre K, L e T elementos de L(V ) tais que L ◦ T = I. Mostre que L é invertível e que T = L−1 . 4. Sejam T : V → U linear e W ⊂ V subespaço. Seja T |W = L : W → U a restrição de T a W, isto é, T (w) = L(w) para todo w ∈ W . Prove: (a) L é linear; (b) N (L) = N (T ) ∩ W ; (c) Im L = T (W ). 5. Seja V = Pn+1 o espaço vetorial dos polinômios de grau menor ou igual a n, com coeficientes reais. Ache um suplementar do subespaço W de V é V formado pelos polinômios p(t) tais que p(1) = 0 e prove que W isomorfo a R. 2.3 Álgebra das Aplicações Lineares Se V e W são espaços vetoriais sobre o corpo K, vimos que L(V, W ) representa o conjunto das aplicações lineares de V em W. Se L, T ∈ L(V, W ) e a ∈ K, definimos L + T e aT , aplicações de V em W, por: (L + T )(v) = L(v) + T (v) (aT )(v) = aT (v), para todo v ∈ V . É fácil verificar que L+T e aT são lineares, isto é, elementos de L(V, W ). Assim, no conjunto L(V, W ) temos duas leis, (L, T ) 7−→ L + T e (a, T ) 7−→ aT , e deixamos aos cuidados do leitor provar que são satisfeitos os oito postulados que definem uma estrutura vetorial. Lembramos apenas que a aplicação linear zero é a aplicação 0(v) = 0 para todo v ∈ V e que a oposta de T ∈ L(V, W ) é a aplicação (−T ) tal que (−T )(v) = −T (v) para todo v ∈ V . Concluímos que L(V, W ), munido das leis de adição (L, T ) 7−→ L + T e de multiplicação por escalar (a, T ) 7−→ aT , é um espaço vetorial sobre K. Estrutura de Anel de L(V ) Se L, T ∈ L(V ), vimos que L + T e L ◦ T são elementos de L(V ). Assim, L(V ) está munido de duas leis, (L, T ) 7−→ L + T e (L, T ) 7−→ L ◦ T , que CAPÍTULO 2. APLICAÇÕES LINEARES 29 tornam L(V ) um anel com identidade, isto é: (a) para a adição L(V ) é um grupo abeliano: 1. L + T = T + L; 2. (L + T ) + S = L + (T + S); 3. existe 0 ∈ L(V ) tal que T + 0 = T ; 4. dado T ∈ L(V ) existe (−T ) ∈ L(V ) tal que T + (−T ) = 0, quaisquer que sejam L, T, S ∈ L(V ). (b) o “produto” (L, T ) 7−→ L ◦ T tem as propriedades: 1. (L ◦ T ) ◦ S = L ◦ (T ◦ S); 2. existe I ∈ L(V ) tal que I ◦ T = T ◦ I = T ; 3. (L + T ) ◦ S = L ◦ S + T ◦ S e L ◦ (T + S) = L ◦ T + L ◦ S, quaisquer que sejam L, T, S ∈ L(V ). Estrutura de Grupo de GL(V ) O conjunto GL(V ) dos automorfismos do espaço vetorial V é um subconjunto de L(V ); se L, T ∈ GL(V ) vimos que L◦T e T −1 pertencem a GL(V ) e a identidade I de V também pertence a GL(V ). Portanto, GL(V ) munido da operação (L, T ) 7−→ L ◦ T é um grupo, chamado grupo linear de V. GL(V ) é o grupo dos elementos invertíveis do anel L(V ). Estrutura de Álgebra de L(V ) Se V é um espaço vetorial sobre K, L(V ) está munido das leis: (1) adição: (L, T ) 7−→ L + T ; (2) multiplicação por escalar: (a, T ) 7−→ aT ; (3) produto: (L, T ) 7−→ L ◦ T . Para as leis (1) e (2), L(V ) tem uma estrutura de espaço vetorial sobre K. Para as leis (1) e (3), L(V ) tem uma estrutura de anel. Além disso, é fácil ver que a(L ◦ T ) = (aL) ◦ T = L ◦ (aT ), quaisquer que sejam L, T ∈ L(V ) e a ∈ K. Vemos assim que L(V ) tem uma estrutura de álgebra (linear) sobre K, de acordo com a seguinte definição. Definição 2.5 Sejam K um corpo a A um conjunto munido de uma adição, de uma multiplicação por escalar e de um produto. Dizemos que A é uma álgebra sobre K se: CAPÍTULO 2. APLICAÇÕES LINEARES 30 (1) A, munido da adição e da multiplicação por escalar, é um espaço vetorial sobre K. (2) A, munido da adição e do produto, é um anel. (3) a(L · T ) = (aL) · T = L · (aT ), quaisquer que sejam L, T ∈ A e a ∈ K. Exemplo 2.3.1 O corpo C dos complexos é uma álgebra sobre R. Exemplo 2.3.2 F(R, R) munido das leis f +g, f ·g, af é uma álgebra sobre R. Exemplo 2.3.3 No espaço vetorial L(V ) consideremos o produto (L, T ) 7−→ [L, Th] = L ◦ Ti − Th ◦ L (colchete de Lie de L e T). É imediato que: i (1) [L, T ], S = L, [T, S] (2) [L + T, S] = [L, S] + [T, S] e [L, T + S] = [L, T ] + [L, S] (3) [aL, T ] = [L, aT ] = a[L, T ], quaisquer que sejam L, T, S ∈ L(V ) e a ∈ K. Portanto o espaço L(V ), munido do produto (L, T ) 7−→ [L, T ], é uma álgebra sobre K, anotada gl(V ). 2.4 Exercícios do Capítulo 2 1. Sejam V1 , V2 espaços vetoriais isomorfos entre si, bem como W1 e W2 . Prove que L(V1 , W1 ) é isomorfo a L(V2 , W2 ). 2. Sejam V, M espaços vetoriais sobre K, V = V1 ⊕ V2 . Prove que L(V1 ⊕ V2 , W ) é isomorfo a L(V1 , W ) × L(V2 , W ). 3. Seja V o espaço vetorial real das funções t 7−→ x(t) de [0, 1] em R, dx e de classe C ∞ . Consideremos em V os operadores x 7−→ f (x) = dt Z t x 7−→ g(x) com g(x)(t) = (g ◦ f )(x) 6= (f ◦ g)(x). x(u)du. Prove que se x(0) 6= 0 então 0 4. Sejam V um espaço vetorial e {v1 , ..., vn } uma base de V. Prove que r vetores u1 , ..., ur ∈ V , r ≤ n, são LI se, e só se, existe um automorfismo T de V tal que T (vj ) = uj , 1 ≤ j ≤ r. 5. Sejam f : V → W linear e ϕ : V × W → V × W tal que ϕ(v, w) = (v, w − f (v)). Prove que ϕ é um automorfismo de V × W . 6. Dois operadores lineares S, T ∈ L(V ) são semelhantes se existe operador invertível P ∈ GL(V ) tal que S = P −1 T P . Se V tem dimensão finita, prove que operadores semelhantes têm o mesmo posto. CAPÍTULO 2. APLICAÇÕES LINEARES 31 7. Seja V um espaço vetorial de dimensão n sobre K. Para k = 1, 2, ..., n, exiba T : V → V linear tal que T k = 0 mas T j 6= 0 se j < k. 8. Sejam V e W espaços vetoriais de dimensão finita e T : V → W linear. Prove: (a) T é injetora ⇔ existe S : W → V linear tal que S ◦ T = idV (b) T é sobrejetora ⇔ existe S : W → V linear tal que T ◦ S = idW 9. Seja V um espaço vetorial de dimensão infinita enumerável de base (v1 , v2 , ..., vn , ...). Seja T : V → V o operador linear definido por T (v2k+1 ) = 0, T (v2k ) = vk , k ∈ N. (a) Prove que T é sobrejetora mas não injetora. (b) Prove que existe S : V → V linear injetora, mas não sobrejetora, tal que T ◦ S = id. 10. Sejam V um espaço vetorial de dimensão finita, V 0 ⊂ V um subespaço, W um espaço vetorial, W 0 ⊂ W um subespaço, e T : V → W linear. Prove:   0 (a) dim T (V ) = dim V 0 − dim (N (T ) ∩ V 0 ) (b) dim T −1 (W 0 ) = dim N (T ) + dim (Im T ∩ W 0 ). 11. E0 , E1 , ..., En sendo espaços vetoriais sobre o mesmo corpo K (n ≥ 2) dizemos que o diagrama fk−1 f0 fn−1 f k E0 − → E1 → − ... → − Ek−1 −−→ Ek − → Ek+1 → − ... → − En−1 −−→ En é uma sequência exata se para 0 ≤ k ≤ n − 2 tem-se N fk+1 = Im fk , as aplicações fk sendo lineares (0 ≤ k ≤ n − 1). Se E0 (resp. En ) é igual a {0}, que escrevemos 0, não escreveremos f0 (resp. fn−1 ) pois só existe uma aplicação linear de 0 em E1 (resp. de En−1 em 0). (a) Prove: f [0 → E → − F é uma sequência exata ] ⇔ f é injetora f [E → − F → 0 é uma sequência exata ] ⇔ f é sobrejetora. (b) Prove que os diagramas seguintes são sequências exatas: E →0 F j i 0→F → − E→ − i f j 0 → Nf → − E→ − F → − F →0 Im f (f aplicação linear, i injeção canônica, j sobrejeção canônica). Capítulo 3 Matrizes 3.1 Definições Definição 3.1 Sejam K um corpo, m e n inteiros positivos e In = {1, 2, ..., n}. Uma matriz m × n sobre K é uma função (i, j) ∈ Im × In 7−→ aij ∈ K. Em geral os escalares aij são dispostos em m linhas e n colunas, o primeiro índice indicando a linha e o segundo a coluna ocupadas por aij :  a11 a12  a21 a22 A=  ... ... am1 am2  ... a1n ... a2n   = (aij ), 1 ≤ i ≤ m, 1 ≤ j ≤ n ... ...  ... amn Os escalares aij são os elementos da matriz A = (aij ). Observemos que duas matrizes, A = (aij ) e B = (bij ), ambas m × n, são iguais se, e só se, aij = bij para todo par (i, j). A matriz zero, m × n, é a que tem todos seus elementos iguais a zero. A matriz A é quadrada quando o número de linhas é igual ao de colunas, isto é, quando ela é do tipo n × n; n é a ordem da matriz quadrada A. Numa matriz quadrada os elementos aii , que têm os índices iguais, formam a diagonal principal. A matriz identidade (ou unidade) de ordem n é a matriz quadrada In na qual todos os elementos da diagonal principal são iguais a 1 e os demais   1 0 0 iguais a zero. Por exemplo, I3 = 0 1 0. O elemento genérico de In é o 0 0 1 32 CAPÍTULO 3. MATRIZES 33 símbolo de Kronecker, definido por: ( 1 se i = j δij = . 0 se i 6= j Assim, In = (δij )1≤i,j≤n . Vamos introduzir no conjunto Mm×n (K), das matrizes m × n sobre K, uma estrutura vetorial. Para isto precisamos definir a adição de matrizes e o produto de uma matriz por um escalar. Definição 3.2 Sejam A = (aij ) e B = (bij ) matrizes m × n. A soma C = = A + B é a matriz m × n, C = (cij ), tal que cij = aij + bij para todo par (i, j). A adição matricial goza das seguintes propriedades de verificação imediata: (1) A + B = B + A (2) A + (B + C) = (A + B) + C (3) A + 0 = A, onde 0 é a matriz zero m × n (4) A + (−A) = 0 onde, sendo A = (aij ), temos (−A) = (−aij ). Definição 3.3 Sejam c ∈ K e A = (aij ) ∈ Mm×n (K). A matriz B = (bij ), onde bij = c·aij para todo par (i, j), é o produto de c por A, anotado B = c·A. É claro que B ∈ Mm×n (K). A multiplicação de matriz por escalar tem as seguintes propriedades, de fácil verificação: (1) 1 · A = A (2) c · (A + B) = c · A + c · B (3) (c + d) · A = c · A + d · A (4) c(d · A) = (cd) · A, quaisquer que sejam A, B ∈ Mm×n (K) e c, d ∈ K. Vemos assim que Mm×n , munido das leis de adição e de multiplicação por escalar, é um espaço vetorial sobre K. Quando m = n escrevemos apenas Mn (K) ou simplesmente Mn . Vamos achar uma base para Mm×n (K). Para isso, consideremos as matrizes Eij , 1 ≤ i ≤ m, 1 ≤ j ≤ n, onde cada Eij é m × n e tem todos os elementos iguais a zero, exceto o situado na linha i e na coluna j, que é igual a um: CAPÍTULO 3. MATRIZES 34         Eij =         0 ... .. . . . . 0 ... .. . . . . 0 ... 0 .. . ... . .. 0 .. . 1 .. . ... .. . 0 .. . 0 ↑ coluna j ... 0         ← linha i       Proposição 3.1 O conjunto {E11 , ..., E1n , ..., Em1 , ..., Emn } é uma base de Mm×n (K). Dem. Se A = (aij ) é m×n é claro que A = m X n X aij Eij , ou seja, as matri- i=1 j=1 zes Eij geram Mm×n (K). Além disso, elas são LI, pois se m X n X aij Eij = 0, i=1 j=1 então A = (aij ) = 0, donde aij = 0 para todo par (i, j). Corolário 3.1.1 dim Mm×n (K) = m · n. 3.2 Produto de Matrizes Definição 3.4 Sejam A = (aij ) – m × n – e B = (bij ) – n × p, ou seja, o número de colunas de A é igual ao número de linhas de B. O produto n X C = A · B é a matriz m × p, C = (cij ), tal que cij = aik bkj . k=1 Exemplo 3.2.1   1 3   1 2 1 3 4 0 1 0 0 2  1 = 6   0 1 = 2 3 2 4  2 8  4 8  o que mostra que o produto não é comutativo. Proposição 3.2 (a) (AB)C = A(BC) (b) A(B1 + B2 ) = AB1 + AB2 ; (A1 + A2 )B = A1 B + A2 B CAPÍTULO 3. MATRIZES 35 (c) In A = AIn = A, onde se supõem definidos os produtos e somas (das matrizes) indicados, e em (c) A é m × n. Dem. (a) Sejam: A = (aij ) do tipo m × n . B = (bij ) do tipo n × p C = (cij ) do tipo p × q Então: AB = (dij ) é m × p e (AB)C = (eij ) é m × q BC = (fij ) é n × q e A(BC) = (gij ) é m × q, ou seja, se o primeiro membro está definido, então o segundo também, e é do mesmo tipo. Temos: eij = gij = p X k=1 n X dik ckj = p X k=1 n X air frj = r=1 r=1 ckj n X air brk r=1 p air X brk ckj , k=1 o que mostra que eij = gij para todo i e todo j. As demonstrações de (b) e (c) são deixadas a cargo do leitor. 3.3 Aplicação Linear × Matriz Sejam V e W espaços vetoriais sobre o corpo K, E = (v1 , ..., vn ) e F = (w1 , ..., wn ) bases ordenadas de V e W, respectivamente, e T : V −→ W linear. n m X X Se v = x1 v1 + ... + vn vn = xj vj , T (v) = y1 w1 + ... + ym wm = yi wi j=1 e T (vj ) = m X i=1 aij wi , então: i=1 T (v) = n X j=1 xj T (vj ) = n X m X j=1 i=1 aij xj wi . CAPÍTULO 3. MATRIZES Portanto: yi = 36 n X aij xj (i = 1, 2, ..., m) j=1 Pondo:     x1 y1        x2   y2   E v E =  ..  , [T v]F =  ..  e T F = (aij ) , 1≤i≤m .  .  1≤j≤n xn ym o sistema acima pode ser escrito na forma matricial    E   T (v) F = T F · v E . Assim, fixadas as bases ordenadas E e F, a toda aplicação linear T : V −→ m X  E W podemos associar uma matriz T F = (aij ) definida por T (vj ) = aij wi , i=1 ou seja,   a a ... a 11 12 in  E ... ... ...  . T F =  ... am1 am2 ... amn  E T F é a matrix de T em relação às bases E de V e F de W. Ela é do tipo m × n e, para cada j, as componentes de T (vj ) na base F formam a coluna j dessa matriz. Reciprocamente, dada uma matriz m × n, A = (aij ), consideremos os m X vetores uj , i ≤ j ≤ m, definidos por uj = aij wi . Seja T : V −→ W a i=1 única aplicação linear tal que T (vj ) = uj , 1 ≤ j ≤ n. Então é claro que  E T F = A. Existe, pois, uma bijeção entre L(V, W ) e Mm×n (K), bijeção esta que depende da escolha das bases ordenadas E de V e F de W. Exemplo 3.3.1 Sejam V um espaço vetorial sobre K e B = {v1 , ..., vn } uma base de V. Sejam os operadores lineares I(v) = v e 0(v) = 0 para todo v ∈ V .  B  B É claro que I B = In e 0 B = 0. Exemplo 3.3.2 Seja V = Pn o espaço vetorial dos polinômios a uma variável e de grau menor que n, com coeficientes em K, juntamente com o CAPÍTULO 3. MATRIZES 37 polinômio zero. Sejam B = {1, t, ..., tn−1 } base de V e D : V −→ V a aplicação derivada: D(a0 + a1 t + ... + an−1 tn−1 ) = a1 + 2a2 t + ... + (n − 1)an−1 tn−2 . Então:  0 0  B  D B= ... 0 0 1 0 ... 0 0 0 2 ... 0 0  ... 0 ... 0   ... ...   ... n − 1 ... 0 Exemplo 3.3.3 Sejam I : R3 −→ R3 a identidade, E = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}  E e F = {(1, 0, 0), (1, 1, 0), (1, 1, 1)} bases de R3 . Vamos achar I F . Temos: I(1, 0, 0) = (1, 0, 0); Portanto: I(0, 1, 0) = (1, 1, 0)−(1, 0, 0); I(0, 0, 1) = (1, 1, 1)−(1, 1, 0).   1 −1 0  E I F = 0 1 −1 0 0 1 Exemplo 3.3.4 Seja T : R3 −→ R3 definida por T (x, y, z) = (x + y + z, y + z, z). É claro que T é linear. Sejam E e F as bases do exemplo 3.3.3. Vamos  E  E achar T F e T E . Temos: T (1, 0, 0) = (1, 0, 0); T (0, 1, 0) = (1, 1, 0); T (0, 0, 1) = (1, 1, 1). Portanto:   1 0 0  E T F = 0 1 0 = I3 0 0 1 E:   1 1 1  E T E = 0 1 1 0 0 1 n m Exemplo 3.3.5 Seja A = (a ij ) m×n sobre K. Seja TA : K −→ K tal que x1  E  ..  TA (X) = A · X, onde X =  . . É claro que TA é linear e que T F = A, xn onde E e F são as bases canônicas de K n e K m , respectivamente. CAPÍTULO 3. MATRIZES 38 Exemplo 3.3.6 (Rotação) Sejam E = (e1 , e2 ) a base canônica do R2 e F = (f1 , f2 ) onde f1 = cos α · e1 + sen α · e2 . f2 = −sen α · e1 + cos α · e2 , α ∈ R Definamos T : R2 −→ R2 linear por meio de: T e1 = f1 T e2 = f2 Então:    E cos α −sen α T E= senα cos α   x A imagem de ∈ R2 por T é o vetor y      cos α −sen α x x · cos α − y · sen α = ∈ R2 . senα cos α y x · senα + y · cos α A transformação linear T é a rotação de α em torno da origem. Proposição 3.3 Sejam V e W espaços vetoriais sobre K, E = (v1 , ..., vn ) e F = (w1 , ..., wn ) bases ordenadas de V e W, respectivamente. A aplicação  E T 7−→ T F , que a cada elemento de L(V, W ) associa sua matriz em relação às bases dadas, é um isomorfismo de L(V, W ) sobre Mm×n (K). CAPÍTULO 3. MATRIZES 39 Dem. Sejam T e S elementos de L(V, W ), T (vj ) = m X aij wi , S(vj ) = i=1 m X bij wi , i=1  E  E isto é, T F = (aij ) e S F = (bij ). m X Como (T + S)(vj ) = (aij + bij )wi resulta que i=1  E T + S F = (aij + bij ) Se c ∈ K temos (cT )(vj ) = m X 1≤i≤m 1≤j≤n  E  E = T F + S F.  E  E caij wi , isto é, cT F = (caij ) = c · T F . i=1  E Portanto, a aplicação T 7−→ T F é linear (e bijetora), ou seja, um isomorfismo. Corolário 3.3.1 dim L(V, W ) = dim V · dim W . Proposição 3.4 Sejam U, V, W espaços vetoriais sobre K, E = (u1 , ..., um ), F = (v1 , ..., vn ) e G = (w1 , ..., wp ) bases ordenadas de U, V, W, respectivaS T mente. Se U − →V − → W são lineares, então:  T ◦S E G  F  E = T G · S F. Dem. Sejam:  F T G = (aij ) – p × n  E S F = (bij ) – n × m  Então: T ◦S E G = (cij ) – p × m CAPÍTULO 3. MATRIZES 40 T (vk ) = p X aik wi i=1 S(uj ) = n X bkj vk k=1 (T ◦ S)(uj ) = p X cij wi i=1 Portanto: p n n X X  X aik bkj wi , T S(uj ) = bkj T (vk ) = k=1 i=1 k=1 donde: cij = n X aik bkj , k=1 que é a tese. O conjunto Mn (K) das matrizes de ordem n, munido das leis de adição e multiplicação por escalar, é um espaço vetorial sobre K de dimensão n2 . Mn (K), munido das operações de adição e multiplicação matriciais, é um anel (com unidade). Além disso, é fácil verificar que c(AB) = (cA)B = A(cB) quaisquer que sejam A, B ∈ Mn (K) e c ∈ K. Resulta que Mn (K) tem uma estrutura de álgebra sobre K. Vimos que o anel Mn (K) não é comutativo; o exemplo      1 0 0 0 0 0 = 0 0 0 1 0 0 mostra que ele tem divisores de zero. Seja V um espaço vetorial sobre K, de dimensão n. Vimos que L(V ) e Mn (K) são duas álgebras sobre K. Fixada uma base B de V, a aplicação φ  B bijetora T ∈ L(V ) 7−→ T B ∈ Mn (K) goza das seguintes propriedades:  B  B  B (1) L + T B = L B + T B , isto é, φ(L + T ) = φ(L) + φ(T )  B  B (2) aT B = a T B , isto é, φ(aT ) = a · φ(T )  B  B  B (3) L ◦ T B = L B · T B , isto é, φ(L ◦ T ) = φ(L) · φ(T ), quaisquer que sejam L, T ∈ L(V ) e a ∈ K. CAPÍTULO 3. MATRIZES 41 Uma tal φ chama-se um isomorfismo de álgebras, ou seja, L(V ) e Mn (K) são álgebras isomorfas. Exemplo 3.3.7 Vamos achar o centro do anel Mn (K), isto é, vamos determinar as matrizes A = (aij ) de Mn (K) que comutam com toda matriz P = (pij ) de Mn (K), ou seja, tais que AP = P A. Devemos ter n n X X aik pkj = pik akj para todo par (i, j). Se P = Eii , isto é, pii = 1 e k=1 k=1 prs = 0 para r 6= i ou s 6= i, então i 6= j implica aij = 0. Se P = Eij com i 6= j, isto é, pij = 1 e prs = 0 para r 6= i ou s 6= j, então aii = ajj . Logo, se A comuta com toda matriz de Mn (K) ela é da forma A = a · In , e é evidente que toda matriz a · In , a ∈ K, comuta com toda matriz de Mn (K). Estas matrizes têm o nome de matrizes escalares. Definição 3.5 Uma matriz quadrada A, n × n, é invertível se existe matriz quadrada B, de mesma ordem, tal que AB = BA = In . Se uma tal matriz B existe, ela é única, pois se AC = In e BA = In , temos: B = B · In = B(AC) = (BA)C = In · C = C. esta matriz B, caso exista, chama-se a inversa de A, e é anotada B = A−1 . Assim, A · A−1 = A−1 · A = In , o que mostra também que (A−1 )−1 = A. Se A e B, ambas n × n, são invertíveis, então AB é invertível e (AB)−1 = B −1 A−1 . De fato, (AB)(B −1 A−1 ) = A(BB −1 )A−1 = A · A−1 = In e (B −1 A−1 )(AB) = B −1 (A−1 · A)B = B −1 B = In . É claro que In−1 = In . Vemos assim que o conjunto das matrizes invertíveis de Mn (K), com a operação de multiplicação matricial, é um grupo. O isomorfismo φ : L(K n ) −→ Mn (K) visto acima, transforma o grupo GL(K n ) = GL(n, K) isomorficamente sobre o grupo das matrizes invertíveis de Mn (K). Em particular, h iB   −1 B T −1 = T B . B Exemplo 3.3.8 Seja A, de ordem n, tal que a0 In + a1 A + ... + an An = 0 com a0 6= 0. Então A é invertível. De fato, temos:     a1 an n−1 a1 an n−1 − In − ... − A · A = A · − In − ... − A = In . a0 a0 a0 a0 an a1 Logo, A−1 = − · In − ... − · An−1 a0 a0 CAPÍTULO 3. MATRIZES 42 Proposição 3.5 Seja A ∈ Mn (K). Se existe B ∈ Mn (K) tal que BA = In (ou AB = In ), então A é invertível e B = A−1 . Dem. Sejam TA : K n −→ K n e TB : K n −→ K n as aplicações lineares associadas a A e B, respectivamente. BA = In equivale a TB · TA = idK n , que implica ser TA injetora e TB sobrejetora e, portanto, ambas são bijetoras e TB = TA−1 , donde A−1 = B. Exercícios 1. Dê uma base para M3 (K). 2. Seja W o subespaço de Mn (K) formado pelas martrizes cujos elementos são iguais a zero, exceto talvez os da diagonal principal. Qual a dimensão de W? 3. Seja A ∈ Mn (R). A = (aij ) é simétrica (resp. antissimétrica) se aij = aji (resp. aij = −aji ) para todo (i, j). Ache uma base para o espaço das matrizes simétricas (resp. antissimétricas) 3 × 3. 4. Seja T : R4 −→ R2 dada por T (x1 , x2 , x3 , x4 ) = (x2 , x4 ). Ache uma matriz associada a T.   5. Sejam E = (1, 1, 0), (−1, 1, 1), (0, 1, 2) e F = (2, 1, 1), (0, 0, 1), (1, 1, 1)  E bases de C3 . Ache I F , onde I : C3 −→ C3 é a identidade. 6. Seja V o subespaço de F(R, R) = {f : R −→ R} gerado pelas funções 1, t, et , e2t , te2t e seja D : V −→ V o operador de derivação. Se  B B = (1, t, et , e2t , te2t ) é base de V, ache D B . 7. Estabeleça um isomorfismo entre o espaço vetorial real das matrizes simétricas n × n e o espaço das matrizes reais triangulares inferiores (aij = 0 se i < j). Idem entre as matrizes antissimétricas e as triangulares inferiores com a diagonal principal nula. 3.4 Mudança de Bases Sejam V um espaço vetorial sobre K, E = (v1 , ..., vn ) e F = (w1 , ..., wn ) bases      F ordenadas de V. Se v ∈ V , então v E = P · v F , onde P = I E = (pij ) é n X tal que wj = pij vi . i=1 CAPÍTULO 3. MATRIZES 43  F Definição 3.6 P = I E é a matriz de passagem da base E para a base F. Exemplo 3.4.1 Sejam V  = R3 , E = (e1 , e2 , e3 ) (1, −1, 1), (1, 0, 0), (1, 1, 1) = (f1 , f2 , f3 ). Então:   1 1 1  F P = I E = −1 0 1 . 1 0 1  1 1    −1 0 Se v = 2f1 + f2 + 3f3 , então v E = 1 0 v = 6e1 + e2 + 5e3 . – base canônica, F =     1 2 6 1 1 = 1, isto é, 1 3 5 Proposição 3.6 Sejam V e W espaços vetoriais sobre K, E = (v1 , ..., vn ), E 0 = (v10 , ..., vn0 ) bases ordenadas de V, 0 F = (w1 , ..., wm ), F 0 = (w10 , ..., wm ) bases ordenadas de W,  E 0 P = idv E  F 0 a matriz de passagem de E para E 0 , Q = idW F a matriz de passagem de F para F 0 . Se T : V −→ W é linear, então:  E 0  E T F 0 = Q−1 · T F · P. Dem. Temos T = idW · T · idV . Pela proposição 3.3, vem:  E 0  F  E  E 0 T F 0 = idW F 0 · T F · idV E Mas: e F 0  F 0  F  In = idW F 0 = idW F 0 · idW F  F  F 0  F In = idW F = idW F · idW F 0 ,  F o que mostra que idW F 0 = Q−1 . Resulta:  E 0  E T F 0 = Q−1 · T F · P CAPÍTULO 3. MATRIZES 44 Corolário 3.6.1 Sejam V um espaço vetorial sobre K, E e E 0 bases de V e  E 0 P = idV E a matriz de passagem de E para E 0 . Se T : V −→ V é linear, então:  E 0  E T E 0 = P −1 · T E · P Definição 3.7 Dizemos que as matrizes A, B ∈ Mm×n (K) são equivalentes se existem matrizes Q ∈ GL(m, K) e P ∈ GL(n, K) tais que B = QAP . Obs.: A proposição 3.6 nos diz que se A e B são matrizes associadas à mesma aplicação linear T : V −→ W , então A e B são equivalentes. Reciprocamente, suponhamos A e B equivalentes, isto é, B = QAP onde A, B ∈ Mm×n (K), P ∈ GL(n, K) e Q ∈ GL(m, K). Sejam E = (v1 , ..., vn ) e F = (w1 , ..., wm ) bases ordenadas dos espaços ve E toriais V e W e T : V −→ W linear tal que A = T F . Definamos n m X X 0 0 0 0 0 0 0 0 E = (v1 , ..., vn ) e F = (w1 , ..., wm ) por vj = pij vi e wj = qij wi , i=1 i=1 onde P = (pij ) e Q−1 = (qij ). Como P e Q são invertíveis, E 0 e F 0 são bases de V e W, respectivamente,  E 0  F 0 P = idV E e Q−1 = idW F . Pela proposição 3.6, temos:  E 0  E 0 T F 0 = QAP, isto é, B = T F 0 , o que mostra que A e B representam a mesma aplicação linear T : V −→ W . Definição 3.8 Dizemos que as matrizes A, B ∈ Mn (K) são semelhantes se existe P ∈ GL(n, K) tal que B = P −1 · A · P . Como na observação, acima é fácil ver que A, B ∈ Mn (K) são semelhantes se, e só se, elas representam um mesmo operador linear T : V −→ V , onde dimK V = n. Obs.: É fácil verificar que as relações “A e B são equivalentes” e “A e B são semelhantes”, são relações de equivalência (isto é, reflexivas, simétricas e transitivas). Exemplo 3.4.2 Seja T : R3 −→ R3 , T (x1 , x2 , x3 ) = (x1 + 2x3 , 3x1 + 2x2 +  x3 , x2 +4x3 ) e sejam E = (e1 , e2 , e3 ) – base canônica e F = (1, 0, 0), (1, 1, 0), (1, 1, 1) bases de R3 . CAPÍTULO 3. MATRIZES 45 Temos: T (1, 0, 0) = (1, 3, 0) T (0, 1, 0) = (0, 2, 1) T (0, 0, 1) = (2, 1, 4) Portanto:   1 0 2  E T E = 3 2 1 = A. 0 1 4 Por outro lado, se F = (f1 , f2 , f3 ), temos: T (f1 ) = (1, 3, 0) = −2f1 + 3f2 T (f2 ) = (1, 5, 1) = −4f1 + 4f2 + f3 T (f3 ) = (3, 6, 5) = −3f1 + f2 + 5f3 Portanto:   −2 −4 −3  F 4 1  = B. T F = 3 0 1 5   1 1 1  F A matriz de passagem de E para F é P = I E , ou seja, P = 0 1 1, e 0 0 1 é imediato verificar que   1 1 3 AP = P B = 3 5 6 , isto é, B = P −1 · A · P. 0 1 5 Posto de uma Matriz Seja A = (aij ) matriz m × n sobre K. Os vetores-coluna de A são os vetores A1 , ..., An ∈ K m definidos por   aij  a2j    Aj =  ..  (1 ≤ j ≤ n)  .  amj Definição 3.9 O posto de uma matriz A é a dimensão do subespaço de K m gerado pelos vetores-coluna de A, ou seja, o posto de A é o número máximo de vetores-coluna de A linearmente independentes. CAPÍTULO 3. MATRIZES 46 Proposição 3.7 Sejam V, W espaços vetoriais sobre K, E = (v1 , ..., vn ) e F = (w1 , ..., wm ) bases ordenadas de V e W, respectivamente, e T : V −→ W  E linear. Se A = T F , então: posto(A) = posto(T ).  E Dem. Seja A = (aij ). Dizer que A = T F significa dizer que T (vj ) = m X   aij wi , ou seja, Aj = T (vj ) F (j = 1, ..., n), e o isomorfismo de K m i=1 sobre W que leva a base canônica de K m na base F de W, transforma o espaço gerado pelos vetores-coluna A1 , ..., An de A sobre o espaço gerado pelos vetores T (v1 ), ..., T (vn ) de W, ou seja, estes espaços têm a mesma dimensão e, portanto, posto(A) = posto(T ). Proposição 3.8 Seja A ∈ Mm×n (K) de posto r. Então r ≤ m, r ≤ n e A é equivalente à matriz m × n: Figura 3.1: Matriz equivalente  E Dem. Seja T : K n −→ K m linear tal que A = T F , onde E e F são as bases canônicas de K n e K m , respectivamente. Como n = dim N (T ) + dim Im T temos que dim N (T ) = n − r ≥ 0. Podemos, então, escolher uma base E 0 = (v1 , ..., vn ) de K n de modo que (vr+1 , ..., vn ) seja base de N (T ). É claro que os vetores T (v1 ), ..., T (vr ) são LI em K m (verifique!), donde r ≤ m e podemos considerar uma base de K m da forma F 0 = (T v1 , ..., T vr , wr+1 , ..., wm ). Obtemos:  E 0 T F 0 = matriz da figura 3.1.  E Resulta que A = T F é equivalente a B = matriz da figura 3.1 :  F  E 0 B = QAP, Q = id F 0 , P = id E . CAPÍTULO 3. MATRIZES 47 Corolário 3.8.1 Duas matrizes A, B ∈ Mm×n (K) são equivalentes se, e só se, elas têm o mesmo posto. Dem. Se A e B são equivalentes, elas representam, em relação a bases diferentes, a mesma aplicação linear T : K n −→ K m . Portanto, posto(A) = posto(T ) = posto(B). Reciprocamente, se posto(A) = posto(B) = r, então A e B são equivalentes à matriz da figura 3.1 e, portanto, elas são equivalentes. Corolário 3.8.2 A matriz A ∈ Mm×n (K) é invertível se, e só se, posto(A) = n. Dem. A matriz A representa um operador linear T : K n −→ K m e posto(T ) = posto(A) = n se, e só se, T é sobrejetora (donde bijetora), isto é, se, e só se, T ∈ GL(n, K) e, portanto, se, e só se, A é invertível. 3.5 Exercícios do Capítulo 3   1 0   E 1. Obtenha bases E de R2 e F de R3 de modo que T F = 0 1, onde 0 0     2x + y x  T = 3x − 2y . y x + 3y 2. Calcule o posto das matrizes:   1 2 3 A = 4 5 6 ; 7 8 9   1 2 3 B = 4 5 6 . 2 1 0 Mostre que os espaços gerados pelas linhas e colunas de A coincidem, o que não ocorre com B. CAPÍTULO 3. MATRIZES 48 3. Seja a matriz n × n cujas linhas são os vetores v1 = (1, 2, ..., n), v2 = (2, 3, ..., n, n + 1), etc. Prove que o posto da matriz é 2 e que o espaço-linha coincide com o espaço-coluna. 4. Ache reais a, b, ctais queax + by + cz = 0 seja o plano gerado pelas 1 1 2  linhas da matriz 1 2 3. 1 3 4 5. Prove que toda matriz antissimétrica 3 × 3 não-nula tem posto 2. Dê exemplo de uma matriz antissimétrica invertível 4 × 4. 6. Sejam V um espaço vetorial de dimensão n sobre K e T : V −→ V linear. T é nilpotente de índice p se existe p ∈ N tal que T p−1 6= 0 e T p = 0. (a) Prove que se T é nilpotente e existem λ ∈ K, x ∈ V, x 6= 0 tais que T (x) = λx, então λ = 0. (b) Prove que se T é nilpotente de índice p e T p−1 (x) 6= 0, então os vetores x, T (x), ..., T p−1 (x) são LI. (c) T é nilpotente de índice n ⇔ existe base E de V tal que na matriz  E A = T E = (aij ) – n × n – se tenha aij = 0 exceto ai,i+1 = 1 (1 ≤ i ≤ n − 1).   1 1 0 7. Seja A = 0 1 1; ache An , n ∈ N. 0 0 1    iθ  cos θ −sen θ e 0 8. Prove que e são semelhantes sobre C. sen θ cos θ 0 e−iθ 9. Seja A = (aij ) − n × n. O traço de A é o número tr(A) = n X aii . i=1 Prove que tr : Mn (K) −→ K é linear, que tr(AB) = tr(BA), e que tr(P −1 AP ) = tr(A), quaisquer que sejam A, B ∈ Mn (K) e P ∈ GL(n, K). 10. Sejam T : M2 (R) −→ M2 (R) tal que T (A) = P A, onde P ∈ M2 (R) é fixa. Prove que tr(T ) = 2tr(P ). Capítulo 4 Formas Lineares. Dualidade 4.1 Definição Seja V um espaço vetorial sobre o corpo K. Considerando K um espaço vetorial sobre si mesmo, L(V, K) é um espaço vetorial sobre K, designado por V ∗ e chamado de dual de V; seus elementos são chamados de formas (ou funcionais) lineares em V. O dual de V ∗ é o bidual de V, anotado V ∗∗ . Os elementos de V ∗ serão designados por letras gregas tais como α, β, ω, etc. Assim, uma forma linear ω ∈ V ∗ é uma aplicação linear ω : V −→ K. Se E = {v1 , ..., vn } é uma base de V e se v = x1 v1 +...+xn vn , então ω(v) = x1 ω(v1 ) + ... + xn ω(vn ). Pondo ω(vi ) = ai , temos: ω(v) = a1 x1 + ... + an xn , que é a representação de ω na base E. Exemplo 4.1.1 Se V = K n , a aplicação πi (x1 , ..., xn ) 7−→ xi (1 ≤ i ≤ n) é uma forma linear em K n , chamada a i-ésima forma coordenada. Exemplo 4.1.2 Se V = C 0 ([0, 1], R) é o espaço Z 1 vetorial real das funções f (t)dt ∈ R é uma forma contínuas f : [0, 1] −→ R a função f ∈ V 7−→ 0 linear em V. Proposição 4.1 Sejam V um espaço vetorial sobre K e (v1 , ..., vn ) uma base ordenada de V. Para cada  i, 1 ≤ i ≤ n, seja ωi : V −→ K a forma linear 1 se i = j definida por ωi (vj ) = δij = (1 ≤ i ≤ n). 0 se i ≤ j Então, (ω1 , ..., ωn ) é uma base de V ∗ e as coordenadas de ω ∈ V ∗ nesta base, são ω(v1 ), ..., ω(vn ). Dem. Sabemos que dim V ∗ = dim L(V, K) = n e que as condições ωi (vj ) = δij (j = 1, ..., n) determinam univocamente a forma ωi . Basta então provar 49 CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 50 que ω1 , ..., ωn são LI. Para isso, suponhamos que ω = a1 ω1 + ... + an ωn = 0. n X Então, para j = 1, ..., n, temos ω(vj ) = 0, ou seja, ai ωi (vj ) = 0, ou n X i=1 ai δij = 0, donde aj = 0. Este cálculo mostra também que se i=1 ω = a1 ω1 + ... + an ωn , então aj = ω(vj ) . Definição 4.1 Se (v1 , ..., vn ) é base ordenada de V, a base (ω1 , ..., ωn ) de V ∗ , tal que ω(vj ) = δij (1 ≤ j ≤ n), chama-se base dual da base (v1 , ..., vn ). Exemplo 4.1.3 Sejam V = K n e (e1 , ..., en ) a base canônica de K n . Seja πi : K n −→ K a i-ésima forma coordenada, isto é, πi (x1 , ..., xn ) = xi . É claro que πi (ej ) = δij , de modo que a base dual da base canônica de K n é a base (π1 , ..., πn ) de (K n )∗ . Obs. Se V e W têm a mesma dimensão finita sobre K, a escolha de bases E de V e F de W nos permite definir um isomorfismo que leva E sobre F, e todo isomorfismo entre V e W é obtido dessa forma. Assim, em geral, há mais de um isomorfismo entre V e W e não temos uma maneira natural para preferir um ou outro desses isomorfismos. Entretanto, no caso de V e V ∗∗ , podemos distinguir um isomorfismo J : V −→ V ∗∗ definido independente da escolha de bases, isto é, um isomorfismo canônico, que nos permite identificar V a V ∗∗ . Proposição 4.2 Seja V um espaço vetorial de dimensão finita n sobre K. A aplicação canônica J : V −→ V ∗∗ v 7−→ Jv : V ∗ −→ K ω 7−→ ω(v) é um isomorfismo entre V e V ∗∗ . Dem. É fácil verificar que Jv = J(v) é um elemento de V ∗∗ , bem como que J é linear. Basta então provar que J é injetora, já que dim V = dim V ∗∗ = n. Para isto, seja v 6= 0; tomemos uma base de V da forma (v, v1 , ..., vn−1 ) e CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 51 consideremos a base dual correspondente (ω, ω1 , ..., ωn−1 ). Então, ω(v) = 1 = Jv (ω), ou seja, Jv 6= 0. Assim, v 6= 0 implica Jv 6= 0, o que mostra ser J injetora. Obs. (1) Identificando-se v ∈ V a Jv ∈ V ∗∗ , a igualdade Jv (ω) = ω(v) se escreve v(ω) = ω(v), e é usual usar-se a notação < v, ω > para este escalar. (2) No caso em que V é de dimensão infinita, prova-se que J : V −→ V ∗∗ é injetora, mas nunca sobrejetora, ou seja, J não é um isomorfismo neste caso. Exercícios 1. Sejam B1 = (v1 , ..., vn ), B2 = (u1 , ..., un ) bases do espaço vetorial V, B1∗ = (α1 , ..., αn ) e B2∗ = (β1 , ..., βn ) as bases duais correspondentes. n n X X Se vj = aij ui e αj = bij βi , i ≤ j ≤ n, qual a relação entre as i=1 i=1 matrizes A = (aij )eB = (bij )? 2. Estude a independência linear das formas lineares sobre R4 , onde ab 6= 0: f1 (x1 , x2 , x3 , x4 ) = x1 − ax3 , 1 f2 (x1 , x2 , x3 , x4 ) = x2 − x4 , a f3 (x1 , x2 , x3 , x4 ) = x1 − bx4 , 1 f4 (x1 , x2 , x3 , x4 ) = x2 − x4 . b 3. Sejam V um espaço vetorial de dimensão finita e W ⊂ V um subespaço. Se f ∈ W ∗ mostre que existe g ∈ V ∗ tal que g|W = f . 4. Sejam V um espaço vetorial real de dimensão finita, e v1 , v2 , ..., vp vetores não nulos de V. Prove que existe f ∈ V ∗ tal que f (vi ) 6= 0, i = 1, 2, ..., p. 5. Seja f : V −→ R uma forma linear não-nula. Prove que existe v0 ∈ V tal que f (v0 ) = 1. Seja W = Rv0 a reta gerada por v0 . Prove que V = W ⊕ N (f ). 6. Sejam f, g : V −→ R formas lineares não-nulas e dim V = n. Prove que N (f ) = N (g) ⇔ f é múltiplo de g. CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 4.2 52 Anulador de um Subespaço Definição 4.2 Sejam V um espaço vetorial sobre K e U ⊂ V um subespaço. Chama-se anulador de U ao conjunto U 0 = {ω ∈ V ∗ ; ω(u) = 0 para todo u ∈ U }. É fácil ver que U 0 ⊂ V ∗ é um subespaço. Se ω ∈ V ∗ pode-se mostrar sem dificuldade que ω ∈ U 0 se, e só se, ω se anula numa base de U. Proposição 4.3 Sejam V um espaço vetorial de dimensão finita sobre K e U ⊂ V um subespaço. Então: dim U + dim U 0 = dim V. Dem. Como o caso U = {0} é trivial, vamos supor U 6= {0}. Seja (v1 , ..., vn ) base de V tal que (v1 , ..., vp ) seja base de U. Se (ω1 , .., ωn ) é a base dual, então < vj , ωi >= ωi (vj ) = 0 para i = 1, ..., p e i = p + 1, ..., n, ou seja, as formas ωp+1 , ..., ωn pertencem a U 0 . Vamos provar que elas formam uma base de U 0 . Como elas são LI, basta provar que elas geram U 0 . Para isto, seja ω ∈ U 0 . Se ω = a1 ω1 + ... + an ωn , então, para j = 1, ..., p temos: 0 = ω(vj ) = n X i=1 ai ωi (vj ) = n X ai δij = aj , i=1 ou seja, ω = ap+1 ωp+1 + ... + an ωn , como queríamos. Corolário 4.3.1 Nas hipóteses da proposição 4.3, temos (U 0 )0 = U (supondose identificados V e V ∗∗ ). Dem. (U 0 )0 = {v ∈ V ; < ω, v >= 0 ∀ω ∈ U 0 }. Portanto, se u ∈ U , então u ∈ (U 0 )0 , isto é, U ⊂ (U 0 )0 . Por outro lado, dim (U 0 )0 = dim V ∗ − dim U 0 = dim V − dim U 0 = dim U, donde U=(U 0 )0 . Obs. Se ω ∈ V ∗ , ω 6= 0, o subespaço de V, H = {v ∈ V ; < ω, v >= 0}, tem dimensão igual a (dim V − 1) e chama-se um hiperplano de V. Exemplo 4.2.1 Seja W o subespaço de R4 gerado pelos vetores v1 = (1, 2, 0, 1), v2 = (2, 1, 3, 0) e v3 = (0, 3, −3, 2). Vamos achar uma base para o anulador W 0 . CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 53 Se (v, y, z, t) ∈ R4 e ω ∈ (R4 )∗ , então ω(x, y, z, t) = ax + by + cz + dt, onde a, b, c, d ∈ R, e ω ∈ W 0 se, e só se, ω(v1 ) = ω(v2 ) = ω(v3 ) = 0, ou seja, se e só se, ( ( d a + 2b + d = 0 a = −2c + 3 2a + b + 3c = 0 se, e só se, 2d . b=c− 3b − 3c + 2d = 0 3 Resulta que ω1 e ω2 , tais que ω1 (x, y, z, t) = −2x + y + z, ω2 (x, y, z, t) = x − 2y + 3t, formam uma base de W 0 (obtidas fazendo-se c = 1, d = 0 e c = 0, d = 3, respectivamente). Exemplo 4.2.2 Seja V um espaço vetorial de dimensão n sobre K. Todo subespaço W de V é a interseção de um número finito de hiperplanos de V. De fato, seja (v1 , ..., vn ) base de V tal que (v1 , ..., vp ) seja base de W. Seja (ω1 , ..., ωn ) a base dual de (v1 , ..., vn ). Então: v ∈ W ⇔ ωp+1 (v) = ... = ωn (v) = 0, ou seja, W = n \ Hj , onde Hj = N (ωj ) é o hiperplano definido por ωj . j=p+1 Exercícios 1. Seja W ⊂ R5 o subespaço gerado pelos vetores ω1 = (2, −2, 3, 4, −1), ω2 = (−1, 1, 2, 5, 2) ω3 = (0, 0, −1, −2, 3) e ω4 = (1, −1, 2, 3, 0). Ache uma base para o anulador W 0 de W. 2. Sejam V um espaço vetorial de dimensão finita sobre K, U e W subespaços de V. Prove: (a) (U + W )0 = U 0 ∩ W 0 ; (U ∩ W )0 = U 0 + W 0 (b) V = U ⊕ W ⇒ V ∗ = U 0 ⊕ W 0 . 4.3 Transposição Sejam V, W espaços vetoriais sobre K e T : V −→ W linear. Se β ∈ W ∗ então β ◦ T : V −→ K é linear, isto é, β ◦ T ∈ V ∗ . Definição 4.3 A aplicação T t : W ∗ −→ V ∗ definida por T t (β) = β ◦ T para toda β ∈ W ∗ , chama-se a transposta de T: CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 54 Assim, < T t (β), v >=< β, T (v) > para todo v ∈ V . Proposição 4.4 A transposta T t : W ∗ −→ V ∗ da aplicação linear T : V −→ W , é uma aplicação linear. Dem. T t (α + β) = (α + β) ◦ T = α ◦ T + β ◦ T = T t (α) + T t (β) T t (aβ) = (aβ) ◦ T = a(β ◦ T ) = aT t β, quaisquer que sejam α, β ∈ W ∗ e a ∈ K. Exemplo 4.3.1 Se V = W e T = idV , então: (idV )t (β) = β ◦ idV = β para todo β ∈ V ∗ , ou seja, (idV )t = idV ∗ . Proposição 4.5 Sejam U, V, W espaços vetoriais sobre K. (a) A aplicação T ∈ L(U, V ) 7−→ T t ∈ L(V ∗ , U ∗ ) é linear. (b) Se T ∈ L(U, V ) e S ∈ L(V, W ), então (S ◦ T )t = T t ◦ S t . Além disso, se T é bijetora então T t é bijetora e (T −1 )t = (T t )−1 . (c) Se U e V têm dimensão finita, então T 7−→ T t é um isomorfismo entre L(U, V ) e L(V ∗ , U ∗ ) e (T t )t = T (supondo-se identificados U com U ∗∗ e V com V ∗∗ ). Dem. (a) Sejam L, T ∈ L(U, V ) e a ∈ K. Para todo β ∈ V ∗ temos: (L + T )t (β) = β ◦ (L + T ) = β ◦ L + β ◦ T = Lt (β) + T t (β) (aT )t (β) = β ◦ (aT ) = a(β ◦ T ) = aT t (β) Resulta: (L + T )t = Lt + T t e (aT )t = a · T t . CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 55  (b) (S◦T )t (ω) = ω◦(S◦T ) = (ω◦S)◦T = T t (ω◦S) = T t S t (ω) = (T t ◦S t )(ω) para todo ω ∈ W ∗ . Logo: (S ◦ T )t = T t ◦ S t . Se T é um isomorfismo temos T ◦ T −1 = idV , T −1 ◦ T = idV e, como (idV )t = idV ∗ , vem: T t ◦ (T −1 )t = idU ∗ e (T −1 )t ◦ T t = idV ∗ , donde resulta que (T t )−1 = (T −1 )t . (c) Se U e V têm dimensão finita, podemos identificar U com U ∗∗ e V com V ∗∗ , de modo que (T t )t ∈ L(U, V ). Se u ∈ U e β ∈ V ∗ , então: < (T t )t u, β >=< u, T t (β) >=< β, T (u) >, donde (T t )t = T . Resulta que T − 7 → T t é sobrejetora e, como L(U, V ) e ∗ ∗ L(V , U ) têm a mesma dimensão finita, esta aplicação é um isomorfismo. Proposição 4.6 Seja T : V −→ W linear. Então: (Im T )0 = N (T t ). Dem. ω ∈ (Im T )0 ⇔< ω, T (v) >= 0 ∀v ∈ V ⇔< v, T t (ω) >= 0 ∀v ∈ V ⇔ T t (ω) = 0 ⇔ ω ∈ N (T t ). Proposição 4.7 Sejam V e W espaços vetoriais de dimensão finita sobre K e T : V −→ W linear. Então: posto(T ) = posto(T t ). Dem. Sejam n = dim V, p = dim W . Como (Im T )0 = N (T t ) temos: posto(T t ) = dim W ∗ − dim N (T t ) = dim W ∗ − dim (Im T )0 = = dim W ∗ − (dim W ∗ − dim Im T ) = dim Im T = posto(T ). Proposição 4.8 Sejam V e W espaços vetoriais de dimensão finita sobre K, E = (v1 , ..., vn ) base de V, F = (w1 , ..., wm ) base de W, E ∗ = (α1 , ..., αn ) e F ∗ = (β1 , ..., βm ) as bases duais correspondentes. Se T : V −→ W é linear  E  F ∗ e T F = A = (aij ), então T t E ∗ = B = (bij ) é tal que bij = aji para todo par (i, j). Dem. Temos: T (vj ) = m X i=1 aij wi e βj ◦ T = T t (βj ) = n X i=1 bij αi . CAPÍTULO 4. FORMAS LINEARES. DUALIDADE Então: 56 m m X  X βj T (vk ) = aik βj (wi ) = aik δji = ajk . i=1 E:  βj T (vk ) = n X i=1 bij α(vk ) = i=1 n X bij δik = bkj . i=1 Portanto: ajk = bkj (j = 1, ..., m; k = 1, ..., n). Definição 4.4 Seja A = (aij ) m × n sobre K. A matriz B = (bij ) n × m sobre K, tal que bij = aji para todo par (i, j), chama-se a transposta de A, anotada B = At .    t F ∗  E t A proposição 4.8 nos diz que T E ∗ = T F . Corolário 4.8.1 (a) Se A, B ∈ Mm×n (K) e c ∈ K, então: (A + B)t = At + B t (cA)t = c · At (b) Se A ∈ Mm×n (K) e B ∈ Mn×p (K), então: (AB)t = B t · At (c) Se A ∈ Mn (K) é invertível, então: (A−1 )t = (At )−1 (d) Se A ∈ Mm×n (K), então: posto(A) = posto(At ), ou seja, o número de vetores-coluna de A linearmente independentes coincide com o número de vetores-linha de A linearmente independentes. Dem. Imediata. CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 4.4 57 Exercícios do Capítulo 4 1. Em V = R4 consideremos o subespaço W gerado por (1, 1, 1, 1); (−1, 1, −2, 2); (−1, 5, −4, 8) e (−3, 1, −5, 3). (a) Ache a dimensão de W e a dimensão de W 0 . (b) Mostre que a imagem de v = (x, y, z, t) ∈ V por f ∈ W 0 pode se escrever f (v) = 4ax + 4by − (3a + b)z − (a + 3b)t. (c) Ache uma base (f1 , f2 ) de W 0 , e escreva f1 e f2 na base dual da base canônica de V. 2. Seja V um espaço vetorial de dimensão finita sobre K. Prove que f1 , ..., fp ∈ V ∗ são LI se, e só se, dados α1 , ..., αp ∈ K quaisquer, existe v ∈ V tal que fi (v) = αi , 1 ≤ i ≤ p. 3. Sejam E = (e1 , ..., en ) base do espaço vetorial V sobre K, E ∗ = (e∗1 , ..., e∗n ) a base dual de E e ϕ : V −→ V ∗ o isomorfismo definido por ϕ(ei ) = e∗i , 1 ≤ i ≤ n. Ache todos os automorfismos u : V −→ V tais que < x, ϕ(y) >=< u(x), (ϕ ◦ u)(y) > para x, y ∈ V quaisquer. Capítulo 5 Determinantes Obs. Neste capítulo, por motivos técnicos, vamos supor que a característica do corpo K é diferente de 2; por exemplo podemos tomar K = R ou K = C. 5.1 Aplicações r-lineares alternadas Definição 5.1 Sejam V e W espaços vetoriais sobre K. Uma aplicação f : r × V −→ W é r-linear se: V × ... (a) f (v1 , ..., vi + ui , ..., vr ) = f (v1 , ..., vi , ..., vr ) + f (v1 , ..., ui , ..., ur ) (b) f (v1 , ..., avi , ..., vr ) = a · f (v1 , ..., vi , ..., vr ) quaisquer que sejam v1 , ..., vi , ui , ..., vr ∈ V, a ∈ K e 1 ≤ i ≤ r. O conjunto de todas as aplicações r-lineares de V em W, representado por Lr (V, W ), munido das leis naturais de adição e multiplicação por escalar, é um espaço vetorial sobre K. Por convenção, L0 (V, W ) = W e L1 (V, W ) = L(V, W ). Definição 5.2 f ∈ Lr (V, W ) é alternada se f (v1 , ..., vr ) = 0 toda vez que dois dos vetores vi são iguais. As aplicações r-lineares alternadas formam o subespaço Ar (V, W ) de Lr (V, W ). Convencionamos que A0 (V, W ) = W e A1 (V, W ) = L(V, W ). Definição 5.3 f ∈ Lr (V, W ) é antissimétrica se f (v1 , ..., vi , ..., vj , ..., vr ) = −f (v1 , ..., vj , ..., vi , ...vr ), 1 ≤ i, j ≤ r, i 6= j. No caso em que W=K, os elementos de L(V, W ) são chamados de formas r-lineares. Em particular, L1 (V, W ) = V ∗ é o dual de V. Os elementos de Ar (V, K), isto é, as formas r-lineares alternadas, são também chamados de r-covetores. Proposição 5.1 f ∈ Lr (V, W ) é alternada se, e só se, f é antissimétrica. 58 CAPÍTULO 5. DETERMINANTES 59 Dem. Se f ∈ Lr (V, W ) é alternada, então 0 = f (v1 , ..., v + u, ...., v + u, ..., vr ) = = f (v1 , ..., v, ..., v, ..., vr ) + f (v1 , ..., u, ..., u, ..., vr )+ +f (v1 , ..., v, ..., u, ..., vr ) + f (v1 , ..., u, ..., v, ..., vr ) = = f (v1 , ..., v, ..., u, ..., vr ) + f (v1 , ..., u, ..., v, ..., vr ), donde resulta que f é antissimétrica. Reciprocamente, se f é antissimétrica então f (v1 , ..., v, ..., v, ..., vr ) = −f (v1 , ..., v, ..., v, ..., vr ) donde 2f (v1 , ..., v, ..., v, ..., vr ) = 0 e, como 2 6= 0 em K, resulta f (v1 , ..., v, ..., v, ..., vr ) = 0, isto é, f é alternada. Definição 5.4 Uma permutação de um conjunto X é toda bijeção de X sobre si mesmo. O conjunto das permutações de X, munido das leis de composição de aplicações, é um grupo chamado grupo simétrico de X ou grupo de permutações de X, anotado SX . Se X = {1, 2, ..., n} = In , representamos SX por Sn ; Sn tem n! elementos. Definição 5.5 Uma transposição de Sn é uma permutação τ tal que existem inteiros i 6= j, i ≤ i, j ≤ n, para os quais τ (i) = j, τ (j) = i e τ (k) = k para k 6= i, k 6= j, ou seja, τ troca i e j mantendo os demais elementos fixos. É claro que τ 2 = id e τ −1 = τ . Proposição 5.2 Toda permutação σ ∈ Sn pode ser expressa como um produto de transposições. Dem. (por indução) Se n = 1, não há nada a provar. Suponhamos n > 1 e admitamos o teorema verdadeiro para (n − 1). Se σ ∈ Sn e σ(n) = n, então a restrição σ 0 = σ|In−1 pertence a Sn−1 . Pela hipótese de indução, existem transposições τ10 , ..., τk0 ∈ Sn−1 tais que σ 0 = τ10 ...τk0 . Para cada i, i ≤ i ≤ k, seja τi ∈ Sn a transposição tal que τi |In−1 = τi0 e τi (n) = n. Então, é claro que σ = τ1 ...τk . Se σ ∈ Sn e σ(n) = k 6= n, seja τ ∈ Sn a transposição tal que τ (k) = n, τ (n) = k. Então, τ σ = τ1 ...τk , isto é, σ = τ τ1 ...τk . CAPÍTULO 5. DETERMINANTES 60 Proposição 5.3 A cada permutação σ ∈ Sn é possível associar um sinal, 1 ou -1, anotado ε(σ), tal que: (1) se τ é uma transposição, então ε(τ ) = −1 (2) se σ, ρ ∈ Sn , então ε(σρ) = ε(σ) · ε(ρ). Dem. Seja σ ∈ Sn e consideremos os números Y     πn = (j − 1) = (2 − 1) (3 − 1)(3 − 2) ... (n − 1)(n − 2)...2 · 1 1≤i j. Analogamente se define uma matriz triangular inferior. Corolário 5.9.1 O determinante de uma matriz triangular é igual ao produto de seus elementos diagonais. Dem. De fato, a11 a12 ... a a 1n 1(n−1) 0 a22 ... a22 ... a2(n−1) a2n a2(n−1) a2n 0 0 ... a3(n−1) a3n 0 ... det A = .. = a11 .. . . .. . . .. .. . . . . . . . 0 ... 0 0 ... a(n−1)(n−1) a(n−1)n 0 ann 0 0 ... 0 ann e, por indução: det A = a11 a22 ...ann . a11 a12 a13 a21 a22 a21 a23 a22 a23 Exemplo 5.3.1 a21 a22 a23 = a11 −a12 a31 a33 +a13 a31 a32 = a a 32 33 a31 a32 a33 = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 , como antes. 1 + x 1 1 ... 1 1 1 ... 1 1 1 1 + x ... 1 1 1 1 + x ... 1 1 .. .. .. = .. .. .. .. + .. .. Exemplo 5.3.2 Dn = ... . . . . . . . . . 1 1 ... 1 + x 1 1 1 ... 1 + x 1 1 1 ... 1 1 + x 1 1 ... 1 1 + x x 1 ... 1 1 1 ... 1 1 0 1 + x ... 1 0 x ... 0 0 + .. .. .. = .. .. . . .. .. + xDn−1 . .. . . . . . . . . . 0 1 ... 1 + x 0 0 ... 0 x Logo: Dn = xn−1 + xDn−1 Donde: xDn−1 = x2 Dn−2 + xn−1 x2 Dn−2 = x3 Dn−3 + xn−1 .. . xn−2 D2 = xn−1 D1 + xn−1 xn−1 D1 = xn−1 (1 + x) = xn−1 + xn . CAPÍTULO 5. DETERMINANTES 69 Somando estas n igualdades, obtemos: Dn = xn + nxn−1 . Seja A = (aij ) – n × n. Vimos que A é invertível se existe B – n × n – tal que AB = BA = In (Notação: B = A−1 ) e que basta ser BA = In (ou AB = In ) para que seja B = A−1 . Proposição 5.10 Sejam A = (aij ) – n × n – e Cij o cofator de aij em A. Então: ( n X det A se j = k aij Cik = δjk · det A = . 0 se j 6= k i=1 Dem. Basta considerar o caso j 6= k, por exemplo, j < k. Seja B = (B1 , ..., Bn ) a matriz tal que Bi = Ai , i 6= k, e Bk = Aj , ou seja, " a 11 ... ... ... B= an1 ... a1j ... a1j ... a1n # ... ... ... ... ... anj ... anj ... ann ↑ ↑ coluna j coluna k É claro que det B = 0. Desenvolvendo det B pelos elementos da coluna k, temos: det B = a1j C1k + a2j C2k + ... + anj Cnk , n X isto é, det B = 0 = aij Cik , j 6= k. i=1 Proposição 5.11 Seja A = (aij ) – n × n – e B = (Cij0 ) a transposta da matriz dos cofatores dos elementos de A, isto é, Cij0 = Cji = cofator de aji em A. Então: BA = (det A) · In . Dem. Se BA = (dij ), temos: dkj = n X i=1 0 Cki · aij = n X aij Cik = δjk · det A. i=1 Logo: BA = det A · In . CAPÍTULO 5. DETERMINANTES 70 Corolário 5.11.1 Se A = (aij ) – n×n – é invertível, então A−1 = onde B = (Cij0 ) e Cij0 = Cji = cofator de aji em A. A matriz B é a adjunta (clássica) de A, B = adj A. Então: A−1 = 1 ·B, det A adj A . det A Proposição 5.12 Seja A – m × n – de posto r. Existe submatriz r × r de A com determinante 6= 0, e toda submatriz k × k de A, com k > r, tem determinante igual a zero. Dem. A tem posto r se, e só se, existem r, e não mais que r, linhas de A que são LI. Podemos supor que sejam as  r primeiras (já que a troca de linhas  L1   não altera o posto), L1 , ..., Lr . Seja B =  ...  – r ×n – cujo posto é r, donde Lr existem r, e não mais que r, colunas de B que são LI. Sejam Bji , ..., Bjr essas colunas e C = [Bji , ..., Bjr ] – r × r; C tem posto r, donde det C 6= 0 e é a “maior” submatriz quadrada deA com essa propriedade.  1 1 t Exercício Seja A = 1 t 1. Estude o posto de A conforme os valores t 1 1 de t ∈ R. Exercícios 1. Sejam a1 , ..., an números dados. Prove que 1 1 ... 1 a1 a2 ... an Y a2 a22 ... a2n = (ai − aj ). 1 .. .. .. i>j . . . . . . n−1 n−1 n−1 a1 a2 ... an É o determinante de Vandermonde. 2. Seja A = (aij ) – n × n, tal que aij = 0 se i + j ≤ n. Calcule det A. Por 0 0 a exemplo, 0 b c = −abd. d e f CAPÍTULO 5. DETERMINANTES 71 a − b − c 2a 2a b−c−a 2b = (a + b + c)3 . 3. Prove: 2b 2c 2c c − a − b x −y x0 y 0 , prove que 4. Calculando · y x −y 0 x0 (x2 + y 2 )(x02 + y 02 ) = (xx0 + yy 0 )2 + (xy 0 − yx0 )2 . 5. Se a, b, c ∈ R, prove que 1 sen a cos a 1 sen b cos b = sen(b − c) + sen(c − a) + sen(a − b). 1 sen c cos c   B C 6. Seja A = , onde B é r × r, C é r × (n − r) e D é (n − r) × (n − r). 0 D Prove que det A = det B · det D. 5.4 Matrizes Elementares Definição 5.12 Sejam A e B matrizes m × n sobre o corpo K. Dizemos que A é linha-equivalente a B se B pode ser obtida de A por intermédio de um número finito das seguintes operações, chamadas operações elementares sobre as linhas: (a) Tij – trocar de posição as linhas i e j (i 6= j) (b) Ti (k) – multiplicar a linha i por k ∈ K, k 6= 0 (c) Tij (λ) – somar à linha i a linha j multiplicada por λ ∈ K. Definição 5.13 Uma matriz obtida da identidade por meio de uma única operação elementar, chama-se uma matriz elementar.     1 0 0 0 1 Exemplo 5.4.1 As matrizes e 0 1 0 são elementares. 1 0 2 0 1 Proposição 5.13 Sejam e uma operação elementar e E = e(Im ) a matriz elementar m × m correspondente. Para toda matriz A = (aij ) – m × n, temse: e(A) = E · A. CAPÍTULO 5. DETERMINANTES 72   L1   Dem. Seja Li = (ai1 ...ain ) a i-ésima linha de A. Então: A =  ... . Se Lm   L1 B  ..  B ∈ Mn×p (K), é fácil ver que AB =  . . Se e1 = (1, 0, ..., 0), ..., em = Lm B   e1  ..  (0, ..., 0, 1) são 1 × m, é claro que e1 A = Li e Im =  . . e    m e1 L1  ..   ..   .   .       ej   Lj   .   .     . (1) e = Tij . Então: E = e(Im ) =  . , e(A) =   .. . L  e   i  i  .   .   ..   ..  em Lm Logo:     e1 A L1  ..   ..   .   .       e j A   Lj   .   .     EA =   ..  =  ..  = e(A). e A L   i   i  .   .   ..   ..  em A Lm     e1 L1  ..   ..   .   .      (2) e = Ti (k). Então: E = e(Im ) = kei , e(A) = kLi .  .   .  k6=0  ..   ..  em Lm Logo:     e1 A L1 .  .   ..   .   .      EA = kei A = kLi  = e(A).  .   .   ..   ..  em A Lm CAPÍTULO 5. DETERMINANTES  73 e1 .. .   L1 .. .              ei + λej  Li + λLj      .. .. , e(A) =  . (3) e = Tij (λ). Então: E = e(Im ) =  . .     i 1 e admitamos o teorema verdadeiro para (m − 1) autovetores. Se tivermos uma relação linear 4 b1 v1 +b2 v2 +...+bm vm = 0, então b1 T (v1 )+...+bm T (vm ) = 0, CAPÍTULO 6. AUTOVALORES E AUTOVETORES 86 donde:  a1 b1 v1 + a2 b2 v2 + ... + am bm vm = 0. Sem perda de generalidade podemos supor a1 6= 0. Multiplicando 4 por a1 e subtraindo o resultado de , obtemos: (a2 −a1 )b2 v2 +...+(am −a1 )bm vm = 0. Como a2 − a1 6= 0, ..., am − a1 6= 0, concluimos, por indução, que b2 = ... = bm = 0, e 4 nos dá b1 v1 = 0, donde b1 = 0, ou seja, v1 , ..., vm são LI. Corolário 6.4.1 Se dim V = n, todo operador linear T : V −→ V tem, no máximo, n autovalores distintos. Corolário 6.4.2 Se a1 , ..., am são autovalores de T : V −→ V linear e a1 6= a2 6= ... 6= am , então o subespaço V (a1 ) + ... + V (am ) é soma direta de V (a1 ), ..., V (am ). Dem. Seja vi ∈ V (ai ), i = 1, ...m. Se v1 + v2 + ... + vm = 0, vamos mostrar que v1 = ... = vm = 0. Se p < m destes vetores fossem diferentes de 0, por exemplo, vi1 , ..., vip , e os (m − p) restantes fossem iguais a 0, teríamos vi1 +...+vip = 0, isto é, vi1 , ..., vip seriam LD em contradição com a proposição 6.4. Resulta que V (a1 ) + ... + V (am ) = V (a1 ) ⊕ ... ⊕ V (am ). Exemplo 6.1.4 Seja V = C ∞ (R, R). Se a1 6= ... 6= am são reais distintos, então ea1 t , ..., eam t são autovetores do operador de derivação D : V −→ V com autovalores distintos e, portanto, as funções ea1 t , ..., eam t são LI. Como m é arbitrário, resulta que V = C ∞ (R, R) não tem dimensão finita. Definição 6.3 Seja A ∈ Mn (K). Os autovetores e autovalores de A são os autovetores e autovalores da aplicação linear associada TA : K n −→ K n , TA (x) = A · x. Assim, x ∈ K n é autovetor de A se existe a ∈ K tal que A · x = ax. Proposição 6.5 Seja A ∈ Mn (K). São equivalentes: (a) a ∈ K é autovalor de A; (b) A − aIn não é invertível; (c) det(A − aIn ) = 0. Obs. Se B = P −1 AP , onde A ∈ Mn (K) e P ∈ Mn (K) é invertível, então A e B têm os mesmos autovalores pois se Ax = ax, x 6= 0 e y = P −1 x, então: By = P −1 AP y = P −1 Ax = P −1 (ax) = ay. Como y 6= 0, resulta que a é autovalor de B. A recíproca é análoga. É bom notar, entretanto, que os autovetores de A e B, associados ao autovalor a, são x e y = P −1 x, respectivamente. CAPÍTULO 6. AUTOVALORES E AUTOVETORES 87 Definição 6.4 Sejam V um espaço vetorial de dimensão n sobre K e T : V −→ V linear. O polinômio característico de T é PT (t) = det(T − tI). Se A ∈ Mn (K), o polinômio característico PA (t) é o polinômio da aplicação linear associada TA : K n −→ K n , isto é, PA (t) = det(TA −tI) = det(A−t·In ). Se A = (aij ), então: a11 − t a12 ... ain a21 a22 − t ... a2n PA (t) = det(A − tIn ) = .. .. .. = .. . . . . an1 an2 ... ann − t = (−1)n tn + (−1)n−1 (a11 + ... + ann )tn−1 + ... + det A (o termo independente é PA (0) = det A). Proposição 6.6 Matrizes semelhantes têm o mesmo polinômio característico. Dem. De fato se B = P −1 AP então as matrizes A e B representam o mesmo operador linear T : K n −→ K n e, portanto, têm o mesmo polinômio característico PT (t) = det(T − tI). Uma demonstração direta é a seguinte: det(B − tIn ) = det(P −1 AP − tIn ) = det(P −1 (A − tIn )P ) = det(A − tIn ) pois det P −1 · det P = 1. Obs. Se PT (t) = PA (t) = cn tn + cn−1 tn−1 + ... + c1 t + c0 , então cn = (−1)n e c0 = det T = det A. Os coeficientes cj , j = 0, 1, ..., n, só dependem do operador T. Definição 6.5 (−1)n−1 cn−1 é o traço de T, e escrevemos tr T = (−1)n−1 cn−1 . O traço de A ∈ Mn (K) é o traço de TA : K n −→ K n , TA (x) = A · x : tr A = a11 + a22 + ... + ann . Se A e B são semelhantes, temos tr A = tr B pois PA (t) = PB (t). Proposição 6.7 Sejam V um espaço vetorial de dimensão n sobre K e T : V −→ V linear. a ∈ K é um autovalor de T se, e só se, a é uma raiz do polinômio característico de T. Dem. a ∈ K é autovalor de T ⇔ det(T − aI) = 0 ⇔ a é raiz de PT (t). CAPÍTULO 6. AUTOVALORES E AUTOVETORES 88  1 − t 1 1 1 = t2 − 3t, e os Exemplo 6.1.5 Se A = , então PA (t) = 2 2 2 2 − t autovalores de A são a = 0 e a =3.  x1 Procuremos autovetores x = associados a estes autovalores. Para x2 a = 0, temos: x1 + x2 = 0  2x1 + 2x2 = 0.   1 é autovetor associado a a = 0, para todo x1 ∈ K. −1 Para a = 3, temos: −2x1 + x2 = 0 Logo, x = x1 2x1 − x2 = 0.   x1 1 = x1 Logo, y = é autovetor associado a a = 3, para todo x1 ∈ K. 2x1 2 2 Os  autoespaços    correspondentes são as retas pela origem de K geradas 1 1 por e , respectivamente. −1 2     0 1 Exemplo 6.1.6 Se A = então PA (t) = t2 +1. Se A ∈ M2 (R) vemos −1 0 que A não tem autovalores. Se A ∈ M2 (C) então i e -i são autovalores de A. Obs. Se T : V −→ V é linear e dimK V = n, temos que PT (t) tem grau n, de modo que T tem, no máximo, n autovalores. Quando K = C, PT (t) tem pelo menos uma raiz, de modo que, neste caso, T sempre tem um autovetor não nulo. Proposição 6.8 Sejam V um espaço-vetorial de dimensão n sobre K e L, T : V −→ V lineares. L ◦ T e T ◦ L têm os mesmos autovalores. Dem. Se a = 0 é autovalor de L ◦ T , existe u 6= 0 tal que L(T u) = 0, donde L ◦ T não é invertível; logo, det(L ◦ T ) = det L · det T = 0, donde det(T ◦ L) = 0 e T ◦ L não é invertível, donde existe v 6= 0 tal que T (Lv) = 0, isto é, a = 0 é autovalor de T ◦ L. Se a 6= 0 é autovalor de L ◦ T , existe u 6= 0 tal que L(T u) = au. Seja v = T (u); então: T (Lv) = T (au) = av. Se fosse v = T (u) = 0 então teríamos LT u = 0, donde au = 0, donde u = 0, contradição. Portanto, T Lv = av com v 6= 0, donde a é autovalor de T ◦ L. Analogamente se prova que todo autovalor de T ◦ L é também autovalor de L ◦ T . CAPÍTULO 6. AUTOVALORES E AUTOVETORES 89 Proposição 6.9 Sejam V um espaço vetorial de dimensão n sobre K e T : V −→ V linear. Se o polinômio característico PT (t) admite em K uma raiz a de multiplicidade m, então 1 ≤ dim V (a) ≤ m. Dem. Seja E = (u1 , ..., ur , v1 , .., vs ) base de V tal que (u1 , ..., ur ) seja base de V (a). Temos: T (u1 ) = au1 T (u2 ) = .. . au2 T (ur ) = aur T (v1 ) = a11 u1 +...+ ar1 ur + b11 v1 + ... + bs1 vs T (vs ) = a1s u1 +...+ ars ur + b1s v1 + ... + bss vs Logo: onde A = (aij ) é r × s e B = (bij ) é s × s. Então: a − t 0 ... 0 a11 ... a1s 0 a − t ... 0 a ... a 21 2s . .. .. .. .. .. .. . . . . . . . . 0 ... a − t ar1 ... ars = (a−t)r det(B −tIs ). PT (t) = 0 0 ... 0 b11 − t ... b1s 0 . .. .. .. .. .. .. .. . . . . . . 0 0 ... 0 bs1 ... bss − t Como a é raiz de multiplicidade m, temos r ≤ m, donde 1 ≤ dim V (a) ≤ m. 6.2 Diagonalização Definição 6.6 Sejam V um espaço vetorial de dimensão n sobre K e T : V −→ V linear. Dizemos que T é diagonalizável se existe base de V formada por autovetores de T, ou seja, se, e só se, T tem n autovetores linearmente independentes. Em relação a essa base, a matriz de T é da forma CAPÍTULO 6. AUTOVALORES E AUTOVETORES 90   λ1 0 ... 0  0 λ2 ... 0     .. .. . . .. , λj ∈ K, ou seja, todos os elementos fora da diagonal . . . . 0 0 ... λn principal são iguais a zero. Uma tal matriz é dita diagonal; os elementos da diagonal principal são os autovalores de T. Definição 6.7 Seja A = (aij ) – n × n. A é diagonalizável se existe matriz invertível P – n × n – tal que P −1 AP = D, onde D é diagonal, isto é, se A é semelhante a uma matriz diagonal. Proposição 6.10 Sejam V um espaço vetorial de dimensão finita sobre K e T : V −→ V linear. T é diagonalizável se, e só se, existe base E de V tal  E que T E = D seja diagonal. Dem. Se T é diagonalizável existe base E = (v1 , ..., vn ) de V formada por autovetores de T: T (vi ) = λi vi (1 ≤ i ≤ n). Logo:   λ1 0 ... 0   E   0 λ2 ... 0  T E =  .. .. . . . . . . ..  . 0 0 ... λn  E Reciprocamente, seja E = (v1 , ..., vn ) base de V tal que T E = D =   λ1 0 ... 0  0 λ2 ... 0     .. .. . . .. . Então: T (vi ) = λi vi , 1 ≤ i ≤ n, e E é formada por . . . . 0 0 ... λn autovetores de T; portanto, T é diagonalizável.  F Obs. Seja F base de V e seja A = T F . T é diagonalizável se, e só se,  E existe base E de V tal que T E = D seja diagonal. Mas,  E  F  F  E D = T E = Id E · T F · Id F = P −1 AP,  F  F ou seja, T é diagonalizável se, e só se, A = T F é diagonalizável; P = Id E é a matriz de passagem da base E para a base F e as colunas de P são os autovetores de A. CAPÍTULO 6. AUTOVALORES E AUTOVETORES 91 Proposição 6.11 Sejam V um espaço vetorial de dimensão n sobre K e T : V −→ V linear. T é diagonalizável se, e só se: (a) o polinômio característico PT de T tem suas n raízes em K; (b) para cada raiz λi de PT , de ordem de multiplicidade mi , tem-se dim V (λi ) = mi .  E Dem. Se T é diagonalizável e E é base de V na qual T E é diagonal, então E é formada de autovetores de T. Podemos supor que os elementos de E estão ordenados de maneira a termos primeiro os autovetores associados a λ1 , depois aqueles associados a λ2 , e assim por diante, de modo que   λ1 ... 0 0 ... 0 ... 0 ... 0  .. . . . .. . . . .. . .. . . . .. . .. . .. . ..  .    0 ... λ1 0 ... 0 ... 0 ... 0     0 ... 0 λ2 ... 0 ... 0 ... 0  . .. .. . . .. . . .. . . ..  ..  .  E  . . . . . . . . . .  T E =  ∈ Mn (K).  0 ... 0 0 ... λ2 ... 0 ... 0  . . .. . . .. . . .. . . ..   .. . . ... . . . . . . .    0 ... 0 0 ... 0 ... λ ... 0  k     .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0 ... 0 0 ... 0 ... 0 ... λk Então: V = V (λ1 ) ⊕ V (λ2 ) ⊕ ... ⊕ V (λk ), donde dim V = dim V (λ1 ) + ... + dim V (λk ) = n. Como dim V (λi ) ≤ mi e m1 + ... + mk = n, resulta dim V (λi ) = mi (1 ≤ i ≤ k). Reciprocamente, as n raízes de PT estando em K, suponhamos que dim V (λi ) = mi , 1 ≤ i ≤ k. A relação m1 + ... + mk = n nos dá   dim V (λ1 ) ⊕ ... ⊕ V (λk ) = n ∴ V = V (λ1 ) ⊕ ... ⊕ V (λk ). A reunião das bases dos V (λi ) (1 ≤ i ≤ n) é uma base de V formada por autovetores de T, donde T é diagonalizável.   1 2 Exemplo 6.2.1 Seja A = . Os autovalores de A são as raízes de 3 2 1 − t 2 = 0, isto é, de t2 − 3t − 4 = 0, ou seja, t1 = −1 e t2 = 4. Para 3 2 − t CAPÍTULO 6. AUTOVALORES E AUTOVETORES 92   x1 t = −1 a equação (A − I2 ) · x = 0, onde x = , nos dá x1 + x2 = 0, x2   1 donde x = x1 , x1 ∈ R. −1   2 Para t = 4 obtemos 3x1 + 2x2 = 0, donde x = 3x2 , x2 ∈ Real. O 3     1 2 vetor gera V (−1), quanto que gera V (4). A matriz de passagem −1 3 (    )   1 2 1 2 2 da base canônica de V = R para a base , éP = , −1 3 −1 3     1 3 −2 −1 0 −1 −1 e B = P AP = , matriz diagonal. cuja inversa é P = 0 4 5 1 1   1 1 Exemplo 6.2.2 A = ∈ M2 (C) não é diagonalizável. De fato, PA (t) = 0 1   x 2 (1 − t) tem a raiz dupla t = 1 e (A − I2 ) 1 = 0 nos dá x2 = 0, donde x2   x1 x = x1 . Assim, dim V (1) = 1 < 2, e A não é diagonalizável. x2   −1 1 0 Exemplo 6.2.3 A =  0 −1 1  é diagonalizável em M3 (C) mas não o 1 0 −1 √ 3 3 é em M3 (R). De fato, os autovalores de A são a1 = 0, a2 = − + i , a3 = 2 2 √ 3 3 − −i . 2 2   −1 1 1 Exemplo 6.2.4 A =  1 −1 1  ∈ M3 (R) é diagonalizável. De fato, 1 1 −1 temos: PA (t) = −(t − 1)(t + 2)2 .   ( 1   1 ) 1 É fácil comprovar que 1 é base de V (1) e que −1 ,  0  é base 1 0 −1 de V (−2), ou seja, dim V(1) = 1 e dim  V (−2) = 2. Resulta  que A ∈ M 3 (R) 1 1 1 1 0 0 é diagonalizável. Se P = 1 −1 0 , então P −1 AP = 0 −2 0 . 1 0 −1 0 0 −2 CAPÍTULO 6. AUTOVALORES E AUTOVETORES 93 Proposição 6.12 Sejam V um espaço vetorial de dimensão n ≥ 1 sobre K e T : V −→ V linear tal que PT (t) tenha todas suas raízes em K. Existe uma base de V na qual a matriz de T é triangular (superior). Dem. (indução) Para dim V = 1 nada há a provar. Suponhamos o teorema verdadeiro para dim V = n − 1. Seja a1 ∈ K um dos autovalores de T e v1 6= 0 um autovetor associado a a1 , isto é, T v1 = a1 v1 . Sejam V1 = Kv1 o subespaço gerado por v1 , W um suplementar qualquer de V1 e F = (w2 , ..., wn ) uma base de W. Como v1 6= W , E 0 = (v1 , w2 , ..., wn ) é base de V e   a1 b12 ... b1n   E 0   0 b22 ... b2n  T E 0 =  .. . . .. . . . . ..  . 0 bn2 ... bnn Como, em geral, T (W ) não está contido em W, consideremos as projeções p1 : V −→ V1 e p2 : V −→ W . Então, Im(p2 T ) ⊂ W e podemos considerar a aplicação linear p2 · T : W −→ W . Como p2 (V1 ) = 0 e p2 (wj ) = wj , j = 2, ..., n, temos: p2 T (wj ) = p2 (b1j v1 + b2j w2 + ... + bnj wn ) = b2j w2 + ... + bnj wn , donde:   b22 ... b2n  F   p2 T F =  ... . . . ...  . bn2 ... bnn Resulta: PT (t) = (a1 −t) det(p2 T −tI), e podemos concluir que os autovalores de p2 T : W −→ W estão em K, já que eles são também autovalores de T.  G Pela hipótese de indução, existe base G = (u2 , ..., un ) de W tal que p2 T G =   c22 c23 ...c2n  0 c33 ... c3n     .. .. ..  é matriz triangular. Se E = (v1 , u2 , ..., un ) é a base de . .  . . . .  0 0 ... cnn V obtida acrescentando-se v1 6= W a G, temos:   a1 c12 ... c1n  0 c22 ... c2n    E    T E =  0 0 ... c3n  , matriz triangular.  .. .. . . .  . . ..  . 0 0 ... cnn CAPÍTULO 6. AUTOVALORES E AUTOVETORES 94 Corolário 6.12.1 Seja A ∈ Mn (C). Existe P ∈ Mn (C), invertível, tal que B = P −1 AP seja triangular.  E Obs. Se E = (v1 , v2 , ..., vn ) é base de V na qual T E é triangular superior, sejam: V1 = Kv1 = espaço gerado por v1 V2 = espaço gerado por v1 , v2 .. . Vn = V = espaço gerado por v1 , v2 , ..., vn . Então: (1) Vi ⊂ Vi+1 ; (2) dim Vi = i; (3) T (Vi ) ⊂ Vi (1 ≤ i ≤ n). Reciprocamente, se V1 , ..., Vn = V são subespaços de V satisfazendo (1),  E (2) e (3) acima, então existe base E de V na qual T E é triangular superior. De fato, basta tomar (v1 ) base de V1 , (v1 , v2 ) base de V2 , (v1 , v2 , v3 ) base de V3 e assim por diante até chegar a uma base (v1 , v2 , ..., vn ) de Vn = V . Exercícios   2 0 4 1. Ache os autovalores e autovetores e A = 3 −4 12 ∈ M3 (R). 1 −2 5   −4 0 −2 2. Verifique se A =  0 1 0  é diagonalizável. 5 1 3 6.3 Polinômios de Operadores e Matrizes Sejam K[t] o conjunto dos polinômios a uma variável com coeficientes no corpo K, V um espaço vetorial sobre K, T : V −→ V linear e p(t) = a0 + a1 t + ... + am tm um elemento de K[t]. Definição 6.8 p(T ) = a0 I + ai T + ... + am T m : V −→ V . Se A ∈ Mn (K), definimos: p(A) = a0 In + a1 A + ... + am Am ∈ Mn (K).   0 1 Exemplo 6.3.1 Sejam A = e p(t) = t3 − 2t + 3. Então: 2 −1  3       1 0 1 1 0 1 0 1 p(A) = −2 +3 = . 2 −1 2 −1 0 1 2 0 CAPÍTULO 6. AUTOVALORES E AUTOVETORES 95  E Obs. Se E é base de V, A = T E e φ : L(V ) −→ Mn (K) é o isomorfismo  E de álgebras tal que φ(T ) = T E = A, então  φ p(T ) = φ(a0 I + ... + am T m ) = a0 φ(I) + ... + am φ(T m ) = = a0 In + a1 A + ... + am Am = p(A),  E ou seja, p(T ) E = p(A). Proposição 6.13 Sejam p, q ∈ K[t], c ∈ K, V um espaço vetorial sobre K e T : V −→ V linear. Então: (a) (p + q)(T ) = p(T ) + q(T ) (b) (pq)(T ) = p(T ) · q(T ) = q(T ) · p(T ) (c) (cp)(T ) = c · p(T ). Dem. Suponhamos p(t) = a0 + a1 t + ... + an tn e q(t) = b0 + b1 t + ... + bm tm , m ≤ n, e seja bi = 0 se i > m. Então: (a) (p + q)(t) = (a0 + b0 ) + (a1 + b1 )t + ... + (an + bn )tn , donde (p + q)(T ) = (a0 + b0 )I + (a1 + b1 )T + ... + (an + bn )T n = = (a0 I + a1 T + ... + an T n ) + (b0 I + b1 T + ... + bn T n ) = = p(T ) + q(T ) . n+m (b) (pq)(t) = c0 + c1 t + ... + cn+m t = m+n X ck tk , onde k=0 ck = a0 bk + a1 bk−1 + ... + ak b0 = k X ai bk−i . i=0 Então: (pq)(T ) = = n X m X i=0 j=0 m+n X ck T k e p(T ) · q(T ) = k=0 m+n X ai bj T i+j = n X i=0 ! ai T i m X ! bj T j = j=0 ck T k = (pq)(T ) = (qp)(T ) = q(T ) · p(T ). k=0 (c) (cp)(T ) = ca0 I + ca1 T + ... + can T n = c · p(T ). Obs. É claro que a proposição 6.13 continua válida se trocarmos o operador linear T : V −→ V por uma matriz quadrada A. CAPÍTULO 6. AUTOVALORES E AUTOVETORES 96 Exemplo 6.3.2 Sejam A, P ∈ Mn (K), P invertível e m um inteiro positivo. Temos: (P −1 AP )2 = P −1 AP · P −1 AP = P −1 A2 P e, por indução, vê-se facilmente que (P −1 AP )m = P −1 Am P . m X Se p(t) = a0 + a1 t + ... + am tm , então p(P −1 AP ) = ak (P −1 AP )k = = m X ak P −1 Ak P = P −1 · k=0 m X k=0 ak Ak P = P −1 · p(A) · P . k=0 Proposição 6.14 (Cayley-Hamilton) Sejam V um espaço vetorial de dimensão n ≥ 1 sobre K e T : V −→ V linear. T é um zero de seu polinômio característico, isto é, PT (T ) = 0. Dem. Para facilitar vamos provar o teorema no caso em que K = C. Vimos, na proposição 6.11, que existem subespaços V1 , ..., Vn de V tais que Vi ⊂ Vi+1 , dim Vj = j e T (Vi ) ⊂ Vi (1 ≤ i ≤ n) e base E = (v1 , v2 , ..., vn ) de V tal que Vi = espaço gerado por v1 , ..., vi (1 ≤ i ≤ n). Em relação à base E a matriz de T é triangular superior:   a11 a12 ... a1n   E   0 a22 ... a2n  T E = . . .. 0 . ..  0 0 0 ... ann Então: T vi = aii vi + um vetor de Vi−1 . Como (T − aii I)vi = T vi − aii vi resulta que (T − aii I)vi ∈ Vi−1 . Além disso, o polinômio característico de T é dado por PT (t) = (−1)n (t − a11 )...(t − ann ) de modo que PT (T ) = (−1)n (T − a11 I)...(T − ann I). Vamos provar, por indução, que (T − a11 I)...(T − aii I)v = 0 para todo v ∈ Vi (1 ≤ i ≤ n). Para i = 1, temos (T − a11 I)v1 = T v1 − a11 v1 = 0. Admitamos o teorema verdadeiro para i − 1. Todo elemento de Vi é da forma u + cvi com u ∈ Vi−1 e c ∈ C. Como T Vi−1 ⊂ Vi−1 resulta que (T − aii I)u está em Vi−1 . Por indução, (T − a11 I)...(T − ai−1,i−1 I)(T − aii I)u = 0. Por outro lado, (T − a11 I)cvi pertence a Vi−1 e, por indução, (T − a11 I)...(T − aii I)cvi = 0. Logo, para v ∈ Vi , temos (T − a11 I)...(T − aii I)v = 0 CAPÍTULO 6. AUTOVALORES E AUTOVETORES 97 e i = n prova o teorema. Obs. É claro que a proposição 6.14 continua válida se substituirmos T : V −→ V por uma matriz A ∈ Mn (K).   1 1 1 Exemplo 6.3.3 Seja A = 0 0 −3. Temos: PA (t) = (1 − t)(t − 3)2 . 0 3 6   1  Para t = 1, (A − I3 )x = 0 nos dá x = x1 0 , x1 ∈ R. 0  0  Para t = 3, (A − 3I3 )x = 0 nos dá x = x3 −1 , x3 ∈ R. 1   1  Como dim V (3) = 1 < 2, A não é diagonalizável. Os vetores 0 e 0   0 −1 geram V (1) e V (3), respectivamente. Para obter uma base de R3 1 devemos tomar  independente    desses  dois. Por   um terceiro vetor que seja 1 0 0 0   exemplo, 1. Obtemos a base F = 0 , −1 , 1 de R3 . Se   1 0 0     0  1 0 0 1 0 0 1 0 1 P = 0 −1 1, então P −1 = 0 0 1 e B = P −1 AP = 0 3 3, ma0 1 0 0 1 1 0 0 3 triz triangular na qual os elementos da diagonal principal são os autovalores de A. Como PA (t) = PB (t) = (1 − t)(3 − t)2 , temos PA (A) = PB (B) = 0, ou seja, (I3 − A)(3I3 − A)2 = 0, que se pode verificar diretamente pelo cálculo. 6.4 Exercícios do Capítulo 6   1 b , onde a, b e c são reais. Ache os autovalores e c e determine os casos em que A é diagonalizável.   −2 1 1 2. Se possível, diagonalize A =  1 −2 1 . 1 1 −2 1  1. Seja A = 0 0 autovetores de a 1 0 A CAPÍTULO 6. AUTOVALORES E AUTOVETORES 98 3. Prove que não existem matrizes A, B – n × n – tais que   A, B = AB − BA = In . 4. Sejam V um espaço vetorial de dimensão finita sobre K, T : V −→ V linear. (a) Prove que T e T t têm o mesmo polinômio característico. (b) Sejam V (λ) o auto-espaço associado ao autovalor λ de T e V 0 (λ) o auto-espaço associado ao autovalor λ de T t . Prove que V (λ) e V 0 (λ) têm a mesma dimensão.   a0 a1 ... an−1 an−1 a0 ... an−2    5. Sejam A ∈ Mn (C) a matriz “circulante” A =  .. .. . . ..  e  . . . .  a1 a2 ... a0 P = (pjk ) – n × n – tal que pjk = e (a) Calcule P P e ache P −1 . 2πi jk n .  1 w .. .      , mostre que o vetor x =   é um autovetor de A.   n−1 w Qual é o autovalor correspondente? (c) Prove que P −1 AP é uma matriz diagonal. (b) Se w = e 2πi n Capítulo 7 Produto Interno Neste capítulo o corpo K será ou R ou C e usaremos a notação K. 7.1 Definições e Exemplos Definição 7.1 Seja V um espaço vetorial sobre K. Um produto interno em V é uma função que a cada par (u, v) ∈ V × V associa um escalar, anotado hu, vi, de modo que: (a) hu1 + u2 , vi = hu1 , vi + hu2 , vi (b) hau, vi = ahu, vi (c) hu, vi = hv, ui, onde a barra indica conjugação complexa, (d) hv, vi é um real positivo para todo v ∈ K, v 6= 0 quaisquer que sejam u, v, u1 , u2 ∈ V e a ∈ K. Exemplo 7.1.1 Seja V = Kn . Se u = (x1 , ..., xn ) e v = (y1 , ..., yn ), definimos hu, vi = x1 y 1 + ... + xn y n e obtemos um produto interno em Kn . Exemplo 7.1.2 Seja V = C 0 ([0, 1], K) o espaço vetorial das funções contínuas f : Z[0, 1] −→ K. Se f, g ∈ V , definimos um produto interno em V por 1 hf, gi = f (t)g(t)dt. 0 Exemplo 7.1.3 Seja V = C 1 ([0, 1], R) o espaço vetorial das funções contínuas f : [0, 1] −→ R que têm derivada primeira Z 1 contínua. Se f, g ∈ V ,   definimos um produto interno em V por hf, gi = f (t)g(t) + f 0 (t)g 0 (t) dt. 0 Exemplo 7.1.4 Sejam V1 e V2 espaços vetoriais sobre o mesmo corpo (R ou C) e h, i2 um produto interno em V2 . Se T : V1 −→ V2 é linear injetora, 99 CAPÍTULO 7. PRODUTO INTERNO 100 definimos um produto interno em V1 por hu, vi1 = hT  (u), T (v)i2 . Por exem0 0 plo, seja T : V1 = C [0, 1], R −→ V2 = C [0, 1], R , h, i2 como no exemplo t2 7.1.2 acima, tal queZ T (f )(t) = e− 2 f (t). É claro que T é linear injetora. 1 2 Portanto, hf, gi1 = e−t f (t)g(t)dt é um produto interno em V1 . 0 Definição 7.2 Seja V um espaço vetorial sobre Kp munido de produto interno h, i. Se v ∈ V definimos sua norma por kvk = hv, vi. A distância entre u, v ∈ V é definida por d(u, v) = ku − vk. Proposição 7.1 (Pitágoras) Seja V um espaço vetorial com produto interno h, i. Se u, v ∈ V , então ku + vk2 = kuk2 + kvk2 se, e só se, Rehu, vi = 0, onde Re z indica a parte real do número complexo z. Dem. ku + vk2 = hu + v, u + vi = hu, ui + hu, vi + hv, ui+ +hv, vi = kuk2 + kvk2 + hu, vi + hu, vi = kuk2 + kvk2 + +2Rehu, vi. Portanto, ku + vk2 = kuk2 + kvk2 se, e só se, Rehu, vi = 0. Corolário 7.1.1 Se hu, vi = 0 então ku + vk ≥ kuk com igualdade ⇔ v = = 0. Corolário 7.1.2 (lei do paralelogramo) Se u, v ∈ V , então:  ku + vk2 + ku − vk2 = 2 kuk2 + kvk2 . Proposição 7.2 Seja V um espaço vetorial com produto interno h, i. Então: (a) kavk = |a| · kvk (b) kvk > 0 se v 6= 0 (c) |hu, vi| ≤ kuk · kvk (desigualdade de Cauchy-Schwarz) (d) ku + vk ≤ kuk + kvk (desigualdade triangular), quaisquer que sejam u, v ∈ V e a ∈ K. p p p Dem. (a) kavk = hav, avi = aahv, vi = |a|2 · hv, vi = |a| · kvk. (b) Se v 6= 0 temos hv, vi > 0, donde kvk > 0. (c) A desigualdade é verdadeira para v = 0. Suponhamos v 6= 0 e determinemos c ∈ K de modo que cv seja a projeção ortogonal de u ao longo de hu, vi v, isto é, tal que hu − cv, vi = 0, donde c = . Pelo corolário 7.1.1 da hv, vi CAPÍTULO 7. PRODUTO INTERNO proposição 7.1 temos kuk ≥ kcvk = 101 |hu, vi| · kvk, donde, |hu, vi| ≤ kuk · kvk, kvk2 com igualdade ⇔ u = cv. (d) ku + vk2 = kuk2 + kvk2 + 2Rehu, vi ≤ kuk2 + kvk2 + 2|hu, vi| ≤ 2 ≤ kuk2 + kvk2 + 2kuk · kvk = kuk + kvk , donde a tese. Exemplo 7.1.5 Aplicando a desigualdade de Cauchy-Schwarz aos exemplos 7.1.1 e 7.1.2 anteriores, obtemos: !1/2 !1/2 n n n X X X |xi |2 · |yi |2 (7.1.1) xi y i ≤ i=1 i=1 Z 1 Zi=11 1/2 1/2 Z 1 2 2 . |g(t)| dt · |f (t)| dt (7.1.2) f (t)g(t)dt ≤ 0 0 0 Definição 7.3 Seja V um espaço vetorial com produto interno h, i. u, v ∈ V são ortogonais ou perpendiculares se hu, vi = 0, o que indicamos por u⊥v. Se S ⊂ V , definimos S ⊥ = {v ∈ V ; hu, vi = 0 ∀u ∈ S}. É imediato que S ⊥ é um subespaço de V, chamado espaço ortogonal de S. Se U é o subespaço de V gerado por S, então S ⊥ = U ⊥ pois se v é perpendicular a todos os elementos de S, é perpendicular também às combinações lineares de elementos de S, ou seja, aos elementos de U. Escrevemos v⊥S para indicar que v é perpendicular a todos os elementos de S; neste caso, dizemos que v é perpendicular a S. Exemplo 7.1.6 Sejam V = C 0 ([0, 2π], Z R), g1 (t) = cos kt, g2 (t) = sen kt, 2π onde k é um inteiro positivo, hf, gi = f (t)g(t)dt. Temos: 0 2 Z 2π cos2 kt · dt = π kg1 k = 0 2 Z kg2 k = 2π sen2 kt · dt = π 0 Os coeficientes de Fourier de f ∈ V são os números Z hf, g1 i 1 2π f (t)cos kt · dt, ak = = kg1 k2 π 0 CAPÍTULO 7. PRODUTO INTERNO hf, g2 i 1 bk = = 2 kg2 k π Z 2π a0 hf, 1i 1 e = f (t)dt. = 2 2 k1k 2π 0 Z 102 2π f (t)sen kt · dt 0 hu, vi de kvk2 coeficiente de Fourier de u em relação a v; o vetor cv é a projeção ortogonal de u sobre v. Devido a esse exemplo, é usual (no caso geral) chamar c = Definição 7.4 Seja V um espaço vetorial com produto interno h, i. Dizemos que S ⊂ V é um conjunto ortogonal se dois vetores quaisquer de S são ortogonais. S ⊂ V é um conjunto ortonormal se S é ortogonal e kvk = 1 para todo v ∈ S. Exemplo 7.1.7 A base canônica de Kn é um conjunto ortonormal relativamente ao produto interno usual de Kn . Proposição 7.3 Seja V um espaço vetorial com produto interno h, i. Se X ⊂ V é um conjunto ortogonal de vetores não nulos, então X é linearmente independente. Dem. Suponhamos a1 x1 + ... + an xn = 0, n ∈ N, ai ∈ K, xi ∈ X. Então: n X hxi , ak xk i = 0, donde hxi , ai xi i = 0, isto é, ai kxi k2 = 0 e, portanto, k=1 ai = 0 (i = 1, ..., n), o que mostra ser X linearmente independente. Proposição 7.4 Seja {v1 , ..., vn , ...} um conjunto ortogonal de vetores nãonulos num espaço vetorial com produto interno h, i. Sejam v ∈ V e ci = hv, vi i (i = 1, 2, ...). kvi k2 n n X X (a) Se a1 , ..., an ∈ K, então v − ci vi ≤ v − ai vi , com igualdade i=1 i=1 CAPÍTULO 7. PRODUTO INTERNO 103 se, e só se, ai = ci (i = 1, ..., n) ∞ X (b) |ci |2 · kvi k2 ≤ kvk2 (desigualdade de Bessel) i=1 Dem. hv − n X ci vi , vj i = hv, vj i − i=1 1, .., n), ou seja, o vetor v− n X i=1 n X ci hvi , vj i = cj kvj k2 − cj kvj k2 = 0 (j = i=1 ci vi é perpendicular ao subespaço S gerado por n X v1 , ..., vn ; em particular ao vetor (ci −ai )vi . Do corolário 7.1.1 do teorema i=1 n n X X de Pitágoras, resulta que v − ci vi ≤ v − ai vi , com igualdade se, i=1 i=1 n X e só se, (ci − ai )vi = 0, o que equivale a ai = ci (i = 1, ..., n). i=1 2 n X Ainda pelo corolário 7.1.1 do teorema de Pitágoras, temos kvk2 ≥ ci v i = i=1 n n X X hci vi , cj vj i = |ci |2 kvi k2 , válida para todo n ∈ N. Portanto, i,j=1 i=1 ∞ X |ci |2 · kvi k2 ≤ kvk2 . i=1 Exemplo 7.1.8 Dada a função contínua f : [0, 2π] −→ R, vamos achar, a0 dentre os polinômios trigonométricos de grau m, P (t) = + a1 cos t + 2 b1 sen t + ... + am cos mt + bm sen mt, ai ∈ R, bi ∈ R, o que minimiza a CAPÍTULO 7. PRODUTO INTERNO 104 integral Z 2π  2 f (t) − P (t) dt. 0 0  Seja V = C [0, 2π], R com o produto interno hf, gi = Z 2π f (t)g(t)dt. 0 As funções 1, cos t, sen t, ..., cos nt, sen nt, ... pertencem a V e formam um conjunto ortogonal de vetores não-nulos, pois Z 2π Z 2π Z 2π cos kt · dt = sen kt · dt = cos kt · cos ht · dt = 0 0 Z 0 2π cos kt · sen lt · dt = = sen kt · sen lt · dt = 0 0 0 se k = 6 h, k 6= l, respectivamente, e Z Z 2π Z 2π 2 2 cos kt · dt = 1 dt = 2π, 0 2π Z 2π sen2 kt · dt = π (k = 1, 2, ...) 0 0 2 Z Pela proposição 7.4, kf −P k = 2π  2 f (t)−P (t) dt é mínimo quando os 0 coeficientes de P (t) são os coeficientes de Fourier de f em relação às funções 1, cos t, sen t, .... Então: Z 2π Z a0 1 1 2π = f (t)dt, donde a0 = f (t)dt 2 2π 0 π 0 . Z 2π Z 2π 1 1 ak = f (t)cos kt · dt e bk = f (t)sen kt · dt π 0 π 0 E a desigualdade (abstrata) de Bessel, nos dá: Z 2π 2 a0 2 2 2 2 · 2π + a1 · π + b1 · π + ... + an · π + bn · π + ... ≤ |f (t)|2 dt, 4 0 Z 2π ∞ a20 X 2 1 ou seja, + (an + b2n ) ≤ |f (t)|2 dt, 2 π 0 n=1 que é a desigualdade clássica de Bessel. Exercício Sejam a1 , ..., an reais não nulos. Prove:   1 1 2 2 (a1 + ... + an ) + ... + 2 ≥ n2 . a21 an CAPÍTULO 7. PRODUTO INTERNO 7.2 105 Bases Ortonormais Definição 7.5 Seja V um espaço vetorial com produto interno h, i. Uma base (v1 , ..., vn ) de V é ortogonal se o conjunto {v1 , ..., vn } é ortogonal, isto é, hvi , vj i = 0 se i 6= j. Se, além disso, kvj k = 1 (j = 1, ..., n) então (v1 , ..., vn ) é uma base ortonormal. Proposição 7.5 Todo espaço vetorial com produto interno, de dimensão finita n ≥ 1, tem uma base ortonormal. Dem. Seja (u1 , ..., un ) base de V. A partir desta base vamos obter uma base ortogonal, pelo chamado processo de ortogonalização de Gram-Schmidt. Seja v1 = u1 (6= 0); para achar v2 ponhamos v2 = u2 − a1 v1 , onde a1 ∈ K é escolhido de modo que hv2 , v1 i = 0, isto é, hu2 − a1 v1 , v1 i = 0, donde hu2 , v1 i a1 = . kv1 k2 Como u1 e u2 são LI, é claro que v2 6= 0; além disso, o espaço gerado por v1 e v2 é o mesmo gerado por u1 e u2 . A seguir, para achar v3 , ponhamos v3 = u3 − b2 v2 − b1 v1 , onde b1 e b2 são escolhidos de modo que hv3 , v1 i = hu3 , v1 i hu3 , v2 i hv3 , v2 i = 0, donde b1 = e b2 = . 2 kv1 k kv2 k2 CAPÍTULO 7. PRODUTO INTERNO 106 Como u3 não está no espaço gerado por v1 e v2 , temos v3 6= 0; além disso, o espaço gerado por v1 , v2 , v3 é o mesmo gerado por u1 , u2 , u3 . Por indução, suponhamos construídos v1 , ..., vk−1 que formam um conjunto ortogonal de vetores não-nulos e são tais que o espaço por eles gerado é o mesmo gerado por u1 , ..., uk−1 . Para achar vk , ponhamos vk = uk − ck−1 vk−1 − ... − c1 v1 , onde c1 , ..., ck−1 são escolhidos de modo que hvk , v1 i = ... = hvk , vk−1 i = 0, huk , v1 i huk , vk−1 i donde c1 = , ..., c = . Como uk não pertence ao espaço k−1 kv1 k2 kvk−1 k2 gerado por v1 , ..., vk−1 temos vk 6= 0; além disso, o espaço gerado por v1 , ..., vk é o mesmo gerado por u1 , ..., uk . Obteremos assim, por esse processo, uma sequência (v1 , ..., vn ) de vetores não-nulos, dois a dois ortogonais, donde LI, ou seja, uma base ortogonal de V. Para obter uma base ortonormal basta vi substituir cada vi por . kvi k Exemplo 7.2.1 Vamos achar uma Z 1 base ortogonal para o subespaço W de  f (t)g(t)dt, gerado pelas funções 1, t, t2 . V = C 0 [0, 1], R , com hf, gi = 0 Seja f1 (t) = 1 e tomemos f2 (t) = t − af1 (t) = t − a onde a = Z ht, f1 i = kf1 k2 1 1 1 t · dt = . Logo: f2 (t) = t − . 2 2 0 Ponhamos f3 (t) = t2 − bf2 (t) − cf1 (t), onde b, c ∈ R são dados por: ht2 , f2 i ht2 , f1 i b= e c = . kf2 k2 kf1 k2 Temos: 2 kf1 k = 1; 2 Z 1 1 1 1 2 kf2 k = t− dt = ; ht , f1 i = t2 dt = ; 2 12 3 0 0  Z 1  1 1 2 2 ht , f2 i = t t− dt = . 2 12 0 2 Z 1  Logo: 1 1 f3 (t) = t2 − f2 (t) − f1 (t) = t2 − t + . 3 6   1 1 Portanto, 1, t − , t2 − t + é uma base ortogonal de W. 2 6 Proposição 7.6 Sejam V um espaço vetorial com produto interno h, i e W ⊂ V um subespaço de dimensão finita. Então: V = W ⊕ W⊥ CAPÍTULO 7. PRODUTO INTERNO 107 Dem. Seja (v1 , ..., vr ) uma base ortonormal de W. Se v ∈ V , seja u=v− r X hv, vi ivi . i=1 Temos: hu, vj i = hv − r X r X hv, vi ivi , vj i = hv, vj i − hv, vi iδij = i=1 i=1 = hv, vj i − hv, vj i = 0 (j = 1, ..., r) ⊥ ou seja, u ∈ W . Como r X hv, vi ivi ∈ W , temos V = W + W ⊥ . i=1 Se v ∈ W ∩ W ⊥ então hv, vi = 0, donde v = 0, isto é, W ∩ W ⊥ = {0}. Logo: V = W ⊕ W ⊥ . Corolário 7.6.1 Nas condições da proposição 7.6, se V tem dimensão finita, então: dim V = dim W + dim W ⊥ . Obs. Sejam V um espaço vetorial com produto interno h, i e (e1 , ..., en ) uma base ortonormal de V. Se u, v ∈ V , u = a1 e1 + ... + an en , v = b1 e1 + ... + n n n X X X ai bi , igual ao produto bn en , então hu, vi = hai ei , bj ej i = ai bj δij = i,j=1 i=1 i,j=1 interno usual dos vetores a = (a1 , ..., an ) e b = (b1 , ..., bn ) de Kn . Se a base n X (e1 , ..., en ) não é ortonormal e se hei , ej i = gij ∈ K, então hu, vi = gij ai bj . i,j=1 Se V é um espaço vetorial sobre K, de dimensão n, uma maneira de se definir um produto interno em V é a seguinte: tome uma base arbitrária (e1 , ..., en ) de V e defina o produto interno, de u = a1 e1 + ... + an en por n X v = b1 e1 + ... + bn en , por meio de hu, vi = ai bi . Em relação a este produto i=1 interno, a base (e1 , ..., en ) é ortonormal. Exercícios 1. Seja E = (u1 , u2 , u3 ) a base de R3 formada pelos vetores u1 = (1, 1, 1), u2 = (1, −1, 1) e u3 = (1, −1, −1), e seja F = (v1 , v2 , v3 ) a base ortogonal obtida de E pelo processo de Gram-Schmidt. Ache a matriz P de passagem de E para F. Observe que P é triangular superior. CAPÍTULO 7. PRODUTO INTERNO 108 2. Dado o vetor unitário u = (α1 , ..., αn ) ∈ Rn forme a matriz A = (αi , αj ) – n × n. Seja H : Rn −→ Rn o operador cuja matriz na base canônica é In − 2A. Prove que para todo v ∈ Rn tem-se H(v) = v − 2hv, uiu e que kHvk = kvk. (H é a reflexão no hiperplano de Rn cuja normal é u). X 3. Em MR (n) considere hA, Bi = aij bij , onde A = (aij ) e B = (bij ). i,j Mostre que h, i é um produto interno. Mostre que o subespaço A das matrizes antissimétricas é o complemento ortogonal do subespaço S das matrizes simétricas em MR (n). 7.3 Relações entre V e V ∗ Seja V um espaço vetorial com produto interno h, i. Se v ∈ V , a aplicação Tv u ∈ V 7−→ hu, vi ∈ K é uma forma linear, isto é, um elemento do dual ∗ V = L(V, K). Proposição 7.7 Seja V um espaço vetorial de dimensão finita sobre K, T munido de um produto interno h, i. A aplicação v ∈ V 7−→ Tv ∈ V ∗ , Tv (u) = hu, vi, é bijetora. Dem. Tv1 +v2 (u) = hu, v1 + v2 i = hu, v1 i + hu, v2 i = Tv1 (u) + Tv2 (u). Tav (u) = hu, avi = ahu, vi = aTv (u), de modo que T não é linear se K = C. Dizemos que ela é semi-linear. T : V −→ V ∗ é injetora: Tv1 = Tv2 se, e só se, hu, v1 i = hu, v2 i para todo u ∈ V ⇔ hu, v1 − v2 i = 0 para todo u ∈ V ⇔ v1 = v2 . T : V −→ V ∗ é sobrejetora: dado w ∈ V ∗ , seja (v1 , ..., vn ) uma base ortonormal de V e seja v = a1 v1 + ... + an vn com ai = w(vi ). Então, Tv (vi ) = hvi , vi = ai = w(vi ), 1 ≤ i ≤ n, e, portanto, Tv = w. Obs. No caso K = R a aplicação T é linear bijetora, isto é, um isomorfismo entre V e V ∗ . No caso K = C a aplicação T é semi-linear bijetora; ela é um anti-isomorfismo entre V e V ∗ . Se W ⊂ V é um subespaço, vimos que W ⊥ é subespaço de V e W 0 é subespaço de V ∗ , onde W ⊥ = {v ∈ V ; hu, vi = 0 ∀u ∈ W } e W 0 = {α ∈ V ∗ ; α(u) = 0 ∀u ∈ W }. CAPÍTULO 7. PRODUTO INTERNO 109 Se v ∈ W ⊥ então Tv ∈ W 0 pois Tv (u) = hu, vi = 0 para todo u ∈ W . Assim, T : V −→ V ∗ leva W ⊥ em W 0 . Um argumento análogo ao usado na proposição 7.7 mostra que T : W ⊥ −→ W 0 é um isomorfismo no caso K = R e um anti-isomorfismo no caso K = C. Observemos também que se dim V = n e dim W = r então dim W ⊥ = n−r, como já vimos anteriormente. A proposição 7.7 nos diz que, dado um funcional linear w ∈ V ∗ , existe um e um único vetor v ∈ V tal que w = Tv , isto é, w(u) = hu, vi para todo u ∈ V , ou seja, v ∈ V representa a forma linear w ∈ V ∗ . Exemplo 7.3.1 Sejam U ⊂ Rn aberto e f : U −→ R uma aplicação diferenciável. A diferencial de f em p ∈ U é o funcional linear df (p) ∈ (Rn )∗ ∂f (p) = derivada de f no ponto p na tal que, para todo v ∈ Rn , df (p) · (v) = ∂v direção de v. Considerando em Rn o produto interno usual, o vetor que representa df (p) é o gradiente de f em p, Of (p) = grad f (p). Assim, Of (p) é o vetor de Rn ∂f tal que df (p) · v = hOf (p), vi = (p). Se (e1 , ..., en ) é a base canônica de Rn ∂v ∂f e Of (p) = a1 e1 + ... + an en , então ai = hOf (p), ei i = (p), (1 ≤ i ≤ n), ∂xi   ∂f ∂f ou seja, Of (p) = (p), ..., (p) . ∂x1 ∂xn Exemplo 7.3.2 Sejam V um espaço vetorial de dimensão finita sobre K, com produto interno h, i, Tv (u) = hu, vi, que sabemos ser semi-linear bijetora. Vamos definir um produto interno em V ∗ por meio de hTv , Tu i = hu, vi. De fato, temos: (a) hTv1 +Tv2 , Tu i = hTv1 +v2 , Tu i = hu, v1 +v2 i = hu, v1 i+hu, v2 i = hTv1 , Tu i+ hTv2 , Tu i. (b) haTv , Tu i = hTav , Tu i = hu, avi = ahu, vi = ahTv , Tu i. (c) hTv , Tu i = hu, vi = hv, ui = hTu , Tv i. (d) hTv , Tv i = hv, vi = kvk2 > 0 se v 6= 0. A partir de (V ∗ , h, i), usando o método acima, podemos introduzir um produto interno em V ∗∗ . Seja L : V ∗ −→ V ∗∗ definido por Lα (β) = hβ, αi, α, β ∈ V ∗ . Definimos hLα , Lβ i = hβ, αi. Vamos mostrar que L ◦ T : V −→ V ∗∗ coincide com o isomorfismo canônico J : V −→ V ∗∗ , Jv (α) = α(v), v ∈ V, α ∈ V ∗ , isto é, vamos mostrar que LTv = Jv . Temos: LTv (Tu ) = hTu , Tv i = hv, ui = Tu (v) = Jv (Tu ), donde resulta LTv = Jv , ou seja, L ◦ T = J. CAPÍTULO 7. PRODUTO INTERNO 7.4 110 Adjunta Sejam V e W espaços vetoriais de dimensão finita, ambos com produto interno, e T : V −→ W linear. Proposição 7.8 Existe uma única aplicação linear T ∗ : W −→ V tal que hT v, wi = hv, T ∗ wi para todo v ∈ V e todo w ∈ W . Dem. Seja w ∈ W fixo mas arbitrário e seja β : V −→ K o funcional linear definido por β(v) = hT v, wi. Pela proposição 7.7 existe um único u = T ∗ w ∈ V tal que β(v) = hv, T ∗ wi, ou seja, hT v, wi = hv, T ∗ wi. Vamos mostrar que T ∗ : W −→ V assim definida é linear. Se v ∈ V, w1 , w2 ∈ W temos: hv, T ∗ (w1 + w2 )i = hT v, w1 + w2 i = hT v, w1 i + hT v, w2 i = hv, T ∗ w1 i + hv, T ∗ w2 i = hv, T ∗ w1 + T ∗ w2 i o que mostra ser T ∗ (w1 + w2 ) igual a T ∗ w1 + T ∗ w2 . Se a ∈ K, temos: hv, T ∗ (aw)i = hT v, awi = ahT v, wi = ahv, T ∗ wi = hv, aT ∗ wi para todo w ∈ W , donde T ∗ (aw) = aT ∗ (w). Definição 7.6 A aplicação linear T ∗ : W −→ V tal que hT v, wi = hv, T ∗ wi quaisquer que sejam v ∈ V , w ∈ W , chama-se a adjunta de T. Se V = W e T = T ∗ o operador linear T : V −→ V chama-se auto-adjunto (se K = R dizse também que T é simétrico; se K = C diz-se também que T é hermitiano). Proposição 7.9 Seja V um espaço vetorial de dimensão finita sobre K, com produto interno h, i. Se a ∈ K e L, T : V −→ V são lineares, então: (a) (L + T )∗ = T ∗ + L∗ ; (b) (aT )∗ = a · T ∗ ; (c) (L ◦ T )∗ = T ∗ ◦ L∗ ; (d) (T ∗ )∗ = T . Dem. (a) h(L+T )(u), vi = hLu+T u, vi = hLu, vi+hT u, vi = hu, L∗ vi+hu, T ∗ vi = = hu, L∗ v + T ∗ vi = hu, (L∗ + T ∗ )(v)i quaisquer que sejam u, v ∈ V . Portanto: (L + T )∗ = L∗ + T ∗ . (b) h(aT )(u), vi = haT (u), vi = ahu, T ∗ vi = hu, aT ∗ (v)i = = hu, (aT ∗ )(v)i, donde (aT )∗ = aT ∗ . (c) h(L ◦ T )(u), vi = hL(T u), vi = hT u, L∗ vi = hu, T ∗ L∗ vi = hu, T ∗ ◦ L∗ (v)i, donde (L ◦ T )∗ = T ∗ ◦ L∗ . (d) hT ∗ u, vi = hv, T ∗ ui = hT v, ui = hu, T vi, donde (T ∗ )∗ = T . Obs. Se L = L∗ e T = T ∗ são operadores auto-adjuntos em V, então (L ◦ T )∗ = T ∗ ◦ L∗ = T ◦ L e L ◦ T é auto-adjunto se, e só se, T ◦ L = L ◦ T . CAPÍTULO 7. PRODUTO INTERNO 111 Exemplo 7.4.1 Sejam V e W espaços vetoriais de dimensão finita munidos de produto interno, E = (v1 , ..., vn ) e F = (w1 , ..., wm ) bases ortonormais de  E V e W, respectivamente. Se T : V −→ W é linear e T F = A = (aij ) –  F t m × n, vamos mostrar que T ∗ E = A∗ = A , A∗ = (bij ) – n × m. Temos: hvi , T ∗ wj i = hT vi , wj i Mas: ∗ hvi , T wj i = hvi , m X bkj vk i = bij k=1 n X hT vi , wj i = haki vk , wj i = aji . k=1 t Portanto, bij = aji , donde A∗ = A . Definição 7.7 Seja A = (aij ) – m × n. A adjunta de A é a matriz A∗ = t A = (bij ) – n × m, onde bij = aji . Se A é quadrada e A = A∗ dizemos que A é auto-adjunta (simétrica se K = R, hermitiana se K = C). Exemplo 7.4.2 Os autovalores de um operador auto-adjunto T = T ∗ : V −→ V são reais. De fato, se v 6= 0 e T v = λv = T ∗ v, temos: hT v, vi = hv, T ∗ vi, donde, hλv, vi = hv, λvi e daí vem: λhv, vi = λhv, vi, donde λ = λ. Exemplo 7.4.3 Os autovetores, associados a autovalores distintos, de um operador auto-adjunto T = T ∗ : V −→ V , são ortogonais. De fato, se T v1 = λ1 v1 , T v2 = λ2 v2 , λ1 6= λ2 , então (λ1 − λ2 )hv1 , v2 i = hλ1 v1 , v2 i − hv1 , λ2 v2 i = hT v1 , v2 i − hv1 , T v2 i = 0, donde hv1 , v2 i = 0. Obs. A proposição 7.8 mostra que se dim V é finita, todo T ∈ L(V ) tem um adjunto T ∗ ∈ L(V ). Se V não tem dimensão finita, dado T ∈ L(V ) pode ou não existir T ∗ ∈ L(V ) tal que hT v, ui = hv, T ∗ ui para u, v ∈ V quaisquer. Exemplo 7.4.4 Seja V o espaço vetorial real das funções f : R −→ R ∞ de Z classe C que se anulam fora de [0, 1], com o produto interno hf, gi = 1 f (t)g(t)dt. Seja D : V −→ V o operador de derivação. Temos: 0 Z hDf, gi = 0 ∗ 1 1 Z f (t)g(t)dt = f (t)g(t) − 0 0 1 f (t)g 0 (t)dt = −hf, Dgi = hf, D∗ gi, 0 donde D = −D. Neste exemplo V tem dimensão infinita. CAPÍTULO 7. PRODUTO INTERNO 112 Proposição 7.10 Seja V um espaço vetorial complexo, de dimensão finita, munido de um produto interno h, i. Se T : V −→ V é linear e tal que hT v, vi = 0 para todo v ∈ V , então T = 0. Dem. Se u, v ∈ V , temos a identidade hT (u + v), u + vi − hT u, ui − hT v, vi = hT u, vi + hT v, ui. Mas se hT w, wi = 0 para todo w ∈ V , então essa identidade nos dá: hT u, vi + hT v, ui = 0  Substituindo-se u por iu (i2 = −1), obtemos: hT v, iui + hT (iu), vi = 0, donde −ihT v, ui + ihT u, vi = 0, ou ainda −hT v, ui + hT u, vi = 0 ♦ Somando  com ♦, vem: 2hT u, vi = 0, donde hT u, vi = 0 para todo u ∈ V e para todo v ∈ V , donde T = 0. Proposição 7.11 Sejam V um espaço vetorial real, de dimensão finita, munido de um produto interno h, i e T : V −→ V linear simétrico. Se hT v, vi = 0 para todo v ∈ V , então T = 0. Dem. A identidade hT (u + v), u + vi − hT u, ui − hT v, vi = hT u, vi + hT v, ui nos dá hT u, vi + hT v, ui = 0. Mas, hT v, ui = hv, T ui = hT u, vi. Portanto, 2hT u, vi = 0, donde T = 0. Proposição 7.12 Sejam V, W espaços vetoriais de dimensão finita sobre K, munidos de produto interno, e T : V −→ W linear. Então: (a) N (T ∗ ) = (Im T )⊥ ; (b) Im T ∗ = N (T )⊥ (c) N (T ) = (Im T ∗ )⊥ ; (d) Im T = N (T ∗ )⊥ Dem. É suficiente provar (a), as outras igualdades sendo consequências imediatas. Temos: v ∈ N (T ∗ ) ⇔ T ∗ v = 0 ⇔ hu, T ∗ vi = 0 para todo u ∈ V ⇔ hT u, vi = 0 para todo u ∈ V ⇔ v ∈ (Im T )⊥ . Corolário 7.12.1 O posto de T ∗ é igual ao posto de T. Dem. dim Im T ∗ = dim V − dim N (T ) = dim Im T CAPÍTULO 7. PRODUTO INTERNO 7.5 113 Exercícios do Capítulo 7 1. Seja V um espaço vetorial sobre K munido de um produto interno, e seja (v1 , ..., vn ) uma base de V. Dados a1 , a2 , ..., an ∈ K arbitrários, prove que existe um, e um único, vetor w ∈ V tal que hw, vj i = aj , 1 ≤ j ≤ n. 2. Se T é invertível e T ST ∗ é auto-adjunto, prove que S é auto-adjunto. 3. Seja T : V −→ V um operador diagonalizável. Prove que é possível definir um produto interno em V em relação ao qual T = T ∗ . 4. Seja V um espaço vetorial de dimensão finita sobre K e seja T : V −→ V um operador diagonalizável. Se W ⊂ V é um subespaço tal que T (W ) ⊂ W , prove que T W : W −→ W é diagonalizável em W. 5. Sejam S, T : V −→ V operadores auto-adjuntos. Prove que existe base ortonormal de V formada por autovetores comuns a S e T se, e só se, S ◦ T = T ◦ S. 6. Seja Mn (C) o espaço vetorial complexo das matrizes n × n. Prove que hA, Bi = tr(AB ∗ ) é um produto interno em Mn (C) e ache o complet mento ortogonal do subespaço das matrizes diagonais (Obs. B ∗ = B ). 7. Seja W um subespaço de dimensão finita de um espaço vetorial V munido de produto interno. Se E : V −→ W é a projeção ortogonal de V sobre W, prove que hE(u), vi = hu, E(v)i para u, v ∈ V quaisquer. 8. Sejam V = W1 ⊕ W2 , h, i1 e h, i2 produtos internos em W1 e W2 respectivamente. Mostre que existe um único produto interno h, i em V tal que W2 = W1⊥ e hu, vi = hu, vik quando u, v ∈ Wk , k = 1, 2. 9. Seja V um espaço vetorial complexo com produto interno. Prove que T : V −→ V linear é auto-adjunto se, e só se, hT v, vi é real para todo v ∈V. Capítulo 8 Operadores Unitários e Normais 8.1 Definições Definição 8.1 Sejam V, W espaços vetoriais sobre K, munidos de produto interno. Dizemos que T : V −→ W é uma isometria se T é linear bijetora e hT u, T vi = hu, vi quaisquer que sejam u, v ∈ V . Assim, uma isometria é um isomorfismo que preserva o produto interno. Proposição 8.1 Seja V um espaço vetorial com produto interno. Então: 4hu, vi = ku + vk2 − ku − vk2 se K = R. 4hu, vi = ku + vk2 − ku − vk2 + iku + ivk2 − ihu − ivi2 se K = C, quaisquer que sejam u, v ∈ V . Dem. Exercício. Proposição 8.2 Sejam V, W espaços vetoriais de mesma dimensão finita sobre K, munidos de produto interno, e T : V −→ W linear. São equivalentes: (a)hT u, T vi = hu, vi; (b)kT vk = kvk; (c) T é isometria; (d) T leva base ortonormal de V em base ortonormal de W; (e) T leva alguma base ortonormal de V em base ortonormal de W. Dem. (a) ⇒ (b): Óbvio. (b) ⇒ (c): se v 6= 0 então T (v) 6= 0, donde T é injetora e, como dim V = dim W , T é bijetora. Pela proposição 8.1, e pela hipótese, temos (no caso K = C): 4hT u, T vi = kT (u + v)k2 − kT (u − v)k2 + ikT (u + iv)k2 − ikT (u − iv)k2 = = ku + vk2 − ku − vk2 + iku + ivk2 − iku − ivk2 = 4hu, vi, donde hT u, T vi = hu, vi. Portanto, T é isometria. 114 CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 115 (c) ⇒ (d): seja (v1 , ..., vn ) base ortonormal de V. Como T é isomorfismo, (T v1 , ..., T vn ) é base de W. Do fato de ser hT vi , T vj i = hvi , vj i = δij , resulta que essa base de W é ortonormal. (d) ⇒ (e): Óbvio. (e) ⇒ (a): seja (v1 , ..., vn ) base ortonormal de V tal que (T v1 , ..., T vn ) seja base ortonormal de W. Então: hT vi , T vj i = hvi , vj i = δij . Se u = a1 v1 + ... + an vn e v = b1 v1 + ... + bn vn , então: n n n n X X X X hu, vi = ai bi e hT u, T vi = h ai T (vi ), bj T (vj )i = ai bj hT vi , T vj i = i=1 = n X ai bj δij = i,j=1 i=1 n X j=1 i,j=1 ai b i . i=1 Portanto, hT u, T vi = hu, vi Corolário 8.2.1 Sejam V, W espaços vetoriais de dimensão finita sobre K, munidos de produto interno. V e W são isométricos (isto é, existe isometria T : V −→ W ) se, e só se, dim V = dim W . Dem. Sejam (v1 , ..., vn ) e (w1 , ..., wn ) bases ortonormais de V e W, respectivamente. Definamos T : V −→ W linear por T (vi ) = wi , 1 ≤ i ≤ n. Então T é isometria. A recíproca é imediata. Definição 8.2 Sejam V um espaço vetorial com produto interno h, i e T : V −→ V linear. Dizemos que T é um operador unitário se T é uma isometria. No caso de V ter dimensão finita, a proposição 8.2 mostra que T é unitário se, e só se, preserva o produto interno. No caso em que K = R um operador unitário é usualmente chamado de ortogonal. Exemplo 8.1.1 Seja V1 = C 0 ([0, 1], R) o espaço vetorialZ real das funções 1 2 contínuas f : [0, 1] −→ R com o produto interno hf, gi1 = f (t)g(t)e−t dt, Z0 1 e seja V2 = C 0 ([0, 1], R) com o produto interno hf, gi2 = f (t)g(t)dt. A 0 2 aplicação T : V1 −→ V2 definida por (T f )(t) = e − t2 f (t),Z t ∈ [0, 1], é linear 1 hf, gi1 . Portanto, T : V1 −→ V2 é uma isometria. 2 e−t f (t)g(t)dt = bijetora e preserva o produto interno pois hT f, T gi2 = 0 CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 116 Proposição 8.3 Sejam V um espaço vetorial com produto interno, de dimensão finita e T : V −→ V linear. T é unitário se, e só se, T ∗ ◦ T = I(= T ◦ T ∗ ). Dem. T é unitário se, e só se, hT u, T vi = hu, vi para todo u, v ∈ V , o que equivale a hT ∗ T u, vi = hu, vi e, portanto, equivale a T ∗ · T = I. Definição 8.3 Dizemos que A ∈ Mn (K) é unitária se A∗ A = In . Lembremos que A∗ = At . Se K = R temos A∗ = At e é usual dizer que A é ortogonal se At A = In . Corolário 8.3.1 Sejam V um espaço vetorial de dimensão finita, munido de um produto interno e T : V −→ V linear. T é unitário se, e só se, a matriz de T em alguma (ou toda) base ortonormal de V é uma matriz unitária. Dem. Imediata. Exemplo 8.1.2 Consideramos o Rn com o produto interno usual. Um movimento rígido é uma aplicação T : Rn −→ Rn tal que kT u − T vk = ku − vk para todo u, v ∈ Rn . Por exemplo, Tv0 (v) = v + v0 , onde v0 ∈ Rn é fixo, ou seja, uma translação, é um movimento rígido. (a) Vamos mostrar que se T : Rn −→ Rn é um movimento rígido tal que T (0) = 0, então T é linear e ortogonal. Observemos que, neste caso, kT uk = kT (u) − T (0)k = ku − 0k = kuk. Além disso, kT u − T vk2 = hT u − T v, T u − T vi = kT uk2 + kT vk2 − 2hT u, T vi. Por outro lado, kT u − T vk2 = ku − vk2 = kuk2 + kvk2 − 2hu, vi. Resulta: hT u, T vi = hu, vi, ou seja, se T é movimento rígido e T (0) = 0, então T preserva o produto interno. Temos: kT (u+v)−T (u)−T (v)k2 = kT (u+v)k2 +kT uk2 +kT vk2 −2hT (u+v), T (u)i− −2hT (u + v), T (v)i + 2hT u, T vi = ku + vk2 + kuk2 + kvk2 − 2hu + v, ui− −2hu + v, vi + 2hu, vi = 2kuk2 + 2kvk2 + 2hu, vi − 2kuk2 − 2kvk2 − 4hu, vi+ +2hu, vi = 0. Logo: T (u + v) = T (u) + T (v). Analogamente, kT (av)−aT (v)k2 = kT (av)k2 +a2 kT vk2 −2ahT (av), T (v)i = kavk2 +a2 kvk2 − CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 117 −2ahav, vi = 0. Logo: T (av) = aT (v), a ∈ R. Portanto, T é uma aplicação linear ortogonal. (b) Sejam T : Rn −→ Rn movimento rígido, T (0) = v0 e T−v0 (v) = v −v0 . A composta de movimentos rígidos é um movimento rígido, como é fácil de se verificar, de modo que L = T−v0 ◦ T é um movimento rígido e L(0) = T−v0 (T (0)) = T−v0 (v0 ) = 0. Pela parte (a) vem que L : Rn −→ Rn é um −1 operador ortogonal. Como (T−v0 )−1 = Tv0 e L = T−v0 ◦ T , vem L = T−v ◦T, 0 donde T = Tv0 ◦ L, ou seja, todo movimento rígido é a composta de uma translação com um operador ortogonal: T (v) = L(v) + v0 , para todo v ∈ Rn . Definição 8.4 Sejam V um espaço vetorial de dimensão finita sobre K, munido de um produto interno e T : V −→ V linear. Dizemos que T é normal se T comuta com seu adjunto, isto é, se T ◦ T ∗ = T ∗ ◦ T . É claro que todo operador auto-adjunto é normal, bem como todo operador unitário; é claro também que se T : V −→ V é normal e a ∈ K, então aT é normal. Em geral, a soma e o produto (composta) de operadores normais não são normais, mas vale o seguinte resultado. Proposição 8.4 Sejam V um espaço vetorial de dimensão finita sobre K, munido de um produto interno e T1 , T2 : V −→ V operadores normais. Se T1 ◦ T2∗ = T2∗ ◦ T1 (ou T2 ◦ T1∗ = T1∗ ◦ T2 ), então T1 + T2 e T1 ◦ T2 são operadores normais. Dem. É claro que T1 ◦ T2∗ = T2∗ ◦ T1 se, e só se, T2 ◦ T1∗ = T1∗ ◦ T2 . Temos: (T1 + T2 )(T1 + T2 )∗ = (T1 + T2 )(T1∗ + T2∗ ) = T1 ◦ T1∗ + T1 ◦ T2∗ + T2 ◦ T1∗ + T2 ◦ T2∗ . E: (T1 +T2 )∗ ·(T1 +T2 ) = (T1∗ +T2∗ )(T1 +T2 ) = T1∗ ◦T1 +T1∗ ◦T2 +T2∗ ◦T1 +T2∗ ◦T2 . Como T1 ◦T1∗ = T1∗ ◦T1 , T2 ◦T2∗ = T2∗ ◦T2 , T1 ◦T2∗ = T2∗ ◦T1 e T2 ◦T1∗ = T1∗ ◦T2 , vem que T1 + T2 é normal. Temos também: T1 T2 (T1 T2 )∗ = T1 T2 T2∗ T1∗ = T1 T2∗ T2 T1∗ = T2∗ T1 T1∗ T2 = T2∗ T1∗ T1 T2 = (T1 T2 )∗ T1 T2 , donde T1 T2 é normal. CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 118 Proposição 8.5 Sejam V um espaço vetorial complexo de dimensão finita, munido de um produto interno, e T : V −→ V linear. T é normal se, e só se, kT ∗ vk = kT vk para todo v ∈ V . Dem. kT ∗ vk = kT vk se, e só se, hT ∗ v, T ∗ vi = hT v, T vi se, e só se, hT T ∗ v, vi = hT ∗ T v, vi para todo v ∈ V se, e só se, T T ∗ = T ∗ T pela proposição 7.10. Definição 8.5 Dizemos que A ∈ Mn (K) é normal se AA∗ = A∗ A. Obs. É imediato verificar que T : V −→ V é normal se, e só se, a matriz de T numa base ortonormal de V é uma matriz normal.   1 i Exemplo 8.1.3 A = é normal pois i 1   t 1 −i ∗ A =A = −i 1 e  2 0 AA = A A = . 0 2 ∗ ∗  Exemplo 8.1.4 T : V −→ V é normal ⇔ T − λI é normal, λ ∈ K. Temos: (T − λI)(T − λI)∗ = (T − λI)(T ∗ − λI) = T T ∗ − λT ∗ − λT + |λ|2 I. (T − λI)∗ · (T − λI) = (T ∗ − λI)(T − λI) = T ∗ T − λT − λT ∗ + |λ|2 I. Logo, T − λI é normal ⇔ T T ∗ = T ∗ T ⇔ T é normal. Exemplo 8.1.5 Se V é um espaço vetorial complexo, T : V −→ V é normal e T v = λv, v 6= 0, então T ∗ v = λv. De fato, se T é normal, então k(T − λI)vk = k(T ∗ − λI)(v)k = 0, donde T ∗ v = λv. Se T é unitário então hT v, T vi = hλv, λvi = |λ|2 hv, vi = hv, vi, donde |λ| = 1. Proposição 8.6 (Teorema Espectral para Operadores Normais) Sejam V um espaço vetorial de dimensão finita n ≥ 1 sobre o corpo K, munido de um produto interno, e T : V −→ V um operador normal. Se o polinômio característico de T tem todas suas raízes em K (por exemplo, se K = C), então existe base ortonormal F de V formada por autovetores de T, isto é, a matriz [T ]F F é diagonal. CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 119 Dem. Já vimos que existe base E de V na qual a matriz de T é triangular superior. Usando o processo de Gram-Schmidt obtemos, a partir de E, uma base ortonormal F = (v1 , ..., vn ) de V na qual [T ]F F = B = (bij ) é triangular ∗ F ∗ ∗ t superior e temos [T ]F = B = B . Como T ◦ T = T ∗ ◦ T obtemos BB ∗ = B ∗ B. Comparando os elementos diagonais de BB ∗ e B ∗ B, vemos que: |b11 |2 +|b12 |2 + ... +|b1n |2 = |b11 |2 |b22 |2 + ... +|b2n |2 = |b12 |2 + |b22 |2 .. . , |bnn |2 = |b1n |2 + |b2n |2 + ... + |bnn |2 donde resulta que bij = 0 para i 6= j, ou seja, B é diagonal e F = (v1 , ..., vn ) é base ortonormal de V formada por autovetores de T. Corolário 8.6.1 Se K = C e T é unitário, então T é diagonalizável. Corolário 8.6.2 S e T é auto-adjunto, então T é diagonalizável. Obs. A recíproca da proposição 8.6 também é verdadeira, isto é, se existe base ortonormal F de V formada porautovetores de é  T, então T λ1 0 λ1 0     F ∗ . . .. .. normal. De fato, se [T ]F = B =  e  então B =  0  ∗ 2 |λ1 |  BB = B B =  0 8.2 0 .. ∗ . |λn |2 λn 0 λn    e B é normal, donde T é normal. Operadores Positivos Definição 8.6 Sejam V um espaço vetorial com produto interno e T : V −→ V linear. Dizemos que T é positivo, e escrevemos T > 0, se T = T ∗ e hT v, vi > 0 para todo v 6= 0. Se T = T ∗ e hT v, vi ≥ 0 para todo v ∈ V , dizemos que T é não-negativo, e escrevemos T ≥ 0. Proposição 8.7 Um operador auto-adjunto T : V −→ V é positivo (resp. não-negativo) se, e só se, seus autovalores são todos positivos (resp. nãonegativos). Dem. Se T > 0 e T v = λv com v 6= 0, então λhv, vi = hλv, vi = hT v, vi > 0, donde λ > 0. Reciprocamente, se os autovalores de T são todos positivos, seja (v1 , ..., vn ) base ortonormal de V tal que T vi = λi vi , 1 ≤ i ≤ n. Se CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS v ∈ V então v = n X ai vi e hT v, vi = i=1 n X hai λi vi , aj vj i = i,j=1 120 n X λi |ai |2 > 0, i=1 donde T > 0. O caso T ≥ 0 é análogo. Corolário 8.7.1 Seja T ≥ 0. Se v ∈ V é tal que hT v, vi = 0, então T v = 0. r X Dem. Sejam λ1 , ..., λr os autovalores não-nulos de T e v = ai vi como acima. Então, hT v, vi = 0 nos dá r X i=1 λi |ai |2 = 0 donde a1 = ... = ar = 0, o i=1 que implica T v = 0. Corolário 8.7.2 T : V −→ V é positivo se, e só se, T é invertível e T ≥ 0. Dem. Se T > 0 então T ≥ 0 e T v 6= 0 para todo v 6= 0, donde T é invertível. Reciprocamente, se T ≥ 0 é invertível então T v 6= 0 para todo v 6= 0 e hT v, vi é positivo pelo corolário 8.7.1, donde T > 0. Obs. Seja T : V −→ V , dim V = n, um operador normal. Se E = (u1 , ..., un ) é base ortonormal de V e A = [T ]EE então AA∗ = A∗ A. Seja F = (v1 , ..., vn ) base ortonormal de V formada por autovetores de T. Então:   λ1 0   ... [T ]F  = D. F =  0 λn Temos: E E F [T ]F F = [I]F · [T ]E · [I]E , donde P −1 AP = D, onde P = [I]F E é a matriz de passagem da base ortonormal E para a base ortonormal F, ou seja, P é unitária. Resulta que toda matriz normal pode ser unitariamente diagonalizada. Se A é matriz simétrica então P é ortogonal.     1 −2 −2 1 − λ −2 −2 Exemplo 8.2.1 Seja A = −2 1 −2. Então: det(A−λI) =  −2 1 − λ −2  = −2 −2 1 −2 −2 1 − λ 2 = (3 − λ) (−3 − λ). (a) λ = −3: 4x1 − 2x2 − 2x3 = 0 −2x1 − 4x2 − 2x3 = 0 , −2x1 − 2x2 − 4x3 = 0 CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 121    √  1/√3 1 f    donde X1 = 1 é autovetor, donde X1 = 1/√3 é autovetor unitário. 1 1/ 3   −1 f  1 (b) λ = 3: −2x1 − 2x2 − 2x3 = 0, donde x1 = −x2 − x3 e X2 = 0   −1 f f2 e X f3 não são ortogonais, usamos  0  são autovetores. Como X e X3 = 1 √   −1/√ 2 Gram-Schmidt para ortogonalizá-los. Obtemos: X2 =  1/ 2  e X3 = 0 √   −1/√6 −1/ 6. √ 2/ 6 3 Os vetores √  uma base ortonormal de R de modo que √ X1 , X√2 , X3 formam 1/√3 −1/√ 2 −1/√6 H = 1/√3 1/ 2 −1/√ 6 é matriz ortogonal (H −1 = H t ) tal que 1/ 3  0 2/ 6 −3 0 −1  3 . H AH = D = 0 3 Definição 8.7 Seja A = (aij ) ∈ Mn (K). DIzemos que A é positiva (resp. não-negativa) se o operador TA : Kn −→ Kn TA (x) = Ax, é positivo (resp. t não-negativo). Assim, A > 0 se, e só se, A = A (A é hermitiana) e n X hTA (x), xi = hAx, xi = aij xi xj > 0 para todo x = (x1 , ..., xn ) 6= 0. i,j=1 Da proposição 8.7 resulta que uma matriz hermitiana é positiva se, e só se, seus autovalores são todos positivos. Definição 8.8 Uma matriz B = (bij ) – n × n – chama-se raiz quadrada de A = (aij ) – n × n – se A = B 2 . Proposição 8.8 Toda matriz positiva (resp. não-negativa) A = (aij ) – n×n – tem raiz quadrada positiva (resp. não negativa). Dem. Sejam λ1 , ..., λn os autovalores de A, todos positivos. Pelo  teorema es- λ1 0   −1 . .. pectral existe matriz unitária P – n×n – tal que P AP = D =  . 0 λn CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 122 p  λ1 0   2 .. Seja B =  ; então B = D. . p 0 λn −1 Seja C = P BP , donde C 2 = P B 2 P −1 = P DP −1 = A, ou seja, a matriz C é raiz quadrada de A > 0, e C > 0 pois é auto-adjunta e seus autovalores são positivos. Obs. Os autovalores de um operador normal, associados a autovalores distintos, são ortogonais. De fato, sejam: T v = αv, T u = βu, α 6= β, u, v ∈ V. Temos: hT v, ui − hv, T ∗ ui = 0, donde hαv, ui − hv, βui = 0, donde (α − β)hv, ui = 0, donde hv, ui = 0 pois α 6= β. 8.3 Matrizes Simétricas Positivas. Decomposição de Cholesky Definição 8.9 Seja A = (aij ) – n × n – e s ≤ n um natural. A submatriz principal de ordem s de A é a submatriz As obtida de A pela supressão das últimas (n − s) linhas e colunas.     a11 a12 a13 a a 11 12 Exemplo 8.3.1 A = a21 a22 a23 . Então: A1 = [a11 ]; A2 = a21 a22 a31 a32 a33 e A3 = A. Proposição 8.9 Seja A uma matriz simétrica de ordem n. São equivalentes: t (a)  A é positiva (A > 0), isto é, hAx, xi = x Ax > 0 para todo x 6= 0, x1  ..  x =  .  ∈ Rn . xn (b) As submatrizes principais A1 , ..., An de A são todas positivas. (c) A pode ser reduzida à forma triangular superior usando-se apenas operações do tipo Tij (λ) e com pivôs positivos. (d) A tem uma fatoração (de Cholesky) A = LLt onde L é triangular inferior com elementos diagonais positivos. Dem. (a) ⇒ (b): Seja 1 ≤ s ≤ n; vamos provar que As > 0. Seja Xs = (x1 , ..., xs )t 6= 0 em Rs e X = (x1 , ..., xs , 0, ..., 0)t ∈ Rn . CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 123 Então: Xst As Xs = X t AX > 0, ou seja, As > 0 (donde det As > 0 já que det As é o produto dos autovalores de As , todos positivos). (b) ⇒ (c): Para simplificar, vamos tomar uma matriz 4 × 4:   a11 a12 a13 a14 a21 a22 a23 a24   A= a31 a32 a33 a34  . a41 a42 a43 a44 Por hipótese, A1 > 0, A2 > 0, A3 > 0, A4 = A > 0. Em particular, det A1 = a11 > 0 e podemos usá-lo como pivô, de modo que   a11 a12 a13 a14   (1)   A −→ A(1) =  0 a22 × ×  ,  0 × × × 0 × × × onde det (1) a22 a11 a12 0 (1) a22 ! (1) = det A2 > 0, donde a22 = det A2 > 0, e podemos usar a11 como pivô, obtendo  (1) A −→ A (2) −→ A (1) a11 a12 a13 a14 (1)  0 = 0 0 (2) a22 × 0 0 a33 ×   × . × (2) × (2) Como det A3 = a11 · a22 · a33 > 0, resulta a33 > e podemos usá-lo como pivô, obtendo   a11 a12 a13 a14 (1)    0 a22 × ×  (1) (2) (3)  = U, A −→ A −→ A −→ A =  (2)  0 0 a × 33   0 (3) (3) 0 0 (3) a44 com det A4 = det A3 · a44 > 0, donde a44 > 0 e U triangular superior com elementos diagonais positivos. (c) ⇒ (d): Se A pode ser reduzida à forma triangular superior U = (uij ), ukk > 0, usando-se apenas operações elementares do tipo Tij (λ), então CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 124 A = LU , onde L é triangular inferior com diagonal formada apenas por números 1:   1 0  .. . . .   .    1 L =  e21  = (eij ),   . . . ...   ... ... ... en1 en2 ... 1 onde ekk = 1 e, para i > j, eij = oposto do multiplicador λ usado em Tij (λ) (veja a observação no fim do capítulo 5). Então:  u12    1 1 0 u11 0  u11  . .. ..     .  . . .       1 u22 A = LU =  e21   1    . . ..   ..  ... ... ...   en1 en2 ... 1 0 unn 0 u1n  u11    u2n  = ...  u22   ..  . 1 ... = LDU1 . Essa decomposição é única pois se fosse A = L1 D1 U1 = L2 D2 U2 com L1 , L2 triangulares inferiores, D1 , D2 diagonais, U1 , U2 triangulares superiores, L1 , L2 , U1 , U2 com diagonais formadas apenas por números 1, viria D2−1 L−1 2 L1 D1 = U2 U1−1 onde o primeiro membro é triangular inferior e o segundo membro é triangular superior, ambos com diagonal formada apenas por números 1, donde U2 U1−1 = In , o que implica U1 = U2 e D2−1 L−1 2 L1 D1 = In , ou seja, −1 −1 L2 L1 = D2 D1 , a diagonal do primeiro membro tendo todos os elementos iguais a 1, donde D2 D1−1 = In , que implica D1 = D2 e L1 = L2 . Logo, A = LDU1 , donde At = U1t DLt = A = LDU1 , donde U1 = Lt e A = LDLt = LD1/2 D1/2 Lt = L1 Lt1 , que é a decomposição de Cholesky. (d) ⇒ (a): Temos A = LLt = At . Seja x 6= 0, donde y = Lt x 6= 0 e xt Ax = xt LLt x = y t y = kyk2 > 0, ou seja, A > 0. 8.4 Teorema dos Valores Singulares Lema 8.4.1 Seja T : V −→ W uma aplicação linear entre espaços vetoriais de dimensão finita sobre K, munidos de produto interno. Então N (T ∗ T ) = N (T ). Dem. É claro que N (T T ) ⊂ N (T ). Seja v ∈ N (T ∗ T ), isto é, T ∗ T v = 0, donde T v ∈ N (T ∗ ) = (Im T )⊥ , donde T v ∈ Im T ∩(Im T )⊥ , donde T v = 0, ou seja, v ∈ N (T ), resultando a tese. CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 125 Proposição 8.10 Sejam V, W espaços vetoriais de dimensão finita sobre K, munidos de produto interno, e T : V −→ W linear. Os operadores T ∗ T : V −→ V e T ∗ T : W −→ W são não-negativos e têm o mesmo posto de T; eles são positivos se, e só se, T é invertível. Dem. Como (T ∗ T )∗ = T ∗ T , resulta que T ∗ T é auto-adjunto; analogamente para T T ∗ . Se v ∈ V , tem-se hT ∗ T v, vi = kT vk2 ≥ 0, donde T ∗ T ≥ 0; analogamente para T T ∗ ; além disso, hT ∗ T v, vi > 0 se v 6= 0 se, e só se, kT vk > 0, isto é, se, e só se, T é invertível. Pelo Lema anterior, N (T ∗ T ) = N (T ), donde resulta posto(T ∗ T ) = dim V − dim N (T ∗ T ) = = dim V − dim N (T ) = posto(T ) = posto(T ∗ ) = posto(T T ∗ ). Corolário 8.10.1 T : V −→ W linear é injetora se, e só se, T ∗ T é invertível; T é sobrejetora se, e só se, T T ∗ é invertível. Dem. T é injetora ⇔ posto(T ) = dim V ⇔ posto(T ∗ T ) = dim V ⇔ ∗ T T é invertível. Analogamente para T T ∗ . Obs. Seja A = (aij ) – m × n. Se posto(A) = n então A∗ A é invertível, donde positiva, e AA∗ ≥ 0. Se posto(A) = m então AA∗ > 0 e A∗ A ≥ 0.   1 0 2 Exemplo 8.4.1 A = tem posto igual a 2. Então, −1 1 3     2 −1 −1 5 5 3  é não-negativa. AA∗ = é positiva e A∗ A = −1 1 5 11 −1 3 13 Proposição 8.11 (Teorema dos Valores Singulares) Sejam U e V espaços vetoriais de dimensão finita sobre K, munidos de produto interno, e T : U −→ V linear de posto igual a r. Existem bases ortonormais E = (u1 , ..., un ) de U, F = (v1 , ..., vm ) de V tais que T ui = σi vi , 1 ≤ i ≤ r ; T ∗ vi = σi ui , 1 ≤ i ≤ r , T uj = 0 , r + 1 ≤ j ≤ n ; T ∗ vk = 0 ,r + 1 ≤ k ≤ m onde os números σ1 , ..., σr são positivos: são os valores singulares de T. Dem. T ∗ T : U −→ U é não-negativa e tem posto r. Pelo teorema espectral   λ1 0 ..   .     λr   ∗ E existe base ortonormal E = (u1 , ..., un ) de V tal que [T T ]E =  , 0     . ..   0 0 2 2 onde λ1 = σ1 , ..., λr = σr são positivos. Então, CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 126 (1 ≤ i, j ≤ r) hT ui , T uj i = hT ∗ T ui , uj i = σi2 · δij , e os vetores T ui , T uj são 2 a 2 ortogonais e não-nulos, já que kT ui k = σi (1 ≤ i ≤ r). Além disso, T uk = 0, r + 1 ≤ k ≤ n, pois N (T ) = N (T ∗ T ). 1 Para 1 ≤ i ≤ r, seja vi = T ui , donde kvi k = 1 e σi T ui = σi vi , 1 ≤ i ≤ r . T uj = 0 ,r + 1 ≤ j ≤ n Os vetores v1 , ..., vr formam uma base ortonormal de Im T , que estendemos a uma base ortonormal F = (v1 , ..., vm ) de V tomando (vr+1 , ..., vm ) base ortonormal de N (T ∗ ) = (Im T )⊥ . Portanto, T ∗ vk = 0, r + 1 ≤ k ≤ m 1 e T ∗ vi = T ∗ T ui = σi ui , 1 ≤ i ≤ r. F é base ortonormal de autovetores de σi ∗ T T já que T T ∗ vi = T (σi ui ) = σi2 vi = λi vi . Obs. A aplicação linear T + : V −→ U definida por T + (vi ) = 1 ui , 1 ≤ i ≤ r σi ; T + (vk ) = 0 , r + 1 ≤ k ≤ m, é tal que + T T (vi ) = T  1 ui σi  = vi , 1 ≤ i ≤ r T T + (vk ) = 0, T + T (ui ) = T + (σi vi ) = ui , T + T (uj ) = 0, r+1≤k ≤m 1≤i≤r r+1≤j ≤n Definição 8.10 T + : V −→ U é a pseudo-inversa de T : U −→ V . Obs. Nas condições do Teorema dos Valores Singulares, seja A = [T ]EF11 – m × n – onde E1 e F1 são bases ortonormais de U e V, respectivamente. Temos CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 127 E1 E 1 [I]F F [T ]F1 [I]E1 = QAP , ou seja, existem matrizes unitárias Q = matriz de passagem de F para F1 , P = matriz de passagem de E1 para E, tais que onde σ1 , ..., σr são os valores singulares da matriz A de posto r. Obs. Sejam V um espaço vetorial de dimensão finita sobre (K) munido de produto interno, e T : V −→ V linear invertível. Pelor Teorema dos Valores Singulares existem bases ortonormais E = (u1 , ..., un ) e F = (v1 , ..., vn ) tais que T ∗ T ui = σ12 ui e T ui = σi vi , 1 ≤ i ≤ n. Seja H tal que H 2 = T ∗ T . Então H > 0. Defina U = T H −1 ∴ U ∗ = H −1 T ∗ ∴ U ∗ U = H −1 T ∗ T H −1 = H −1 H 2 H −1 = I, isto é, U é unitária e T = U H, ou seja, toda aplicação linear invertível é o produto de uma aplicação unitária por uma aplicação positiva. 8.5 Exercícios do Capítulo 8 1. Sejam V um espaço vetorial de dimensão finita, munido de um produto interno , e T : V −→ V linear. Se a, b ∈ K são tais que |a| = |b|, prove que aT + bT ∗ é normal. 2. Seja R2 com o produto interno usual. Se T : R2 −→ R2 é um operador  unitário (ortogonal)   mostre que a matriz de T na base canônica é cos θ −sen θ cos θ sen θ ou para algum real θ, 0 ≤ θ ≤ 2π. sen θ cos θ sen θ −cos θ 3. Seja V = C2 com o produto interno usual. Seja T : V −→ V o operador 1 i linear cuja matriz na base canônica é A = . Mostre que T é i 1 CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 128 normal e ache uma base ortonormal de V formada por autovetores de T.   4 2 t 4. Ache a decomposição de Cholesky LL da matriz A = . 2 10 5. Seja A – n × n – (simétrica e) positiva, A = QDQt onde Q é ortogonal e D é diagonal. Ache matriz invertível B tal que A = B t B. 6. Seja A – n × n – (simétrica e) negativa (A < 0). (a) Qual o sinal de det A? (b) Mostre que as submatrizes principais de A são negativas. (c) Mostre que os determinantes das submatrizes principais de A alternam em sinal. Capítulo 9 Formas Bilineares e Quadráticas 9.1 Generalidades Definição 9.1 Seja K um corpo de característica 6= 2; por exemplo K = R ou K = C. Sejam U, V, W espaços vetoriais sobre K. Uma aplicação T : U × V −→ W é bilinear se T é linear em cada variável separadamente, isto é, se T (u1 + u2 , v) = T (u1 , v) + T (u2 , v); T (λu, v) = λT (u, v) T (u, v1 + v2 ) = T (u, v1 ) + T (u, v2 ); T (u, λv) = λT (u, v) quaisquer que sejam u, u1 , u2 ∈ U , v, v1 , v2 ∈ V e λ ∈ K. Com as leis usuais de adição e produto por escalar, o conjunto das aplicações bilineares T : U × V −→ W é um espaço vetorial sobre K, anotado L(U, V ; W ). Quando U = V e W = K, representamos L(V, V ; K) por L2 (V ; K) e dizemos que f ∈ L2 (V ; K) é uma forma bilinear. n n Exemplo 9.1.1 (x, y) ∈ R × R 7−→ hx, yi = n X xi yi é uma forma bilinear i=1 em Rn . Exemplo 9.1.2 Se f, g ∈ V ∗ definimos seu produto tensorial f ⊗ g e seu produto exterior f ∧ g por: (f ⊗ g)(u, v) = f (u) · g(v) ; (f ∧ g)(u, v) = f (u)g(v) − f (v)g(u). É fácil ver que f ⊗ g e f ∧ g são formas bilineares em V. Exemplo 9.1.3 Se V = C 0 ([a, b], R) = {f : [a, b] −→ R, contínua } e Z b f, g ∈ V , então (f, g) 7−→ f (t)g(t)dt é uma forma bilinear em V. a 129 CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 130 Exemplo 9.1.4 φ : L(U, V ) × L(V, W ) −→ L(U, W ) (S, T ) −→ φ(S, T ) = T ◦ S é uma aplicação bilinear. Proposição 9.1 Seja φ : L(U, V ; W ) −→ L(U, L(V, W )) T −→ φT : U −→ L(V, W ) u 7−→ φT (u) : V −→ W v 7−→ φT (u)(v) = T (u, v) onde U, V, W são espaços vetoriais sobre K. Então, φ é um isomorfismo canônico. Dem. Seja ψ : L(U ; L(V, W )) −→ L(U, V ; W ) S 7−→ ψS : U × V −→ W (u, v) 7−→ ψS(u, v) = S(u)(v) É fácil verificar que φ e ψ estão bem definidas, são lineares, φ ◦ ψ = id, ψ ◦ φ = id, ou seja, φ e ψ são isomorfismos e ψ = φ−1 . Corolário 9.1.1 φ : L2 (V ; K) −→ L(V, V ∗ ) f −→ φf : V −→ V∗ u 7−→ φf (u) : V −→ K v 7−→ f (u, v) é um isomorfismo canônico que nos permite identificar L2 (V ; K) com L(V, V ∗ ). Definição 9.2 f ∈ L2 (V ; K) é simétrica se f (u, v) = f (v, u) quaisquer que sejam u, v ∈ V . f ∈ L2 (V ; K) é antissimétrica se f (u, v) = −f (v, u) quaisquer que sejam u, v ∈ V ; neste caso, f (v, v) = −f (v, v) donde f (v, v) = 0 para todo v ∈ V , isto é, f é alternada. Obs. O conjunto das formas bilineares simétricas (resp. antissimétricas) em V é um subespaço vetorial S2 (V ; K) (resp. A2 (V ; K)) de L2 (V ; K) e temos L2 (V ; K) = S2 (V ; K) ⊕ A2 (V ; K). De fato, S2 (V ; K) e A2 (V ; K) têm 1 interseção igual a {0} e se f ∈ L2 (V ; K) então g(u, v) = [f (u, v)+ 2 1 +f (v, u)] e h(u, v) = [f (u, v) − f (v, u)] são tais que g ∈ S2 (V ; K), h ∈ 2 A2 (V ; K) e f = g + h. CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 9.2 131 Matriz de uma forma bilinear Sejam: • E = (u1 , ..., um ) base ordenada de U • F = (v1 , ..., vn ) base ordenada de V • f : U × V −→ K forma bilinear Se u ∈ U , v ∈ V , u = m X xi ui , v = i=1 n X yj vj , então f (u, v) = j=1 m X n X Pondo aij = f (ui , vj ) vem f (u, v) = m X n X xi yj f (ui , vj ). i=1 j=1 aij xi yj . A matriz A = (aij ) – i=1 j=1 m × n – é chamada   de matriz de f em  relação às bases E e F. x1 y1     Se X =  ...  = [u]E e Y =  ...  = [v]F , então xm yn    a11 ... a1n y1  ..   . t . .. ..   ...  f (u, v) = (x1 , ..., xm )  .  = X AY. am1 ... amn yn Fixadas as bases E e F, a aplicação f ∈ L(U, V ; K) 7−→ A ∈ Mm×n (K) é um isomorfismo, como se verifica facilmente, de modo que dim L(U, V ; K) = dim U · dim V = mn, em particular, dim L2 (V ; K) = n2 . Obs. Se (v1 , ..., vn ) é base ordenada de V e A = (aij ) com aij = f (vi , vj ), vemos que f ∈ L2 (V ; K) é simétrica se, e só se, aij = aji para todo par (i, j). 9.3 Mudanças de Bases Sejam: E = (u1 , ..., um ); E 0 = (u01 , ..., u0m ) bases ordenadas de U, F = (v1 , ..., vn ), F 0 = (v10 , ..., vn0 ) bases ordenadas de V. Então: u0i vj0 = = m X r=1 n X pri ur , qsj vs s=1 onde P e Q são as matrizes de passagem de E para E 0 e de F para F 0 , respectivamente. CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 132 Temos: f (u0i , vj0 ) = a0ij = m X n X pri qsj ars = r=1 s=1 n m X X s=1 ! ptir · arj qsj , r=1 donde A0 = P t · A · Q, que é a relação entre a matriz A0 de f ∈ L(U, V ; K) nas bases E 0 e F 0 e a matriz A de f nas bases E e F. No caso em que U = V , n X 0 0 0 E = F, E = F e vj = pij vi , temos P = Q e A0 = P t · A · P . i=1 9.4 Formas Quadráticas Definição 9.3 Seja f ∈ L2 (V ; K). A função q : V −→ K definida por q(v) = f (v, v) chama-se uma forma quadrática em V. O conjunto Q(V ) das formas quadrátivas em V é um espaço vetorial com as leis usuais de adição e produto por escalar. A aplicação f ∈ L2 (V ; K) 7−→ q ∈ Q(V ) é linear 1 sobrejetora, mas não é injetora. Se g(u, v) = [f (u, v) + f (v, u)], então g é 2 simétrica e g(v, v) = f (v, v) = q(v) de modo que podemos sempre supor que a forma bilinear que define q é simétrica e a aplicação g ∈ L2 (V ; K) 7−→ q ∈ Q(V ) é bijetora. Para obter g a partir de q, observemos que q(u + v) = g(u + v, u + v) = g(u, u) + g(v, v) + 2g(u, v), 1 donde g(u, v) = [q(u+v)−q(u)−q(v)]; g é a forma polar de q. Se A = (aij ) 2 – n×n – é a matriz de g na base E de V e se X = [v]E , então q(v) = X t ·A·X, e dizemos também que A é matriz de q na base E. Exemplo 9.4.1 q : Rn −→ R, q(x) = q(x1 , ..., xn ) = i=1 quadrática em Rn . 0 Z Exemplo 9.4.2 q : C ([0, 1], R) −→ R, q(f ) = quadrática em C 0 ([0, 1], R). 9.5 n X (xi )2 é uma forma 1 [f (t)]2 dt é uma forma 0 Formas Bilineares Simétricas Reais Proposição 9.2 Seja V um espaço vetorial real de dimensão finita, munido de um produto interno. Para cada forma bilinear f : V × V −→ R existe CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 133 uma e uma única aplicação linear F : V −→ V tal que f (u, v) = hu, F (v)i para u, v ∈ V quaisquer. Dem. Seja v ∈ V arbitrário. A função u ∈ V 7−→ f (u, v) é uma forma linear em V, isto é, um elemento de V ∗ . Portanto, existe um e um único ζ = F (v) ∈ V tal que f (u, v) = hu, ζi = hu, F (v)i, e obtemos F : V −→ V . Se u, v1 , v2 ∈ V e λ ∈ R, temos: hu, F (v1 +λv2 )i = f (u, v1 +λv2 ) = f (u, v1 )+λf (u, v2 ) = hu, F (v1 )i+λhu, F (v2 )i = hu, F (v1 )+λF (v resultando F (v1 + λv2 ) = F (v1 ) + λF (v2 ), donde F é linear. Proposição 9.3 Seja q : V −→ R uma forma quadrática definida num espaço vetorial real V de dimensão n munido de um produto interno. Existe base ortonormal F = (u1 , ..., un ) de V relativa à qual q(v) = λ1 x21 +...+λn x2n , onde v = x1 u1 + ... + xn un , e λ1 , ..., λn são os autovalores de q. Dem. Seja f : V × V −→ R bilinear simétrica tal que q(v) = f (v, v) para v ∈ V qualquer, e seja F : V −→ V linear tal que f (u, v) = hu, F (v)i para u, v ∈ V quaisquer. Se E = (v1 , ..., vn ) é base ortonormal de V então f (vi , vj ) = hvi , F (vj )i mostra que a matriz de f na base E coincide com a matriz de F na mesma base. Resulta que φ : f ∈ L2 (V ; R) 7−→ F ∈ L(V ) é um isomorfismo e que f é simétrica se, e só se, F é auto-adjunta. Neste caso, existe base ortonormal de V formada por autovetores de F (ou de f, ou de q), isto é, existe base ortonormal F = (u1 , ..., un ) tal que f (ui , uj ) = n X hui , F (uj )i = λj δij . Se v = xi ui então i=1 q(v) = f (v, v) = n X f (ui , uj )xi xj = i,j=1 X λj δij xi xj = i,j n X λi (xi )2 = λ1 x21 +...+λn x2n , i=1 combinação de quadrados. Corolário 9.3.1 Nas condições da proposição 9.3, existe base ortonormal G = (w1 , ..., wn ) de V relativa à qual se tem q(v) = s X i=1 para todo v = n X i=1 xi w i ∈ V . 2 (xi ) − s+t X (xj )2 j=s+1 CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 134 Dem. Reordenamos a base F = (u1 , ..., un ) da proposição 9.3 de modo que f (ui , ui ) = q(ui ) = λi > 0 f (uj , uj ) = q(uj ) = λj < 0 f (uk , uk ) = q(uk ) = 0 Pondo: ui wi = √ λi uj wj = p −λj wk = uk obtemos f (wi , wi ) = 1 f (wj , wj ) = −1 f (wk , wk ) = 0 Portanto, se v = n X para 1 ≤ i ≤ s para s + 1 ≤ j ≤ s + t para s + t + 1 ≤ k ≤ n. para 1 ≤ i ≤ s para s + 1 ≤ j ≤ s + t para s + t + 1 ≤ k ≤ n, para 1 ≤ i ≤ s para s + 1 ≤ j ≤ s + t para s + t + 1 ≤ k ≤ n. xi wi , temos q(v) = i=1 s X i=1 s+t X (xi )2 − (xj )2 . j=s+1 Corolário 9.3.2 Se E = (v1 , ..., vn ) e E 0 = (v10 , ..., vn0 ) são bases ortonormais 0 +t0 s s+t s0 sX X X X 2 2 2 (xj )2 para de V nas quais q(v) = (xi ) − (xj ) = (xi ) − i=1 v= X xi vi = X j=s+1 i=1 j=s0 +1 xj vj0 qualquer, então s = s0 e t = t0 . Dem. Sejam: U = subespaço de V gerado por v1 , ..., vs W 0 = subespaço de V gerado por vs0 0 +1 , ..., vn0 . Então: dim U = s e dim W 0 = n − s0 . Se v ∈ U, v 6= 0, temos q(v) > 0. Se v ∈ W 0 , então q(v) ≤ 0. Resulta que U ∩ W 0 = {0} e, portanto, dim U + dim W 0 = dim(U + W 0 ) ≤ dim V = n, donde: s + n − s0 ≤ n, ou seja, s ≤ s0 . Por simetria, obtemos: s0 ≤ s. Logo, s = s0 . Como s + t = s0 + t0 = r = posto de F (=posto de f=posto de q), resulta t = t0 . Obs. O par (s, t) é univocamente determinado por q; t é a maior dimensão de um subespaço de V restrita ao qual q é negativa: t é a dimensão do CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 135 subespaço de V gerado por vs+1 , ..., vs+t . Por definição, t é o índice da forma quadrática q. Quando q(v) ≥ 0 para v ∈ V qualquer, dizemos que o índice de q é zero. Exemplo: q : R4 −→ R, q(x, y, z, t) = −x2 + y 2 + z 2 + t2 tem posto r = 4 e índice t = 1. Vamos apresentar, por meio de exemplos, o método de Lagrange para a diagonalização de uma forma quadrática. Exemplo 9.5.1 q(x, y, z) = x2 + z 2 − 4xy + 4xz. Como existe o termo quadrado “puro” x2 vamos completar o quadrado: q(x, y, z) = x2 −4x(y−z)+z 2 = [x−2(y−z)]2 −4(y−z)2 +z 2 = (x−2y+2z)2 −4y 2 −3z 2 +8yz e a existência de y 2 nos permite completar o quadrado: q(x, y, z) = (x − 2y + 2z)2 − 4(y − z)2 + z 2 Pondo: u = x − 2y + 2z v = y − z, obtemos q(u, v, z) = u2 − 4v 2 + z 2 , forma de posto r = 3 e índice t = 1. Exemplo 9.5.2 q(x, y, z) = 4xy − 2xz + yx Como não existe nenhum quadrado puro, fazemos x=u+v y = u − v, donde xy = u2 − v 2 e q(u, v, z) = 4u2 − 4v 2 − 2z(u + v) + z(u − v) = 4u2 − 4v 2 − uz − 3vz =      2  z  3z z 2 z2 3z 9z 2 2 2 − = = 4 u − u −4 v + v = 4 u − −4 v + + 4 4 8 164 8 16  2  z 2 3z z2 4 u− −4 v+ v + . 8 4 2 z 3z Fazendo: α = u − ; β = v + , vem: 8 8 z2 q(α, β, z) = 4α2 − 4β 2 + , 2 forma de posto r = 3 e índice t = 1. Capítulo 10 Miscelânea 10.1 Orientação Seja V um espaço vetorial real, de dimensão finita n ≥ 1, e seja B o conjunto das bases ordenadas de V. Definição 10.1 Duas bases ordenadas E = (u1 , ..., un ) e F = (v1 , ..., vn ) de V são equivalentes, anotado E ∼ F, se o determinante da matriz de passagem de E para F é positivo. n X Se vj = pij ui , então a matriz de passagem de E para F é a matriz i=1 invertível P = (pij ) e E ∼ F se, e só se, det P > 0. Observemos que P = [I]F E , onde I : V −→ V é a identidade. Proposição 10.1 A relação E ∼ F é uma relação de equivalência sobre B. Dem. (a) E ∼ E, pois det [I]EE = det In = 1 > 0. −1 (b) E ∼ F ⇒ F ∼ E: com efeito, se P = [I]F = [I]EF . E , então P −1 Portanto, det P > 0 ⇔ det P > 0. G (c) E ∼ F, F ∼ G ⇒ E ∼ G: sejam P = [I]F E , Q = [I]F . A matriz de passagem de E para G é R = [I] = P Q. Logo, det R = det P · det Q > 0. Proposição 10.2 A relação E ∼ F determina duas classes de equivalência no conjunto B de todas as bases ordenadas de V. Dem. Fixemos uma base E = (u1 , ..., un ) em V e seja E = (−u1 , u2 , ..., un ). A matriz de passagem de E para E tem determinante igual a −1 0 0 ... 0 0 1 0 ... 0 0 0 1 ... 0 = −1, ... ... ... ... ... 0 0 0 ... 1 136 CAPÍTULO 10. MISCELÂNEA 137 ou seja, E e E estão em classes distintas, B1 e B2 . Se F é base ordenada arbitrária de V, temos F E R = [I]F E = [I]E · [I]E = P Q, onde P, Q e R são as matrizes de passagem de E para E, de E para F e de E para F, respectivamente. Então: det R = det P ·det Q = −det Q, donde resulta que ou F ∈ B1 ou F ∈ B2 , ou seja, só existem duas classes de equivalência. Definição 10.2 Qualquer uma das classes B1 ou B2 diz-se uma orientação de V. V possui, portanto, duas orientações. Definição 10.3 Um espaço vetorial orientado é um espaço vetorial associado a uma de suas orientações. Mais precisamente, é um par (V, O) onde O é uma orientação do espaço vetorial real V. Definição 10.4 Se (V, O) é um espaço vetorial orientado, as bases que pertencem à orientação O chamam-se positivas. As outras são chamadas negativas. Exemplo 10.1.1 O espaço Rn possui uma orientação canônica, que é aquela determinada pela base canônica (e1 , ..., en ). Obs. O conceito de orientação depende essencialmente da relação de ordem dos números reais, não podendo ser estendido a espaços vetoriais sobre um corpo qualquer. 10.2 Volume de Paralelepípedo Sejam V um espaço vetorial real de dimensão n, munido de um produto interno, e v1 , ..., vn ∈ V . Definição 10.5 O paralelepípedo de arestas v1 , ..., vn é o conjunto P (v1 , ..., vn ) = {x = t1 v1 + ... + tn vn ; 0 ≤ ti ≤ 1}. Seja E = (e1 , ..., en ) uma base ortonormal de V. Se vj = n X aij ei , A = i=1 (aij ) – n×n – define-se o volume de P (v1 , ..., vn ) por v P (v1 ..., vn ) = |det A|. n X 0 0 0 0 Se E = (e1 , ..., en ) é outra base ortonormal de V e ei = pki ek , P = k=1 (pij ) – n × n – matriz ortogonal, de transição da base E para a base E, então CAPÍTULO 10. MISCELÂNEA |det P | = 1 e vj = n X a0ij e0i = n X 138 a0ij n X pki ek = n X n X pki a0ij ek = n X akj ek , i=1 i=1 k=1 k=1 i=1 k=1  donde A = P A0 e |det A| = |det A0 |, o que mostra que v P (v1 , ..., vn ) não depende da base ortonormal usada na sua definição. Proposição 10.3 Seja T : V −→ V linear. Então:   v P (T v1 , ..., T vn ) = |det T | · v P (v1 , ..., vn ) . Dem. Com as notações usadas acima, temos: vj = n X aij ei , donde i=1 T vj = n X i=1 aij T (ei ) = n X aij bki ek = i,k=1 n n X X k=1 ! bki aij ek , i=1 onde B = [T ]EE ; portanto,   v P (T v1 , ..., T vn = |det BA| = |det T ||det A| = |det T |v P (v1 , ..., vn ) . 10.3 Matriz de Gram Sejam v1 , ..., vk ∈ V , onde V é um espaço vetorial real de dimensão n, munido de um produto interno. Se gij = hvi , vj i, a matriz de Gram de v1 , ..., vk é G = (gij ) – k × k. Seja W um subespaço de dimensão k contendo v1 , ..., vk (se v1 , ..., vk são LI, W é único). Seja E = (e1 , ..., en ) base ortonormal de V tal que (e1 , ..., ek ) seja base k X  ortonormal de W. Então: vj = aij ei , v P (v1 , ..., vk ) = |det A| e v1 , ..., vk i=1  são LI ⇔ det A 6= 0 ⇔ v P (v1 , ..., vk ) > 0.  √ Proposição 10.4 v P (v1 , ..., vk ) = det G. Dem. Com as notações acima, temos: k k k X X X gij = hvi , vj i = h ari er , asj es i = atir arj , r=1 s=1 r=1  donde G = At A e det G = (det A)2 , resultando v P (v1 , ..., vk ) = |det A| = √ det G. Além disso, det G ≥ 0, e det G = 0 ⇔ det A = 0 ⇔ v1 , ..., vk são LD. CAPÍTULO 10. MISCELÂNEA 139 Obs. Se v1 , ..., vk são 2 a 2 ortogonais, então  2  |v1 | 0   2 2 2 .. det G =   = |v1 | ...|vk | = (det A) , . 0 |vk |2  donde |det A| = v P (v1 , ..., vk ) = |v1 |...|vk |. Se {v1 , ..., vk } é conjunto ortonormal, então P (v1 , ..., vk ) é o cubo unitário Ik e v(Ik ) = 1. 10.4 Produto Vetorial Sejam V um espaço vetorial real, de dimensão (n+1), munido de um produto interno h, i, orientado, e v1 , ..., vn ∈ V . A função f : V −→ R x 7−→ f (x) = detE (v1 , ..., vn , x), onde E = (e1 , ..., en+1 ) é base positiva de V, ortonormal, é linear, donde existe um e um único u ∈ V , u = v1 × ... × vn , tal que f (x) = hu, xi para todo x ∈ V . Este vetor u = v1 × ... × vn chama-se o produto vetorial de v1 , ..., vn . Obs. (a) u = v1 × ... × vn é forma n-linear dos vetores v1 , ..., vn . (b) Seja A = [v1 , ..., vn ] a matriz (n+1)×n cujas colunas são os vetores vj escritos na base E. Seja A(i) – n × n – a submatriz obtida de A pela omissão da linha i. Temos: hu, ej i = det [v1 , ..., vn , ej ] = (−1)n+1+j det A(j) . Então: u= n+1 X (−1)n+1+i det A(i) · ei , i=1 donde |u|2 = n+1 X i=1 (det A(i) )2 ≥ 0 e |u| = 0 ⇔ det A(i) = 0 para todo i, 1 ≤ i ≤ n + 1 ⇔ posto A < n ⇔ v1 , ..., vn são LD. (c) u⊥vj (1 ≤ j ≤ n) pois hu, vj i = det(v1 , ...,  vn , vj ) = 0.  2 (d) |u| = detE [v1, ..., vn ] = v P (u, v1 , ..., vn ) = |u|v P (v1 , ..., vn ) , donde |u| = v P (v1 , ..., vn ) .  (e) v1 , ..., vn são LI ⇔ v P (v1 , ..., vn ) = |u| > 0. Neste caso, det(u, v1 , ..., vn ) = |u|2 > 0 e (v1 , ..., vn , v1 × ... × vn ) tem a mesma orientação que (e1 , ..., en+1 ). É fácil ver que o produto vetorial u = v1 × ... × vn é o único vetor de V satisfazendo (c), (d) e (e). CAPÍTULO 10. MISCELÂNEA Pode-se representar u = v1 × ... × vn pelo determinante simbólico v11 ... v e 1n 1 n+1 v21 ... v2n e2 X (−1)n+1+i det A(i) ei = u. .. .. .. = .. . . . . i=1 vn+1,n ... vn+1,n en+1 140 Exercícios de Revisão 1. Sejam p1 , ..., pn ∈ Pn (K), isto é, polinômios de grau menor que n. Se, para j = 1, ..., n, pj (2) = 0, prove que {p1 , ..., pn } é um conjunto linearmente dependente. 2. Prove que não existe T : R5 −→ R2 linear cujo núcleo seja {(x1 , ..., x5 ) ∈ R5 |x1 = x2 e x3 = x4 = x5 }. 3. Seja T : V −→ W linear, V de dimensão finita. Prove que existe subespaço U ⊂ V tal que N (T ) ∩ U = {0} e Im T = T (U ). 4. Seja T : Rn −→ Rn , T (x1 , ..., xn ) = (x1 + ... + xn , ..., x1 + ... + xn ). Ache os autovalores e autovetores de T. 5. Sejam V = U ⊕ W , P : V −→ W , P (u + w) = w, onde u ∈ U e w ∈ W . Mostre que 0 e 1 são os únicos autovalores de P e ache os autovetores correspondentes. 6. Dê exemplo de um operador linear invertível T : V −→ V , dim V = n, cuja matriz em alguma base só tem zeros na diagonal principal. 7. Se a1 , ..., an , b1 , ..., bn ∈ R, prove que !2 ! n ! n n X X X b2j 2 aj b j ≤ j · aj . j j=1 j=1 j=1 8. Seja T : Cn −→ Cn , T (z1 , ..., zn ) = (0, z1 , ..., zn−1 ). Ache T ∗ . 9. Prove que todo operador auto-adjunto T : V −→ V tem uma raiz cúbica, dim V = n. 10. Sejam T : V −→ V linear, dim V = n. Prove que V tem base formada por autovetores de T se, e só se, existe produto interno em V que torna T auto-adjunto. 141 EXERCÍCIOS DE REVISÃO 142 11. Se T : V −→ V é normal, prove que Im T = Im T ∗ . 12. Se K = C prove que todo operador normal T : V −→ V , dim V = n tem uma raiz quadrada. 13. Sejam K = C e T : V −→ V operador normal, dim V = n. Prove que T = T ∗ ⇔ todos os autovalores de T são reais. 14. Sejam T : V −→ V linear, dim V = n, T = T ∗ . Prove que os valores singulares de T são os módulos de seus autovalores. 15. Prove que todo polinômio mônico é o polinômio característico de algum operador linear. Para isso, considere a matriz   0 0 ... 0 0 −a0  1 0 ... 0 0 −a1     0 1 ... 0 0 −a2  . A= ... ... ... ... ... ...     0 0 ... 1 0 −an−2  0 0 ... 0 1 −an−1 16. Sejam T : V −→ V , dim V = n, T > 0 e tr T = 0. Prove que T = 0. 17. Sejam (e1 , ..., en ) base ortonormal de V e T : V −→ V linear. Prove: tr(T ∗ T ) = |T e1 |2 + ... + |T en |2 . 18. Sejam K = C, T : V −→ V linear, E = (e1 , ..., en ) base ortonormal de V, e λ1 , ..., λn os autovalores de T. Se A = [T ]EE = (aij ) – n × n – prove que n X 2 2 |λ1 | + ... + |λn | ≤ |aij |2 . i,j=1 Referências Bibliográficas [1] Axler, S. – Linear Algebra Done Right – Springer, New York, 1996. [2] Gelfand, I. – Lectures on Linear Algebra – Interscience, New York, 1961. [3] Hoffman, K.; Kunze, R. – Linear Algebra – Prentice-Hall, New Jersey, 1971. [4] Júdice, E.D. – Introdução à Álgebra Linear – Belo Horizonte, 1960. [5] Lang, S. – Linear Algebra – Springer, New York, 2004. [6] Leon, S. – Álgebra Linear – LTC, Rio de Janeiro, 1999. [7] Lima, E.L. – Álgebra Linear – IMPA, Rio de Janeiro, 1996. [8] Queysanne, M. – Algèbre – Armand Colin, Paris, 1964. [9] Simmons, G. – Introduction to Topology and Modern Analysis – McGraw-Hill, New York, 1963. 143