Preview only show first 10 pages with watermark. For full document please download

Algebralinearpl?cidoandrade

Livro de Álgebra.

   EMBED


Share

Transcript

´ Algebra Linear Um Texto para Universit´ arios ´cido Francisco de Assis Andrade Pla Universidade Federal do Cear´a Centro de Ciˆencias Departamento de Matem´atica 16 de fevereiro de 2007 i Pref´ acio Este texto foi redigido para atender aos diversos Cursos oferecidos pela Universidade Federal do Cear´a que possuem na sua integraliza¸c˜ao a disciplina ´ semestral Introdu¸c˜ao a` Algebra Linear. Ela ´e ministrada por professores do Departamento de Matem´atica. Embora n˜ao seja necess´ario, para facilitar a leitura do texto, o aluno precisar´a de um conhecimento m´ınimo de Geometria Anal´ıtica e determinantes. Os t´opicos estudados no Ensino M´edio s˜ao mais do que suficientes. O ritmo da apresenta¸c˜ao est´a baseado na experiˆencia de sala de aula e a reda¸c˜ao levou em conta o estudante. Por isso, em alguns momentos, um ´ leitor mais familiarizado com Algebra Linear pode considerar o texto lento e simples. N˜ao ´e o caso do leitor iniciante. A elegˆancia no desenvolvimento dos ´ t´opicos de Algebra Linear esconde diversos conceitos aparentemente d´ıspares, tornando seu estudo uma descoberta constante para aqueles que nunca tiveram a oportunidade de conhecˆe-la sistematicamente. ´ A grande dificuldade de uma apresenta¸c˜ao de Algebra Linear para estudantes do primeiro ano dos cursos de gradua¸c˜ao ´e o uso dos conceitos pr´oprios dessa disciplina por diversas outras, tais como, C´alculo, de uma ou mais vari´aveis, C´alculo Vetorial, Mecˆanica, Eletricidade, Equa¸c˜oes Diferenciais, Estat´ıstica, etc. Em geral, numa integraliza¸c˜ao curricular essas disciplinas s˜ao ´ colocadas posteriores `a Algebra Linear, como ´e natural e conveniente. Portanto, a beleza de seu uso fica prejudicada, pois as aplica¸c˜oes ainda n˜ao est˜ao ao alcance da compreens˜ao imediata do estudante nem existe tempo curricular para reconstru´ı-las. ´ Procurando contornar essa dificuldade, optamos por colocar a Algebra Linear como uma disciplina de transi¸c˜ao entre a Matem´atica do Ensino M´edio e a Matem´atica do Ensino Superior. Por isso, o texto procura relacionar os novos conceito com aqueles da Geometria Anal´ıtica, conte´ udo j´a familiar ao estudante calouro. Para evitar repeti¸c˜oes, a Geometria Anal´ıtica ter´a um tratamento vetorial. Pl´acido Francisco de Assis Andrade [email protected] Fortaleza, 17 de julho de 2006 ii Sum´ ario 1 O espa¸ co vetorial Rn 1.1 O conjunto Rn . . . . . . . . . . . . 1.2 O espa¸co vetorial Rn . . . . . . . . 1.3 Combina¸c˜ao linear e base canˆonica 1.4 Outras bases de Rn . . . . . . . . . 1.5 Exemplos de espa¸cos vetoriais* . . 1.6 Respostas e sugest˜oes . . . . . . . . 2 Combina¸ c˜ ao linear 2.1 Determinantes . . . . . . . . . . . . 2.2 Matrizes invert´ıveis . . . . . . . . . 2.3 Regra de Cramer (prova) . . . . . . 2.4 Combina¸c˜ao linear e determinante . 2.5 Combina¸c˜ao linear e sistema linear 2.6 Escalonamento e invers˜ao . . . . . 2.7 Respostas e sugest˜oes . . . . . . . . 3 Geometria Anal´ıtica ´ 3.1 Area de paralelogramo em E2 . 3.2 Volume de paralelep´ıpedo em E3 3.3 Retas em E2 (I) . . . . . . . . . 3.4 Planos em E3 (I) . . . . . . . . 3.5 Retas em E3 . . . . . . . . . . . 3.6 Sistema linear e Geometria . . . 3.7 Respostas e sugest˜oes . . . . . . iii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 5 10 14 19 21 . . . . . . . 23 24 30 34 37 41 48 53 . . . . . . . 57 57 60 61 63 64 66 70 ´ SUMARIO iv 4 Produto interno 4.1 Produto interno . . . . . 4.2 Norma de um vetor . . . ˆ 4.3 Angulo entre dois vetores 4.4 Retas em E2 (II) . . . . 4.5 Planos em E3 (II) . . . . 4.6 Produto vetorial em R3 . 4.7 Respostas e sugest˜oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 72 74 79 82 84 86 92 5 Subespa¸ co vetorial 5.1 Subespa¸co e sistema linear . . . 5.2 Subespa¸co e combina¸c˜ao linear . 5.3 O subespa¸co [[v1 , v2 , ..., vk ]] . . . 5.4 Geradores . . . . . . . . . . . . 5.5 Bases . . . . . . . . . . . . . . . 5.6 Dimens˜ao . . . . . . . . . . . . 5.7 Base e produto interno . . . . . 5.8 Respostas e sugest˜oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 95 99 103 106 114 117 122 128 . . . . . . . . . . . . . . . . . . . . . 6 Transforma¸ c˜ oes lineares 6.1 Transforma¸c˜oes lineares . . . . . . 6.2 N´ ucleo, imagem e sistema linear . . 6.3 Matriz de uma transforma¸c˜ao linear 6.4 Teorema do n´ ucleo e da imagem . . 6.5 Opera¸c˜oes . . . . . . . . . . . . . . 6.6 Respostas e sugest˜oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 . 132 . 136 . 142 . 147 . 152 . 155 7 Operadores lineares 7.1 Isomorfismos . . . . . . 7.2 Aplica¸c˜ao . . . . . . . 7.3 Autovalor e Autovetor 7.4 Respostas e sugest˜oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 160 168 172 180 8 Operadores e produto interno 8.1 Operador transposto . . . . 8.2 Operadores normais . . . . . 8.3 Operadores sim´etricos . . . 8.4 Operadores ortogonais I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 185 188 192 197 . . . . . . . . ´ SUMARIO 8.5 8.6 8.7 8.8 v Operadores ortogonais e geometria Operadores ortogonais II* . . . . . Classifica¸c˜ao das isometrias* . . . . Respostas e sugest˜oes . . . . . . . . 9 Formas bilineares 9.1 Funcionais lineares . . . . . 9.2 Formas bilineares . . . . . . 9.3 Formas bilineares sim´etricas 9.4 Forma quadr´atica . . . . . . 9.5 Respostas e sugest˜oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 Representa¸ c˜ ao matricial 10.1 Representa¸c˜ao de vetores . . . . . . . 10.2 Representa¸c˜ao de transforma¸c˜oes . . 10.3 Algoritmos . . . . . . . . . . . . . . . 10.4 Mudan¸ca de coordenadas . . . . . . . 10.5 Representa¸c˜ao de operadores . . . . . 10.6 Diagonaliza¸c˜ao de operadores . . . . 10.7 Diagonaliza¸c˜ao de formas quadr´aticas 10.8 Respostas e sugest˜oes . . . . . . . . . 11 Cˆ onicas e Qu´ adricas 11.1 Cˆonicas I . . . . . . . 11.2 Cˆonicas II . . . . . . . 11.3 Qu´adricas I . . . . . . 11.4 Qu´adricas II . . . . . . 11.5 Leitura complementar 11.6 Respostas e sugest˜oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 206 208 211 . . . . . 217 . 217 . 219 . 224 . 226 . 229 . . . . . . . . 232 . 232 . 235 . 240 . 244 . 249 . 255 . 261 . 263 . . . . . . 273 . 273 . 280 . 285 . 289 . 293 . 294 12 Matrizes 298 12.1 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298 12.2 Matrizes quadradas . . . . . . . . . . . . . . . . . . . . . . . . . 301 13 Determinantes 305 13.1 Defini¸c˜ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305 13.2 Existˆencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306 13.3 Unicidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308 vi ´ SUMARIO 13.4 Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310 13.5 Adjunta cl´assica . . . . . . . . . . . . . . . . . . . . . . . . . . . 312 Cap´ıtulo 1 O espa¸ co vetorial Rn Este cap´ıtulo tem dois objetivos. Primeiro, apresentar o espa¸co vetorial Rn , um conjunto alg´ebrico. Segundo, relacionar o plano Euclidiano e o espa¸co Euclidano com os conjuntos alg´ebricos, R2 e R3 , respectivamente. Isso estabelecer´a uma ponte entre os novos conceitos com aqueles conhecimentos adq¨ uiridos pelo leitor desde o Ensino M´edio. Ressaltamos que iremos discorrer sobre trˆes objetos, um deles alg´ebrico, o Rn , enquanto os outros dois ser˜ao geom´etricos, o plano e o espa¸co, conceitos n˜ao definidos. Um quarto objeto, a figura desenhada no papel, serve apenas para organizar as id´eias. Neste texto, os termos fun¸c˜ao e aplica¸c˜ao possuem o mesmo significado. 1.1 O conjunto Rn Denota-se por Rn o conjunto das n-uplas ordenadas de n´ umeros reais, qual seja, Rn = {(x1 , x2 , ..., xn ); xi ∈ R para todo inteiro i, 1 ≤ i ≤ n}. Os elementos deste conjunto s˜ao chamados de pontos e, por simplicidade, muitas vezes indicaremos por v um ponto de Rn , portanto, essa nota¸c˜ao est´a registrando que v = (x1 , x2 , ..., xn ). Num primeiro momento, esses s˜ao os conjuntos para os quais voltaremos nosso interesse. Dados dois pontos v = (x1 , x2 , ..., xn ) e w = (y1 , y2 , ..., yn ), diremos que v = w se, e somente se, xi = yi para todo i = 1, 2, ..., n. Para organizar a escrita utilizaremos letras min´ usculas para indicar os pontos de Rn . Por 1 2 CAP´ITULO 1. O ESPAC ¸ O VETORIAL RN exemplo, ao escrevermos z = (z1 , z2 , ..., zn ) estaremos indicando um ponto do Rn . A nota¸c˜ao Z(z1 , z2 , ..., zn ) ser´a apresentada logo a seguir e denotrar´a outro objeto. A maior parte do texto estar´a relacionada com os conjunto R2 e R3 , por isso, reservaremos uma nota¸c˜ao especial para indicar seus elementos. Para o primeiro conjunto, muitas vezes, indicaremos um par ordenado por v = (x, y) e uma tripla ordenada em R3 ser´a registrada na forma v = (x, y, z). O conjunto das 1-upla ordenada, R1 = {(x); x ∈ R}, ´e canonicamente identificado com o conjunto dos n´ umeros reais R. N˜ao disting¨ uiremos uma 1 umero real x ∈ R. 1-upla (x) ∈ R de um n´ ´ correto afirmarmos que R ⊂ R2 ou que R2 ⊂ R3 ? A Exerc´ıcio 1.1.1 E resposta a ambas ´e n˜ ao. Justifique! ´ correto afirmamos que v = (x, 0) ∈ R ou que w = (x, y, 0) ∈ R2 ? 2 E Feita a apresenta¸c˜ao desses conjuntos alg´ebricos passemos `a apresenta¸c˜ao de dois conjuntos geom´etricos. Os termos ponto, reta, plano e espa¸co, conceitos pr´oprios da Geometria Euclidiana, s˜ao auto-explic´aveis, n˜ao suportam uma defini¸c˜ao. Na verdade, idealizamos esses conceitos de forma semelhante a` idealiza¸c˜ao de conjunto que tamb´em ´e um termo auto-explic´avel. Denotaremos o plano Euclidiano e o espa¸co Euclidiano por E2 e E3 , respectivamente. Um elemento de qualquer um desses objetos ´e chamado de ponto, e utilizaremos letra mai´ uscula para indic´a-lo, tais como P ∈ E2 , Q ∈ E3 , etc. Ressaltamos que o plano Euclidiano E2 n˜ao ´e subconjunto do espa¸co Euclidiano E3 , eles s˜ao conjuntos universos distintos. No primeiro momento, isso causa confus˜ao ao leitor menos experiente, pois qualquer aluno do Ensino M´edio j´a deve ter lido uma express˜ao do tipo ”plano no espa¸co”. Desfa¸camos essa ambig¨ uidade. Determinados subconjuntos do espa¸co Euclidiano E3 s˜ao tamb´em chamados de plano. Tomaremos duas providˆencias para distinguir as terminologias. Primeiro, denotaremos planos, subconjuntos especiais de E3 , por letras gregas min´ usculas, tais como α, γ, etc. Observamos que π ⊂ E3 , γ ⊂ E3 , etc. e iremos nos referir a cada um deles, simplesmente, como plano, enquanto E2 ser´a chamado de plano Euclidiano. 1.1. O CONJUNTO RN 3 O plano Euclidiano E2 possui subconjuntos especiais chamados de retas que ser˜ao denotadas por letras min´ usculas, a saber, r, s, l, m, etc. Observe que 2 r ⊂ E . O mesmo ocorre com o espa¸co Euclidiano E3 , alguns subconjuntos s˜ao chamados de retas e tamb´em utilizaremos tamb´em letras min´ usculas, r, s, l, etc. para designar retas contidas no espa¸co Euclidiano. Dados dois pontos A, B ∈ r indicaremos o segmento com extremos nesses pontos por AB. A identifica¸c˜ao entre os conjuntos alg´ebricos R2 e R3 com aqueles conjuntos Euclidianos ´e do conhecimento de todos, mas recapitulemos a constru¸c˜ao que justifica a existˆencia da Geometria Anal´ıtica. Ressaltamos que devemos distinguir o conjunto alg´ebrico, o conjunto Euclidiano e as figuras que vocˆe faz no papel. Iniciamos identificando os n´ umeros reais com os pontos de uma reta de modo intuitivo, como encontrado em qualquer livro do Ensino M´edio. Dada a reta r ⊂ E2 (ou a reta r ⊂ E3 ), escolhemos dois pontos O, A ∈ r e umero 0 e fixamos um segmento OA ⊂ r. O ponto O, que fica associado ao n´ ´e chamado de origem do sistema, divide a reta em duas semi-retas, uma delas cont´em o ponto A. Se x > 0 ent˜ao x ´e associado ao ponto X da semi-reta que cont´em A cuja a raz˜ao entre os comprimentos dos segmentos OX e OA ´e igual a x. Observe que nesse caso 1 e A est˜ao relacionados. Se x < 0 ent˜ao x ´e associado ao ponto X na semi-reta que n˜ao cont´em A cuja raz˜ao entre os segmentos OX e OA ´e igual a −x. Com isso, temos definido uma aplica¸c˜ao P : R → r. Contruiremos, agora, uma aplica¸c˜ao entre R2 e E2 . Antes de tudo, fixamos duas retas n˜ao paralelas r e s em E2 , que passam a ser chamadas de eixos Cartesianos. Sobre cada uma das retas estabelecemos uma correspondˆencia com os n´ umeros reais, como feito acima, tendo como origem o ponto de in´ cl´assico designar a reta r por ox e a reta s por oy e, terse¸c˜ao O = r ∩ s. E em geral, s˜ao escolhidas duas retas perpendiculares. Os n´ umeros correspondentes aos pontos sobre o eixo ox s˜ao chamados de abscissa e sobre o eixo oy s˜ao chamados de ordenadas. Finalmente, cada ponto Q ∈ E2 determina dois n´ umeros reais (abscissa e ordenada), quais sejam, eles s˜ao as interse¸c˜oes com os eixos das retas paralelas aos eixos que passam por Q. CAP´ITULO 1. O ESPAC ¸ O VETORIAL RN 4 Seja (x, y) ∈ R2 . Definimos P : R2 → E2 , pela regra: P (x, y) ´e o ponto do plano Euclidiano cuja abscissa ´e x e a ordenada ´e y. Argumentos usuais de Geometria Euclidiana garantem que esse ponto ´e u ´ nicamente determinado. Reciprocamente, cada ponto no plano ´e associado a um u ´ nico par ordenado, como comentado anteriormente. Fixado o sistema de eixos, o plano Euclidiano passa a ser chamado de plano Cartesiano. Fixemos uma regra notacional pouco explicada nos livros textos. Ao escrevermos U(2, 3) estamos supondo que j´a fixamos os eixos Cartesianos e este ponto ´e imagem do ponto u = (2, 3) ∈ R2 , pela aplica¸c˜ao P : R2 → E2 . N˜ao escreveremos U = P (2, 3). O ponto v = (x, y) ter´a sua imagem pela aplica¸c˜ao P indicada por V (x, y) em lugar de P (x, y), o ponto w = (−1, 4) ter´a sua imagem indicada por W (−1, 4), etc. Do modo modo, constru´ımos uma fun¸c˜ao de R3 para P : R3 → E3 . Seja v = (x, y, z) ∈ R3 . Fixados trˆes eixos Cartesianos em E3 , ox, oy e oz (mutuamente ortogonais), definimos a aplica¸c˜ao P por, P (x, y, z) ´e o ponto do espa¸co Euclidiano tal que a abscissa ´e x, a ordenada ´e y e a altura ´e z. Certamente o leitor est´a acostumado com a nota¸c˜ao P (x, y, z). Quando fixamos um sistema de eixos em E3 passamos a cham´a-lo de espa¸co Cartesiano. Igual regra notacional ser´a utilizada para R3 . Se w = (1, −2, 3) ent˜ao em lugar de escrevermos P (1, −2, 3), escreveremos W (1, −2, 3). Exerc´ıcios propostos 1.1.1 1. Represente graficamente: (a) os pontos P (2, 3), Q(−1, 2), R(−2, −3) e O(0, 0) do plano Cartesiano; (b) os pontos P (2, 3, 1), Q(−1, 2, −1) e R(−2, −3, 1) e O(0, 0, 0) do espa¸co Cartesiano. ´ poss´ıvel escolher um sistema de eixos Cartesianos 2. Fixado um ponto U ∈ E2 . E 1.2. O ESPAC ¸ O VETORIAL RN 5 tal que U (2, 3) e um outro sistema de eixos Cartesianos √ de tal forma que nesse outro sistema o mesmo ponto seja indicado por U ( 2, π)? 1.2 O espa¸ co vetorial Rn Definiremos, a seguir, duas opera¸c˜oes bin´arias envolvendo elementos de Rn , quais sejam: i) soma de dois elementos; ii) multiplica¸c˜ao de um elemento por um escalar. Aqui, o termo escalar significa n´ umero real. As opera¸c˜oes s˜ao definidas pelas seguintes regra. Se v = (x1 , x2 , ..., xn ), w = (y1 , y2 , ..., yn ) ∈ Rn e λ ∈ R estabelecemos que ⎧ ⎨ v + w := (x1 + y1 , x2 + y2 , ..., xn + yn ) ⎩ . λv := (λx1 , λx2 , ..., λxn ) Diz-se que essas opera¸c˜oes equipam Rn com uma estrutura de espa¸co vetorial. Feito isso, um ponto de Rn passa a ser chamado de vetor. O termo espa¸co vetorial para essa estrutura ´e aplicado, pois ela ´e um dos in´ umeros exemplos de uma estrutra alg´ebrica muito comum na Matem´atica e que merece ser fixada numa defini¸c˜ao. Defini¸ c˜ ao 1.2.1 Um espa¸co vetorial real consiste de um conjunto V , cujos elementos s˜ ao chamados de vetores, no qual est˜ ao definidas duas opera¸c˜oes, ”+”e ’.’, gozando das propriedades listadas abaixo. I Se u, v ∈ V ent˜ ao o vetor soma u + v ∈ V e: a) a adi¸c˜ao ´e comutativa, u + v = v + u; b) a adi¸c˜ao ´e associativa, (u + v) + w = u + (v + w); c) existe um u ´nico elemento o, chamado de vetor nulo, tal que v + o = v, para todo v ∈ V ; 6 CAP´ITULO 1. O ESPAC ¸ O VETORIAL RN d) para cada vetor v ∈ V existe um u ´nico vetor −v ∈ V , chamado de inverso aditivo de v, tal que v + (−v) = 0. II Se v ∈ V e λ ∈ R ent˜ ao λv ∈ V e: a) 1v = v para todo v ∈ V ; b) a multiplica¸ca˜o por escalar ´e associativa, λ1 (λ2 v) = (λ1 λ2 )v; c) a multiplica¸c˜ao por escalar ´e distributiva em rela¸c˜ao a` adi¸c˜ao de vetores, λ(u + v) = λu + λv; d) multiplica¸ca˜o por escalar ´e distributiva em rela¸c˜ao a` adi¸c˜ao de escalares, (λ1 + λ2 )v = λ1 v + λ2 v. Utilizamos uma terminologia pr´opria quando estamos falando acerca de espa¸co vetorial. Por exemplo, escalar significa um n´ umero real, como j´a foi n dito. Dois vetores v, w ∈ R s˜ao colineares quando existe um escalar λ tal que v = λw ou w = λv. Observe que o vetor nulo do Rn ´e o vetor o = (0, 0, ..., 0). Exemplo 1.2.1 Sejam v = (2, −1) e w = (−4, 7) vetores de R2 . Pela defini¸c˜ao, a soma dos vetores ´e efetuada coordenada a coordenada, v + w = (2, −1) + (−4, 7) = (2 − 4, −1 + 7) = (−2, 6). Se λ = −3 ent˜ao λv = −3 · (2, −1) = (−6, 3). O vetor u = (−4, 2) ´e colinear com v, pois u = −2v. 2 Verifica-se que as duas opera¸c˜oes em Rn , acima definidas, gozam de todas as propriedades listadas na defini¸c˜ao de espa¸co vetorial. Por exemplo, a soma de vetores ´e comutativa, v + w = w + v, ou que a soma de qualquer vetor v com o vetor nulo ´e o pr´oprio vetor, v + o = v. Observe que 0v = o, isto ´e, um vetor multiplicado pelo escalar zero ´e igual ao vetor nulo. Exerc´ıcio 1.2.1 Sejam 0 ∈ R e v, w ∈ Rn . Mostre que 0 · v + w = w e que o vetor o ´e colinear com qualquer vetor. Verifique a igualdade v + (−1)v = 0. 2 Anteriormente, exibimos uma identifica¸c˜ao entre os conjuntos Rn com os conjuntos Euclidianos, En , n = 2, 3, respectivamente. Depois, definimos uma opera¸c˜ao de soma de dois elementos e um produto de um elemento por um 1.2. O ESPAC ¸ O VETORIAL RN 7 escalar em Rn , passando a cham´a-los de espa¸co vetorial. Agora, iremos representar geometricamente os vetores para explicitar a existˆencia da estrutura alg´ebrica em Rn . A diferen¸ca entre o conjunto e o conjunto com a estrutura alg´ebrica (espa¸co vetorial) ´e sutil mas existe, e a diferen¸ca ´e visualizada utilizando-se o conceito de segmento orientado. Sejam R, S ∈ En , n = 2, 3. Um segmento orientado em En ´e o par ordenado (R, S) que −→ por conveniˆencias gr´aficas ´e indicado por RS, em lugar da nota¸c˜ao com pares ordenados. Esta grafia registra a id´eia de uma seta com ponto inicial em R e ponto final em S. Dados os pontos R(r1 , r2 ) e S(s1 , s2 ) do plano Cartesiano E2 . Diz-se que o −→ segmento orientado RS representa o vetor v = (x1 , x2 ) ∈ R2 se, e somente se, as coordenadas dos pontos e as coordenadas do vetor est˜ao relacionadas pelas equa¸c˜oes  x1 = s1 − r1 . x2 = s2 − r2 Exemplo 1.2.2 Um vetor pode ser representado por v´arios segmentos orientados diferentes. Vejamos duas representa¸c˜oes para o vetor v = (1, 2) ∈ R2 . −→ Se escolhermos os pontos R(2, 0) e S(3, 2) em E2 , o segmento orientado RS representa v = (1, 2) ∈ R2 , pois pela defini¸c˜ao, temos as rela¸c˜oes  1= 3−2 . 2= 2−0 Se escolhermos os pontos P (1, 1) e Q(2, 3) o −→ segmento orientado P Q tamb´em representa o mesmo vetor v = (1, 2) ∈ R2 , pois  1= 2−1 . 2= 3−1 Fica uma quest˜ao para o leitor: dado T (a, b) ∈ E2 , determine as coordenadas −→ de U ∈ E2 para que o segmento orientado T U seja um representante de v = (1, 2). 2 Exerc´ıcio 1.2.2 Sejam P (3, −1) e Q(−4, 3) dois pontos de E2 . Esboce os CAP´ITULO 1. O ESPAC ¸ O VETORIAL RN 8 −→ −→ −→ −→ seguintes segmentos orientados, P Q, QP , QQ e OP . Calcule os vetores do R2 representados pelos segmentos orientados. 2 O segmento orientado canˆonico para representar o vetor v = (x1 , x2 ) ´e aquele que tem como ponto inicial a origem O(0, 0) e ponto final V (x1 , x2 ). Falando numa linguagem informal, obtido um representante do vetor com ponto inicial a origem O(0, 0), qualquer outro representante ´e obtido por transporte paralelo daquele. Uma defini¸c˜ao semelhante ´e posta para representar vetores em R3 . Dados os pontos R(r1 , r2 , r3 ) e S(s1 , s2 , s3 ) do espa¸co Cartesiano E3 . Diz-se que o −→ segmento orientado RS representa o vetor v = (x1 , x2 , x3 ) ∈ R3 se, e somente se, ⎧ ⎨ x1 = s1 − r1 x2 = s2 − r2 . ⎩ x3 = s3 − r3 3 Exerc´ıcio 1.2.3 Dados o vetor √ w = (−1, −1, 0) em R e os pontos do espa¸co Cartesiano M(1, 0, −3) e N( 5, 1, 1), determine as coordenadas Cartesianas −−→ −−→ −−→ dos pontos W , P e Q tais que os segmentos orientados OW , MP e QN sejam representantes do vetor w. 2 Feitas essas considera¸c˜oes passemos a`s constru¸c˜oes. a) Definimos uma representa¸c˜ao do espa¸co vetorial R2 estabelecendo que → − −→ P (x, y) ´e o segmento orientado OP cujo ponto inicial ´e a origem e o ponto final ´e P (x, y). b) Similarmente, fazemos a representa¸c˜ao do espa¸co vetorial R3 estabele→ − −→ cendo que P (x, y, z) ´e o segmento orientado OP cujo ponto inicial ´e a origem e o ponto final ´e P (x, y, z). . 1.2. O ESPAC ¸ O VETORIAL RN 9 ´rio As duas opera¸c˜oes a´lgebricas definidas em Rn podem ser visuComenta alizadas quando n = 2 ou n = 3, utilizando segmentos orientados. Apresentemos o caso planar, n = 2, para o caso espacial, n = 3, as constru¸c˜oes s˜ao as mesmas. Desejamos registrar graficamente a opera¸c˜ao v + w, onde v = (3, 1) e w = (−2, 1). N˜ao podemos somar segmentos orientados quaisquer, mas podemos definir a soma de segmentos orientados quando o −−→ −→ −→ ponto final do primeiro ´e o ponto inicial do segundo, OV + V P = OP . Para representar o vetor v podemos escolher o segmento orientado com pontos iniciais e finais O(0, 0) e V (3, 1), respectivamente. Quanto ao vetor w podemos escolher para representante o segmento orientado com pontos iniciais e finais V (3, 1) e P (1, 2), respectivamente. Sendo assim, a soma v + w ´e rep−→ resentada por OP . A representa¸c˜ao gr´afica ´e v´alida para a soma de trˆes ou mais vetores. Se desejarmos representar a soma u + v + w, colocaremos-se os representantes dos vetores de tal forma que o ponto final de um ´e o ponto inicial do −→ −→ −→ −→ seguinte, P Q + QR + RS = P S. Examinemos a representa¸c˜ao gr´afica da multiplica¸c˜ao de um vetor por um escalar. Escolhamos v = (3, 1), λ1 = 2 e λ2 = −2. Se o representante escolhido para do vetor v for −→ P Q, onde P (a, b) e Q(c, d), o representante −−→ de λi v ´e o segmento orientado P  Q com coordenadas P  (λi a, λi b) e Q (λi c, λi d). −−→ Mais conveniente ´e escolher um representante para v na forma OV , com V (3, 1), pois os m´ ultiplos λi v s˜ao graficamente registrados sobre uma mesma reta que cont´em a origem do plano Cartesiano. 2 Exerc´ıcios propostos 1.2.1 CAP´ITULO 1. O ESPAC ¸ O VETORIAL RN 10 1. Seguindo a nota¸c˜ao do livro texto, quais dos registros s˜ao v´ alidos: a) v(2, 1) f) (2, 1) ∈ E2 −−→ k) v = P Q p) r ∈ E2 u) α ⊂ E2 b) P (2, 1) g) E2 = R2 l) P ∈ E2 q) AB ∈ R3 v) r ⊂ α c) v = (2, 1) h) P (2, 1) ∈ R2 m) P (2, 1) ∈ E2 r) (2, 1) ∈ R2 x) AB ⊂ E3 d) P = (2, 1) −−→ i) P Q ∈ R2 n) R2 ⊂ R3 −−→ s) P Q = P Q y) AB ⊂ E2 e) r ⊂ E3 −−→ j) P Q ∈ E2 o) v ∈ R2 t) α ∈ E3 z) r = AB 2. Sejam v = (2, −1) e w = (3, −2) vetores em R2 . Calcule 3v − w e v + 2w e represente graficamente os vetores por segmentos orientados com ponto inicial O(0, 0). Represente-os com ponto inicial P (−2, 1). 3. Considere os pontos P (1, −1), Q(−3, 3) e R(2, 2) do plano Cartesiano. −− → −− → −−→ (a) Esboce os segmentos orientados P Q e QR e QQ. (b) Determine os vetores u, v e w de R2 representados pelos segmentos ori−−→ −− → −−→ entados P Q, QR e QQ. Qual a rela¸c˜ao entre os vetores representados −−→ −−→ por P Q e QP . (c) Represente graficamente a soma u + v por um segmento orientado cujo ponto inicial ´e o ponto P e represente o vetor 2u com ponto final R(2, 2). 4. A partir do esbo¸co das representa¸c˜oes dos vetores u e v, como indicado em cada figura, determine quais os outros vetores que est˜ ao representados. 1.3 Combina¸ c˜ ao linear e base canˆ onica Fixaremos uma defini¸c˜ao que nos acompanhar´a por todo o texto. Defini¸ c˜ ao 1.3.1 Um vetor w ∈ Rn ´e uma combina¸c˜ao linear dos vetores v1 , v2 , ..., vk ∈ Rn se existem escalares a1 , a2 , ..., ak ∈ R, tais que w = a1 v1 + a2 v2 + · · · + ak vk . ˜ LINEAR E BASE CANONICA ˆ 1.3. COMBINAC ¸ AO 11 Os esclares a1 , a2 ,...,ak s˜ao chamados coeficientes da combina¸c˜ao linear. Exemplo 1.3.1 Considere os vetores v1 , v2 , v3 ∈ R2 , onde v1 = (1, 1), v2 = (1, 2) e v3 = (1, −1). O vetor w = (−1, 1) ´e uma combina¸c˜ao linear de v1 e v2 e v3 . Verifica-se que w = −6v1 + 4v2 + v3 . Os coeficientes dessa combina¸c˜ao linear s˜ao a1 = −6, a2 = 4 e a3 = −1. O vetor u = (0, −1) tamb´em ´e uma combina¸c˜ao linear de v1 , v2 e v3 , pois u = v1 − v2 . Dever´ıamos escrever u = 1v1 + (−1)v2 + 0v3 , mas, como sempre, simplificamos a escrita para tornar a leitura menos cansativa. 2 Exerc´ıcio 1.3.1 Dados os vetores v1 = (1, 2) e v2 = (1, 1) de R2 , calcule o vetor w nas combina¸c˜oes lineares indicadas. a) w = 3v1 − 4v2 . c) w = − 13 v2 . b) w = −v2 + v2 . d) w = 0v1 + v2 . 2 Exerc´ıcio 1.3.2 Dados os vetores v1 = (−1, 2, 0) e v2 = (2, 1, −3) de R3 , calcule o vetor w nas combina¸c˜oes lineares indicadas. a) w = 3v1 − 4v2 c) w = − 13 v2 . b) w = −v2 + v2 . d) w = 0v1 + v2 . 2 ´rio Para ilustrar a defini¸c˜ao de combina¸c˜ao linear de vetores, fa¸caComenta mos uma analogia entre ela e o conceito f´ısico de trajet´otias. Fixemos os vetores v1 e v2 em R2 , dados no Exemplo 1.3.1. Eles determinam no plano Cartesiano E2 , atrav´es de represent¸c˜oes por segmentos orientados, duas dire¸c˜oes, indicadas graficamente na figura por retas paralelas. Vamos supor que essas s˜ao as u ´ nicas dire¸c˜oes poss´ıveis nas quais podemos caminhar sobre o plano Cartesiano. Para partir da origem e chegar a um ponto W , no caso da figura, devemos percorrer uma trajet´oria na dire¸c˜ao e sentido determinada por v1 cujo comprimento ´e 2 vezes o comprimento de v1 , seguida de uma trajet´oria cujo comprimento ´e 75 na dire¸c˜ao e sentido determinado por v2 . CAP´ITULO 1. O ESPAC ¸ O VETORIAL RN 12 Isso ´e sugerido vetorialmente pela combina¸c˜ao linear w = 2v1 + 75 v2 . Nesse caso, n˜ao importa se a trajet´oria ´e feita em zig-zag ou n˜ao, levando em conta o sentido positivo e negativo das dire¸c˜oes, no final, teremos a mesma combina¸c˜ao linear. Se consideramos apenas um u ´ nico vetor, v1 ∈ R2 , ao dizermos que w ∈ R2 ´e uma combina¸c˜ao linear de v1 estamos apenas afirmando que w ´e um m´ ultiplo de (ou colinear com) v1 , em outras palavras, w = a1 v1 . Como temos uma u ´ nica dire¸c˜ao no plano Cartesiano, nem todos pontos do plano podem ser alcan¸cados partindo-se da origem, apenas aqueles que est˜ao sobre a reta diretriz que passa pela origem podem ser alcan¸cados. Falta uma dire¸c˜ao transversal para descrever todas as trajet´orias poligonais poss´ıveis. 2 Defini¸ c˜ ao 1.3.2 Um subconjunto ordenado de n vetores β = {v1 , v2 , ..., vn } ⊂ n R ´e uma base do Rn se qualquer vetor w ∈ Rn ´e uma combina¸c˜ao linear dos elementos de β. A express˜ao ”subconjunto ordenado” significa que existe um primeiro elemento, e ele est´a indexado por 1, um segundo elemento que est´a indexado por 2, etc. A defini¸c˜ao de base d´a origem a um s´erie de perguntas de car´ater t´ecnico. 1. Existe base para o Rn ? 2. Se w ∈ Rn e β ´e uma base, quais s˜ao e como podemos calcular os coeficientes ai ’s da combina¸c˜ao linear w = a1 v1 + a2 v2 + · · · + an vn ? 3. Os coeficientes ai s da combina¸c˜ao linear w = a1 v1 + a2 v2 + · · · + an vn s˜ao u ´ nicos, isto ´e, podemos expressar w = b1 v1 + b2 v2 + · · · + bn vn com bi = ai para algum i, 1 ≤ i ≤ n? 4. Quantas bases existem para o Rn ? 5. Dado um subconjunto de n vetores β ⊂ Rn , qual um algoritmo pr´atico para sabermos se o conjunto ´e uma base? ˜ LINEAR E BASE CANONICA ˆ 1.3. COMBINAC ¸ AO 13 A primeira pergunta tem resposta f´acil. Existe pelo menos uma base ordenada para o Rn . O subconjunto de n vetores C = {e1 , e2 , ..., en } cujos elementos s˜ao e1 = (1, 0, ..., 0), e2 = (0, 1, ..., 0), ... en = (0, 0, ..., 1). ´e uma base. O subconjunto C ser´a chamado de base canˆ onica pelos seguintes n motivos. Dado um vetor w = (x1 , x2 , ..., xn ) ∈ R ´e imediato mostrar que w ´e uma combina¸c˜ao linear do vetores de C e quais s˜ao os coeficientes da combina¸c˜ao linear: w = (x1 , x2 , ..., xn ) = x1 e1 + x2 e2 + · · · + xn en . Exemplo 1.3.2 A base canˆonica do R2 ´e um conjunto formado por √ dois vetores, C = {e1 , e2 }, onde e1 = (1, 0) e e2 = (0, 1). O vetor v = (− 3, − 24 ) ´e uma combina¸c˜ao linear dos vetores da base canˆonica √ e, facilmente, determinamos os coeficientes da combina¸c˜ao linear, v = − 3e1 − 24 e2 . 2 Exemplo 1.3.3 Considere o vetor w = (2, −2, 4) ∈ R3 . A base canˆonica C do R3 ´e formada por trˆes vetores e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1). Veja a seguinte seq¨ uˆencia de igualdades, w = = = = (2, −2, 4) (2, 0, 0) + (0, −2, 0) + (0, 0, 4) 2(1, 0, 0) − 2(0, 1, 0) + 4(0, 0, 1) 2e1 − 2e2 + 4e3 . Observe que na base canˆonica, as coordenadas do vetor s˜ao os coeficientes da combina¸c˜ao linear! 2 Em rela¸c˜ao a` base canˆonica do Rn , a terceira pergunta tem resposta r´apida e precisa. Afirma¸c˜ao Ao escrevermos o vetor w ∈ Rn como uma combina¸c˜ao linear dos elementos da base canˆonia C, os coeficientes da combina¸c˜ao linear s˜ao u ´nicos. CAP´ITULO 1. O ESPAC ¸ O VETORIAL RN 14 Se n˜ao, vejamos. Seja w = (w1 , w2 , ..., wn ) ∈ Rn . Escrevamos a combina¸c˜ao linear w = a1 e1 + a2 e2 + · · · + an en e examinemos a seq¨ uˆencia de igualdades, (w1 , w2 , ..., wn ) = = = = = w a1 e1 + a2 e2 + · · · + an en a1 (1, 0, ..., 0) + a2 (0, 1, ..., 0) + · · · + an (0, 0, ..., 1) (a1 , 0, ..., 0) + (0, a2 , ..., 0) + · · · + (0, 0, ..., an ) (a1 , a2 , ..., an ). Sendo assim, valem as igualdades ai = wi para todo i = 1, ..., n. Temos conclu´ıdo a demonstra¸c˜ao da Afirma¸c˜ao. Em particular, o vetor nulo, o = (0, 0, ..., 0), somente pode ser escrito por uma u ´ nica combina¸c˜ao linear, a saber, o = 0e1 + 0e2 + · · · + 0en . Exerc´ıcio 1.3.3 Quantos elementos possui a base canˆonica do R4 ? 1.4 2 Outras bases de Rn Passemos a` quarta pergunta da lista apresentada na se¸c˜ao anterior. ”Existem outras bases ordenadas para o Rn al´em da base canˆ onica?” Antecipemos a resposta. Sim, o Rn possui um n´ umero infinito de bases ordenadas al´em da base canˆonica! Mostrar a existˆencia de outras bases ordenadas est´a relacionada com: ◦ determinantes de matrizes quadradas n × n; ◦ resolu¸c˜oes de sistemas de equa¸c˜oes lineares n × n. Examinemos essa rela¸c˜ao. Com um conjunto ordenado de n vetores β = {v1 , v2 , ..., vn } de Rn , contru´ımos uma matriz quadrada n × n, matriz que denotaremos por [v1 , v2 , ..., vn ]. A nota¸c˜ao indica que as entradas da primeira coluna da matriz s˜ao as coordenadas do vetor v1 , as entradas da segunda coluna s˜ao as coordenadas do vetor v2 , etc. Observe que sendo [v1 , v2 , ..., vn ] uma matriz quadrada, podemos calcular o seu determinante. 1.4. OUTRAS BASES DE RN 15 Exemplo 1.4.1 Ilustremos com dois exemplos a constru¸c˜ao da matriz. a) Seja β = {v1 , v2 } ⊂ R2 , onde v1 = (1, 1) e v2 = (1, 2). Esse conjunto de dois vetores do R2 d´a origem a` matriz quadrada 2 × 2   1 1 [v1 , v2 ] = . 1 2 Por um c´alculo simples segue que det[v1 , v2 ] = 1 = 0. b) Seja β = {v1 , v2 , v3 } ⊂ R3 , onde v1 = (1, −1, 3), v2 = (0, 1, −2) e v3 = (2, −3, 8). Com esse conjunto de trˆes vetores do R3 constru´ımos a matriz quadrada 3 × 3 ⎤ ⎡ 1 0 2 1 −3 ⎦ , [v1 , v2 , v3 ] = ⎣ −1 3 −2 8 cujo determinante ´e det[v1 , v2 , v3 ] = 0. 2 O ponto a ressaltar diz respeito ao deteminante da matriz [v1 , v2 , ...vn ] constru´ıda com os n vetores do conjunto ordenado β = {v1 , v2 , ..., vn } ⊂ Rn . Provaremos, posteriormente, as seguintes afirma¸c˜oes: ◦ se det[v1 , v2 , ..., vn ] = 0 ent˜ao β ´e uma base; ◦ se det[v1 , v2 , ..., vn ] = 0 ent˜ao β n˜ao ´e uma base. Sendo assim, temos em m˜aos um algoritmo eficiente para determinar quando o conjunto β ´e, ou n˜ao ´e, uma base, bem como, construir bases para Rn . Exemplo 1.4.2 Seja β = {v1 , v2 } ⊂ R2 onde v1 = (1, 1) e v2 = (1, 2). a) Para u = (−1, 1), vale a combina¸c˜ao linear u = −3v1 + 2v2 . b) Para v = (0, −1), vale a combina¸c˜ao linear v = v1 − v2 . c) Para w = ( x, y), vale a combina¸c˜ao linear w = (2x − y)v1 + (y − x)v2 . O item c) diz que o conjunto β ´e uma base, pois qualquer vetor w = (x, y) do R2 ´e uma combina¸c˜ao linear de v1 e v2 onde os coeficientes da combina¸c˜ao linear dependem das coordenadas do vetor, a1 = 2x − y e a2 = y − x. Fica uma quest˜ao. CAP´ITULO 1. O ESPAC ¸ O VETORIAL RN 16 • Como determina-se os coeficientes da combina¸c˜ao linear para um vetor w = (x, y) em R2 . Deixemos claro como a condi¸c˜ao det[v1 , v2 ] = 1 = 0 implica que β = {v1 , v2 } ´e uma base. O elo de liga¸c˜ao entre os dois fatos ´e a regra de Cramer um m´etodo para resolu¸c˜ao de sistemas lineares n × n cuja demonstra¸c˜ao encontra-se no pr´oximo cap´ıtulo do texto. Para mostrar que β ´e uma base, devemos mostrar que dado um vetor w = (x, y) ∈ R2 existem coeficientes a1 e a2 tais que w = a1 v1 + a2 v2 . Escrevamos essa u ´ ltima igualdade em coordenadas, (x, y) = (a1 + a2 , a1 + 2a2 ). A igualdade w = a1 v1 + a2 v2 d´a origem a um sistema de equa¸c˜oes lineares com duas equa¸c˜oes e duas inc´ognitas, a1 e a2 , escrito na forma usual (ou matricial) como       1 1 a1 x a1 + a2 = x ou = . a1 + 2a2 = y 1 2 a2 y A matriz principal do sistema ´e precisamente [v1 , v2 ] e as matrizes auxiliares s˜ao [w, v2] e [v1 , w]. Explicitamente:       1 1 x 1 1 x ; [w, v2 ] = ; [v1 , w] = . [v1 , v2 ] = 1 2 y 2 1 y Como a matriz principal ´e quadrada com determinante diferente de zero, podemos utilizar a Regra de Cramer para determinar as inc´ognitas a1 e a2 , a1 = det[w, v2 ] = 2x − y det[v1 , v2 ] e a2 = det[v1 , w] = y − x. det[v1 , v2 ] Logo, w = (2x − y)v1 + (y − x)v2 e os coeficientes s˜ao u ´nicos, pois s˜ao as u ´ nicas solu¸c˜oes do sistema. Observe que s´o existe uma combina¸c˜ao linear poss´ıvel para expressar o vetor nulo, qual seja, o = 0v1 + 0v2 . 2 A demonstra¸c˜ao do teorema abaixo encontra-se no pr´oximo cap´ıtulo. Teorema 1.4.1 [Regra de Cramer] Seja β = {v1 , v2 , ..., vn } ⊂ Rn um conjunto ordenado de n vetores em Rn . Se det[v1 , v2 , ..., vn ] = 0 ent˜ ao β ´e uma 1.4. OUTRAS BASES DE RN 17 base do Rn . Mais ainda, cada vetor w ∈ Rn expressa-se como u ´nica combina¸ca˜o linear w = a1 v1 + a2 v2 + · · · + an vn onde os coeficientes s˜ ao dados por a1 = det[w, v2 , ..., vn ] , det[v1 , v2 , ..., vn ] a2 = det[v1 , w, ..., vn ] , det[v1 , v2 , ..., vn ] ··· an = det[v1 , v2 , ..., w] . det[v1 , v2 , ..., vn ] Observe que os coeficientes para expressar o vetor nulo o = (0, 0, ..., 0) como combina¸c˜ao linear de uma base, necessariamente, ´e ai = 0, para todo i, pois o numerador da fra¸c˜ao ´e o determinante de uma matriz com uma coluna igual a zero. Exemplo 1.4.3 Mostremos que β = {v1 , v2 , v3 } ⊂ R3 ´e uma base, onde v1 = (1, 1, 0), v2 = (1, 0, 1) e v3 = (0, 1, 1). Para isso, ´e suficiente considerar a matriz ⎡ ⎤ 1 1 0 [v1 , v2 , v3 ] = ⎣ 1 0 1 ⎦ , 0 1 1 e calcular seu determinante det[v1 , v2 , v3 ] = −2. Como o determinante n˜ao ´e zero, segue que β ´e uma base do R3 . Expressemos w = (3, −2, 3) por uma combina¸c˜ao linear dos vetores de β, w = a1 v1 + a2 v2 + a3 v3 . Substitu´ındo obtemos (3, −2, 3) = (a1 + a2 , a1 + a3 , a2 + a3 ), de onde segue o sistema linear ⎧ = 3 ⎨ a1 + a2 a1 + a3 = −2 ⎩ 3 a2 + a3 = ⎛ ⎤ ⎡ ⎤⎡ ⎤⎞ 1 1 0 a1 3 ⎝ou ⎣ 1 0 1 ⎦ ⎣ a2 ⎦ = ⎣ −2 ⎦⎠ . a3 0 1 1 3 ⎡ Para calcular os coeficientes a1 s, precisaremos das matrizes auxiliares, ⎡ ⎤ ⎡ 3 1 0 1 [w, v2 , v3 ] = ⎣ −2 0 1 ⎦ , [v1 , w, v3 ] = ⎣ 1 3 1 1 0 ⎤ ⎡ 3 0 1 1 −2 1 ⎦ , [v1 , v2 , w] = ⎣ 1 0 3 1 0 1 ⎤ 3 −2 ⎦ , 3 CAP´ITULO 1. O ESPAC ¸ O VETORIAL RN 18 e de seus determinantes: det[v1 , w, v2] = −8; det[w, v2 , v3 ] = 2; det[v1 , v2 , w] = 2. Assim, calculamos os coeficientes procurados utilizando a regra de Cramer, a1 = det[w, v2 , v3 ] = −1, det[v1 , v2 , v3 ] a2 = det[v1 , w, v2 ] = 4, det[v1 , v2 , v3 ] a3 = det[v1 , v2 , w] = −1. det[v1 , v2 , v3 ] Logo, w = (3, −2, 3) expressa-se como a combina¸c˜ao linear w = v1 − 4v2 + v3 . Mais geralmente, mostre que um vetor w = (x, y, z) expressa-se nessa base como a combina¸c˜ao linear w = (−y + z)v1 + (−x + y − z)v2 + (x − y − z)v3 . 2 A demonstra¸c˜ao da rec´ıproca da regra de Cramer ficar´a para uma se¸c˜ao futura, pois envolve outros conceitos. Exerc´ıcios propostos 1.4.1 1. Calcule as combina¸c˜oes lineares indicadas onde v1 = (1, 2, 3), v2 = (0, 1, 2) e v3 = (0, 0, 1) s˜ao vetores do R3 . (a) w = 3v1 + 0v2 − v3 . (b) w = xv1 + (y − 2x)v2 + (x − 2y + z)v3 . (c) w = 0v1 + 0v2 + 0v3 . (d) w = 0v1 + 1v2 + 0v3 . 2. Verifique quais dos conjuntos ordenados β = {v1 , v2 } ⊂ R2 ´e uma base. Caso seja, expresse w = (x, y) por uma combina¸c˜ao linear dos vetores da base. (a) v1 = (3, −1) e v2 = (1, 2). (c) v1 = (−1, 2) e v2 = (2, −4). (b) v1 = (2, 1) e v2 = (1, 2). (d) v1 = (1, 0) e v2 = (1, −1). 3. Verifique quais dos conjuntos ordenados β = {v1 , v2 , v3 } ⊂ R3 ´e uma base. Caso seja, expresse w = (x, y, z) por uma combina¸c˜ao linear dos vetores da base. 1.5. EXEMPLOS DE ESPAC ¸ OS VETORIAIS* 19 (a) v1 = (0, 3, −1), v2 = (1, 1, 2), v3 = (1, 1, 1). (b) v1 = (2, 1, 1), v2 = (3, −1, 2), v3 = (0, 0, 0). (c) v1 = (1, 1, 2), v2 = (2, 0, 0), v3 = (0, 1, 1). (d) v1 = (1, 1, 1), v2 = (3, −2, 1), v3 = 2v1 − v2 . 4. Complete o conjunto de vetores para obter uma base do espa¸co indicado. (a) α = {v1 , v2 } ⊂ R2 , onde v1 = (3, 4). (b) β = {v1 , v2 , v3 } ⊂ R3 , onde 5. Seja β = {v1 , v2 , ..., vn } uma base de Rn . (a) Escreva vi como combina¸c˜ao linear dos vetores de β. (b) Escreva o como combina¸c˜ao linear dos vetores de β. ´ poss´ıvel escrever v1 como combina¸c˜ao linear dos vetores v2 , v3 ,...,vn ? (c) E 1.5 Exemplos de espa¸ cos vetoriais* Essa se¸c˜ao pode ser dispensada numa primeira leitura. Para ilustrar a defini¸c˜ao de espa¸co vetorial listaremos outros exemplos, al´em do Rn . 1) Seja R[t] o conjunto de todos os polinˆ omios na vari´ avel t com coeficientes em R. As usuais adi¸c˜ao de polinˆ omios e multiplica¸c˜ao de um polinˆ omio por um escalar induzem em R[t] uma estrutura de espa¸co vetorial sobre R. 3) O produto direto, ou produto cartesiano, de espa¸cos vetoriais V1 , V2 , ..., Vn sobre R ´e o conjunto denotado por V = V1 × V2 × · · · × Vn e constitu´ıdo por todas as n-uplas ordenadas u = (u1 , u2 , ..., un ) com ui ∈ Vi . Do mesmo modo podemos definir uma estrutura de espa¸co vetorial sobre o corpo R. Dados os elementos u = (u1 , u2 , ..., un ), v = (v1 , v2 , ..., vn ) ∈ V e um escalar λ ∈ R, definimos a adi¸c˜ao de dois vetores e a multiplica¸c˜ao de um vetor por um escalar, respectivamente, por u + v = (u1 + v1 , u2 + v2 , ..., un + vn ), λu = (λu1 , λu2 , ..., λun ). CAP´ITULO 1. O ESPAC ¸ O VETORIAL RN 20 4) Sejam Ω um conjunto n˜ ao vazio e V um espa¸co vetorial sobre R. O conjunto C(Ω, V ) formado por todas as fun¸c˜oes f : Ω → V adquire uma estrutura de espa¸co vetorial sobre R da seguinte forma. Para f, g ∈ C(Ω, V ) e λ ∈ K definimos (f + g)(ω) = f (ω) + g(ω), (λf )(ω) = λf (w), onde ω ∈ Ω. Nesta estrutura o vetor nulo ´e a fun¸c˜ao identicamente nula, f (ω) = 0 para todo ω ∈ Ω, e −f ≡ (−1)f . 5) Uma matriz m × n com entradas em R ´e uma sequˆencia de escalares aij ∈ R organizada na forma ⎤ ⎡ a11 a12 · · · a1n ⎢ a21 a22 · · · a2n ⎥ ⎥ ⎢ [A] = ⎢ . .. .. ⎥ . . ⎣ . . . ⎦ am1 am2 · · · amn Quando for conveniente, resumiremos a nota¸c˜ao em [A] = [aij ]. O primeiro ´ındice de aij indica a linha na qual a entrada encontra-se e o segundo ´ındice indica a coluna. Induzimos uma estrutura de espa¸co vetorial no conjunto das matrizes m × n com entradas em R, conjunto este denotado por M (m × n, R), definido a adi¸c˜ao de matrizes e a multiplica¸c˜ao de uma matriz por um escalar, respectivamente, por [A] + [B] = [aij + bij ], λ[A] = [λaij ], em que [A] = [aij ], [B] = [bij ] ∈ M (m × n, R) e λ ∈ R. O vetor nulo do espa¸co ´e a matriz identicamente nula e −[A] = [−aij ]. Exerc´ıcios propostos 1.5.1 1. Procure num livro de C´ alculo os teoremas que garantem a existˆencia de uma estrutura de espa¸co vetorial real nos seguintes conjuntos. (a) O conjunto C 0 ([a, b], R) formado por todas as fun¸c˜oes cont´ınuas f : [a, b] → R, onde [a, b] ⊂ R ´e um intervalo. (b) O conjunto ([a, b], R) constitu´ıdo por todas as fun¸c˜oes f : [a, b] → R que s˜ao Riemann integr´ aveis. (c) O  conjunto S(Z, R) de todas sequˆencias reais (a1 , a2 , a3 , ...) cuja s´erie an converge (convergˆencia simples). (d)  O conjunto 1 (R) de todas as sequˆencias reais (a1 , a2 , a3 , ...) cuja s´erie |an | converge (convergˆencia absoluta). ˜ 1.6. RESPOSTAS E SUGESTOES 1.6 21 Respostas e sugest˜ oes Se¸ c˜ ao 1.2 1) V=v´ alido, N=n˜ ao v´ alido. a) N. d) F. g) N. j) N. m) V. p) F. s) F. v) V. b) V. e) V. h) N. k) N. n) N. q) F. t) F. x) V. c) V. f ) N. i) N. l) V. o) V. r) V. u) V. y) V. 2) 3v − w = (3, −1) e v + 2w = (8, −5). −→ −−→ Representantes com ponto inicial a origem s˜ ao, respectivamente, OA e OB, onde A(3, −1) e B(8, −5). −→ −→ Representantes com ponto inicial P (−2, 1) s˜ao, respectivamente, P R e P S, onde R(1, 0) e S(6, −4). 3) O primeiro item ficar´ a aos cuidados do leitor. (b) S˜ ao representantes, respectivamente, de u = (−4, 4), v = (5, −1) e w = (0, 0). −−→ O segmento orientado QP representa −u. −→ −−→ (c) A soma u + v ´e representado por RT onde R(2, 2) e 2u ´e representado por N M onde N (10, −6). 4) Observe que as diagonais de um paralelogramo interceptam-se nos seus pontos m´edios. Se¸ c˜ ao 1.4 1) (a) w = (3, 6, 8). (b) w = (x, y, z). (c) w = (0, 0, 0). (d) w = v2 . 2) Somente os vetores em (c) n˜ ao formam uma base. (a) (x, y) = (b) (x, y) = 2x−y 7 v1 2x−y 3 v1 + + 3y+x 7 v2 . 2y−x 3 v2 . (d) (x, y) = (x + y)v1 − yv2 . 3) Ser´ a uma base de R3 se det[v1 , v2 , v3 ] = 0. Somente os vetores em (a) e (c) formam uma base. 4) Utilizando a condi¸c˜ao do determinante ser diferente de zero para garantir que o conjunto seja uma base. (a) Por exemplo, v2 = (−2, 1). (b) Qualquer vetor v3 = (a, b, c) tal que det[v1 , v2 , v3 ] = 0. (c) A solu¸c˜ao segue o mesmo roteiro. CAP´ITULO 1. O ESPAC ¸ O VETORIAL RN 22 5) (a) vi = 0v1 + · · · + 1vi + · · · + 0vn . (b) o = 0v1 + 0v2 + · · · + 0vn . (c) N˜ ao. Cap´ıtulo 2 Combina¸ c˜ ao linear Este cap´ıtulo tem como ponto central relacionar sistemas lineares e com´ bina¸c˜oes lineares, um ponto b´asico do estudo de Algebra Linear. Existem diversos m´etodos de resolu¸c˜ao de sistemas lineares: m´etodo de Gauss, escalonamento de matrizes, substitui¸c˜ao, regra de Cramer, etc. Preferencialmente, utilizaremos a regra de Cramer. Al´em do aspecto did´atico, na maioria das vezes, a resolu¸c˜ao por regra de Cramer ´e t˜ao pr´atico quanto qualquer outro m´etodo quando o sistema tem um n´ umero pequeno de vari´aveis, duas ou trˆes vari´aveis. De qualquer forma, apresentamos o m´etodo de escalonamento para resolu¸c˜ao de sistemas. Como utilizaremos determinantes, faremos uma breve apresenta¸c˜ao do t´opico. Acreditamos que o leitor tenha adq¨ uirido no Ensino M´edio uma familiaridade m´ınima com o conceito de matrizes e o c´alculo de determinantes. A experiˆencia em sala de aula tem indicado que as demonstra¸c˜oes de muitas propriedades de determinantes s˜ao infrut´ıferas. Compreeender a complexidade de algumas argumenta¸c˜oes combinat´orias necessitam de um maior amadurecimento matem´atico por parte do aluno. Uma apresenta¸c˜ao destacando os fatos principais e os algoritmos tem se revelado mais u ´ til. Seja qual for a op¸c˜ao para a apresenta¸c˜ao das trˆes primeiras se¸c˜oes, leitura extensa ou resumo dos fatos, o Teorema 2.4.1, (pg.37), deve ser destacado, pois ser´a utilizado in´ umeras vezes. Mesmo assim, com a preten¸c˜ao de ser completo, as demonstra¸c˜oes envolvendo matrizes e determinantes encontramse no Cap´ıtulo 13, (pg.305), um cap´ıtulo de referˆencias que ´e aconselh´avel ser omitido numa primeira leitura. 23 ˜ LINEAR CAP´ITULO 2. COMBINAC ¸ AO 24 2.1 Determinantes Nessa se¸c˜ao, o s´ımbolo [A] = [v1 , v2 , ..., vn ] indica uma matriz quadrada n × n onde as colunas s˜ao as coordenadas de um vetor vi ∈ Rn . Nessa nota¸c˜ao, a matriz identidade n × n escreve-se como [Id] = [e1 , e2 , ..., en ], onde ei indica o i-´esimo elemento da base canˆonica do Rn . O determinante ´e definido como uma fun¸c˜ao dos espa¸co das matrizes n × n nos reais possuindo trˆes propriedades: det1 det[e1 , e2 , ..., en ] = 1; det2 det[v1 , ..., vi , vi+1 , ..., vn ] = 0 se vi = vi+1 ; (determinante da identidade) (colunas adjacentes iguais) det3 det[v1 , ..., vi + λw, ..., vn ] = det[v1 , ..., vi , ..., vn ] + λ det[v1 , ..., w, ...vn ] para qualquer w ∈ Rn e qualquer λ ∈ R. (multilinearidade) Uma quest˜ao que surge ´e se existe uma fun¸c˜ao possu´ındo tais propriedades, para cada espa¸co de matrizes n × n. A resposta ´e positiva e para mostra que existe determinante para matrizes n × n utiliza-se um processo construtivo e demonstra¸c˜ao por indu¸c˜ao. Primeiro, definimos determinante de matrizes 2×2. Feito isso, utilizamos esse determinante para definir determinante de matrizes 3 × 3 utilizando a constru¸c˜ao conhecida por desenvolvimento de Laplace pela primeira coluna. Para definir o determinante de uma matriz 4 × 4, utiliza-se a defini¸c˜ao de determinante para matrizes 3 × 3 em conjunto com o desenvolvimento de Laplace e assim, sucessivamente. ´ claro, o determinante de uma matriz 1 × 1 deve ser igual a u E ´ nica entrada da matriz. Determinante de matriz 2 × 2 Sejam v1 = (a, b) e v2 = (c, d) vetores do R2 . Definimos   a c =: ad − bc. det[v1 , v2 ] = det b d 2.1. DETERMINANTES 25 Essa defini¸c˜ao ´e conhecida por qualquer estudante que conclu´ıu o Ensino M´edio. As propriedades det1 , det2 e det3 s˜ao, facilmente, verificadas. Determinante de matriz 3 × 3 ´e definido pela regra conhecida como desenvolvimento de Laplace pela primeira coluna. A partir do determinante de matrizes 2 × 2 define-se o determinante de matrizes 3 × 3. Sejam v1 = (a, b, c), v2 = (d, e, f ) e v3 = (g, h, i) vetores do R3 . ⎡ ⎤ a d g det[v1 , v2 .v3 ] = det ⎣ b e h ⎦ c f i       e h d g d g =: a det − b det + c det . f i f i e h Certamente o leitor aprendeu na escola algum algoritmo para calcular o determinante de uma matriz 3 × 3, utilize aquele que achar mais confort´avel. Embora seja mais trabalhoso e enfadonho, tamb´em ´e simples rotina verificar que o determinante de matrizes 3 × 3 goza das propriedades det1 , det2 e det3 . Deixaremos a verifica¸c˜ao como exerc´ıcio. Determinante de matriz n × n Seja [A] uma matriz quadrada n × n. Indicamos por [A]jib a ji -´esima matriz reduzida de [A], isto significa que a matriz [A]ijb ´e a matriz (n−1) ×(n−1) obtida de [A] por supress˜ao da i−´esima linha e da j-´esima coluna. Por exemplo, uma matriz 3 × 3 tem nove matrizes reduzidas. Se [A] = [v1 , v2 , v3 ] onde v1 = (a, b, c), v2 = (d, e, f ) e v3 = (g, h, i), ent˜ao ⎡ ⎤ a d g [A] = ⎣ b e h ⎦ . c f i Listemos trˆes matrizes reduzidas de [A]:     e h d g [A]c ; [A]c ; 11 = 21 = f i f i  [A]c 31 = d g e h  . O determinante de uma matriz 3×3 foi definido utilizando-se essas submatrizes 2 × 2 e uma constru¸c˜ao chamada de desenvolvimento de Laplace pela primeira ˜ LINEAR CAP´ITULO 2. COMBINAC ¸ AO 26 coluna, 2+1 3+1 b det[A]c c det[A]c det[A] = (−1)1+1 a det[A]c 11 + (−1) 21 + (−1) 31 . Com essa regra, definirmos o determinante de uma matriz n×n conhecendose o determinante de matrizes (n − 1) × (n − 1). Se [A] = [v1 , v2 , ..., vn ], onde v1 = (v11 , v21 , ..., vn1 ) definimos 2+1 n+1 det[A] =: (−1)1+1 v11 det[A]c v21 det[A]c vn1 det[A]n1 c. 11 + (−1) 21 + · · ·+ (−1) Uma demonstra¸c˜ao por indu¸c˜ao garante que o determinante de matrizes n × n possui as propriedades det1 , det2 e det3 . Decorrem diretamente das trˆes propriedades exigidas na defini¸c˜ao de determinante in´ umeras outras propriedades que s˜ao bem conhecidas. Proposi¸ c˜ ao 2.1.1 Valem as seguintes afirma¸c˜oes sobre o determinante de uma matriz quadrada [A] = [v1 , v2 , ..., vn ]. 1. det[v1 , ..., vi , vi+1 , ..., vn ] = −det[v1 , ...vi+1 , vi , ...vn ]. ao det[v1 , v2 , ..., vn ] = 0. 2. Se algum vi ´e o vetor nulo ent˜ 3. det[v1 , ..., vi , ..., vj , ..., vn ] = 0, se vi = vj , i = j. 4. Somando-se a uma coluna da matriz [v1 , v2 , ..., vn ] uma combina¸c˜ao linear de outros vetores colunas o determinante n˜ ao se altera. 5. det[v1 , ..., λvi , ..., vn ] = λ det[v1 , ...., vi , ..., vn ], para todo escalar λ. Prova 1. Observe que det[v1 , ..., vi +vi+1 , vi +vi+1 , ..., vn ] = 0, pois duas colunas adjacentes s˜ao iguais, det2 . Pela linearidade do determinante, det3 , obtemos 0 = det[v1 , ..., vi + vi+1 , vi + vi+1 , ..., vn ] = det[v1 , ..., vi , vi , ..., vn ] + det[v1 , ..., vi , vi+1 , ..., vn ] + det[v1 , ..., vi+1 , vi , ..., vn ] + det[v1 , ..., vi+1 , vi+1 , ..., vn ]. De onde segue a afirma¸c˜ao. 2.1. DETERMINANTES 27 2. Se vi = 0, ele ´e uma combina¸c˜ao linear dos vetores colunas, vi = 0v1 + · · · + 0vi + 0vi+1 + · · · + 0vn . Pela propriedade det3 , det[v1 , ..., vi , vi+1 , ..., vn ] = 0 det[v1 , ..., v1 , vi+1 , ..., vn ] + 0 det[v1 , ..., v2 , vi+1 , ..., vn ] + +···+ 0 det[v1 , ..., vn , vi+1 , ..., vn ] = 0. 3. Deixaremos como exerc´ıcio. 4. Para facilitar a leitura, vamos supor que vn = a1 v1 +a2 v2 +· · ·+an−1 vn−1 . Pela propriedade det3 temos det[v1 , ..., vn−1 , vn ] = det[v1 , ..., vn−1 , Σn−1 i=1 ai vi ] n−1 = Σi=1 ai det[v1 , ..., vn−1 , vi ]. Como no u ´ ltimo somat´orio, cada parcela tem um determinante de uma matriz com duas colunas iguais, pelo item 3. acima, segue o resultado. 4. Para facilitar a leitura, vamos supor que o vetor w = a1 v1 + a2 v2 + · · · + an−1 vn−1 seja somado a` u ´ ltima coluna de [v1 , ..., vi , ..., vj , ..., vn ]. Calculemos, det[v1 , ..., vn−1 , vn + w] = det[v1 , ..., vn−1 , vn + Σn−1 i=1 ai vi ] = det[v1 , ..., vn−1 , vn ] + Σn−1 i=1 ai det[v1 , ..., vn−1 , vi ] = det[v1 , ..., vn−1 , vn ]. A segunda igualdade ´e justificada observando que cada parcela do somat´orio tem um determinante de uma matriz com duas colunas iguais, portanto, aquelas parcelas s˜ao iguais a zero. 5. Observe as igualdades, det[v1 , ..., λvi , ..., vn ] = det[v1 , ..., vi + (λ − 1)vi , ..., vn ] = det[v1 , ..., vi , ..., vn ] + (λ − 1) det[v1 , ..., vi , ..., vn ] = λ det[v1 , ..., vi , ...vn ]. 28 ˜ LINEAR CAP´ITULO 2. COMBINAC ¸ AO 2 A igualdades s˜ao justificadas pelo item det3 . Existem muitos outros modos equivalentes para definir determinantes. Por exemplo, podemos indutivamente definir o determinante utilizando o desenvolvimento de Laplace por qualquer coluna ou qualquer linha. Nesses casos, as parcelas do somat´orio s˜ao determinantes de matrizes reduzidas das entradas de uma coluna (ou linha) multiplicadas pelo fator (−1)i+j . As demonstra¸c˜oes dessa e de outras afirma¸c˜oes encontram-se no Cap´ıtulo 13. Recordamos que se [A] = [v1 , v2 , ..., vn ] = [vij ] ´e uma matriz onde m × n, onde vj = (v1j , v2j , ..., vnj ), ent˜ao a trasposta de [A] ´e a matriz n × m indicada e definida por [A]t = [w1 , w2 , ...wn ] com vetor coluna wj = (vj1 , vj2 , ..., vjn ). isto ´e, o j-´esimo vetor coluna de [A]t ´e igual ao j-´esimo vetor exemplo, ⎤ ⎡ √ ⎡ √ 2 −3 0 2 −1 [A] = ⎣ −1 e [A]t = ⎣ −3 1 5 ⎦ 1 7 1 3 0 5 linha de [A]. Por ⎤ 7 1 ⎦. 3 Proposi¸ c˜ ao 2.1.2 Sejam [A] uma matriz n×n e [A]t a sua matriz transposta. Ent˜ao det[A]t = det[A]. Prova O desenvolvimento de Laplace de det[A]t pela primeira coluna de [A]t ´e igual ao desenvolvimento de Laplace de det[A] pela primeira linha de [A], que, por sua vez, ´e igual ao desenvolvimento de Laplace de det[A] pela primeira coluna de [A]. 2 Uma outra propriedade importante envolvendo determinantes diz respeito ao determinante de um produto de matrizes. Proposi¸ c˜ ao 2.1.3 Sejam [A] e [B] duas matrizes n × n. Ent˜ao det ([A] [B]) = det[A] det[B]. Veja demonstra¸c˜ao na Proposi¸c˜ao 13.4.2, (pg.311), do Cap´ıtulo 13. 2.1. DETERMINANTES 29 Exerc´ıcios propostos 2.1.1 1. Calcule o determinante de cada matriz.  (a) [A] = ⎡ 2 −2 4 1 2 0 (b) [A] = ⎣ −1 3 −1 2 ⎡ 1 3 (c) [A] = ⎣ 1 −1 1 −2  ⎡ . ⎤ 2 1 ⎦. 0 ⎤ 4 0 ⎦. −1 ⎤ 1 0 0 1 ⎢ 2 1 −1 2 ⎥ ⎥. (d) [A] = ⎢ ⎣ 0 −2 0 −2 ⎦ 1 0 2 3 ⎡ 1 2 (e) [A] = ⎣ 1 2 1 0 ⎤ 3 1 ⎦. 1 2. Sejam v e w vetores do R2 . Sabendo-se que det[v, w] = −2, calcule: (a) det[2v, w]. (c) det[w, v]. (b) det[−v, −4w]. (d) det[v + w, w]. 3. Dados os vetores v1 = (1, −2) e v2 = (4, 5) em R2 . Verifique as igualdades. (a) det[e1 , e2 ] = 1. (b) det[v1 , v2 ] = 13. (c) det[vi , vi ] = 0. 4. Considere o vetor w = (−3, 1) em R2 . Verifique as igualdades onde os vetores v1 e v2 s˜ao aqueles do item anterior. (a) det[v1 , v2 + 3w] = det[v1 , v2 ] + 3 det[v1 , w]. (b) det[v1 − 2w, v2 ] = det[v1 , v2 ] − 2 det[w, v2 ]. 5. Dados os vetores v1 = (0, −2, 1) e v2 = (1, 1, 0) e v3 = (3, 1, 1) em R3 . Verifique as igualdades. (a) det[e1 , e2 , e3 ] = 1. (c) det[v1 , v1 , v3 ] = 0 (b) det[v1 , v2 , v3 ] = 1. (d) det[v1 , v2 , v2 ] = 0. 6. Considere o vetor w = (1, 1, 2) em R3 . Verifique as igualdades calculando os determinantes. Os vetores v1 , v2 e v3 s˜ao aqueles do item anterior. (a) det[v1 , 3v2 − w, v3 ] = 3 det[v1 , v2 , v3 ] − det[v1 , w, v3 ]. (b) det[v1 , v2 , v3 + 2w] = det[v1 , v2 , v3 ] + 2 det[v1 , v2 , w]. ˜ LINEAR CAP´ITULO 2. COMBINAC ¸ AO 30 7. Sejam [A] e [B] matrizes n × n. Responda se a afirma¸c˜ao ´e falsa ou verdadeira. (a) det ([A] + [B]) = det[A] + det[B]. (b) det[λA] = λ det[A]. (c) det ([A]n ) = (det [A])n , para todo inteiro positivo n. 8. Verifique a identidade ⎡ ⎤ 1 1 1 det ⎣ a b c ⎦ = (b − a)(c − a)(c − b). a2 b2 c2 2.2 Matrizes invert´ıveis Uma matriz quadrada [A] n × n ´e invert´ıvel 1 se, e somente se, existe [B], uma matriz quadrada n × n, tal que [A] [B] = [Id] = [B] [A]. Recordamos que [Id] ´e a matriz identidade n × n. Caso exista uma tal matriz [B], chamamos [B] de inversa de [A] e denotamos a inversa de por [A]−1 . Por exemplo, a matriz 2 × 2  [A] = ´e invert´ıvel, pois se  [B] = 1 1 1 2  2 −1 −1 1  ent˜ao verifica-se que         2 1 1 −1 1 0 1 −1 2 1 = = , 1 1 −1 2 0 1 −1 2 1 1 isto ´e, [A] [B] = [Id] = [B] [A]. Quando [A] ´e invert´ıvel, diz-se que [B] ´e a inversa de [A] e, por conveniˆencia, denota-se [B] = [A]−1 . Posta a defini¸c˜ao de matriz invert´ıvel, devemos responder trˆes perguntas. 1 Tamb´em chamada de matriz regular por alguns autores. 2.2. MATRIZES INVERT´IVEIS 31 • Toda matriz quadrada tem inversa? • Existe algum crit´erio para determinar quando uma matriz tem inversa? • Existe algum algoritmo para calcular a inversa de uma matriz? Todas elas ser˜ao respondidas simultaneamente. Determinar se uma matriz quadrada 2×2 ´e invert´ıvel ´e simples e o algoritmo envolvido ´e de f´acil memoriza¸c˜ao. Nele, percebe-se claramente a necessidade do determinante ser diferente de zero. Consideremos a matriz   a b [A] = . c d Chamamos de matriz adjunta cl´assica de [A], `a matriz 2×2 denotada e definida por   d −b ad([A]) = . −c a Efetuemos a multiplica¸c˜ao das duas matrizes   ad − bc 0 [A] · ad([A]) = = det[A] [Id]. 0 ad − bc Essas contas demonstram a afirma¸c˜ao: uma matriz 2 × 2, [A], ´e invert´ıvel se, e somente se, det[A] = 0, e mais, se ela ´e invert´ıvel ent˜ao [A]−1 = 1 ad([A]) det[A] e det[A]−1 = (det[A])−1 . Precisamos generalizar tal afirma¸c˜ao para matrizes n × n. Iniciaremos definindo o conceito de adjunta cl´assica de uma matriz [A] = [aij ]. Recordamos que j´a tomamos conhecimento do conceito matriz reduzida na p´agina 25, ao definirmos determinante de matrizes n × n. Denotamos uma ij-´esima matriz reduzida por [A]ijb . O ij-´esimo cofator da matriz [A] = [aij ] ´e o escalar cij = (−1)i+j det[A]ijb e a adjunta cl´assica de [A] ´e a matriz transposta da matriz dos cofatores, ad([A]) = [cij ]t . 32 ˜ LINEAR CAP´ITULO 2. COMBINAC ¸ AO Exemplo 2.2.1 Ilustremos o algoritmo para invers˜oes de matrizes com a matriz ⎡ ⎤ 1 2 0 [A] = ⎣ 1 4 3 ⎦ . −1 0 2 Esta matriz d´a origem a nove matrizes reduzidas, uma para cada ´ındice ij. Explicitemos quatro delas:     4 3 2 0 [A]c [A]c ; ; 11 = 21 = 0 2 0 2     1 0 1 4 ; . [A]c [A]c 32 = 13 = 1 3 −1 0 Para calcular a adjunta cl´assica da matriz [A], calculamos a transposta da matriz dos cofatores, ⎤ ⎤t ⎡ ⎡ det[A]c 8 −4 6 det[A]c 11 − det[A]c 12 13 ⎦ = ⎣ −5 det[A]c 2 −3 ⎦ . ad([A]) = ⎣ − det[A]c 21 22 − det[A]c 23 det[A]c det[A]c 4 −2 2 31 − det[A]c 32 33 Observe que det[A] = −2. Calculando o produto matricial ad([A]) [A], obtemos ⎡ ⎤⎡ ⎤ ⎡ ⎤ 1 2 0 8 −4 6 −2 0 0 ⎣ 1 4 3 ⎦ ⎣ −5 2 −3 ⎦ = ⎣ 0 −2 0 ⎦, −1 0 2 4 −2 2 0 0 −2 ou seja, ad([A]) [A] = det[A] [Id]. Portanto, se [B] = 1 ad [A], det[A] ent˜ao [A] [B] = [Id]. Do mesmo modo verifica-se que [B] [A] = [Id]. Isso 1 significa que [A] ´e invert´ıvel e sua inversa ´e [A]−1 = det[A] ad [A]. 2 A proposi¸c˜ao a seguir corresponde `a Proposi¸c˜ao 13.5.1 do Cap´ıtulo 13, (pg.313). Proposi¸ c˜ ao 2.2.1 Seja [A] uma matriz n × n. Valem as igualdades ad([A]) [A] = det[A][Id] = [A] ad([A]). 2.2. MATRIZES INVERT´IVEIS 33 O pr´oximo corol´ario responde `as trˆes perguntas feitas na p´agina 30. Corol´ ario 2.2.1 As seguintes afirma¸c˜oes sobre matrizes n × n s˜ao equivalentes. 1. [A] ´e uma matriz invert´ıvel. 2. det[A] = 0. Em particular, se [A] ´e uma matriz invert´ıvel ent˜ ao det[A]−1 = 1 . det[A] Prova (⇒) Suponha que [A] seja uma matriz invert´ıvel. Pela Proposi¸c˜ao 2.1.3, (pg.28), temos   1 = det[Id] = det [A] [A]−1 = det[A] det[A]−1 . Como o produto de det[A] e det[A]−1 ´e igual a 1, nenhum desses determinantes 1 . pode ser zero. Isso mostra o item 2 e que det[A]−1 = det[A] (⇐) Suponha que det[A] = 0. Pela Proposi¸c˜ao 2.2.1, a inversa de A ´e a 1 matriz [A]−1 = det[A] ad([A]). 2 Finalizaremos essa se¸c˜ao com um corol´ario que evita c´alculos. Quando uma matriz quadrada tem uma inversa `a direita, ent˜ao ela ´e a inversa de [A]. Corol´ ario 2.2.2 Seja [A] uma matriz invert´ıvel n × n. Se [B] ´e uma matriz n × n tal que [B] [A] = [Id] ent˜ ao [A] [B] = [Id], isto ´e, matriz [A] ´e invert´ıvel e [B] = [A]−1 . Prova As igualdades 1 = det[Id] = det([B] [A]) = det[B] det[A] implicam que det[B] = 0, portanto, [B] ´e invert´ıvel. Calculemos, [A] [B] = [B]−1 [B][A] [B] = [B] [B]−1 = [Id].    [Id] Sendo assim, [A] ´e invert´ıvel e [B] = [A]−1 . 2 ˜ LINEAR CAP´ITULO 2. COMBINAC ¸ AO 34 Exerc´ıcios propostos 2.2.1 1. Se ad − bc = 0 mostre que   a b [A] = ´e invert´ıvel e c d −1 [A] 1 = ad − bc 2. Calcule a inversa da matriz, se existir. ⎡ ⎤   2 10 3 1 1 a) [A] = . b) [B] = ⎣ 0 1 3 ⎦ . 1 2 0 0 2  d −b −c a  . ⎡ ⎤ 1 −1 −1 c) [C] = ⎣ 4 2 8 ⎦. 5 1 7 3. Determine det[A], ad([A]) e [A]−1 em que ⎡ ⎤ 0 0 1 [A] = ⎣ 0 2 0 ⎦ . 3 0 0 4. Calcule uma f´ormula para a potˆencia k das matrizes e verifique que todas s˜ao invert´ıveis. Calcule a inversa da potˆencia k. ⎡ ⎤     1 1 1 1 1 cos t −sent ⎣ ⎦ a) [A] = . b) [B] = 0 1 1 . c) [C] = . 0 1 sent cos t 0 0 1 5. Prove que o determinante ´e invariante por conjuga¸c˜ ao de matrizes, ou seja, se [R] e [N ] s˜ao matrizes quadradas n × n e [R] ´e invert´ıvel, ent˜ ao det ([R]−1 [N ][R]) = det [N ]. 2.3 Regra de Cramer (prova) Faremos agora a prova do Teorema 1.4.1, (pg.16). Inicialmente recapitulemos a constru¸c˜ao apresentada anteriormente. Fixemos o subconjunto de n vetores β = {v1 , v2 , ..., vn } ⊂ Rn . Dado w = (w1 , w2 , ..., wn ), um vetor qualquer de Rn , desejamos saber se w ´e uma combina¸c˜ao linear de vetores de β, isto ´e, se existem escalares a1 , a2 , ..., an tais que w = a1 v1 + a2 v2 + · · · + an vn . 2.3. REGRA DE CRAMER (PROVA) 35 Como vimos, essa pergunta d´a origem ao sistema linear de n equa¸c˜oes com n inc´ognitas, ⎧ v11 a1 + v12 a2 + · · · + v1n an = w1 ⎪ ⎪ ⎨ v21 a1 + v22 a2 + · · · + v2n an = w2 , ··· ⎪ ⎪ ⎩ vn1 a1 + vn2 a2 + · · · + vnn an = wn onde os coeficientes s˜ao as coordenadas dos vetores colunas vj ’s, vj = (v1j , v2j , ..., vnj ). Em termos matriciais. temos ⎡ v11 v12 ⎢ v21 v22 ⎢ ⎣ ... ... vn1 vn2 ⎤⎡ ... v1n a1 ⎥ ⎢ ... v2n ⎥ ⎢ a2 ... ... ⎦ ⎣ : an ... vnn ⎤ ⎤ w1 ⎥ ⎢ w2 ⎥ ⎥=⎢ ⎥ ⎦ ⎣ : ⎦. wn ⎡ Em resumo, escrevemos [A][a] = [w], onde: 1. [A] = [v1 , v2 , ..., vn ] e vj = (v1j , v2j , ..., vnj ); 2. a = (a1 , a2 , ..., an ); 3. w = (w1 , w2 , ..., wn ). Se det[A] = 0, ent˜ao [A] ´e uma matriz invert´ıvel. Logo, podemos determinar os valores ai ’s procurados por [a] = [A]−1 [w]. Sendo assim, o vetor w pode ser escrito como uma combina¸c˜ao linear do vetores de β = {v1 , v2 , ..., vn }, w = a1 v1 + a2 v2 + · · · + an vn . Portanto, β ´e uma base do Rn . Calculemos o determinante da matriz obtida por substitui¸c˜ao do j0 -´esimo vetor coluna de [A] pelo vetor w,    det [v1 , ..., vj0 −1 , w, vj0+1 , ..., vn ] = det v1 , ..., vj0 −1 , ak vk , vj0 +1 , ..., vn =  k k ak det [v1 , ..., vj0 −1 , vk , vj0 +1 , ..., vn ] . ˜ LINEAR CAP´ITULO 2. COMBINAC ¸ AO 36 Quando k = j0 temos det [v1 , ..., vj0 −1 , vk , vj0 +1 , ..., vn ] = 0, pois duas colunas s˜ao iguais. Por outro lado, quando k = j0 temos a igualdade, det [v1 , ..., vj0 −1 , vj0 , vj0 +1 , ..., vn ] = det[A]. Retornando com estes dados, obtemos det [v1 , ..., vj0 −1 , w, vj0+1 , ..., vn ] = aj0 det[A]. Sendo assim, como, por hip´otese, det[A] = 0, obtemos aj0 = det [v1 , ..., vj0 −1 , w, vj0+1 , ..., vn ] . det[A] Isso termina a demonstra¸c˜ao da Regra de Cramer. Em c´alculos, muitas vezes utilizaremos a seguinte vers˜ao para a regra de Cramer. A demonstra¸c˜ao ´e semelhante a essa acima. Proposi¸c˜ ao 2.3.1 Dado o sistema linear n × n ⎧ v11 a1 + v12 a2 + · · · + v1n an = w1 ⎪ ⎪ ⎨ v21 a1 + v22 a2 + · · · + v2n an = w2 . ··· ⎪ ⎪ ⎩ vn1 a1 + vn2 a2 + · · · + vnn an = wn Se a matriz [A] = [v1 , v2 , ..., vn ] dos coeficientes tem determinante diferente de zero, ent˜ ao o sistema ´e poss´ıvel e determinado e aj = det [v1 , ..., vj−1 , w, vj+1, ..., vn ] , det[A] para todo i = 1, ..., n, onde w = (w1 , w2 , ..., wn ) Exerc´ıcios propostos 2.3.1 1. Considere o sistema linear 3 × 3, ⎧ ⎨ 2a1 + 2a2 + a3 = 5 6a − a2 + 2a3 = 1 . ⎩ 1 = 0 2a1 − 4a2 ˜ LINEAR E DETERMINANTE 2.4. COMBINAC ¸ AO 37 (a) Relacione as solu¸c˜oes do sistema com uma combina¸c˜ao linear. (b) Resolva o sistema. 2. Considere o sistema linear 2 × 2,  1 2a1 + 9a2 = . a1 + 5a2 = −1 (a) Relacione as solu¸c˜oes do sistema com uma combina¸c˜ao linear. (b) Resolva o sistema. 2.4 Combina¸ c˜ ao linear e determinante Um teorema central da teoria estabelece uma rela¸c˜ao entre o determinante ser igual a zero e combina¸c˜oes lineares de vetores colunas. Teorema 2.4.1 Seja [A] = [v1 , v2 , ..., vn ] uma matriz quadrada n × n. As seguintes afirma¸c˜oes s˜ao eq¨ uivalentes. 1. det[A] = 0. 2. Existe um vetor coluna que ´e combina¸c˜ao linear dos outros vetores colunas. Prova (⇐) Para facilitar a leitura, vamos supor que vn = a1 v1 + a2 v2 + · · · + an−1 vn−1 . Calculemos, det[v1 , ..., vn−1 , vn ] = det[v1 , ..., vn−1 , Σn−1 i=1 ai vi ] n−1 = Σi=1 ai det[v1 , ..., vn−1 , vi ] = 0. A primeira igualdade ´e justificada pela linearidade do determinante. Cada parcela do somat´orio ´e igual zero, pois existem dois vetores colunas iguais. (⇒) Seja [A] uma matriz n×n. Desejamos mostrar que se det[A] = 0 ent˜ao um vetor coluna ´e uma combina¸c˜ao linear dos outros vetores colunas de [A]. A demonstra¸c˜ao ser´a por indu¸c˜ao em n. ˜ LINEAR CAP´ITULO 2. COMBINAC ¸ AO 38 Dada a matriz 2 × 2   a b [A] = c d com ad − bc = 0. Se a = 0 = b a conclus˜ao que desejamos ´e imediata e ser´a deixada como exerc´ıcio. Sem perda de generalidade, podemos supor que a = 0, pois permutando as colunas o determinante continua igual a zero. Ent˜ao     a b a ab a [A] = = . c bca c ab c Logo, o segundo vetor coluna ´e um m´ ultiplo do primeiro vetor coluna por ab . Vamos supor que a afirma¸c˜ao seja verdadeira para matrizes n × n. Seja [A] = [v1 , v2 , ..., vn , vn+1 ] uma matriz (n + 1) × (n + 1) com det[A] = 0. Escrevamos a matriz [A], ⎡ v1,2 · · · v1,io v1,io +1 v1,1 ⎢ v2,1 v2,2 · · · v2,io v2,io +1 [A] = ⎢ ⎣ · · · ··· · vn+1,1 vn+1,2 · · · vn+1,io vn+1,io +1 ⎤ · · · v1,n+1 · · · v2,n+1 ⎥ ⎥. ⎦ ··· · · · · vn+1,n+1 1o caso A primeira linha da matriz ´e identicamente nula. Sendo assim, a matriz reduzida [A]c e uma matriz n × n com a seguinte 11 ´ forma, ⎤ ⎡ v2,2 · v2,io v2,io +1 · · · v2,n+1 ⎦. · · · ··· · v2 ,  v3 , ...,  vn+1 ] = ⎣ · [A]c 11 = [ vn+1,2 · vn+1,io vn+1,io +1 · · · vn+1,n+1 Se det[A]c otese de indu¸c˜ao, algum vetor coluna  vio , 2 ≤ io ≤ n+1, 11 = 0, por hip´ ´e uma combina¸c˜ao linear dos outros vetores colunas, vio −1 + aio +1 vio +1 + · · · + an+1 vn+1 . vio = a2 v2 + · · · + aio −1   Observe que o vetor vio tamb´em ´e escrito como vio = a2 v2 + · · · + aio −1 vio −1 + aio +1 vio +1 + · · · + an+1 vn+1 , ˜ LINEAR E DETERMINANTE 2.4. COMBINAC ¸ AO 39 desde que a primeira coordenada de cada vetor vj ´e zero e as outras coordenadas s˜ao iguais a`s coordenadas de vj . Logo, nesse caso, fica mostrado a afirma¸c˜ao. Se det[A]c vi ’s, 2 ≤ i ≤ n+1, 11 = 0, a regra de Cramer garante que os vetores  ´e uma base do Rn , portanto, o vetor  v1 ´e uma combina¸c˜ao linear do tipo v2 + a3  v3 + · · · + an+1  vn+1 . v1 = a2  Pelos mesmos motivos, o vetor v1 tamb´em ´e expresso como v1 = a2 v2 + a3 v3 + · · · + an+1 vn+1 . Isso encerra o primeiro caso. 2o caso A primeira linha da matriz [A] ´e nula, exceto a entrada v1,1 . Escrevamos, ⎡ 0 v1,1 ⎢ v2,1 v 2,2 [A] = ⎢ ⎣ · · vn+1,1 vn+1,2 · 0 0 · v2,io v2,io +1 · · · · vn+1,io vn+1,io +1 ⎤ ··· 0 · · · v2,n+1 ⎥ ⎥. ⎦ ··· · · · · vn+1,n+1 Calculando o determinante pelo desenvolvimento de Laplace pela primeira linha obtemos 0 = det[A] = v1,1 det[A]c 11 . Como, v1,1 = 0, conclu´ımos que det[A]iib = 0. Com os mesmos argumentos utilizados no 1o caso, garantimos que algum vetor coluna vio , 2 ≤ io ≤ n + 1, de [A]iib ´e uma combina¸c˜ao linear dos outros vetores colunas, v2 + · · · + aio −1 vio −1 + aio +1  vio +1 + · · · + an+1  vn+1 vio = a2   e que o vetor vio tamb´em ´e escrito como vio = a2 v2 + · · · + aio −1 vio −1 + aio +1 vio +1 + · · · + an+1 vn+1 , 3o caso Existe um vetor coluna vi cuja primeira coordenada n˜ao ´e zero. A menos de uma permuta¸c˜ao dos vetores colunas, que n˜ao altera o valor do determinante, podemos assumir que a primeira coordenada v1,1 do vetor coluna v1 n˜ao ´e nula. ˜ LINEAR CAP´ITULO 2. COMBINAC ¸ AO 40 Consideremos a matriz [B] definida por   v1,2 vn+1,2 [B] = v1 , v2 − v1 , ..., vn+1 − v1 . v1,1 v1,1 Observamos que det [B] = det [A] = 0, pois somamos a cada vetor coluna um m´ ultiplo do primeiro vetor coluna. A matriz [B] tem a seguinte forma, ⎡ v1,1 0 ··· 0 0 ⎢ v2,1 u2,2 · · · u2,io u2,io +1 [B] = ⎢ ⎣ · · · ··· · vn+1,1 un+1,2 · · · un+1,io un+1,io +1 onde ui = vi − vi,2 v v1,1 1 ⎤ ··· 0 · · · u2,n+1 ⎥ ⎥. ⎦ ··· · · · · un+1,n+1 para 2 ≤ i ≤ n + 1. Pelo 2o caso, sabemos que algum vetor coluna uio ´e combina¸c˜ao dos outros vetores colunas ui’s, uio = a2 u2 + · · · + aio −1 uio −1 + aio +1 uio +1 + · · · + an+1 un+1 , Substituindo, obtemos  vio = vio ,2  vi,2 − ai v1,1 v1,1 i=i o Isso encerra a demonstra¸c˜ao do teorema. v1 +  ai vi . i∈{1,i / o} 2 Exerc´ıcio 2.4.1 Mostre que cada matriz tem determinante nulo e determine um vetor coluna que seja combina¸c˜ao linear dos outros vetores colunas. ⎤ ⎡ ⎤ ⎡   2 1 3 1 0 2 1 3 c) ⎣ 1 −1 3 ⎦ . a) . b) ⎣ −1 3 2 ⎦ . 2 6 1 3 4 3 −2 8 Determine tamb´em um vetor linha que seja combina¸c˜ao linear dos outros vetores linhas. 2 Utilize a Proposi¸c˜ao 2.1.2, (pg.28), e a defini¸c˜ao de matriz transposta para mostrar o ˜ LINEAR E SISTEMA LINEAR 2.5. COMBINAC ¸ AO 41 Corol´ ario 2.4.1 Seja [A] = [v1 , v2 , ..., vn ] uma matriz quadrada n × n. As seguintes afirma¸c˜oes s˜ao eq¨ uivalentes. 1. det[A] = 0. 2. Existe um vetor linha que ´e combina¸c˜ao linear dos outros vetores linhas. 2.5 Combina¸ c˜ ao linear e sistema linear Um sistema de equa¸c˜oes lineares, ou mais simplesmente, sistema linear, ´e classificado de acordo com o n´ umero de solu¸c˜oes que admite. ⎧ ⎧ (uma u ´nica solu¸c˜ao) ⎨ determinado ⎪ ⎪ ⎪ ⎪ ⎨ poss´ıvel ⎩ indeterminado (infinitas solu¸c˜oes) . ⎪ ⎪ ⎪ ⎪ ⎩ imposs´ıvel (n˜ao tem solu¸c˜ao) N´os relacionaremos o estudo de sistemas lineares com o estudo de combina¸c˜oes linear para responder a seguinte pergunta. Fixados os vetores v1 , v2 ,...,vk em Rn . • Um dado vetor w ∈ Rn ´e combina¸c˜ao linear dos vetores v1 , v2 ,...,vk ? Dito de outro modo. • Existem escalares a1 , a2 ,...,ak tais que w = a1 v1 + a2 v2 + · · · + ak vk ? Esses escalares procurados, isto ´e, os coeficientes da combina¸c˜ao linear procurada, ser˜ao as inc´ognitas do sistema que surge dessa pergunta. Da mesma forma, a resposta sobre a combina¸c˜ao linear dever´a ser um dos trˆes tipos. ⎧ ⎧ ´ nica (uma u ´ nica combina¸c˜ao) ⎨ ´e u ⎪ ⎪ ⎪ ⎪ ⎨ existe ⎩ n˜ao ´e u ´ nica (infinitas combina¸c˜oes) . ⎪ ⎪ ⎪ ⎪ ⎩ n˜ao existe Cada caso ter´a seu estudo dependendendo de um espec´ıfico determinante ser igual a zero, ou n˜ao. ˜ LINEAR CAP´ITULO 2. COMBINAC ¸ AO 42 Exemplo 2.5.1 Considere o sistema 3 × 3 escrito na forma usual (ou matricial), ⎧ ⎤⎡ ⎛ ⎡ ⎤ ⎡ ⎤⎞ a1 1 1 0 1 = 1 ⎨ a1 + a2 ⎝ou ⎣ 1 0 1 ⎦ ⎣ a2 ⎦ = ⎣ 2 ⎦⎠ . a1 + a3 = 2 ⎩ 0 1 1 0 a3 a2 + a3 = 0 A primeira quest˜ao ´e sobre o significado da express˜ao ”resolver o sistema”. A quest˜ao ser´a colocada em termos de combina¸c˜ao linear, ponto de vista que nos interessa. Consideramos o vetor w = (1, 2, 0) ∈ R3 , cujas coordenadas s˜ao os termos independentes do sistema, e procuramos determinar os escalares a1 , a2 e a3 tais que w ´e a combina¸c˜ao linear com esses coeficientes, w = a1 v1 + a2 v2 + a3 v3 , onde os vetores vi s s˜ao os vetores colunas da matriz dos coeficientes, ou seja, v1 = (1, 1, 0), v2 = (1, 0, 1) e v3 = (0, 1, 0). Como det[v1 , v2 , v3 ] = −1 = 0 o conjunto ordenado β = {v1 , v2 , v3 } ´e uma base de R3 e, pela regra de Cramer, os valores procurados s˜ao a1 = 3, a2 = −1 e a3 = 1. Numa linguagem mais apropriada, o sistema ´e poss´ıvel e determinado, ou seja, a combina¸c˜ao linear existe e ´e u ´ nica. 2 O exemplo acima ´e bastante ilustrativo. Um sistema de equa¸c˜oes lineares quadrado n equa¸c˜oes e n inc´ognitas cuja matriz dos coeficientes tem determinante diferente de zero, pela regra de Cramer, ´e poss´ıvel e determinado. Exemplo 2.5.2 Considere o sistema 2 × 3 escrito na forma usual (ou matricial), ⎤ ⎞ ⎛ ⎡      a1 2 ⎠ a1 + 2a2 1 2 0 ⎣ = 2 ⎝ou a2 ⎦ = . . −1 1 2 1 a1 + 2a2 + a3 = −1 a3 A quest˜ao sobre o termo ”resolver o sistema” ´e idˆentica. Dado o vetor w = (2, −1) ∈ R2 desejamos determinar escalares a1 , a2 e a3 tais que w ´e uma combina¸c˜ao linear com esses coeficientes, w = a1 v1 + a2 v2 + a3 v3 , ˜ LINEAR E SISTEMA LINEAR 2.5. COMBINAC ¸ AO 43 onde os vetores vi s s˜ao os vetores colunas da matriz dos coeficientes, v1 = (1, 1), v2 = (2, 2) e v3 = (0, 1). N˜ao podemos utilizar imediatamente a regra de Cramer, pois a matriz principal [A] = [v1 , v2 , v3 ] n˜ao ´e quadrada e determinante foi definido somente ´ necess´ario uma adapta¸c˜ao. Escolhemos a maior para matrizes quadradas. E submatriz quadrada de [A] com determinante diferente de zero e resolvemos o subsistema correspondente. Expliquemos melhor o procedimento. Existem trˆes submatrizes quadradas:       1 2 1 0 2 0 [v1 , v2 ] = ; [v1 , v3 ] = ; [v2 , v3 ] = . 1 2 1 1 2 1 Somente as duas u ´ ltimas matrizes tˆem determinante diferente de zero. Resolvamos o subsistema correspondene `a segunda submatriz cujo determinante ´e det[v1 , v3 ] = 1,       = 2 − 2a2 a1 + 1 0 a1 2 − 2a2 ou = . a1 + a3 = −1 − 2a2 a3 −1 − 2a2 1 1 Para calcular os coeficientes com o uso da regra de Cramer, precisaremos das matrizes auxiliares,     2 − 2a2 0 1 2 − 2a2 , [v1 , w − a2 v2 ] = , [w − a2 v2 , v3 ] = 1 −1 − 2a2 −1 − 2a2 1 e de seus determinantes, det[w − a2 v2 , v3 ] = 2 − 2a2 , det[v1 , w − a2 v2 ] = −3. Agora, calculando os coeficientes pela regra de Cramer, encontramos a1 = det[w − a2 v2 , v3 ] = 2 − 2a2 , det[v1 , v3 ] a3 = det[v1 , w − a2 v2 ] = −3. det[v1 , v3 ] Portanto, w = (2 − 2a2 )v1 + a2 v2 − 3v3 , isto ´e, n˜ao existe unicidade de combina¸c˜ao linear, para cada escolha de um valor para a2 , a combina¸c˜ao linear para expressar w ´e diferente: ˜ LINEAR CAP´ITULO 2. COMBINAC ¸ AO 44 ◦ w = 2v1 +0v2 −3v3 , se a2 = 0; ◦ w = 0v1 +1v2 −3v3 , se a2 = 1; ◦ w = 3v1 −1v2 −3v3 , se a2 = −1. Na linguagem utilizada no Ensino M´edio, dizemos que o sistema ´e poss´ıvel e indeterminado (infinitas solu¸c˜oes). 2 Exemplo 2.5.3 Estudemos um caso no qual o n´ umero de equa¸c˜oes ´e maior que o n´ umero de inc´ognitas. Dado o sistema linear 3 × 2, ⎧ ⎤ ⎤⎞ ⎛ ⎡ ⎡  1 2  1 1 ⎨ a1 + 2a2 = a1 ⎝ou ⎣ 1 1 ⎦ a1 + a2 = −1 = ⎣ −1 ⎦⎠ . a2 ⎩ 2 −3 −2 2a1 − 3a2 = −2 Em liguagem vetorial, desejamos saber se existem escalares a1 e a2 que sejam os coeficientes de uma combina¸c˜ao linear dos vetores colunas para expressar o vetor w = (1, −1, 2) ∈ R3 , w = a1 v1 + a2 v2 , onde v1 = (1, 1, 2) e v2 = (2, 1, −3). N˜ao podemos utilizar imediatamente a regra de Cramer, pois a matriz principal [A] = [v1 , v2 ] n˜ao ´e quadrada. Procedemos da mesma forma, escolhemos a maior submatriz quadrada de [A] com determinante diferente de zero e resolvemos o subsistema correspondente. Existem tˆes submatrizes quadradas 2 × 2, a saber,       1 2 1 2 1 1 [A]1 = , [A]2 = , [A]3 = , 1 1 2 −3 2 −3 todas elas com determinantes diferentes de zero. Resolvamos o subsistema correspondente a` primeira submatriz cujo determinante ´e det[A]1 = −1, (a u ´ ltima equa¸c˜ao est´a, por enquanto, suprimida)       1 1 2 a1 1 a1 + 2a2 = ou = . a1 + a2 = −1 1 1 a2 −1 Para calcular os coeficientes pela regra de Cramer precisaremos das matrizes auxiliares e de seus determinantes,     1 2 1 1 det = 3, det = −2, −1 1 1 −1 ˜ LINEAR E SISTEMA LINEAR 2.5. COMBINAC ¸ AO 45 obtendo a1 = −3 e a2 = 2. Ainda resta saber se esses valores encontrados satisfazem a equa¸c˜ao que foi suprimida do sistema. Obviamente n˜ ao satisfaz, pois com uma substitui¸c˜ao obtemos o absurdo 0 = 2. Em resumo, n˜ao podemos expressar o vetor w = (1, −1, 2) por uma combina¸c˜ao linear de v1 = (1, 1, 2) e v = (2, 1, −3). Agora, observe que ao perguntarmos se u = (1, −1, 0) ´e uma combina¸c˜ao linear dos vetores v1 e v2 a resposta ´e sim. O sistema linear que devemos estudar ´e ⎧ ⎛ ⎡ ⎤ ⎡ ⎤⎞  1 1 2  1 ⎨ a1 + 2a2 = a1 ⎝ou ⎣ 1 a1 + a2 = −1 1 ⎦ = ⎣ −1 ⎦⎠ . a2 ⎩ 2a1 − 3a2 = 0 2 −3 0 A resolu¸c˜ao ´e idˆentica `aquela feita anteriormente, encontrando os valores a1 = ´ ltima equa¸c˜ao n˜ao obtemos contradi¸c˜ao 1 e a2 = 23 . Ao substituirmos na u ´ nica. 2 alguma, 0 = 0. Logo, u = a1 v1 + a2 v2 e essa combina¸c˜ao linear ´e u Exemplo 2.5.4 Examinemos sistemas lineares matriz dos coeficientes ´e zero, por exemplo, ⎧ ⎛ ⎡ = 1 1 ⎨ a1 + a2 ⎝ou ⎣ 1 + a3 = 2 a1 ⎩ 2a1 + a2 + a3 = −4 2 n × n cujo determinante da ⎤⎡ ⎤ ⎡ ⎤⎞ 1 0 a1 1 0 1 ⎦ ⎣ a2 ⎦ = ⎣ 2 ⎦⎠ . 1 1 a3 −4 Aqui, temos det[v1 , v2 , v3 ] = 0. Tamb´em n˜ao podemos utilizar regra de Cramer, pois a divis˜ao por zero n˜ao est´a definida. Como sabemos, deve existir um vetor linha da matriz que ´e combina¸c˜ao linear dos outros vetores linhas, Corol´ario 2.4.1, (pg.41). Nesse caso, a terceira linha ´e uma soma das duas primeiras. Resolvemos o subsistema obtido por supress˜ao da terceira equa¸c˜ao, ⎤ ⎞ ⎛ ⎡      a1 a1 + a2 = 1 1 ⎠ 1 1 0 ⎣ ⎝ou a2 ⎦ = a1 + a3 = 2 2 1 0 1 a3 Tendo em m˜aos a solu¸c˜ao do subsistema, verificamos se ela satisfaz a equa¸c˜ao eliminada. 2 Um caso particular e importante, s˜ao os sistemas lineares homogˆeneos. ˜ LINEAR CAP´ITULO 2. COMBINAC ¸ AO 46 Um sistema de equa¸c˜oes lineares homogˆeneas sempre tem solu¸ca˜o! A justificativa para essa afirma¸c˜ao ´e simples. Um sistema linear homogˆeneo tem origem na pergunta: dados os vetores v1 , v2 , ..., vk ∈ Rn existem escalares ´ claro que a resposta ´e a1 , a2 , ..., ak tais que o = a1 v1 + a2 v2 + · · · + ak vk ? E sim, basta tomar a1 = a2 = · · · = ak = 0. Resta estudar se essa ´e, ou n˜ao ´e, a u ´ nica solu¸c˜ao, ou combina¸c˜ao linear para o vetor nulo. Exerc´ıcios propostos 2.5.1 1. Resolva os sistemas em duas inc´ognitas, coloque o problema em linguagem de combina¸c˜ao linear e estude a unicidade da combina¸c˜ao linear. ⎧  2a1 + 2a2 = 5 ⎨ 2a1 − 6a2 = 0 (a) . (c) 6a1 − a2 = 1 4a + 5a2 = 4 . ⎩ 1 ⎧ 3a1 + 4a2 = 1 ⎨ 2a1 − 6a2 = 0 4a + 5a2 = 0 . (b) ⎩ 1 3a1 + 4a2 = 0 2. Resolva os sistemas em trˆes inc´ognitas, coloque o problema em linguagem de combina¸c˜ao linear e estude a unicidade da combina¸c˜ao linear. ⎧ ⎧ ⎨ 2a1 − a2 + a3 = 0 ⎨ 2a1 + 2a2 + a3 = 5 − a3 = 0 . 6a1 − a2 + 2a3 = 1 . a1 (c) (a) ⎩ ⎩ =0 2a1 − 4a2 2a1 − a2 + a3 = 0  2a1 − 6a2 − a3 = 0 . (b) 4a1 + 5a2 + 3a3 = 11 3. Se poss´ıvel, escreva o vetor w ∈ R2 como combina¸c˜ao linear de v1 = (1, 1), v2 = (2, 1) e v3 = (1, −1) e estude se existe a unicidade de combina¸c˜ao linear ou n˜ ao. (a) w = (0, 0). (c) w = (2, −3). (b) w = (0, 1). (d) w = v1 . (e) w = (−1, 1). 4. Se poss´ıvel, escreva o vetor w ∈ R3 como combina¸c˜ao linear de v1 = (1, 1, 1), ao. v2 = (2, 1, 0) e estude se existe unicidade de combina¸c˜ao linear ou n˜ ˜ LINEAR E SISTEMA LINEAR 2.5. COMBINAC ¸ AO (a) w = (0, 0, 0). (c) w = (1, 2, 3). (b) w = (1, 2, 1). (d) w = v2 . 47 (e) w = (4, 2, −1). 5. Se poss´ıvel, escreva cada vetor w ∈ R3 como combina¸c˜ao linear de v1 = (1, 1, 1), v2 = (2, 1, 0), v3 = (0, 1, 1) e estude se existe unicidade de combina¸c˜ao linear ou n˜ ao. (a) w = (1, 2, 3). (c) w = (0, 0, 0). (b) w = (1, 2, 1). (d) w = v3 . (e) w = (4, 2, −1). 6. Sejam v1 = (3, 1), v2 = (−1, 2) e v3 = (0, 7) vetores do R2 . (a) Mostre que β = {v1 , v2 } ´e uma base do R2 . (b) Mostre que todo vetor (x, y) ∈ R2 ´e uma combina¸c˜ao linear dos vetores de γ = {v1 , v2 , v3 }, mas n˜ao existe apenas uma combina¸c˜ao linear para expressar o vetor. ao s˜ao escritos como combina¸c˜ao (c) Mostre que existem vetores de R2 que n˜ linear do vetor de α = {v1 }. 7. Determine os valores de k para os quais o sistema discuss˜ao do sistema. ⎧ ⎨ a1 + a2 + a3 = a2 + a3 = ⎩ 2a1 + a2 + ka3 = 3 × 3 tem solu¸c˜ao e fa¸ca a 4 2 . 6 8. Considere o sistema 2 × 2 em a1 e a2 ,  ka1 + 2a2 = 2k + 2 . 5 2a1 + a2 = (a) Quais os valores de k para que o sistema seja poss´ıvel e determinado? (b) Quais os valores de k para que o sistema seja poss´ıvel? 9. Quais das afirma¸c˜oes s˜ao verdadeiras? (a) Todo sistema linear tem solu¸c˜ao. (b) Todo sistema linear homogˆeneo tem no m´aximo uma solu¸c˜ao. (c) Todo sistema linear homogˆeneo com duas solu¸c˜ao tem infinitas solu¸c˜oes. (d) Todo sistema linear n˜ ao homogˆeneo tem pelo menos uma solu¸c˜ao. ˜ LINEAR CAP´ITULO 2. COMBINAC ¸ AO 48 2.6 Escalonamento e invers˜ ao Um outro m´etodo de resolu¸c˜ao de sistemas lineres ´e o escalonamento. Ele est´a baseado numa propriedade que ´e do conhecimento de todos. A teoria envolvida pode ser vista em [03]. Suponha que desejamos resolver o ⎧ ⎨ 2x + 3y x + 2y ⎩ y sistema linear + 2z = 4 + 3z = 7 . − 2z = 0 Podemos operar com as equa¸c˜oes para obter um outro sistema linear equivalente, ou seja, um sistema que possua as mesmas solu¸c˜oes do sistema anterior. Para qualquer a ∈ R, o sistema ⎧ ⎨ (a + 2)x + (2a + 3)y + (3a + 2)z = (7a + 4) x + y + 3z = 7 , l1 + al2 → l1 ⎩ y − 2z = 0 ´e equivalente ao anterior. O s´ımbolo l1 + al2 → l1 indica que o novo sistema foi obtido substitu´ındo-se a primeira equa¸c˜ao pela ”combina¸c˜ao linear”da primeira equa¸c˜ao com um m´ ultiplo por a da segunda equa¸c˜ao, a outra equa¸c˜ao permaneceu sem modifica¸c˜oes. A id´eia ´e fazer uma escolha conveniente para o valor de a procurando, para com isso, simplificar o sistema. Por exemplo, tomando-se a = −2 temos ⎧ − y − z = −10 ⎨ Opera¸c˜ao l1 − 2l2 → l1 : x + y + 3z = 7 . ⎩ y − 2z = 0 Um sistema equivalente ´e obtido permuntando-se as linhas do anterior, ⎧ 7 ⎨ x + y + 3z = Opera¸c˜ao l1 ↔ l2 : − y − z = −10 . ⎩ y − 2z = 0 Uma terceira opera¸c˜ao que produz um sistema equivalente ´e a multiplica¸c˜ao de uma linha por um escalar, ˜ 2.6. ESCALONAMENTO E INVERSAO 49 ⎧ ⎨ x + y + 3z = 7 y + z = 10 . ⎩ y − 2z = 0 Opera¸c˜ao (−1)l2 → l2 : Finalmente, ⎧ 7 ⎨ x + y + 3z = y + z = 10 . ⎩ 3z = −10 Opera¸c˜ao l2 + (−1)l3 → l3 : Agora, a resolu¸c˜ao ´e imediata, z=− 10 , 3 y=− 20 3 e x= 51 . 3 Ele ´e poss´ıvel e determinado. O fato importante que desejamos ressaltar ´e a forma do u ´ltimo sistema, ele est´a na forma escalonada, termo que passaremos a explicar. Como o leitor j´a deve ter notado, o importante na resolu¸c˜ao de um sistema s˜ao seus coeficientes, portanto, iremos registrar todas as opera¸c˜oes sobre com equa¸c˜oes na forma matricial. Examine a sequˆencia de opera¸c˜oes sobre as linhas da matriz dos coeficientes aumentada com a matriz coluna dos termos independentes. ⎡ ⎤ 2 3 2 4 Matriz aumentada: ⎣ 1 2 3 7 ⎦. 0 1 −2 0 ⎤ ⎡ 0 −1 −1 −10 Opera¸c˜ao l1 − 2l2 → l1 : ⎣ 1 7 ⎦. 1 3 0 1 −2 0 ⎤ ⎡ 7 1 1 3 Opera¸c˜ao l1 ↔ l2 : ⎣ 0 −1 −1 −10 ⎦ . 0 1 −2 0 ⎤ ⎡ 1 1 3 7 Opera¸c˜ao (−1)l2 → l2 : ⎣ 0 1 1 10 ⎦ . 0 1 −2 0 ˜ LINEAR CAP´ITULO 2. COMBINAC ¸ AO 50 ⎤ 7 1 1 3 ⎣ 0 1 1 10 ⎦ . 0 0 −3 −10 ⎡ Opera¸c˜ao l3 + (−1)l2 → l3 : Diz-se que [A] = [aij ], uma matriz n × m, ´e uma matriz escada quando o primeiro elemento aij da i´esima linha ´e n˜ao nulo ent˜ao akl = 0 para todo k e l, 1 ≤ l ≤ j e j ≤ k ≤ n, exceto quando k = i e l = j. ⎡ ⎢ ⎢ ⎢ ⎢ ⎢ [A] = ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ a11 a12 a13 a14 0 a21 a23 a24 0 0 0 a34 0 0 0 0 · · · · 0 0 0 0 0 0 0 0 0 0 0 0 ··· ··· ··· ··· ··· 0 0 0 a1j a2j a3j a4j · apj 0 0 ··· ··· ··· ··· · ··· ··· ··· a1n a2n a3n a4n ⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥. ⎥ ⎥ apn ⎥ ⎥ 0 ⎦ 0 O m´etodo de inverter matrizes, apresentado anteriormente, tem um grande inconveniente, ´e a falta de praticidade. Estima-se que a invers˜ao de uma matiz 20 × 20 levaria dois anos num computador pessoal, para calcular a transposta da matriz dos cofatores. Por isso, apresentaremos outro m´etodo para inverter matrizes, sem demonstra¸c˜ao, conhecido por m´etodo Gauss-Jordan. Somente faz sentido a resolu¸c˜ao por regra de Cramer pelos aspecto did´atico e te´orico, ela n˜ao tem praticidade alguma para sistemas com mais de trˆes vari´aveis. O m´etodo constitu´ı-se, exclusivamente, em operar com as linhas de uma matriz, substituindo uma linha por uma combina¸c˜ao linear dessa linha com outras linhas ou dividir uma linha por uma constante. Um exemplo deixar´a claro o processo. Consideremos a matriz ⎡ ⎤ 1 0 1 [A] = ⎣ 2 3 1 ⎦ . 1 1 1 Essa matriz ´e invert´ıvel, pois det[A] = 1 = 0. Para invertˆe-la pelo m´etodo de Gauss-Jordan consideramos a matriz ampliada pela matriz identidade 3 × 3, ⎡ ⎤ 1 0 1 1 0 0 ⎣ 2 3 1 0 1 0 ⎦. 1 1 1 0 0 1 ˜ 2.6. ESCALONAMENTO E INVERSAO 51 Devemos operar com as linhas at´e obter a matriz identidade no lado esquerdo da matriz ampliada. A matriz resultante no lado direito ser´a a inversa. Iniciemos o processo. ⎤ ⎡ 1 0 0 1 0 1 Opera¸c˜ao l3 − l1 → l3 : ⎣ 2 3 1 0 1 0 ⎦. 0 1 0 −1 0 1 ⎡ ⎤ 1 0 1 1 0 0 Opera¸c˜ao l2 − 2l1 → l2 : ⎣ 0 3 −1 −2 1 0 ⎦ . 0 1 0 −1 0 1 ⎡ ⎤ 1 0 1 1 0 0 Opera¸c˜ao 3l3 − l2 → l3 : ⎣ 0 3 −1 −2 1 0 ⎦. 0 0 1 −1 −1 3 ⎡ ⎤ 1 0 1 1 0 0 Opera¸c˜ao l2 + l3 → l2 : ⎣ 0 3 0 −3 0 3 ⎦. 0 0 1 −1 −1 3 ⎤ ⎡ 2 1 −3 1 0 0 Opera¸c˜ao l1 − l3 → l1 : ⎣ 0 3 0 −3 0 3 ⎦. 0 0 1 −1 −1 3 ⎤ ⎡ 2 1 −3 1 0 0 Opera¸c˜ao 13 l2 → l2 : ⎣ 0 1 0 −1 0 1 ⎦. 0 0 1 −1 −1 3 ⎡ ⎤ 2 1 −3 A matriz inversa ´e 0 1 ⎦. [A]−1 = ⎣ −1 −1 −1 3 Exerc´ıcios propostos 2.6.1 1. Determine a inversa das matrizes utilizando o m´etodo apresentado nessa se¸c˜ao. ⎡ ⎤ ⎡ ⎤ 1 −1 1 2 1 1 (a) [A] = ⎣ −1 1 1 ⎦. (b) [B] = ⎣ 1 0 1 ⎦. 1 1 2 0 −1 3 ˜ LINEAR CAP´ITULO 2. COMBINAC ¸ AO 52 ⎡ ⎤ 0 1 1 (c) [C] = ⎣ 1 0 1 ⎦. 1 −1 3 ⎡ ⎤ 0 2 1 (d) [D] = ⎣ 1 1 1 ⎦. 1 0 3 2. A matriz ⎡ 1 1 (e) [E] = ⎣ 1 1 1 −1 ⎡ 1 1 (f) [F ] = ⎣ 1 1 1 −1 ⎤ 1 2 ⎦. −1 ⎤ 1 2 ⎦. 3 ⎤ 2 1 −1 1 ⎣ 0 2 a−1 4 ⎦ b −1 3 1 ⎡ ´e a matriz aumentada de um sistema em x, y e z. (a) Quais os valores de a e b para os quais o sistema ´e determinado? (b) Quais os valores de a e b para os quais o sistema ´e indeterminado? (c) Quais os valores de a e b para os quais o sistema n˜ao ´e poss´ıvel? 3. O propriet´ ario de uma granja comprou trˆes produtos A1 , A2 e A3 para produzir uma ra¸c˜ao balanceada para suas aves. A quantidade (unidade por kg) de carbohidrato, prote´ına e gordura em cada produto est´ a listada a seguir. produto A1 A2 A3 carbohidrato 2 2 1 prote´ına 2 3 1 gordura 2 1 1 Quantos quilogramas de cada componente s˜ao necess´arios para produzir uma ra¸c˜ao balanceada que contenha 180 unidades de carbohidrato, 180 unidades de prote´ına e 200 unidades de gordura? 4. (Desafio) Sejam a, b e c inteiros positivo. tais que a ≤ b e a ≤ c. Mostre que existe um u ´ nico quadrado m´ agico 3 × 3, onde a, b e c ocupam as posi¸c˜oes indicadas na figura ao lado. Vocˆe deve completar o quadrado com inteiros positivos de modo que ao somar os n´ umeros ao longo de uma linha, de uma coluna ou de uma diagonal, as respostas sejam iguais. ˜ 2.7. RESPOSTAS E SUGESTOES 2.7 53 Respostas e sugest˜ oes Se¸ c˜ ao 2.1 1) (a) det[A] = 10. (d) det[A] = 0. (b) det[A] = −2. (e) det[A] = −4. (c) det[A] = 0. 2) 7) (a) det[2v, w] = −4. (c) det[w, v] = 2. (b) det[−3v, 4w] = 24. (d) det[v + w, w] = −2. (a) Falsa. Fa¸ca [A] = [Id] = −[B]. (b) Falsa. Vale a igualdade det[λA] = λn det[A]. (c) Verdadeira. Se¸ c˜ ao 2.2 2) Pelo crit´erio do determinante, Corol´ ario 2.2.1, (pg.33), somente a matriz [C] n˜ ao ´e invert´ıvel.   2 −1 (a) [A]−1 = . −1 1 ⎡ ⎤ 2 −20 27 4 −6 ⎦ . (b) [B]−1 = 14 ⎣ 0 0 0 2 3) (a) det[A] = −6. ⎡ ⎤ 0 0 −2 0 ⎦. (b) ad([A]) = ⎣ 0 −3 −6 0 0 ⎡ (c) [A]−1 0 =⎣ 0 1 0 1 2 0 1 3 ⎤ 0 ⎦. 0 4) Pelo crit´erio do determinante, Corol´ ario 2.2.1, (pg.33), todas s˜ ao invert´ıvel, portanto todas as potˆencias s˜ ao invert´ıveis.     1 k 1 −k k −k . [A] = . (a) [A] = 0 1 0 1   [Id] se k = 2l [Id] se − k = 2l (b) [B]k = . [B]−k = . [B] se k = 2l + 1 [B] se − k = 2l + 1   k  cos(kt) −sen(kt) k [C]−k = [C]−1 . (c) [C] = . sen(kt) cos(kt) 5) det([R]−1 det[N ] det[R] = det[N ], pois det[R]−1 = 1 det[R] . ˜ LINEAR CAP´ITULO 2. COMBINAC ¸ AO 54 Se¸ c˜ ao 2.3 1) (a) Consideremos o subconjunto formado pelos vetores colunas da matiz dos coeficientes, β = {v1 , v2 , v3 } ⊂ R3 , ou seja: v1 = (2, 6, 2); v2 = (2, −1, −4); v3 = (1, 2, 0). Dado o vetor w = (5, 1, 0) ∈ R3 . Resolver o sistema ´e determinar se w ´e uma combina¸c˜ao linear dos vetores de β, isto ´e, significa saber se existem escalares a1 , a2 e a3 tais que w = a1 v1 + a2 v2 + a3 v3 . (b) Como det[v1 , v2 , v3 ] = 2 = 0 podemos utilizar regra de Cramer para resolver o sistema. Nesse caso a1 = 18, a2 = 9 e a3 = −49. 2) (a) Consideremos o subconjunto formado pelos vetores colunas da matiz dos coeficientes, β = {v1 , v2 } ⊂ R2 , ou seja, v1 = (2, 1) e v2 = (9, 5). Dado o vetor w = (1, −1) ∈ R2 . Resolver o sistema ´e determinar se w ´e uma combina¸c˜ao linear dos vetores de β, isto ´e, significa saber se existem escalares a1 e a2 tais que w = a1 v1 + a2 v2 + a3 v3 . (b) Como det[v1 , v2 ] = 1 = 0 podemos utilizar regra de Cramer para resolver o sistema. Nesse caso a1 = 14 e a2 = −3. Se¸ c˜ ao 2.5 1) (a) Combina¸c˜ao linear em R2 . Expressar o vetor w = (5, 1) como combina¸c˜ao ´ poss´ıvel, pois a matriz linear de v1 = (2, 6) e v2 = (2, −1), w = a1 v1 + a2 v2 . E dos coeficientes n˜ao ´e nula, det[v1 , v2 ] = −14. Utilizando regra de Cramer encontramos a1 = 12 e a2 = 2. A combina¸c˜ao linear ´e u ´ nica. (b) Combina¸c˜ao linear em R3 . Expressar o vetor nulo o = (0, 0, 0) como combina¸c˜ao ´ claro, a1 = 0 e a2 = linear de v1 = (2, 4, 3) e v2 = (−6, 5, 4), o = a1 v1 + a2 v2 . E 0 s˜ao solu¸c˜oes. Para encontrar todas as combina¸c˜oes devemos suprimir uma equa¸c˜ao, por exemplo, a u ´ltima, pois para o sistema restante, o determinante da matriz dos coeficientes n˜ao ´e igual a zero, resolver o subsistema por regra de Cramer, encontrando os valores a1 = 0 e a2 = 0. Verificamos que esses valores satisfazem a equa¸c˜ao suprimida. A combina¸c˜ao linear ´e u ´ nica. (c) Combina¸c˜ao linear em R3 . Escrever o vetor w = (0, 4, 1) como combina¸c˜ao linear de v1 = (2, 4, 3) e v2 = (−6, 5, 4), w = a1 v1 + a2 v2 . Para encontr´ a-los, devemos suprimir uma equa¸c˜ao, por exemplo, a u ´ltima, pois o determinante da matriz dos coeficientes n˜ao ´e igual a zero, resolver o subsistema pela regra 4 de Cramer, encontrando os valores a1 = 12 17 e a2 = 17 . Verificamos que esses valores n˜ ao satisfazem a equa¸c˜ao suprimida. N˜ao podemos expressar w como combina¸c˜ao linear de v1 e v2 . ˜ 2.7. RESPOSTAS E SUGESTOES 2) 55 (a) Combina¸c˜ao linear em R3 . Expressar o vetor w = (5, 1, 0) como combina¸c˜ao linear de v1 = (2, 6, 2) e v2 = (2, −1, −4) e v3 = (1, 2, 0), w = a1 v1 +a2 v2 +a3 v3 . Como det[v1 , v2 , v3 ] = 2 = 0, os vetores formam uma base de R3 . Pela regra de Cramer ´e poss´ıvel encontrar uma u ´ nica express˜ao para o vetor w como combina¸c˜ao linear de v1 , v2 e v3 . (b) Combina¸c˜ao linear em R2 . Expressar o vetor w = (0, 11) como combina¸c˜ao linear de v1 = (2, 4), v2 = (−6, 5) e v3 = (−1, 3), w = a1 v1 + a2 v2 + a3 v3 . Para encontr´ a-los, devemos escolher uma maior submatriz quadrada com determinante diferente de zero, por exemplo [v1 , v2 ] (formam uma base de R2 ) resolver o subsistema w − a3 v3 = a1 v1 + a2 v2 , por regra de Cramer, encon3 trando os valores que dependem de a3 . Por exemplo, a1 = 66−a 34 . Logo, para cada valor de a3 , existe uma combina¸c˜ao linear diferente para expressar w, n˜ ao existe unicidade de combina¸c˜ao linear. (c) Combina¸c˜ao linear em R3 . Expressar o vetor nulo o = (0, 0, 0) como combina¸c˜ao linear de v1 = (2, 1, 2) e v2 = (−1, 0, −1) e v3 = (1, −1, 1), w = a1 v1 + a2 v2 + a3 v3 . Como det[v1 , v2 , v3 ] = 0, (v3 = v1 − 3v2 ) n˜ ao podemos utilizar imediatamente a regra de Cramer. Devemos considerar a maior submatriz quadrada com determinante diferente de zero, e resolver o subsistema. Uma ao existe unicidade de combina¸c˜ao das solu¸c˜oes ´e o = a3 v1 + 3a3 v2 + a3 v3 . N˜ linear. 3) Cada vetor ´e expresso por uma combina¸c˜ao linear dos vetores v1 , v2 e v3 , mas n˜ao existe unicidade de combina¸c˜ao linear. 4) Os vetores dos itens a), c) e d) s˜ao expressos de maneira u ´nica por uma combina¸c˜ao ao podem ser expressos. linear de v1 e v2 . Os vetores dos ´ıtens b) e e) n˜ 5) Como det[v1 , v2 , v3 ] = 0 os trˆes vetores formam uma base do R3 . Logo, qualquer vetor ´e expresso de maneira u ´ nica por uma combina¸c˜ao linear de v1 , v2 e v3 . 8) O sistema sempre ´e poss´ıvel para todo valor de k. O sistema ´e poss´ıvel e determinado quando k = 4. 9) (a) Falsa. (b) Falsa. (c) Verdadeira. (d) Falsa. Se¸ c˜ ao 2.6 1) Todas s˜ao invert´ıveis. ⎡ (a) [A]−1 1 3 ⎣ 3 1 = −1 4 −2 −2 ⎤ −2 −2 ⎦. 0 (c) [C]−1 ⎡ (b) [B]−1 ⎤ 1 −4 1 ⎣ −3 6 −1 ⎦. = −1 2 −1 2 −1 ⎡ 1 ⎣ −2 = −1 2 −1 ⎡ (d) [D]−1 ⎤ 4 −1 −1 1 ⎦. 1 −1 ⎤ 3 −6 1 ⎣ −2 −1 1 ⎦. = −1 5 −1 2 −2 ˜ LINEAR CAP´ITULO 2. COMBINAC ¸ AO 56 ⎡ (e) [E]−1 1 0 = 12 ⎣ 3 −2 −2 2 ⎤ 1 −1 ⎦. 0 ⎡ (f ) [F ]−1 ⎤ 5 −4 1 2 −1 ⎦. = 12 ⎣ −1 −2 2 0 2) Todas s˜ao invert´ıveis. (a) a = 3 e b qualquer. (b) a = 3 e b = 2. (c) a = 3 e b = 2. 3) Com os produtos comprados, n˜ ao ´e poss´ıvel produzir uma ra¸c˜ao com tal balanceamento. 4) A u ´ nica solu¸c˜ao poss´ıvel ´e Cap´ıtulo 3 Geometria Anal´ıtica Neste cap´ıtulo, faremos uma introdu¸c˜ao a` Geometria Anal´ıtica com tratamento vetorial. Como lan¸caremos m˜ao de uns poucos resultados dessa disciplina que s˜ao do conhecimento de todos desde o Ensino M´edio, a apresenta¸c˜ao ser´a breve e ter´a o determinante como o conceito central para o desenvolvimento. Destacaremos as equa¸c˜oes de retas e planos, equa¸c˜oes que ser˜ao determinadas utilizando-se os conceitos de a´rea e volume, respectivamente. 3.1 ´ Area de paralelogramo em E2 Diremos que um paralelogramo ABCD em E2 est´a associado aos vetores u e v −→ −−→ de R2 se os segmentos orientados AB e AD s˜ao representantes de u e v, respec−−→ tivamente. Como ABCD ´e um paralelogramo, os segmentos orientados DC e −−→ BC s˜ao tamb´em representantes de u e v, respectivamente. Nessa se¸c˜ao daremos um significado geom´etrico ao n´ umero |det[u, v]| mostrando que esse valor ´e a a´rea de um paralelogramo associado. Verifiquemos essa afirma¸c˜ao num caso particular, pois a demonstra¸c˜ao do caso geral segue o mesmo racioc´ınio. Sejam u = (3, 1) e v = (1, 2) dois vetores de R2 . Considere o paralelogramo associado OUV P em E2 . As coordenadas dos v´ertices s˜ao O(0, 0), U(3, 1), P (4, 3) e V (1, 2). Sendo −→ −→ assim, os segmentos orientados OU e V P s˜ao dois representantes do vetor u e os segmentos −−→ −→ orientados OV e UP s˜ao representantes do vetor v. 57 58 CAP´ITULO 3. GEOMETRIA ANAL´ITICA Esses dois vetores determinam a matriz [u, v], uma matriz quadrada 2 × 2. Calculemos o determinante dessa matriz,   3 1 det[u, v] = det = 5. 1 2 ` primeira O valor obtido, 5, ´e o valor da a´rea do paralelogramo OUV P . A vista, tal fato ´e misterioso, mas ele decorre de propriedades elementares de Geometria Euclidiana e das propriedades de determinante. Mostremos esse fato. Antes de tudo, examinemos as figuras a seguir que foram constru´ıdas a partir da u ´ ltima figura. Na figura a` esquerda, est´a indicado um segmento orientado ”vertical” representando o vetor v + λu = (0, b). Para obter esse vetor, basta fazer uma escolha conveniente de um (´ unico) 1 5 n´ umero real λ. O leitor pode verificar que λ = − 3 e que b = 3 . Ressaltamos que o paralelogramo original R tem a mesma a´rea do paralelogramo R1 , pois as medidas das bases e das alturas s˜ao iguais. Na figura a` direita, est´a indicado que, a partir da situa¸c˜ao anterior, podemos obter um segmento orientado ”horizontal” representando o vetor u + ν(v + λu) = (a, 0), com a escolha de um conveniente n´ umero real ν. O leitor pode verificar que 2 5 ν = − 3 e a = 3 . Ressaltamos que o paralelogramo R1 tem a mesma a´rea do retˆangulo R2 , pois as medidas das bases e das alturas s˜ao iguais. Logo, ´rea(R2 ) = ab. a´rea(R) = a ´rea(R1 ) = a ´ 3.1. AREA DE PARALELOGRAMO EM E2 59 Nesse exemplo, a > 0 e b > 0. Com essa contru¸c˜ao temos   a 0 [u + ν(v + λu), v + λu] = . 0 b Por outro lado, utilizando uma propriedade de determinantes j´a conhecida, ao somarmos a um vetor coluna uma combina¸c˜ao linear dos outros vetores colunas o valor do determinante n˜ ao se altera, chegamos a a ´rea(R) = ab = det[u + ν(v + λu), v + λu] = det[u, v + λu] = det[u, v]. Isso encerra a verifica¸c˜ao e justifica a Proposi¸c˜ ao 3.1.1 A a´rea de qualquer paralelogramo em E2 associado aos vetores u e v de R2 ´e igual a |det[u, v]|. Quando o determinante ´e nulo, significa que o paralelogramo ´e degenerado, n˜ao tem comprimento (ou n˜ao tem altura), pois os vetores u e v s˜ao colineares. Exerc´ıcio 3.1.1 a) Dados os pontos O(0, 0), V (2, −1) e W (3, 3) no plano Cartesiano E2 . Quantos paralelogramos vocˆe pode construir tendo esses trˆes pontos como v´ertices? Calcule as a´reas dos paralelogramos encontrado. b) Determine os v´ertices do paralelogramo QRST , onde Q(1, −2) e os seg−→ −→ mentos orientados QR e QS representam os vetores, v = (3, −1) e w = (1, 2), respectivamente. Calcule sua ´area. 2 Exerc´ıcios propostos 3.1.1 1. Esboce o paralelogramo com os v´ertices P , Q, R e S do plano Cartesiano e calcule sua ´area, quando: (a) P (0, 0); Q(1, 2); R(1, 3); S(2, 5). (b) P (1, 1); Q(3, 2); R(5, 6); S(7, 7). 2. Esboce o trˆ angulo com os v´ertices P , Q e R do plano Cartesiano e calcule sua area, quando: ´ (a) P (0, 0); Q(1, 2); R(1, 3). (b) P (1, 1); Q(3, 2); R(7, 7). 3. Esboce um paralelogramo no plano Cartesiano associado aos vetores v, w ∈ R2 , onde v = (1, 2) e w = (1, 3) e calcule sua ´area. CAP´ITULO 3. GEOMETRIA ANAL´ITICA 60 4. Sejam v, w ∈ R2 , onde v = (−1, 2) e w = 2v. Calcule e interprete, geometricamente, o valor do determinante det[v, w]. 5. Considere os pontos do plano Cartesiano P (1, 1), Q(3, −3) e R(5, −2). (a) Esboce os pontos e determine os vetores u e v representados pelos seg−−→ −− → mentos orientados P Q e QR, respectivamente. (b) Represente graficamente os vetores u+v e u−v por segmentos orientados com ponto inicial P . (c) Determine um ponto S(a, b) com a > 0 tal que P QRS seja um paralelogramo e calcule sua ´area. (d) Dˆe as coordenadas dos pontos A e B sobre o segmento QR tal que esses pontos dividem o segmento QR em trˆes partes iguais. 3.2 Volume de paralelep´ıpedo em E3 Diremos que um paralelep´ıpedo ABCD...H em E3 est´a associado aos vetores −→ −−→ −−→ u, v e w de R3 se os segmentos orientados AB, AD e AH s˜ao representantes de u, v e w, respectivamente. Digamos que os vetores sejam u = (u1 , u2, u3 ), v = (v1 , v2 , v3 ) e w = (w1 , w2 , w3 ). Com esses trˆes vetores podemos construir uma matriz quadrada 3 × 3 de tal modo que as entradas por colunas sejam as coordenas dos vetores, ⎤ ⎡ u1 v1 w1 [u, v, w] = ⎣ u2 v2 w2 ⎦ . u3 v3 w3 O valor absoluto do determinante dessa matriz, |det[u, v, w]|, tamb´em admite uma interpreta¸c˜ao geom´etrica. Proposi¸c˜ ao 3.2.1 O volume de qualquer paralelep´ıpedo em E3 associado aos vetores u, v e w de R3 ´e igual a |det[u, v, w]|. N˜ao faremos a demonstra¸c˜ao da proposi¸c˜ao, mas apenas indicaremos um esbo¸co. O m´etodo utilizado segue de perto a`quele aplicado para o c´alculo da a´rea de um paralelogramo. Em essˆencia, realizamos uma sequˆencia de trˆes modifica¸c˜oes no s´olido original, obtendo uma sequˆencia de trˆes paralelep´ıpedos com volumes iguais, na qual o u ´ ltimo ´e um paralelep´ıpedo retangular cujo 3.3. RETAS EM E2 (I) 61 volume ´e f´acil de calcular. Essas modifica¸c˜oes traduz-se algebricamente numa combina¸c˜ao linear de u, v e w que ser´a somada a uma das colunas da matriz [u, v, w]. Sabendo-se que o valor do determinante n˜ao se modifica quando fixamos uma coluna e somamos a essa coluna combina¸c˜oes lineares das outras colunas, o resultado segue. Caso o leitor tenha interesse nos detalhes dessa constru¸c˜ao, sugerimos a leitura o [12]. Exerc´ıcios propostos 3.2.1 1. Dados os vetores u = (1, 0, 2), v = (2, 1, 1) e w = (−1, 3, 3) em R3 . (a) Determine os outros v´ertices de um paralelep´ıpedo no espa¸co Cartesiano E3 associados aos vetores u, v e w, conhecendo-se os quatro v´ertices O(0, 0, 0), U , V e W e sabendo-se que OU OV e OW s˜ao arestas. (b) Calcule o volume do paralelp´ıpedo. 2. Calcule o volume de um paralelep´ıpedo do espa¸co Cartesiano cujas arestas s˜ao segmentos orientados que representam os vetores u = (1, 1, 1), v = (−2, 1, 4) e w = (1, 0, 4). Qual o motivo para dizermos de um e n˜ ao do? 3. Sejam u, v, w ∈ R3 , onde u = (−1, 2, 1) e v = (2, 1, 1) e w = −u + 2v. Calcule e interprete, geometricamente, o valor do determinante det[u, v, w]. 3.3 Retas em E2 (I) Nos pr´oximos cap´ıtulos, trabalharemos com v´arios subconjuntos Γ ⊂ R2 definidos por uma equa¸c˜ao linear nas vari´aveis x e y. A Geometria Anal´ıtica permite-nos agregar um significado geom´etrico a tais equa¸c˜oes. Relacionaremos equa¸c˜oes lineares em duas vari´aveis com retas no plano Cartesiano. Um u ´ nico exemplo deixar´a claro a rela¸c˜ao. Como sabemos, dois pontos P e Q no plano Euclidiano determinam uma u ´nica reta r. Vamos supor que tenhamos fixados eixos Cartesianos no plano e que nesse sistema de eixos obtivemos P (2, 1) e Q(−3, −2). ◦ Um ponto A(x, y) pertence `a reta r se, e somente se, o paralelogramo no qual duas de suas arestas s˜ao QA e QP tem ´area nula. CAP´ITULO 3. GEOMETRIA ANAL´ITICA 62 O fato da a´rea ser nula decorre do paralelogramo ser degenerado pois est´a contido na reta r. Para calcularmos a a´rea devemos ter em m˜aos vetores −→ −→ representados pelos segmentos orientados QA e QP . Esses vetores s˜ao v = (x + 3, y + 2) e w = (5, 3), respectivamente. Logo, a a´rea do paralelogramo degenerado ´e   x+3 5 0 = det[v, w] = det = 3x − 5y − 1. y+2 3 Sendo assim, no sistema de eixos coordenados fixados, a reta determinada pelos pontos P e Q de E2 pode ser descrita como r = {A(x, y) ∈ E2 ; 3x − 5y − 1 = 0}. Por simplicidade e quando o contexto deixar claro de qual espa¸co estamos nos referindo, muitas vezes escrevemos a equa¸c˜ao r : 3x − 5y = 1. A reta r tamb´em ´e chamada de gr´ afico da equa¸c˜ao de duas vari´aveis 3x − 5y − 1 = 0 ou que 3x − 5y − 1 = 0 ´e a equa¸c˜ao da reta r. Aproveitando a rela¸c˜ao natural entre os espa¸cos E2 e R2 , seguiremos essaa terminologia. Diremos que o subconjunto Γ ⊂ R2 , onde Γ = {(x, y) ∈ R2 ; 3x − 5y = 1}, ´e uma reta em R2 . Exerc´ıcios propostos 3.3.1 1. Determine a equa¸c˜ao da reta determinada pelos pontos P e Q de E2 . (a) P (1, 1), Q(0, 3). (d) P (−3, 4), Q(3, 4). (b) P (−1, 2), Q(2, −1). (e) P (0, 0), Q(1, 1). (c) P (1, 1), Q(1, 5). (f) P (0, 0), Q(−2, 1). 2. Mostre que os pontos A, B e C do plano Cartesiano s˜ ao colineares onde (a) A(1, 1), B(−2, 0) e C(0, 23 ). (b) P (−1, 2), Q(2, −1) e C(3, −2). 3. Esboce o gr´ afico das equa¸c˜oes em duas vari´aveis. 3.4. PLANOS EM E3 (I) 63 (a) 3x − y + 6 = 0. (b) y = x − 4. (c) x = 2y + 1. Planos em E3 (I) 3.4 Estabeleceremos, agora, a rela¸c˜ao entre planos do espa¸co Cartesiano e equa¸c˜oes lineares com trˆes vari´aveis, x, y e z. Comos sabemos, trˆes pontos n˜ao colineares, digamos P , Q e R, no espa¸co Euclidiano E3 determinam um u ´nico plano γ. Vamos supor que tenhamos fixados eixos Cartesianos no espa¸co e que nesse sistema de eixos obtivemos P (2, 1, 0), Q(−3, −2, 1) e R(1, 1, 1). ◦ Um ponto A(x, y, z) pertence ao plano γ se, e somente se, o paralep´ıpedo no qual trˆes de suas arestas s˜ao os segmentos RA, RP e RQ tem volume zero(!). O paralelep´ıpedo ´e degenerado pois est´a contido no plano γ. Como os segmen−→ −→ −→ tos orientados RA, RP e RQ representam os vetores, u = (x − 1, y − 1, z − 1), v = (1, 0, −1) e w = (−4, −3, 0), respectivamente, o volume do paralelep´ıpedo ´e ⎡ ⎤ x−1 1 −4 0 −3 ⎦ = −3x + 4y − 3z + 2. 0 = det[u, v, w] = det ⎣ y − 1 z − 1 −1 0 Portanto, o plano γ ⊂ E3 determinado por P , Q e R pode ser descrito como γ = {A(x, y, z) ∈ E3 ; 3x − 4y + 2z + 2 = 0}, ou, quando o texto permitir, escreveremos γ : 3x − 4y + 2z + 2 = 0. O plano γ tamb´em ´e chamada de gr´ afico da equa¸c˜ao de trˆes vari´aveis 3x − 4y + 2z + 2 = 0 ou que 3x − 4y + 2z + 2 = 0 CAP´ITULO 3. GEOMETRIA ANAL´ITICA 64 ´e a equa¸c˜ao do plano γ. Seguiremos a terminologia da Geometria Euclidiana. Diremos que o subconjunto Γ ⊂ R3 , onde Γ = {(x, y, z) ∈ R3 ; 3x − 4y + 2z + 2 = 0}, ´e um plano em R3 . Exerc´ıcios propostos 3.4.1 1. Determine a equa¸c˜ao do plano contendo os pontos P , Q e R em E3 . (a) P (1, 0, 1), Q(0, 3, 2), R(1, −1, 1). (c) P (1, −2, 1), Q(0, 1, 5), R(1, 0, 0). (b) P (0, −1, 2), Q(1, 2, −1), R(0, 0, 0). (d) P (0, 0, 0), Q(1, 1, 1), R(1, 1, 0). 2. Esboce o gr´ afico das equa¸c˜oes em duas vari´aveis e depois esboce o gr´afico das equa¸c˜oes considerando-as em trˆes vari´aveis. (a) 3x − y + 6 = 0. (b) y = x − 4. (c) x = 2y + 1. 3. Verifique se os pontos P , Q, R e S de E3 s˜ao coplanares. (a) P (1, 0, 1), Q(0, 3, 2), R(1, −1, 1) e S(0, 0, 0). (b) P (0, −1, 2), Q(1, 1, −1), R(0, 0, 0) e S(1, 0, 1). 3.5 Retas em E3 Na Geometria Euclidiana espacial ´e axiomatizado que dois pontos distintos em E3 , digamos que sejam P e Q, determinam uma u ´ nica reta r ⊂ E3 . Esse axioma em conjunto com outros axiomas implicam que essa reta pode ser determinada como a interse¸c˜ao de dois planos distintos γ1 e γ2 , onde cada um deles cont´em os pontos dados, isto ´e, r = γ1 ∩ γ2 . Tais fatos, indicam que podemos utilizar duas equa¸c˜oes lineares nas vari´aveis x, y e z para descrever a reta r. Apresentemos, a seguir, um procedimento para descrever por equa¸c˜oes lineares a reta que cont´em P e Q. Suponha que ao fixarmos um sistema de eixos Cartesiano em E3 tenhamos obtido P (2, 1, 0) e Q(−3, −2, 1). Para determinar um plano γ1 que contenha 3.5. RETAS EM E3 65 esses pontos basta escolher um terceiro ponto que n˜ao esteja sobre a reta definida por P e Q, e considerar o plano γ1 determinado pelos trˆes pontos, P , Q e R. Escolhamos o terceiro ponto como sendo R(1, 1, 1). Sendo assim, γ1 : 3x − 4y + 3z − 2 = 0. Agora, devemos escolher qualquer ponto que n˜ao perten¸ca a` γ1 para determinar o segundo plano γ2 . O ponto S(0, 0, 0) serve aos prop´ositos, pois a origem n˜ao pertence ao plano γ1 . Agora, consideremos um ponto gen´erico A(x, y, z) ∈ γ2 e os segmentos ori−→ −→ −→ entados SA, SP e SQ, representante dos vetores u = (x, y, z), v = (2, 1, 0) e w = (−3, −2, 1), respectivamente. Calculando o volume do paralelep´ıpedo cujas arestas s˜ao os segmentos SA, SP e SQ obtemos 0 = det[u, v, w] = x − 2y − 3z. Logo, γ2 : x − 2y − 3z = 0 e a reta fica determinada por duas equa¸c˜oes lineares, r = {A(x, y, z) ∈ E2 ; x − 2y − 3z = 0 e 3x − 4y + 2z + 2 = 0}. Como sempre, para simplificar a escrita, registramos a mesma informa¸c˜ao na forma  x − 2y − 3z = 0 r: . 3x − 4y + 2z = 2 Para finalizar, deixamos um resumo dos fatos sobre equa¸c˜oes lineares e Geometria Anal´ıtica que foram estudados at´e o momento.  Uma reta em E2 fica determinada por uma equa¸c˜ao linear em x e y.  Um plano em E3 fica determinada por uma equa¸c˜ao linear em x, y e z.  Uma reta em E3 fica defterminada por duas equa¸c˜oes lineares em x, y e z. N˜ao faz sentido falar em ”esbo¸car o gr´afico da equa¸c˜ao 2x − y = 0”, por ´ necess´ario informar, de algum modo, quantas vari´aveis est˜ao enexemplo. E volvidas na equa¸c˜ao, pois essa equa¸c˜ao poderia ser, por exemplo, a forma econˆomica de escrever a equa¸c˜ao 2x − y + 0z = 0. CAP´ITULO 3. GEOMETRIA ANAL´ITICA 66 Exerc´ıcios propostos 3.5.1 1. Determine equa¸c˜oes para a reta definidas pelos pontos P e Q em E3 . (a) P (1, 0, 1), Q(0, 3, 2). (d) P (0, 0, 0), Q(1, 1, 1). (b) P (0, −1, 2), Q(1, 2, −1). (e) P (0, 0, 1), Q(0, 1, 0). (c) P (1, −2, 1), Q(0, 1, 5). 2. Determine equa¸c˜oes para a reta r em E3 que cont´em os pontos P e Q, onde as equa¸c˜ao tˆem um dos coeficientes de uma das vari´ aveis igual a zero. 3.6 (a) P (1, 0, 1), Q(0, 3, 2). (c) P (1, −2, 1), Q(1, −2, 5). (b) P (0, −1, 2), Q(1, 2, −1). (d) P (0, 0, 0), Q(0, 0, 1). Sistema linear e Geometria No cap´ıtulo anterior relacionamos dois conceitos alg´ebricos, combina¸c˜ao linear e sistema linear. Nessa se¸c˜ao relacionaremos sistema linear com interse¸c˜oes de objetos da Geometria Euclidiana, quais sejam, retas e planos. Dado o sistema linear 2 × 2  2x − y = −3 x+y = 0 A solu¸c˜ao do sistema ´e x = −1 e y = 1. Por outro lado, se considerarmos duas retas, r e s num plano Cartesiano E2 , cujas equa¸c˜oes s˜ao r : 2x − y + 3 = 0 e s : x + y = 0, Por outro lado, se considerarmos duas retas, r e s num plano Cartesiano E2 , cujas equa¸c˜oes s˜ao aquelas do sistema, as solu¸c˜oes s˜ao as coordenadas do ponto P (−1, 1) obtido pela interse¸c˜ao r ∩ s. O procedimento de relacionar sistemas de equa¸c˜oes lineares com objetos do plano Cartesiano permite dar signifcado geom´etrico ao estudo feito no Cap´ıtulo 3.6. SISTEMA LINEAR E GEOMETRIA 67 2. Nesse exemplo, o sistema ´e poss´ıvel e determinado, pois a solu¸c˜ao ´e u ´ nica, isto ´e, as retas se interceptam num u ´ nico ponto. Discutamos, do ponto de vista geom´etrico, o sistema de equa¸c˜oes lineares 2 × 3,  x − 2y + z = 1 2x + y − z = 2 Para utilizar regra de Cramer, consideramos, por exemplo, o sistema linear  −2y + z = 1 − x , y − z = 2 − 2x cuja solu¸c˜ao depender´a da vari´avel x, ou seja, y = 3x−3 e z = 5x−5. Portanto, o sistema ´e poss´ıvel e indeterminado, existem infinitas solu¸c˜oes, uma para cada n´ umero real x. Por outro lado, se considerarmos os planos, α : x − 2y + z − 1 = 0 e β : 2x + y − z − 2 = 0 em E3 , aquelas solu¸c˜oes s˜ao as coordenadas dos pontos pertencentes a` reta interse¸c˜ao, r = α ∩ β. Logo, na nossa nota¸c˜ao,  x − 2y + z = 1 r: . 2x + y − z = 2 Agora, examinemos do ponto de vista geom´etrico, o sistema linear  x + 2y − z = 1 . (3.1) 2x + 4y − 2z = 3 Nesse caso, o sistema ´e imposs´ıvel. No espa¸co Cartesiano E3 , os planos α : x + 2y − z − 1 = 0 e β : 2x + 4y − 2z − 33 = 0 s˜ao paralelos, n˜ao existe ponto de interse¸c˜ao entre eles. Nesse ponto, ´e conveniente comparar aquele sistema linear com o sistema  x + 2y − z = 1 . (3.2) 2x + 4y − 2z = 2 CAP´ITULO 3. GEOMETRIA ANAL´ITICA 68 Nesse caso, o sistema ´e poss´ıvel e indeterminado. Num espa¸co Cartesiano E3 , os planos α : x + 2y − z − 1 = 0 e β : 2x + 4y − 2z − 2 = 0 s˜ao iguais. Qualquer ponto P (x, y, z) cujas coordenadas satisfa¸cam a equa¸c˜ao que define α, satisfazem a equa¸c˜ao de β, e reciprocamente. Observe que a segunda equa¸c˜ao ´e obtida multiplicando-se a primeira por 2. A solu¸c˜ao por regra de Cramer j´a sinaliza para essas respostas. O determinante de cada submatriz 2 × 2 da matriz dos coeficientes ´e iguais a zero pois uma linha ´e m´ ultipla da outra. Essas submatrizes s˜ao:  1 2 2 4   ; 1 −1 2 −2   ; 2 −1 4 2  . A solu¸c˜ao do sistema ´e encaminhada abandonando, por um momento, a segunda equa¸c˜ao. Logo, a solu¸c˜ao fica dependendo de duas vari´aveis, x = 2y−z+1. Ao testarmos por substitui¸c˜ao se essas solu¸c˜oes satisfazem a segunda equa¸c˜ao de (3.2), no primeiro sistema obtemos um absurdo, 2 = 3, enquanto no sistema (3.2) obtemos 2 = 2. Exemplo 3.6.1 Um sistema linear 3 × 3 tamb´em admite uma leitura envolvendo retas e planos. Por exemplo, a solu¸c˜ao do sistema ⎧ ⎨ x + 2y = 1 2x + 4y − 2z = 2 . ⎩ y + 2z = 0 pode ser interpretada como as coordenadas de um ponto que est´a na interse¸c˜aos de uma reta r e de um plano γ, onde  r: x + 2y = 1 2x + 4y − 2z = 2 e γ : y + z = 0. Neste exemplo, existe interse¸c˜ao, o sistema ´e poss´ıvel e determinado. 2 Exerc´ıcio 3.6.1 Para cada situa¸c˜ao a seguir, fa¸ca a discuss˜ao do sistema de qua¸c˜oes lineares 3 × 3 na qual os gr´aficos de cada equa¸c˜oes d˜ao origem a trˆes planos, α, β e γ, cujas posi¸c˜oes relativas s˜ao as esbo¸cadas. 3.6. SISTEMA LINEAR E GEOMETRIA 69 Exerc´ıcios propostos 3.6.1 1. Fa¸ca o gr´afico das seguintes equa¸c˜oes lineares em trˆes vari´aveis. (a) x = 2. (b) x − y = 1. (c) x − z = 0. 2. Determine se existe interse¸c˜ao, ou n˜ ao existe, entre as seguintes retas e planos 3 de E :  2x + 2y + z = 5 γ : 2x − 4y = 0. (a) r : ; 6x − y + 2z = 1  2x − 6y − z = 0 γ : x = 0. (b) r : ; x − 12y − 2z = 1  2x − y + z = 0 (c) r : ; γ : 4x − 2y + 2z = 0. x − z = 0  x + y − z = 1 (d) r : ; γ : 3x − z = 1. 2x − y = 0 CAP´ITULO 3. GEOMETRIA ANAL´ITICA 70 3. Determime se existe interse¸c˜ao entre a reta r e o plano α, ambos em E3 , onde 3.7 Respostas e sugest˜ oes Se¸ c˜ ao 3.1 1) a) a ´rea = 1. b) a ´rea = 6. 2) (a) a ´rea = 12 . (b) a ´rea = 3. 3) a ´rea = 1. 4) a ´rea = 0 = | det[v, w]|. Paralelogramo (degenerado) contido numa reta. 5) (a) u = (2, −4) e v = (2, 1). (b) u + v = (4, −3) e u − v = (0, −5) s˜ao representados, respectivamente, pelos −→ −→ segmentos orientados P S e P T , onde S(5, −2) e T (1, −4). (c) S(3, 3) e a ´rea = 8.  7 −2    −7 (d) A 3 , 3 e B 13 3 , 3 . Se¸ c˜ ao 3.2 1) (a) Os outros v´ertices s˜ao os pontos finais dos segmentos orientados com ponto inicial a origem e que representam os vetores u + v, u + w, v + w e u + v + w. (b) volume = | det[u, v, w]| = 14 2) volume = 15. Existem infinitos paralelep´ıpedos cujas arestas s˜ ao segmentos orientados que representam os vetores. 3) volume = 0 = | det[u, v, w]|. Paralelep´ıpedo (degenerado) contido num plano. Se¸ c˜ ao 3.3 1) 2) a) r : 2x + y − 3 = 0. c) r : x − 1 = 0. e) r : x − y = 0. b) r : 3x + 3y − 3 = 0. d) r : y − 4 = 0. f ) r : x + 2y = 0.   (a) Sejam u = (−3, −1) e v = −1, − 31 os vetores representados pelos segmentos −− → −→ orientados AB e AC, respectivamente. Temos det[u, v] = 0. (b) Argumento semelhante. Se¸ c˜ ao 3.4 1) ˜ 3.7. RESPOSTAS E SUGESTOES 3) 71 (a) γ : x + z − 2 = 0. (c) γ : 9x + y + 2z + 11 = 0. (b) γ : −3x + 2y + z = 0. (d) γ : y − x = 0. (a) N˜ ao s˜ao coplanares, pois det[u, v, w] = −14 = 0, onde u, v e w s˜ao os vetores −−→ −− → −→ representados pelos segmentos orientados QP , QR e QS, respectivamente. (b) S˜ ao coplanares, pois det[u, v, w] = 0, onde u, v e w s˜ao os vetores representados −− → − − → −→ pelos segmentos orientados QP , QR e QS, respectivamente. Se¸ c˜ ao 3.5 1) Como uma reta r fica definida pela interse¸c˜ao de dois planos, escolhemos o primeiro ao pertence a` reta. Para saber plano γ1 definido pelos pontos P , Q e R, onde R n˜ se R n˜ ao pertence a` reta r basta verificar se os vetores v e w representados pelos −− → −→ segmentos orientados P Q e P R, repectivamente, s˜ao n˜ ao colineares. Depois, escolhemos um ponto S fora desse plano γ1 e calculamos a equa¸c˜ao do plano definido pelos pontos P , Q e S. Para saber se R n˜ ao pertence ao plano basta saber se suas coordenadas n˜ao satisfazem a equa¸c˜ao que define γ1 . Feito isso, a reta fica determinada por essas duas equa¸c˜oes. N˜ao apresentaremos as repostas, pois para cada reta existem infinitos pares de planos cuja interse¸c˜ao ´e a reta dada. De qualquer forma, vocˆe deve substituir as coordenadas dos pontos P e Q para saber se eles satisfazem as equa¸c˜oes encontradas. 2) Vocˆe pode ter encontrado outras equa¸c˜oes.   3x + y = 3 (a) r : . (c) r : −y + 3z = 3   −3x + y = −1 (b) r : . (d) r : 3y + 3z = 3 x y = 1 . = −2 x y = 0 . = 0 Se¸ c˜ ao 3.6 2) (a) Existe interse¸c˜ao. O sistema 3 × 3 correspondente tem solu¸c˜ao, ele ´e poss´ıvel e determinado. (b) N˜ ao existe interse¸c˜ao. O sistema 3 × 3 correspondente ´e imposs´ıvel. (c) Existe interse¸c˜ao. O sistema 3 × 3 correspondente ´e poss´ıvel e determinado. De fato, a reta r est´a contida no plano γ. (d) A interse¸c˜ao existe e ´e um ponto. O sistema 3 × 3 correspondente tem solu¸c˜ao, ele ´e poss´ıvel e determinado. Cap´ıtulo 4 Produto interno No primeiro cap´ıtulo estudamos um conjunto alg´ebrico formado pelas n-uplas ordenadas, Rn , e induzimos no conjunto uma estrutura de espa¸co vetorial real. Tamb´em foram relacionados os conjuntos R2 e R3 com o plano Euclidiano e o espa¸co Euclidiano, respectivamente. Nesse cap´ıtulo, para compreender melhor os conjuntos alg´ebricos, continuaremos a relacion´a-los com os conjuntos geom´etricos. Para isso, ´e conveniente introduzir uma fun¸c˜ao bilinear, chamada de produto interno que servir´a para estabelecer conceitos geom´etricos tais como comprimento, distˆancia e aˆngulo em Rn . O produto interno ser´a a nossa r´egua e compasso. 4.1 Produto interno Sejam v = (x1 , x2 , ..., xn ) e w = (y1 , y2 , ..., yn ) dois vetores de Rn . A aplica¸c˜ao  ,  : Rn × Rn → R, v, w = x1 y1 + x2 y2 + · · · + xn yn , ´e chamada de produto interno do Rn . Para simplificar a escrita, diremos apenas produto interno, ficando impl´ıcito que estamos trabalhando com aquela fun¸c˜ao1 . Ilustremos a defini¸c˜ao de produto interno com exemplos num´ericos. Dados os vetores v = (1, −3), w = (−1, 1) e u = (−2, −2) em R2 , pela 1 Alguns textos tamb´em referem-se ao produto interno como produto escalar. 72 4.1. PRODUTO INTERNO 73 defini¸c˜ao, seguem os seguintes valores para os produtos internos. v, w = 1 · (−1) + (−3) · 1 = −4. v, u = 1 · (−2) + (−3) · (−2) = 4. w, u = (−1) · (−2) + 1 · (−2) = 0. Como esses exemplos, podemos perceber que o produto interno de dois vetores pode ser um n´ umero positivo, negativo ou zero. Verifique as igualdades: 2v, w = 2v, w = v, 2w. Vejamos um exemplo em R3 . Avaliemos o produto interno dos vetores v = (2, 1, −3) e w = (0, −1, 1), v, w = 2 · 0 + 1 · (−1) + (−3) · 1 = −4. Verifique a igualdade v, o = 0, para todo vetor v ∈ R3 . O produto interno possue quatro propriedades b´asicas que registraremos numa proposi¸c˜ao cuja demonstra¸c˜ao ficar´a aos cuidados do leitor. Elas s˜ao propriedades que, muitas vezes, facilitam os c´alculos e auxiliam nos argumentos utilizados em demonstra¸c˜oes. A semelhan¸ca com as propriedades das opera¸c˜oes com n´ umeros reais n˜ao ´e mera coincidˆencia, basta aplicar a defini¸c˜ao de produto interno ao espa¸co vetorial R1 que surgir´a a semelhan¸ca. Proposi¸c˜ ao 4.1.1 O produto interno  ,  : Rn × Rn → R possui as seguintes propriedades para quaisquer vetores u, v, w ∈ Rn e qualquer escalar λ ∈ R: P1 v, v ≥ 0 e v, v = 0 ⇔ v = 0; (positiva definida) P2 v, w = w, v; (sim´etrica) P3 v + w, u = v, u + w, u; (linear) P4 λv, w = λv, w. (linear) Prova Para orientar o seu estudo, fa¸camos a demonstra¸c˜ao da propriedade P3 . Considere os vetores v = (v1 , ..., vn ), w = (w1 , ..., wn ) e u = (u1, ..., un ). Sendo assim, v + w, u = = = = (v1 + w1 )u1 + · · · + (vn + wn )un v1 u1 + w1 u1 + · · · + vn un + wn un v1 u1 + · · · + vn un + w1 u1 + · · · + wn un v, u + w, u. CAP´ITULO 4. PRODUTO INTERNO 74 2 Os outros ´ıtens seguem tamb´em utilizando por coordenadas. Exerc´ıcios propostos 4.1.1 1. Calcule o produto interno vi , vj , i, j = 1, 2, 3, onde: (a) v1 = (2, 2); v2 = (−3, 1); v3 = (1, 3). (vetores do R2 ) (b) v1 = (1, −1, 2); v2 = (0, −2, −1); v3 = (0, 0, 0). (vetores do R3 ) (c) v1 = (−1, −1, 2, 0); v2 = (0, −3, 2, 1); v3 = (3, 0, 0, 0) (vetores do R4 ) 2. Seja η = (3, 2) ∈ R2 . Identifique o conjunto Γ = {v ∈ R2 , η, v = 0}. 3. Seja η = (1, −2, 1) ∈ R3 . Identifique o conjunto Γ = {v ∈ R3 , η, v = 0}. 4. Sejam η = (1, −2, 1), µ = (2, 0, 1) vetores de R3 . Identifique o conjunto Γ = {v ∈ R3 , η, v = 0 e µ, v = 0}. 5. Mostre que o produto interno de Rn possui as propriedades. 4.2 (a) v, w + u = v, w + v, u. (c) v = v, e1 e1 + · · · + v, en en . (b) v, w = v, u ∀v ⇔ w = u. (d) v, o = 0, ∀ v. Norma de um vetor Como vimos, o c´alculo de produto interno n˜ao apresenta dificuldades. O ponto importante ´e revelar as informa¸c˜oes geom´etricas que est˜ao contidas no produto interno. Para iniciar esse estudo, definimos a aplica¸c˜ao norma, !   : Rn → [0, +∞), v = v, v. O seu valor num vetor v ∈ Rn ser´a chamado de norma do vetor. Se desejarmos escrevˆe-la utilizando coordenadas, v = (x1 , x2 , ..., xn ), obtemos a express˜ao ! v = (x1 )2 + (x2 )2 + · · · + (xn )2 . Relendo a Proposi¸c˜ao 4.1.1, (pg.73),pelo primeiro item podemos garantir que a fun¸c˜ao norma est´a bem definida. Sabemos que v, v ≥ 0 para qualquer vetor umero e obter a norma v ∈ Rn , logo, podemos calcular a ra´ız quadrada desse n´ de v. Pela mesma proposi¸c˜ao, conclu´ımos que v = 0 se, e somente se, v = o. 4.2. NORMA DE UM VETOR 75 Exemplo 4.2.1 Calcular a norma de um vetor ´e tarefa simples. Por exemplo, se v = (3, −5) ´e um vetor em R2 basta aplicar a defini¸c˜ao, ! ! √ v = v, v = (3)2 + (−5)2 = 34. Desejamos agregar um conte´ udo geom´etrico ao n´ umero obtido. para isso, utilizaremos segmentos orientados. −→ Observe que ao representarmos o vetor por um segmento orientado P Q, digamos que os pontos sejam P (2, 6) e Q(5, 1), o Teorema de Pit´agoras nos diz que o valor v ´e igual ao comprimento do segmento P Q. 2 O valor v ´e interpretado, geometricamente, como o comprimento de um −→ segmento P Q, onde P Q ´e um segmento orientado que representa o vetor v ∈ Rn , n = 2, 3. Para dar significado a tal afirma¸c˜ao para vetores de R3 devemos acrescentar uma ressalva sobre o Teorema de Pit´agoras. Esse teorema garante que a medida da diagonal de um retˆangulo num plano ´e determinada conhecendo-se as medidas dos lados do retˆangulo, d2 = a2 + b2 . O Teorema de Pit´agoras no espa¸co diz respeito ao comprimento da diagonal de um paralelep´ıpedo retˆangulo. Acompanhe na figura a seguir. Para facilitar a vizualiza¸c˜ao colocamos o s´olido no 10 octante, mas isso n˜ao tem importˆancia alguma para o racioc´ınio que ser´a apresentado. O Teorema de Pit´agoras garante que a diagonal da base retˆangular do pa- CAP´ITULO 4. PRODUTO INTERNO 76 ralep´ıpedo tem medida d onde d2 = a2 + b2 . O Teorema de Pit´agoras garante que a diagonal do retˆangulo OBP D tem medida l onde l 2 = d 2 + c2 . Portanto, o comprimento l do segmento OP satisfaz a condi¸c˜ao l2 = a2 + b2 + c2 . Essa rela¸c˜ao tamb´em ´e chamada de Teorema de Pit´agoras. Finalmente se o −→ vetor v ∈ R3 ´e representado pelo segmento orientado OP , ent˜ao v = (a, b, c) e v2 = v, v = a2 + b2 + c2 = l2 . Isso justifica a justifica a interpreta¸c˜ao geom´etrica para norma de vetores do R3 . √ Por exemplo, se w = (1, −3, 5) ´e um vetor de R3 ent˜ao " √ √ w = 12 + (−3)2 + ( 5)2 = 15. √ O valor w = 15 corresponde ao comprimento do segmento OW . Quais s˜ao as normas dos vetores 2w, −2w e do vetor nulo o = (0, 0, 0)? A aplica¸c˜ao norma possui as seguintes propriedades para quaisquer vetores v, w ∈ Rn e qualquer escalar λ ∈ R: N1 v  0 e v = 0 ⇔ v = 0; (positiva definida) N2 λv = |λ| v; N3 v + w ≤ v + w. (desigualdade triangular) Recordamos que |λ| indica o valor absoluto de um n´ umero real, isto ´e,  λ se λ ≥ 0 |λ| = −λ se λ < 0 Observe que v ≥ 0 pois a norma ´e a raiz quadrada de um n´ umero. O restante da afirma¸c˜ao N1 segue do primeiro item da Proposi¸c˜ao 4.1.1, pois v2 = v, v = 0 se, e somente se, v = o. 4.2. NORMA DE UM VETOR A propriedade N2 ficar´a como exerc´ıcio. Lembre-se que 77 √ λ2 = |λ| Para mostrar a desigualdade triangular necessitamos de uma das mais importante desigualdades associadas a um produto interno. Teorema 4.2.1 (Desigualdade de Cauchy-Schwarz) Sejam  ,  o produto interno no Rn e   a norma associada. Ent˜ ao para quaisquer v, w ∈ Rn vale a desigualdade | v, w |≤ vw. Mais ainda, a igualdade ocorre se, e somente se, v e w s˜ ao vetores colineares. Prova Se um dos vetores, v ou w, ´e o vetor nulo, eles s˜ao colineares e a demonstra¸c˜ao reduz-se a verificar a igualdade, zero igual a zero. Suponha que v e w sejam vetores n˜ao nulos. Segue da da Proposi¸c˜ao 4.1.1 que para qualquer escalar t ∈ R e qualquer vetor w ∈ Rn , vale a desigualdade tv − w, tv − w ≥ 0, e ocorre a igualdade se, e somente se, w = t0 v, para algum escalar t0 . Sendo assim, desenvolvendo o produto interno acima, p(t) = tv − w, tv − w = t2 v2 − 2tv, w + w2, obtemos um polinˆomio de grau 2 tal que p(t) ≥ 0. Isso implica que o seu discriminante ´e menor ou igual a zero, i.e. 4v, w2 − 4v2 w2 ≤ 0. Conseq¨ uentemente, v, w2 ≤ v2 w2. De onde segue imediatamente que |v, w| ≤ vw, como desej´avamos. Agora, se vale a igualdade ent˜ao p(t) possui uma u ´ nica raiz real λ com multiplicidade dois, ou seja p(λ) = λv − w, λv − w = 0. Isso ocorre se, e somente se, w − λv = 0, isto ´e, v e w s˜ao colineares. 2 Mostrado a Desigualdade de Cauchy-Schwarz, verifiquemos a desigualdade triangular, N3 . Esse t´ıtulo para a propriedade ´e sugestivo. CAP´ITULO 4. PRODUTO INTERNO 78 A interpreta¸c˜ao da norma de um vetor como sendo o comprimento de um segmento permite relacionar a desigualdade triangular com um teorema bem conhecido da Geomertria Euclidiana, ”a soma das medidas de dois lados de um triˆangulo ´e maior que a soma das medidas dos outros dois lados”. Observemos inicialmente as igualdades, v + w2 = v + w, v + w = v2 + w2 + 2v, w. Por outro lado, por Cauchy-Schwarz podemos escrever v, w ≤ |v, w| ≤ vw. Sendo assim, v + w2 = v2 + w2 + 2v, w ≤ v2 + w2 + 2vw = (v + w)2. Como ambos membros da desigualdade s˜ao quadrados de n´ umeros positivos, ao extra´ırmos a raiz quadrada conclu´ımos a demonstra¸c˜ao. 2 n Exerc´ıcio 4.2.1 Mostre # quaisquer v, w ∈ R vale a segunda de# que para sigualdade triangular, #v − w# ≤ v − w. Qual o teorema da Geometria Euclidiana relacionado diretamente com essa desigualdade? 2 Diremos que um vetor u ∈ Rn ´e unit´ario quando u = 1. Por exemplo, os vetores  √ 2 5 , ∈ R2 u= 3 3 e v= 1 −3 √ , 0, √ 10 10 ∈ R3 s˜ao vetores unit´ario. Para construir vetores unit´arios basta normalizar um vetor n˜ao nulo, isto ´e, 1 v. Esse foi o m´etodo dividir um vetor n˜ao nulo v ∈ Rn por sua norma, u = v utilizado para construir os exemplos acima. Para obter o vetor unit´ ario u ∈ R3 , consideramos o vetor v = (1, 0, −3), calculamos sua norma, ! ! √ v = v, v = (1)2 + (0)2 + (−3)2 = 10, ˆ 4.3. ANGULO ENTRE DOIS VETORES 79 e dividimos o vetor por sua norma, u = √110 (1, 0, −3). De fato, o processo de 1 > 0, segue normaliza¸c˜ao produz um vetor unit´ario. Lembrando-se que λ = v que λ = |λ|. As igualdades abaixo decorrem imediatamente das propriedade da norma, ## ## ## 1 ## 1 v #### = ||v|| = 1. u = #### v v Exerc´ıcios propostos 4.2.1 1. Calcule a norma e identifique os vetores unit´ arios. (a) (b) (c) v = (1, 2); v = (0, −2, 1); v = (0, 2, 12 , 1); w = (−2, 3); w = √114 (2, −1, 3); √ w = (− 2, −1, 3, 1); u = (1, 0) u = (0, 1, 0) u = (0, 0, 0, 1) vetores de R2 . vetores de R3 . vetores de R4 . −−→ 2. Determine o comprimento do segmento orientado P Q. Os pontos da primeira coluna est˜ ao no plano Cartesiano e os da segunda coluna, no espa¸co Cartesiano. (a) P (1, 2) e Q(4, 6). (d) P (−1, 0, 2) e Q(3, −2, 0). (b) P (1, 0) e Q(0, 1). (e) P (0, 0, 0) e Q(0, 1, 0). (c) P (1, 1) e Q(−1, −1). (f) P (0, 0, 0) e Q(1, 1, 1). −−→ 3. Represente por um segmento orientado OU o vetor u = (cos θ, sen θ) ∈ R2 . Qual a norma de u? Esboce no plano Euclidiano todos os pontos U (cos θ, sen θ). 4. (Lei do paralelogramo) Mostre que paraquais quer dois vetores v e w vale a identidade v + w2 + v − w = 2v2 + 2w2 . Dˆe uma justificativa para tal nome. 4.3 ˆ Angulo entre dois vetores A desigualdade de Cauchy-Schwarz, permitiu demonstrar que a norma associada ao produto interno satisfaz a desigualdade triangular. Com a norma transpomos para o Rn a id´eia de comprimento. Al´em disso, como veremos nessa se¸c˜ao, o produto interno tamb´em permite transpor o conceito de aˆngulo para o Rn . A u ´ nica informa¸c˜ao extra que necessitaremos ´e bem conhecida: 80 CAP´ITULO 4. PRODUTO INTERNO para cada t ∈ [−1, 1] existe um u ´ nico θ ∈ [0, π] tal que cos θ = t. Sendo assim, dados dois vetores n˜ao nulos v e w em Rn , desde que v = 0 e w = 0, a desigualdade de Cauchy-Schwarz pode ser reescrita, nesse caso, como # # #v, w# v, w ≤1 ou, equivalentemente, −1≤ ≤ 1. vw v w Logo, podemos garantir que existe um u ´ nico θ ∈ [0, π], o qual ser´a chamado de (medida) do aˆngulo entre os vetores n˜ao nulos v e w, tal que cos θ = v, w . v w Portanto, para dois vetores n˜ao nulos, v e w, temos uma excepcional f´ormula que relaciona produto interno, norma (comprimento) e aˆngulo, v, w = v wcos θ , onde θ ∈ [0, π] ´e a medida do aˆngulo entre os dois vetores. Algumas vezes, para deixar claro que o aˆngulo considerado ´e aquele relacionado aos vetores v e w, escrevemos θ(v, w). Exemplo 4.3.1 Calculemos o ˆangulo entre dois vetores n˜ao nulos do Rn , por exemplos, v = (2, −1, −1) e w = (−1, −1, 2). Calculando, √ √ e w = 6. v, w = −3, v = 6 √ √ . Portanto, a medida do Da igualdade −3 = 6 6cos θ, obtemos cos θ = −1 2 2π ˆangulo entre os vetores ´e θ = 3 . Recordamos que aˆngulo entre os vetores ´e medido por um valor no intervalo [0, π]. 2 Exemplo 4.3.2 Geralmente, n˜ao ´e poss´ıvel explicitar o valor da medida do ˆangulo entre dois vetores, podemos apenas fazer uma estimativa. Se v = (−1, 2, 1) e w = (3, −1, 3) s˜ao vetores do R3 , a identidade v, w = v wcos θ calcula indiretamente pois substituindo os valores √ √ o aˆngulo entre os vetores, −2 √ obtemos −2 = 6 19cos θ. Logo, cos θ = 114 . Devemos procurar o valor $ % aproximado de θ = arccos √−2 com θ ∈ [0, π]. 2 114 ˆ 4.3. ANGULO ENTRE DOIS VETORES 81 Diz-se que dois vetores v e w em Rn s˜ao ortogonais quando v, w = 0. O vetor nulo o ∈ Rn ´e ortogonal a qualquer outro vetor. Conv´em observar que quando dois vetores n˜ao nulos s˜ao ortogonais estamos exigindo que o aˆngulo entre eles seja θ = π2 , pois, se v = 0 e w = 0, as igualdades 0 = v, w = vw cos θ implicam que cos θ = 0. Como θ ∈ [0, π], conclu´ımos que o aˆngulo entre os dois vetores mede π/2. Um processo pr´ atico para construir um vetor perpendicular a um vetor n˜ ao nulo v = (a, b) ∈ R2 ´e considerar o vetor v ⊥ = (−b, a) ∈ R2 . Exemplo 4.3.3 Os vetores v = (1, 2) e w = (−4, 2) de R2 s˜ao ortogonais pois o produto interno ´e zero, v, w = 1 · (−4) + 2 · 2 = 0. Em E2 , quaisquer dois segmentos orientados com mesmo ponto inicial representando esses −→ −→ vetores, digamos P Q e P R, respectivamente, s˜ao perpendiculares. Na figura ao lado est´a indicado que o ponto inicial dos segmentos ´e P (4, 2). 2 Exerc´ıcios propostos 4.3.1 1. Calcule o ˆangulo entre os vetores u e v. (a) u = (−3, −3), v = (0, 4) ∈ R2 . (b) u = (2, 2, 2), v = (1, −1, 0) ∈ R3 . (c) u = (10, −3), v = (3, 10) ∈ R2 . √ √ √ √ (d) u = ( 2, 2, 2), v = ( 3, 0, 3), ∈ R3 . 2. Determine o valor da coordenada para que os aˆngulos entre os vetores do R3 seja o ˆangulo pedido. (a) v = (−1, 2, 1), w = (x, 1, 2), θ(v, w) = π3 . (b) v = (0, 1, 0), w = (1, y, 4), θ(v, w) = − π4 . 3. Determine um vetor ortogonal ao vetor η ∈ R2 . Descreva o conjunto Γ de todos os vetores que s˜ao ortogonais ao vetor η e verifique que o conjunto ´e uma reta. CAP´ITULO 4. PRODUTO INTERNO 82 (a) η = (−2, 3). (b) η = (3, 3). (c) η = (1, −1). 4. Calcule um vetor unit´ ario u ∈ R3 simultaneamente ortogonal aos vetores v = (2, 1, 0) e w = (1, −1, 2). 5. Determine a medida do aˆngulo entre o vetor v e cada um dos vetores da base canˆ onica (ˆ angulos diretores). (a) v = (−3, 2, 3) ∈ R3 . (b) v = (1, 1, 1). 6. Calcule o produto interno entre os vetores unit´ arios u1 = (cos θ, sen θ) e u2 = (cos α, sen α) e verifique a f´ ormula do cosseno da diferen¸ca de ˆangulos. 7. Seja v = (1, 1) ∈ R2 . Determine um vetor w ∈ R2 tal que β = {v, w} seja uma base de R2 e mais, v, w = 0. 8. Seja v = (1, 1, 1) ∈ R3 . Determine dois vetores w1 , w2 ∈ R3 tal que β = {v, w1 , w2 } seja uma base de R3 e mais, v, wi  = 0, i = 1, 2. 9. Verifique que os pontos P , Q e R do espa¸co Cartesiano E3 s˜ao v´ertices de um triˆ angulo retˆ angulo, onde P (3, 0, 2), Q(4, 3, 0) e R(8, 1, −1). 10. (Teorema de Pit´ agoras) Sejam v, w ∈ Rn tal que v, w = 0. Mostre que v2 + w2 = v + w2 . 11. Sejam v, w ∈ Rn . Mostre que v2 + w2 = v + w2 se, e somente se, v, w = 0. 12. Sejam v e w vetores em Rn . Mostre que v e w s˜ao ortogonais se, e somente se, v + w2 = v − w. 4.4 Retas em E2 (II) Recordamos que no cap´ıtulo anterior estudamos subconjuntos do Rn definidos por equa¸c˜oes lineares. Para isso, utilizamos o conceito de a´reas e volumes. Agora, examinaremos a rela¸c˜ao entre equa¸c˜oes lineares com o produto interno. Existem v´arias maneiras para determinar uma reta r no plano Euclidiano. No Ensino M´edio aprendemos algumas delas que n˜ao revisaremos. Aqui, estamos interessados na seguinte formula¸c˜ao. Uma reta fica bem determinada quando afirmamos 4.4. RETAS EM E2 (II) 83 −→ ”a reta r ⊂ E2 que cont´em o ponto R e tem dire¸c˜ao normal P Q”. Expliquemos o significado dessa express˜ao em termos de conjunto, a reta r ´e o conjunto formado por todos os pontos A ∈ E2 −→ −→ tal que o segmento orientado RA ´e ortogonal ao segmento orientado P Q. Sabendo-se quais s˜ao os pontos R, P e Q s´o existe uma reta satisfazendo essa condi¸c˜ao. O nosso objetivo ´e descrever a reta r por uma equa¸c˜ao. Vamos supor que ao fixarmos um sistema de eixos Cartesianos em E2 obtenhamos R(1, 2), P (1, 1) e Q(4, 0). Seja A(x, y) um ponto sobre a reta. Aquela condi¸c˜ao −→ −→ significa que RA e P Q s˜ao ortogonais, ou seja, os vetores representados por esses segmentos orientados, v = (x − 1, y − 2) e η = (3, −1), respectivamente, s˜ao ortogonais, portanto, r : v, η = 0. Um c´alculo r´apido nos d´a a equa¸c˜ao r : 3x − y − 1 = 0. Observe que os coeficientes de x e y s˜ao a primeira e a segunda coordenadas, repectivamente, do vetor η. Exemplo 4.4.1 Examinemos a reta r : 2x − y − 1 = 0 em E2 . Observe que R(1, 1) ∈ r, pois suas coordenadas satisfazem a equa¸c˜ao linear. Considere o ponto P cujas coordenadas s˜ao os coeficientes das vari´aveis x e y, ou seja, P (2, −1). Considere os pontos A(x, y) ∈ E2 , tais que o segmento −→ −→ orientado RA seja ortogonal ao segmento orientado OP . O primeiro segmento orientado representa o vetor v = (x − 1, y − 1) e o segundo segmento orientado CAP´ITULO 4. PRODUTO INTERNO 84 representa o vetor η = (2, −1). A condi¸c˜ao de ortogonalidade significa que 0 = v, η = 2x − y − 1. −→ Portanto, a reta r ´e aquela que passa por R e tem dire¸c˜ao normal OP . 2 O ponto a ser ressaltado nessa costru¸c˜ao diz respeito aos coeficientes das vari´aveis x e y da equa¸c˜ao da reta. Se r : ax + by + c = 0 ent˜ ao sua dire¸ca˜o normal −→ ´e dada por OP onde P (a, b). Por similaridade, um subconjunto do R2 do tipo Γ = {(x, y) ∈ R2 ; x − 3y + 1 = 0} ser´a chamado de uma reta que cont´em v = (2, 1) e tem vetor normal η = (1, −3). Exerc´ıcios propostos 4.4.1 1. Determine a equa¸c˜ao da reta em R2 que cont´em v e tem vetor normal η. (a) v = (1, 1) e η = (1, 1). (c) v = (0, 0) e η = (−1, 1) (b) v = (2, 1) e η = (1, 3) (d) v = (1, 0) e η = (−2, −3) 2. Determine a medida dos aˆngulos formados pelas retas do plano Cartesiano. (a) (b) 4.5 r1 = {A(x, y) ∈ E2 ; x − 2y = 0} r1 = {A(x, y) ∈ E2 ; x − y = 0} e e r2 = {A(x, y) ∈ E2 ; 2x + y = 3}. r2 = {A(x, y) ∈ E2 ; y = −6}. Planos em E3 (II) Repitiremos as mesmas id´eias descritas na se¸c˜ao anterior, agora, em E3 . Dentre os v´arios modos utilizados para descrever um plano α no espa¸co Euclidiano destacamos o seguinte, −→ ”o plano α que cont´em o ponto R e tem dire¸c˜ao normal P Q”. Reescrevamos essas condi¸c˜oes em termos de conjunto, o plano α ´e o conjunto formado por todos os pontos A ∈ E3 tal que o −→ −→ segmento RA ´e ortogonal ao segmento P Q. 4.5. PLANOS EM E3 (II) 85 Sabendo-se quais s˜ao os pontos R, P e Q em E3 , s´o existe um plano α satisfazendo essas condi¸c˜oes. Desjamos descrever esse plano por uma equa¸c˜ao. Vamos supor que ao fixarmos um sistema de eixos Cartesianos em E3 obtenhamos R(1, 2, 1), P (1, 1, 1) e Q(4, 0, 0). Seja A(x, y, z) um ponto sobre o plano −→ −→ α. Aquelas condi¸c˜oes implicam que RA e P Q s˜ao ortogonais, ou seja, os vetores v = (x − 1, y − 2, z − 1) e η = (3, −1, −1), representados por esses segmentos orientados, respectivamente, s˜ao ortogonais, portanto, α : v, η = 0. Efetuando o produto interno obtemos α : 3x − y − z = 0. Exemplo 4.5.1 Examinemos o plano α : 2x + y − 3z − 2 = 0 em E3 . ´ claro, R(1, 3, 1) ∈ α, pois suas coordenadas satisfazem a equa¸c˜ao linear. E Escolhamos o ponto P cujas coordenadas s˜ao os coeficientes das vari´aveis x, y e z, ou seja, P (2, 1, −3). Considere os pontos A(x, y, z) ∈ E3 , tais que o segmento −→ −→ orientado RA seja ortogonal ao segmento orientado OP . O primeiro segmento orientado representa o vetor v = (x − 1, y − 3, z − 1) e o segundo segmento orientado representa o vetor η = (2, 1, −3). A condi¸c˜ao de ortogonalidade significa que 0 = v, η = 2x + y − 3z − 2 = 0. −→ Portanto, o plano α ´e aquele que passa por R e tem dire¸c˜ao normal OP . 2 CAP´ITULO 4. PRODUTO INTERNO 86 O leitor pode verificar imediatamente a afirma¸c˜ao a seguir. Se α : ax + by + cz + d = 0 ent˜ ao sua dire¸c˜ao normal −→ ´e dada por OP onde P (a, b, c). Um subconjunto em R3 do tipo Γ = {(x, y, z) ∈ R3 ; 2x − 3y + z + 1 = 0} ser´a chamado de um plano que cont´em v = (1, 1, 1) e tem vetor normal η = (2, −3, 1). Exerc´ıcios propostos 4.5.1 1. Identifique o conjunto Γ ⊂ R3 formado por todos os vetores que s˜ao ortogonais ao vetor η ∈ R3 . (a) η = (−2, 3, 0). 4.6 (b) η = (3, 3, 1). (c) η = (0, 1, 0). Produto vetorial em R3 O espa¸co Euclidiano R3 admite uma opera¸c˜ao envolvendo dois vetores chamada de produto vetorial. Sejam v e w vetores de R3 . O produto vetorial de v por w ´e o vetor em R3 , denotado por v × w, tal que para qualquer vetor u ∈ R3 , vale a identidade u, v × w = det[u, v, w]. O produto vetorial goza de v´arias propriedades importantes entre as quais o conceito de ortogonalidade est´a presente. A seguir, mostraremos algumas delas e um algoritmo para calcular o produto vetorial. Proposi¸c˜ ao 4.6.1 Sejam v = (a, b, c) e w = (d, e, f ) vetores de R3 . Ent˜ao i) v × w ´e ortogonal aos vetores v e w, simultaneamente; ii) o produto vetorial de v por w ´e calculado pelo algoritmo  v×w =  det b e c f   , − det a d c f   , det a d b e  ; 4.6. PRODUTO VETORIAL EM R3 87 iii) v × w2 = det[v, w, v × w] ≥ 0. Prova i) Por defini¸c˜ao temos v, v × w = det[v, v, w]. Isto implica que a matriz [v, v, w] tem duas linhas iguais. Como sabemos, nestas condi¸c˜oes, podemos garantir que o seu determinante ´e zero. Portanto, o produto interno de v por v × w ´e zero, significando que v ´e ortogonal ao vetor v × w. O mesmo argumento vale para w e v × w. Assim fica mostrado o item i). ii) Utilizaremos propriedades conhecidas de combina¸c˜ao linear de vetores na base canˆonica, v × w = e1 , v × we1 + e2 , v × we2 + e3 , v × we3 = det[e1 , v, w]e1 + det[e2 , v, w]e2 + det[e3 , v, w]e3 $ = % det[e1 , v, w], det[e2 , v, w], det[e3, v, w] . Agora, ´e suficiente observarmos que as coordenadas s˜ao obtidos por ⎡ ⎤   1 a d b e , det[e1 , v, w] = det ⎣ 0 b e ⎦ = det c f 0 c f ⎤   0 a d a d , det[e2 , v, w] = det ⎣ 1 b e ⎦ = − det c f 0 c f ⎡ ⎡ ⎤   0 a d a d det[e3 , v, w] = det ⎣ 0 b e ⎦ = det . b e 1 c f Temos demonstrado o item (ii). iii) Provemos que det[v, w, v × w] ≥ 0. Desenvolvendo este determinante CAP´ITULO 4. PRODUTO INTERNO 88 pela terceira coluna (desenvolvimento de Laplace) obtemos ⎡ ⎤ a d bf − ce det[u, v, v × w] = det ⎣ b e cd − af ⎦ c f ae − bd = (ae − bd)2 + (af − cd)2 + (bf − ce)2 = v × w2 ≥ 0, provando o que quer´ıamos. 2 Exemplo 4.6.1 Apresentaremos um procedimento para avaliar mais rapidamente o produto vetorial e diminuir erros de c´alculo. Sejam v = (3, 1, −4) e w = (0, 2, 1) dois vetores do R2 . Para avaliarmos v×w, calculamos, formalmente, o determinante de uma matriz do tipo [e, v, w], onde esse s´ımbolo significa ⎤ ⎡ 3 0 e1 1 2 ⎦. [e, v, w] = ⎣ e2 e3 −4 1 Portanto, ao desenvolver o determinante pela primeira coluna ´e obtido v × w = det[e, v, w] = 9e1 − 3e2 + 6e3 = (9, −3, 6). Verifica-se facilmente que v, v × v = 0 e que w, v × w = 0. Examinemos com mais vagar o u ´ltimo item da proposi¸c˜ao, v × w2 = det[v, w, v × w]. Como det[v, w, v × w] ´e o volume do paralelep´ıpedo no espa¸co Cartesiano constru´ıdo de tal forma que as arestas s˜ao segmentos orientados representando os vetores v, w e v×w. 2 4.6. PRODUTO VETORIAL EM R3 89 Observe que o segmento orientado representando o vetor v ×w ´e perpendicular `a base e esta ´e o paralelogramo cujos lados s˜ao segmentos orientados representando os vetores v e w. Como o volume ´e a a´rea da base multiplicado pela altura h = ||v × w|| e o volume ´e v × w2 , segue que, geometricamente, a norma do vetor v × w ´e a a´rea de um paralelogramo em R3 cujos lados s˜ ao segmentos orientados representando v e w. Proposi¸c˜ ao 4.6.2 [F´ ormula de Lagrange] Para quaisquer dois vetores v e 3 w do R vale a identidade v × w2 = v2 w2 − v, w2. Em particular, se θ ´e a medida do aˆngulo entre os vetores v e w, ent˜ ao v × w = v wsen θ. Prova Sejam v = (a, b, c) e w = (d, e, f ). A demonstra¸c˜ao ´e de fato uma verifica¸c˜ao. Calculando v2 w2 − v, w2 =  a2 + b2 + c2  2  d + e2 + f 2 − (ad + be + cf )2 = (ae)2 + (af )2 + (bd)2 + (bf )2 + (cd)2 + (ce)2 −2 (abde + acdf + bcef ) = (ae − bd)2 + (af − cd)2 + (bf − ce)2 . Mas esse u ´ ltimo membro das igualdades ´e precisamente v × w2. Portanto, v × w2 = v2 w2 − v, w2, A segunda parte da proposi¸c˜ao fica como exerc´ıcio. 2 O resultado acima e a desigualdade de Cauchy-Schwarz implicam que Corol´ ario 4.6.1 Dados os vetores v e w em R3 , ent˜ ao v × w = 0 se, e somente se, v e w s˜ao colineares. CAP´ITULO 4. PRODUTO INTERNO 90 Prova A desigualdade de Cauchy-Schwarz nos garante que v2w2 −v, w2 ≥ 0 e ocorre igualdade se, e somente se, v e w s˜ao colineares. Logo, pela F´ormula de Lagrange podemos afirmar que v × w2 = v2w2 − v, w2 = 0 se, e somente se, v e w s˜ao colineares. 2 Nesse ponto, ´e conveniente destacar que temos em m˜aos v´arios algoritmos para calcular as principais informa¸c˜oes m´etricas da Geom´etrica Euclidiana. Podemos calcular:  comprimentos de segmentos em E2 e E3 utilizando produto interno;  ´areas de paralelogramos em E2 utilizando determinantes;  ´areas de paralelogramos em E3 utilizando normas de produtos vetoriais;  volumes de paralelep´ıpedos em E3 utilizando determinantes;  medidas de aˆngulos em E2 e E3 utilizando produto interno. Exerc´ıcios propostos 4.6.1 1. Seja C = {e1 , e2 , e3 } a base canˆonica do R3 . Verifique as identidades e observe a ciclicidade dos produtos vetoriais na primeira linha. (a) e1 × e2 = e3 . (c) e3 × e1 = e2 . (e) e3 × e2 = −e1 . (b) e2 × e3 = e1 . (d) e2 × e1 = −e3 . (f) e1 × e3 = −e2 . 2. Calcule o produto vetorial v × w e w × v dos vetores de R3 . Calcule v, v × w e w × v, w. (a) v = (1, −1, 1) e w = (2, 0, −1). (c) v = (−1, 1, 0) e w = (−2, 2, 0). (b) v = (−2, 1, 3) e w = (0, 0, 1). (d) v = (3, 1, 1) e w = (1, 0, 0). 3. Determine um vetor normal ao plano detefinido pelos pontos P , Q e R em E3 . (a) P (1, 0, 1), Q(0, 3, 2), R(1, 1, 1). (c) P (1, −2, 1), Q(0, 1, 5), R(1, 0, 0). (b) P (0, −1, 2), Q(1, 2, −1), R(0, 0, 0). (d) P (0, 0, 0), Q(1, 1, 1), R(1, 1, 0). 4. Mostre as identidades envolvendo produto vetorial. 4.6. PRODUTO VETORIAL EM R3 91 (a) u × (v + w) = u × v + u × w. (c) v × w = v wsenθ. (b) u × v = −v × u. (d) v × w, u = v, w × u. 5. Dado o vetor u ∈ R3 , determine dois vetores, digamos v e w, tal que o conjunto u , v, w} ´e uma base ortonormal do R3 , isto ´e, seus elementos s˜ao dois β = { u a dois ortogonais e unit´ arios. (a) u = (1, 1, 1). (c) u = (0, −5, 0). (b) u = (−2, 0, 1). 6. Calcule a ´area do paralelogramo em R3 cujos lados s˜ao segmentos orientados que representam os vetores v, w e v × w. (a) v = (1, −1, 1), w = (2, 0, −1). (c) v = (−1, 1, 0), w = (−2, 2, 0). (b) v = (−2, 1, 3), w = (0, 0, 1). (d) v = (3, 1, 1), w = (1, 0, 0). 7. Sejam v e w vetores em R3 . Simplifique as express˜ oes. (a) v1 = v × (v − w). (c) v3 = (3v − 2w) × (2v + 3w). (b) v2 = (v × w) × (w × v). 8. Sejam u, v e w vetores em R3 . Considerando a nota¸c˜ao utilizada neste texto, responda quais das express˜ oes a seguir faz sentido. (a) u + v, w. (c) u × v. (b) v, wu. (d) λu, v× = u, (λv) × w. arios e perpendiculares. Mostre que β = 9. Sejam u e v vetores do R3 , unit´ {u, v, u × v} ´e uma base ortonormal. 10. Dados quatro vetores t, u, v, w ∈ R3 , ´e verdade que (t × u) × (v × w) = (t × v) × (u × w)? 11. Demonstre as rela¸c˜oes entre os produtos vetorial e interno. (a) (u × v) × w = u, wv − v, wu. (b) u, v × w = w, u × v = v, w × u. (Produto vetorial duplo) (Identidade c´ıclica) CAP´ITULO 4. PRODUTO INTERNO 92 12. Sejam u, v, w ∈ R3 vetores n˜ao nulos e tais que u = 1, u ⊥ v e u ⊥ w. Mostre que o aˆngulo entre os vetores v e w ´e igual ao aˆngulo entre os vetores u × v e u × w, em outras palavras, θ(v, w) = θ(u × v, u × w). Interprete ´ necess´ario geometricamente fazendo uma figura. Generalize o resultado. E ´ necess´ario que u seja perpendicular aos outros dois que u seja unit´ario? E vetores? 4.7 Respostas e sugest˜ oes Se¸ c˜ ao 4.1 1) Aplicando a defini¸c˜ao de produto interno obtemos os valores, (a) v1 , v1  = 8, v1 , v2  = −4, v1 , v3  = 8. (b) v1 , v1  = 6, v1 , v2  = 0, vi , v3  = 0. (c) v1 , v2  = 7, v2 , v1  = 7. 2) Γ = {(x, y) ∈ R2 ; 3x + 2y = 0} corresponde a uma reta que cont´em a origem de E 2 e o ponto P (−2, 3). 3) Γ = {(x, y, z) ∈ R3 ; x − 2y + z = 0} corresponde a um plano que cont´em a origem de E 3 e os pontos P (2, 1, 0) e Q(1, 0, −1). 4) Uma reta em R3 . Se¸ c˜ ao 4.2 1) 2) √ √ 5, w = 13, u = 1. √ (b) v = 5, w = 1, u = 1. √ √ (c) 2 2. (a) 5. (b) 2. (a) v = (c) v = √ (d) 2 6. √ 21 2 , w = (e) 1. √ 13, u = 1. (f ) √ 3. 3) O vetor ´e unit´ario. O segmento orientado que representa u com ponto inicial a origem faz um aˆngulo θ com o eixo ox, medido no sentido anti-hor´ ario. O esbo¸co de todos os pontos ´e um c´ırculo de raio r = 1 centrado na origem. 4) v + w2 + v − w2 = v + w, v + w + v − w, v − w. Desenvolva o segundo membro dessa igualdade. Se¸ c˜ ao 4.3 1) Nenhum vetor ´e o vetor nulo. N˜ ao existe obstru¸c˜ao para calcular o aˆngulo entre os vetores dados. Veja a f´ ormula que relaciona produto interno, norma e cosseno do angulo entre vetores n˜ao nulos. ˆ ˜ 4.7. RESPOSTAS E SUGESTOES (a) θ = 3π 4 . (b) θ = π 2. 93 (c) θ = π 2. (d) θ = π 4. 2) Veja a f´ ormula que relaciona produto interno, norma e cosseno do ˆangulo entre vetores n˜ ao nulos. (a) x = 1 ou x = −17. (b) y = 0 ou y = 2. 3) Um vetor v = (x, y) ortogonal ao vetor η = (a, b) deve ter coordenadas que satisfazem a equa¸c˜ao (a, b), (x, y) = 0 = ax + by. (a) Γ = {(x, y) ∈ R2 ; −2x + 3y = 0}. (c) Γ = {(x, y) ∈ R2 ; x − y = 0}. (b) Γ = {(x, y) ∈ R2 ; 3x + 3y = 0}. 4) Um vetor u = (x, y, z), simultaneamente ortogonal aos vetores dados, deve satisfazer as equa¸c˜oes u, v = 0 = 2x + y e u, w = 0 = x − y + 2x. Logo, os u ´ nicos vetores unit´arios que satisfazem a essas equa¸c˜ao s˜ao u = ( √229 , − √429 , − √329 ) ou −u. 5) Veja a f´ ormula que relaciona produto interno, norma e cosseno do ˆangulo entre vetores n˜ ao nulos. . (a) θ(e1 , v) = arccos √−3 23 (b) θ(ei , v) = arccos √13 , i = 1, 2, 3. 7) w = (−1, 1), pois det[v, w] = 1 = 0. 8) Se w = (a, b, c) ´e ortogonal ao vetor v = (1, 1, 1), ent˜ ao o produto interno entre eles nos d´ a a equa¸c˜ao a + b + c = 0. Sendo assim, w1 = (1, −1, 0) ´e ortogonal ao vetor v. Tome w2 = v × w1 . Vocˆe pode ter encontrado outros vetores. −−→ − − → 9) Os segmentos orientado QP e QR representam os vetores v = (−1, −3, 2) e w = (4, −2, −1), respectivamente, e v, w = 0. 10) Suponha que v, w = 0. Desenvolva o segundo membro da igualdade v + w2 = v + w, v + w. 11) Utilize v + w2 = v + w, v + w. 11) Mosdtre que v + w2 = v − w2 se, e somente se, v, w = 0. Se¸ c˜ ao 4.4 1) (a) r : x + y = 2. (c) r : −x + y = 0. (b) r : x + 3y = 2. (d) r : 2x + 3y = 2. 2) Examine o aˆngulo entre os vetores normais. CAP´ITULO 4. PRODUTO INTERNO 94 (a) θ1 = θ2 = π 2. (b) θ1 = π 4 e θ2 = 3π 4 . Section 4.5) 1) S˜ ao planos em R3 que passam pela origem. (a) Γ = {(x, y, z) ∈ R3 ; −2x + 3y = 0}. (c) Γ = {(x, y, z) ∈ R3 ; y = 0}. (a) Γ = {(x, y, z) ∈ R3 ; 3x+3y+z = 0}. Section 4.6 2) Valem as igualdades v × w = −w × v e v, v × w = 0 = w, v × w. (a) v × w = (1, 3, 2). (c) v × w = (0, 0, 0). (b) v × w = (−2, 11, −5). (d) v × w = (1, −1, 0). −−→ −→ 3) Sejam v e w vetores cujos representantes s˜ao, respectivamente, P Q e P R. Um vetor normal ao plano definido pelos pontos P , Q e R ´e η = v × w. (a) η = (1, 0, −1). (c) η = (−11, −1, −2). (b) η = (−3, 2, 1). (d) η = (−1, 1, 0). 5) Escolhemos qualquer vetor v n˜ ao nulo e pependicular ao vetor u, consideramos w = u × v e normalizamos cada vetor, u, v e w. (a) u u = √1 (1, 1, 1); 3 v = 12 (1, −1, 0); w = √1 (1, 1, −2). 6 6) A ´ area de um paralelogramo cujos lados s˜ ao segmentos orientados representanto v e w ´e igual ao valor v × w. √ 14. √ (b) v × w = 5. (a) v × w = 7) (a) v1 = −v × w. 8) (a) N˜ao. (c) v × w = 0. √ (d) v × w = 2. (c) v3 = 13v × w. (b) v2 = o. (b) Sim. (c) N˜ao. (d) Sim. 9) Verifique que det[u, v, u × w] = 1 e use a regra de Cramer, Teorema 1.4.1, (pg.16). 10) N˜ao ´e verdadeira. Verifique para t = e1 , u = e1 , v = e2 e w = e3 . Cap´ıtulo 5 Subespa¸co vetorial Dentre todos os subconjuntos de Rn alguns s˜ao especiais, n˜ao apenas para ´ a compreens˜ao do texto, mas para a Algebra Linear como um todo. S˜ao os chamados subespa¸cos vetoriais, subconjunto que s˜ao, eles pr´oprios, espa¸co vetoriais. Para melhor entendimento do espa¸co Rn ´e conveniente estud´a-los. 5.1 Subespa¸ co e sistema linear Iniciemos com uma defini¸c˜ao. Diz-se que um subconjunto Γ ⊂ Rn ´e um subespa¸co vetorial quando: 1. Γ ´e um conjunto n˜ao vazio; 2. se v, w ∈ Γ ent˜ao v + w ∈ Γ; (fechado em rela¸c˜ao a` soma de vetores) 3. se v ∈ Γ e λ ∈ R ent˜ao λv ∈ Γ. escalar) (fechado em rela¸c˜ao ao produto por Por simplicidade, muitas vezes diremos que Γ ´e um subespa¸co em lugar de subespa¸co vetorial. O termo subespa¸co vetorial est´a bem empregado. O leitor pode verificar que Γ satisfaz todas as condi¸c˜oes exigidas na defini¸c˜ao de espa¸co vetorial, (pg.5), ficando o termo subespa¸co por conta de Γ ser um subconjunto de Rn . Na defini¸c˜ao de espa¸co vetorial ´e exigido que o conjunto tenha um elemento neutro em rela¸c˜ao a` soma de vetores. De fato, um subespa¸co Γ cont´em o vetor nulo de Rn . Sen˜ao, vejamos. Como Γ ´e n˜ao vazio, escolhemos um vetor qualquer v ∈ Γ e o escalar λ = 0. Pelo item 3, podemos garantir que o produto λv = o ∈ Γ. 95 CAP´ITULO 5. SUBESPAC ¸ O VETORIAL 96 Destacamos dois exemplos de subespa¸cos de Rn , a saber: subespa¸co trivial constitu´ıdo apenas pelo vetor nulo, Γ = {o}; todo o espa¸co, Γ = Rn . ´ claro, estaremos tamb´em interessados em estudar os subespa¸cos pr´oprios, E aqueles que satisfazem a condi¸c˜ao {o}  Γ  Rn O s´ımbolo  significa que o subconjunto est´a contido mas n˜ao ´e igual ao conjunto. Preferencialmente, empregaremos duas t´ecnicas para descrevˆe-los, ⎧ ⎨ equa¸c˜oes lineares homogˆeneas subespa¸cos definidos por ⎩ combina¸c˜oes lineares Ilustremos com um exemplo qual ´e o significado de um subespa¸co ser definido por uma equa¸c˜ao linear homogˆenea. Dado o subconjunto Γ = {(x, y, z) ∈ R3 ; x − 2y + 3z = 0} ⊂ R3 . A senten¸ca que define o conjunto, x − 2y + 3z = 0, ´e uma equa¸c˜ao linear homogˆenea e o conjunto Γ ´e um plano em R3 que cont´em a origem, veja Se¸c˜ao 3.4, (pg.3.4). Verificaremos que ele ´e um subespa¸co mostrando que Γ satisfaz as trˆes condi¸c˜oes enumeradas na defini¸c˜ao acima. 1. Γ ´e n˜ao vazio pois (4, 2, 0) ∈ Γ. 2. Sejam v = (x1 , y1, z1 ) e w = (x2 , y2, z2 ) vetores em Γ. Sendo assim, x1 − 2y1 + 3z1 = 0 e x2 − 2y2 + 3z2 = 0. Desejamos mostrar que a soma v + w = (x1 + x2 , y1 + y2 , z1 + z2 ) pertence ao conjunto Γ. Fazendo a substitui¸c˜ao na equa¸c˜ao linear homogˆenea obtemos x1 + x2 − 2(y1 + y2 ) + 3(z1 + z2 ) = (x1 − 2y1 + 3z1 ) + (x2 − 2y2 + 3z2 ) = 0+0 = 0. Portanto, v + w ∈ Γ. 5.1. SUBESPAC ¸ O E SISTEMA LINEAR 97 3. Sejam v = (x1 , y1 , z1 ) ∈ Γ e λ ∈ R. Por defini¸c˜ao de Γ sabemos que x1 − 2y1 + 3z1 = 0. Desejamos verificar que λv = (λx1 , λy1 , λz1 ) tamb´em pertence a Γ. Substitu´ındo na equa¸c˜ao linear homogˆenea temos λx1 − 2λy1 + 3λz1 = λ(x1 − 2y1 + 3z1 ) = λ0 = 0. Isso mostra que λv ∈ Γ. Podemos afirmar algo mais. O subespa¸co Γ ´e pr´oprio pois {o}  Γ, desde que / Γ. (4, 2, 0) ∈ Γ, bem como, Γ  R3 pois o vetor v = (1, 1, 1) ∈ Exerc´ıcio 5.1.1 Siga o mesmo roteiro do exemplo acima para mostrar que o conjunto Γ = {(x, y) ∈ R2 , 2x − 3y = 0} ´e um subespa¸co. Esse conjunto ´e uma reta que cont´em a origem. 2 Voltemos ao subespa¸co Γ = {(x, y, z) ∈ R3 ; x − 2y + 3z = 0} ⊂ R3 . A senten¸ca que define esse subespa¸co pode ser escrita de outra forma, utilizando produto interno. Observe que Γ ´e o conjunto que cont´em o = (0, 0, 0) e tem vetor normal η = (1, −2, 3). Portanto, se v = (x, y, z) ∈ R3 , ent˜ao a equa¸c˜ao linear homogˆenea ´e obtida por η, v = x − 2y + 3z = 0. Ou seja, Γ = {v ∈ R3 ; η, v = 0} ´e um plano que cont´em o e tem vetor dire¸c˜ao normal η. Exerc´ıcio 5.1.2 Seja η = (2, −1) ∈ R2 . Mostre, utilizando a defini¸c˜ao de subespa¸co vetorial, que Γ = {v ∈ R2 ; v, η = 0} ´e um subespa¸co. Calcule a inclina¸c˜ao dessa reta. 2 Existem muitos modos de contru´ırmos subespa¸cos, um deles ´e considerar interse¸c˜oes de subespa¸cos. Proposi¸c˜ ao 5.1.1 Se Γ1 e Γ2 s˜ao dois subespa¸cos vetoriais de Rn , ent˜ ao a interse¸c˜ao Γ1 ∩ Γ2 tamb´em o ´e. CAP´ITULO 5. SUBESPAC ¸ O VETORIAL 98 Prova Como o ∈ Γ1 e o ∈ Γ2 segue que o ∈ Γ1 ∩ Γ2 . Logo, a interse¸c˜ao ´e um conjunto n˜ao vazio, como exigido pela defini¸c˜ao de subespa¸co. Sejam v, w ∈ Γ1 ∩ Γ2 . Essa hip´otese implica que v, w ∈ Γ1 e v, w ∈ Γ2 . Como Γ1 e Γ2 s˜ao subespa¸cos, pelo item 2 da defini¸c˜ao de subespa¸co, temos v + w ∈ Γ1 e v + w ∈ Γ2 . Portanto, v + w ∈ Γ1 ∩ Γ2 . Isso mostra que a interse¸c˜ao goza da propriedade 2. Examinemos o terceiro item. Sejam λ ∈ R e v ∈ Γ1 ∩ Γ2 . Como Γ1 e Γ2 s˜ao subespa¸cos garantimos que λv ∈ Γ1 e λv ∈ Γ2 . Logo, λv ∈ Γ1 ∩ Γ2 . 2 Exerc´ıcio 5.1.3 Mostre que Γ = {(x, y, z) ∈ R3 ; x − z = 0 e 2x − y + z = 0} ´e um subespa¸co. O conjunto ´e uma reta que cont´em a origem. 2 Exerc´ıcio 5.1.4 Seja v0 = (1, −1) ∈ R2 . Mostre que o conjunto Π = {λv0 ; λ ∈ R} ´e um subespa¸co pr´oprio de R2 . Descreva esse subespa¸co utilizando uma equa¸c˜ao linear homogˆenea. Sejam w0 = (−2, 2) ∈ R2 e Υ = {λw0 ; λ ∈ R}. Mostre que Π = Υ. 2 Exerc´ıcio 5.1.5 Sejam Γ e Λ subespa¸cos do Rn . Mostre que o conjunto Γ + Λ = {u ∈ Rn ; u = v + w, v ∈ Γ e w ∈ Λ} ´e um subespa¸co do Rn . 2 Exerc´ıcios propostos 5.1.1 1. Verifique quais dos vetores, u = (2, 0, 2), v = (8, −2, 4) e w = (1, 1, 6), pertencem ao subespa¸co Γ = {(x, y, z) ∈ R3 ; x + 2y − z = 0}. 2. Considere o subespa¸co Γ = {(x, y, z) ∈ R3 ; −x + 4y + z = 0}. Escolhidos trˆes vetores distintos, u, v e w, nesse subespa¸co, como vocˆe justifica, geometricamente, que det[u, v, w] = 0? 3. Quais dos subconjunto ´e um subespa¸co pr´ oprio? Esboce-os. (a) Γ = {(x, y) ∈ R2 ; x = 0}. (c) Γ = {(x, y) ∈ R2 ; 0x + 0y = 0}. (b) Γ = {(x, y, z) ∈ R3 ; y = 0}. (d) Γ = {(x, y, z) ∈ R3 ; y = 0 e z = 0}. 4. Mostre que o conjunto Υ = {t(1, 2, 1), t ∈ R} (os m´ ultiplos de v = (1, 2, 1)) ´e um subespa¸co. ˜ LINEAR 5.2. SUBESPAC ¸ O E COMBINAC ¸ AO 99 5. Mostre que os subespa¸cos Γ = {(x, y, z) ∈ R3 ; x − 2y + 3z = 0 e x − y + z = 0} e Υ = {t(1, 2, 1), t ∈ R} s˜ao iguais. 6. Esboce o conjunto no plano Cartesiano correspondente ao subespa¸co Γ = {(x, y) ∈ R2 ; x − 2y = 0 e 2x − 3y = 0}. 7. Um subespa¸co pode ser definido por v´ arias equa¸c˜oes lineares homogˆeneas. Mostre que o subconjunto Γ ⊂ R3 ´e um subespa¸co, onde Γ = {(x, y, z) ∈ R3 ; x − 2y + 3z = 0 e x − y + z = 0}. Verifique que esse subespa¸co ´e representado no espa¸co Cartesiano por uma reta que cont´em a origem. Quais dos vetores, v = (1, 2, 1) e w = (0, 2, 2) pertencem a Γ? Expresse o subespa¸co como uma interse¸c˜ao de subespa¸cos, Γ = Γ1 ∩ Γ2 . ao ´e um sube8. Mostre que o subconjunto Π = {(x, y) ∈ R2 ; x2 − y = 0} n˜ spa¸co (encontre um item da defini¸c˜ao de subespa¸co que n˜ ao seja v´alido para o conjunto). 9. O fato da equa¸c˜ao linear ser homogˆenea ´e crucial. ao ´e um subespa¸co. (a) Verifique que Π = {(x, y) ∈ R2 ; 2x − y = 4} n˜ (b) Esboce no plano Cartesiano os conjuntos r = {P (x, y) ∈ E2 ; 2x − y = 0} e s = {P (x, y) ∈ E2 ; 2x − y = 4}. 10. Considere o subconjunto do R3 , Γ = {(x, y, z) ∈ R3 ; x − 2y = 1}. Quais das afirma¸c˜ao s˜ao falsas. (a) Γ ´e uma reta e n˜ao ´e um subespa¸co. (b) Γ ´e uma reta e um subesp¸co. (c) Γ ´e um plano e n˜ ao ´e um subespa¸co. (d) Γ ´e um plano e ´e um subspa¸co. (e) Γ ´e a interse¸c˜ao de uma reta com um plano. 5.2 Subespa¸ co e combina¸ c˜ ao linear Apresentaremos um outro modo de descrever um subespa¸co. Para isso, recorreremos ao conceito de combina¸c˜ao linear. Antes, fixemos uma nota¸c˜ao. CAP´ITULO 5. SUBESPAC ¸ O VETORIAL 100 O conjunto formado por todos os vetores que s˜ao combina¸c˜oes lineares dos vetores v1 , v2 , ..., vk ∈ Rn ser´a indicado por [[v1 , v2 , ..., vk ]] ⊂ Rn , formalmente, [[v1 , v2 , ..., vk ]] = {w ∈ Rn ; w = a1 v1 + a2 v2 + · · · + ak vk , ai ∈ R}. Segue da defini¸c˜ao que [[v1 ]] ´e o conjunto de todos os m´ ultiplos de v1 . Observe que [[v1 ]] = {a1 v1 ; a1 ∈ R}. Exemplo 5.2.1 Sejam v1 = (1, −2, 1) e v2 = (1, 0, 1) vetores em R3 . Valem as afirma¸c˜oes: ◦ ◦ ◦ u = (−1, −2, −1) ∈ [[v1 , v2 ]], v = (4, −6, 4) ∈ [[v1 , v2 ]], w = (a1 + a2 , −a2 , a1 + a2 ) ∈ [[v1 , v2 ]], pois u = v1 − 2v2 ; pois v = 3v1 + v2 ; pois w = a1 v1 + a2 v2 ; A quest˜ao ´e saber quando um dado vetor, por exemplo, w = (0, −1, 2) ∈ R3 , pertence ao conjunto [[v1 , v2 ]], ou n˜ao pertence. Para isso, necessitaremos de um pouco mais de teoria que ser´a desenvolvida a seguir. 2 O primeiro resultado que demonstraremos na sequˆencia ser´a a Proposi¸c˜ao 5.3.1 garantindo que um conjunto formado pelas combina¸c˜oes lineares de vetores ´e um subespa¸cos, mas, antes, ilustraremos com um exemplo a rela¸c˜ao entre essa apresenta¸c˜ao e aquela por equa¸c˜oes lineares homogˆeneas. Consideremos um subespa¸co definido por uma equa¸c˜ao linear homogˆenea, digamos que seja Γ = {(x, y, z) ∈ R3 ; x − y + 3z = 0}. Um vetor w = (a1 , a2 , a3 ) pertence a Γ se, e somente se, a1 − a2 + 3a3 = 0. Explicitando a1 em fun¸c˜ao de a2 e a3 , podemos afirmar que w ∈ Γ, se, e somente se, w = (a2 − 3a3 , a2 , a3 ) = (a2 , a2 , 0) + (−3a3 , 0, a3 ) = a2 (1, 1, 0) + a3 (−3, 0, 1). Portanto, w ∈ Γ se, e somente se, w ´e uma combina¸c˜ao linear dos vetores v1 = (1, 1, 0) e v2 = (−3, 0, 1). Logo, Γ = [[v1 , v2 ]]. Observe que os dois vetores encontrados pertencem ao subespa¸co Γ. Se apelarmos para a nossa intui¸c˜ao f´ısica, de fato, dever´ıamos ter encontrar pelo menos dois vetores para indicar as duas dire¸c˜oes no plano Γ que permitem fazer todas trajet´orias poss´ıveis da ˜ LINEAR 5.2. SUBESPAC ¸ O E COMBINAC ¸ AO 101 origem a um outro ponto sobre ele. Entretanto, poder´ıamos decidido explicitar a2 em funa¸c˜ao das outras vari´aveis, a2 = a1 + 3a3 . Sendo assim, seguindo o mesmo roteiro ter´ıamos, w ∈ Γ, se, e somente se, w = a1 (1, 1, 0) + a3 (0, 3, 1). Isto ´e, Γ = [[w1 , w2 ]], onde w1 = (1, 1, 0) e w2 = (0, 3, 1). Observe que a dupla de vetores n˜ao ´e igual a` dupla anterior. Esse exemplo mostra que um subespa¸co pode ser descrito como o subespa¸co de combina¸c˜oes lineares utilizando v´arias cole¸c˜oes de vetores, n˜ao existe apenas uma cole¸c˜ao. Examinemos, agora, um subespa¸co definido por duas equa¸c˜oes lineares homogˆeneas. Seja Γ = {(x, y, z) ∈ R2 , x − y + 2z = 0 e x + y + z = 0}. Mostraremos que Γ = [[v1 ]], onde v1 = (−3, 1, 2). Observe que w = (a1 , a2 , a3 ) ∈ Γ se, e somente se, ⎤ ⎞ ⎛ ⎡     a1  0 ⎠ 1 −1 2 ⎣ a1 − a2 + 2a3 = 0 ⎝ou a2 ⎦ = . 0 a1 + a2 + a3 = 0 1 1 1 a3 N˜ao podemos utilizar regra de Cramer para resolver o sistema pois a matriz principal n˜ao ´e quadrada. Devemos escolher uma maior submatriz quadrada com determinante n˜ao igual a zero, e resolver o sistema cuja matriz principal ´e essa submatriz. As submatrizes 2 × 2 do sistema s˜ao       1 −1 1 2 −1 2 , e . 1 1 1 1 1 1 Como qualquer uma delas tem determinante diferente de zero, escolhamos uma, por exemplo, a segunda. Logo, o sistema que devemos resolver fica sendo       a2 1 2 a1 a2 a1 + 2a3 = ou = , a1 + a3 = −a2 a3 −a2 1 1 de onde obtemos a1 = −3a2 e a3 = 2a2 . CAP´ITULO 5. SUBESPAC ¸ O VETORIAL 102 Portanto, w ∈ Γ se, e somente se, w = (−3a2 , a2 , 2a2 ) = a2 (−3, 1, 2), ou seja, Γ = [[v1 ]], onde v1 = (3, 1, 2). Caso escolhamos a primeira submatriz teremos outro subsistema       −1 2 a2 −a1 − a2 + 2a3 = −a1 ou = , a2 + a3 = −a1 a3 −a1 1 1 cuja solu¸c˜ao ´e 1 a2 = − a1 3 e 2 a3 = − a1 . 3 Isso mostra que Γ = [[w1 ]], onde w1 = (1, − 13 , − 23 ). Observe que v1 = −3w1 , portanto, afirmar que Γ ´e formado pelos m´ ultiplo de v1 ou pelos m´ ultiplos de w1 n˜ao faz diferen¸ca, o conjunto ´e o mesmo. Mostre essa afirma¸c˜ao. Exerc´ıcios propostos 5.2.1 1. Mostre a igualdade dos conjuntos (subespa¸cos). (a) {(x, y) ∈ R2 , 3x − y = 0} = [[v1 ]] onde v1 = (1, 3). (b) {(x, y, z) ∈ R3 ; x − 2y + z = 0} = [[v1 , v2 ]], onde v1 = (2, 1, 0) e v2 = (−1, 0, 1). (c) {(t, x, y, z) ∈ R4 ; t + 2y = 0} = [[v1 , v2 , v3 ]], onde v1 = (−2, 0, 1, 0), v2 = e2 e v3 = e4 . (d) {(x, y) ∈ R2 , 3x + 4y = 0 e x − y = 0} = {o} = [[o]] onde o = (0, 0). (e) {(x, y, z) ∈ R3 ; 2x − 2y − z = 0 e y = 0} = [[v1 ]], onde v1 = (1, 0, 2). (f) {(t, x, y, z) ∈ R4 ; t + 2y = 0 e 2x + 3y + z = 0} = [[v1 , v2 ]], onde v1 = (−2, 0, 1, 0) e v2 = (0, 1, 0, −3). 2. Considere Γ = {(x, y, z) ∈ R3 ; 2x + 2y + 2z = 0 e x + y + z = 0}. Este subespa¸co corresponde a uma reta ou a um plano no espa¸co Cartesiano? 3. Considere os seguintes subespa¸cos vetoriais de R3 : i) Γ = {(x, y, z) ∈ R3 ; x − 2y = 0}; ii) Λ = {(x, y, z) ∈ R3 , x − 2y − z = 0}; iii) Φ = {(x, y, z) ∈ R3 ; x − 2y = 0 e x − 2y − z = 0}. Responda se a afirma¸c˜ao ´e falsa ou verdadeira. 5.3. O SUBESPAC ¸ O [[V1 , V2 , ..., VK ]] (a) Γ ⊂ Φ. 5.3 (b) Φ ⊂ Γ. 103 (c) Φ  Λ. (d) Γ ⊂ Λ. O subespa¸ co [[v1, v2, ..., vk ]] A nota¸c˜ao para o conjunto de combina¸c˜oes lineares de vetores ´e extremamente compacta, ela possui uma s´erie de informa¸ c˜oes agregadas e n˜ao explicitadas. √ Por exemplo, escrevendo [[(1, 0), (1, 1), (− 2, 1)]] j´a sabemos que ele ´e um subconjunto do R2 (na verdade, como veremos, ´e um subespa¸co) pois ´e formado por todos √ os vetores do tipo v = a1 v1 + a2 v2 + a3 v3 , onde v1 = (1, 0), v2 = (1, 1) e v3 = (− 2, 1) s˜ao vetores do R2 e a1 , a2 e a3 pertencem a R. Ao escrevermos o s´ımbolo [[(2, 12 , −5)]] estamos indicando um subconjunto do R3 formado por todos os vetores w = a1 v1 , onde v1 = (2, 12 , −5) e a1 ∈ R. Portanto, o conjunto ´e formado pelos m´ ultiplos do vetor v1 . Algumas vezes, podemos identificar imediatamente qual ´e o conjunto das combina¸c˜oes lineares que estamos considerando. ´ claro que vale a Exemplo 5.3.1 Mostemos que [[(1, −1), (2, 4)]] = R2 . E 2 inclus˜ao [[(1, −1), (2, 4)]] ⊂ R . Precisamos mostrar a inclus˜ao inversa, R2 ⊂ [[(1, −1), (2, 4)]], de onde seguir´a a igualdade dos conjuntos. Como o determinante da matriz formada pelos vetores v1 = (1, −1) e v2 = (2, 4) n˜ao ´e zero, det[v1 , v2 ] = 6, conclu´ımos que β = {v1 , v2 } ´e uma base de R2 . Recordando a defini¸c˜ao de base, podemos afirmar que todo vetor w ∈ R2 escreve-se como uma combina¸c˜ao linear w = a1 v1 + a2 v2 . 2 Exerc´ıcio 5.3.1 Dado o conjunto das combina¸c˜oes lineres [[v1 , v2 , ..., vn ]] onde vi ∈ Rn . Mostre que se det[v1 , v2 , ..., vn ] = 0 ent˜ao Rn = [[v1 , v2 , ..., vn ]]. 2 A nota¸c˜ao guarda outras informa¸c˜oes. Por exemplo, v1 ∈ [[v1 , v2 , ..., vn ]] desde que vale a combina¸c˜ao linear v1 = 1v1 +0v2 +· · ·+0vn . Da mesma forma, qualquer vi pertence ao subconjunto. O vetor nulo o = (0, 0, ..., 0) tamb´em pertence ao conjunto, pois vale a combina¸c˜ao linear o = 0v1 + 0v2 + · · · + 0vn . Proposi¸c˜ ao 5.3.1 Sejam v1 , v2 , ..., vk ∈ Rn . O conjunto das combina¸c˜oes lineares desses vetores, [[v1 , v2 , ..., vk ]] = {w ∈ Rn ; w = a1 v1 + a2 v2 + · · · + ak vk , ai ∈ R}, ´e um subespa¸co vetorial de Rn . 104 CAP´ITULO 5. SUBESPAC ¸ O VETORIAL Prova Devemos mostrar que o conjunto possui as trˆes propriedades exigidas na defini¸c˜ao de subespa¸co. 1. O conjunto n˜ao ´e vazio pois vi ∈ [[v1 , v2 , ..., vk ]]. 2. Sejam v, w ∈ [[v1 , v2 , ..., vk ]]. Por defini¸c˜ao de conjunto das combina¸c˜oes lineares, existem escalares a1 , a2 , ...,ak e b1 , b2 , ...,bk tais que v = a1 v1 + a2 v2 + · · · + ak vk e w = b1 v1 + b2 v2 + · · · + bk vk . Sendo assim, a soma v + w pertence ao conjunto [[v1 , v2 , ..., vk ]] pois essa soma ´e uma combina¸c˜ao linear com coeficientes ci = ai + bi , isto ´e, v + w = (a1 + b1 )v1 + (a2 + b2 )v2 + · · · + (ak + bk )vk . 3. Seja λ um escalar. Ent˜ao λv pertence ao conjunto [[v1 , v2 , ..., vk ]] pois ele ´e uma combina¸c˜ao linear dos vi com coeficientes di = λai , explicitamente, 2 λv = λa1 v1 + λa2 v2 + · · · + λak vk . A proposi¸c˜ao ensina um pouco mais: ´e muito f´acil construir subespa¸cos vetoriais, basta escolher uma cole¸c˜ao n˜ao vazia de vetores, v1 , v2 , ..., vk ∈ Rn , e considerar o conjunto de todas combina¸c˜oes lineares desses vetores, [[v1 , v2 , ..., vk ]]. O pr´oximo exemplo nos ensina como devemos redefinir um subespa¸co de combina¸c˜oes lineares utilizando equa¸c˜oes lineares homogˆeneas. Exemplo 5.3.2 Seja Γ = [[v1 , v2 ]] ⊂ R4 o subespa¸co das combina¸c˜oes lineares dos vetores v1 = (1, 2, 1, −2) e v2 = (1, 1, −1, 1). Por defini¸c˜ao, um vetor w = (t, x, y, z) ∈ Γ se, e somente se, existem escalares a1 e a2 tais que (t, x, y, z) = a1 v1 + a2 v2 . Desejamos determinar os dois escalares em fun¸c˜ao de t, x, y e z. A igualdade acima nos leva ao sistema linear 4 × 2, ⎧ ⎛ ⎡ ⎤ ⎡ ⎤⎞ a1 + a2 = t 1 1  t ⎪ ⎪  ⎨ ⎜ ⎢ ⎥ ⎢ ⎥⎟ 2a1 + a2 = x 1 ⎥ a1 ⎜ou ⎢ 2 ⎢ x ⎥⎟ . = ⎝ ⎣ 1 −1 ⎦ a2 ⎣ y ⎦⎠ a1 − a2 = y ⎪ ⎪ ⎩ −2 1 −2a1 + a2 = z z 5.3. O SUBESPAC ¸ O [[V1 , V2 , ..., VK ]] 105 Para resolver por regra de Cramer, podemos considerar somente as duas primeiras equa¸c˜oes, isto ´e, suprimir por um momento as duas u ´ltimas,       1 1 a1 t a1 + a2 = t ou = . 2a1 + a2 = x 2 1 a2 x Obtemos os valores a1 = −t+x e a2 = 2t−x. Mas esses valores devem satisfazer tamb´em as duas equa¸c˜oes suprimidas, logo por substitui¸c˜ao devemos ter   (−t + x) − (2t − x) = y a1 − a2 = y , . −2(−t + x) + (2t − x) = z −2a1 + a2 = z Portanto, um vetor (t, x, y, z) ∈ Γ se, e somente se, suas coordenadas satisfazem as equa¸c˜oes, −3t + 2x − y = 0 e 4t − 3x − z = 0. Logo, o subespa¸co pode ser redefinido como Γ = {(t, x, y, z) ∈ R4 ; −3t + 2x − y = 0 e 4t − 3x − z = 0}. 2 Exerc´ıcios propostos 5.3.1 1. Para cada subespa¸co, redefina-o utilizando equa¸c˜oes lineares homogˆeneas. (a) [[(−2, 5)]]. (e) [[(−2, 1, 0)]]. (b) [[(−2, 1, 0), (1, 1, 1)]]. (f) [[(1, 1, 1), (2, 2, 2)]]. (c) [[(0, 1, −2), (1, 0, 1)]]. (g) [[(0, 1, −3, 2) (1, −1, 1, 3)]] (d) [[(−1, 2, −1)]]. (h) [[(2, 1, 1, −3)]] 2. Expresse os vetores de R2 como combina¸c˜ao linear de v1 = (1, 4) e v2 = (1, 5). (a) u = (4, 1). (b) v = (2, 3). (c) w = (−1, 2). (d) t = (1, 4). 3. Expresse os vetores do R3 como combina¸c˜ao linear de v1 = (1, 0, 2), v2 = (−2, −1, 0) e v3 = (−1, 2, 1). (a) u = (−8, 4, 1). (b) v = (0, 2, 3). (c) w = (−1, 2, 1). 4. Quais dos vetores pertencem ao subespa¸co [[(1, −1, 1), (0, 2, 1)]]? CAP´ITULO 5. SUBESPAC ¸ O VETORIAL 106 (a) u = (2, 0, 3). (c) w = (4, 1, 6). (b) v = (3, 7, 8). (d) t = (1, 0, 0). 5. Dados os vetores v1 , v2 , ..., vk de Rn . Mostre que o menor subespa¸co que cont´em esses vetores ´e o subespa¸co das combina¸c˜oes lineares [[v1 , v2 , ..., vk ]]. 5.4 Geradores N˜ao existem apenas as duas formas, equa¸c˜oes lineares homogˆeneas ou combina¸c˜oes lineares, para descrever um subespa¸co, existem in´ umeras outras. Um ponto importante da teoria ´e simplificar o estudo mostrando que seja qual for o subespa¸co Γ ⊂ Rn ele sempre pode ser descrito como o espa¸co de combina¸c˜oes lineares de vetores, isto ´e, Γ = [[v1 , v2 , ..., vk ]]. Esse ´e o nosso objetivo. O conjunto de tais vetores recebem um nome especial. Um subconjuto β = {v1 , v2 , ..., vk } ⊂ Rn ´e um conjunto ordenado de geradores do subespa¸co Γ ⊂ Rn se Γ = [[v1 , v2 , ..., vk ]]. Nesse caso diz-se que β gera Γ. Exemplo 5.4.1 O conceito de geradores n˜ao ´e novo. J´a vimos anteriormente que qualquer base ordenada β = {v1 , v2 , ..., vn } de Rn ´e um conjunto de geradores para Rn . Vimos e revimos que Rn = [[v1 , v2 , ..., vn ]], at´e foi exibido um conjunto especial de geradores, a base canˆonica C = {e1 , e2 , ..., en }. Base ´e um caso especial (e o mais importante) de geradores. 2 Ao descrevermos o subespa¸co na forma Γ = [[v1 , v2 , ..., vk ]], ´e sup´erfluo perguntar por geradores, ele j´a est´a definido por geradores. Com outro tipo de defini¸c˜ao, por exemplo, por equa¸c˜oes lineares homogˆeneas, faz sentido perguntar por geradores do subespa¸co. Um subespa¸co pode ter duas cole¸c˜oes distintas de geradores! Isto ´e, pode ocorrer que Γ = [[v1 , v2 , ..., vk ]] = [[w1 , w2 , ..., wl ]], onde os vetores e a quantidade deles n˜ao s˜ao iguais. Tais fenˆomenos j´a foram comentados em exemplos de se¸c˜oes anteriores. Como veremos, aumentar o n´ umero de vetores na cole¸c˜ao β ou diminu´ı-los sem modificar o subespa¸co diz respeito apenas ao conceito de combina¸c˜ao linear. Ao eliminar um vetor da lista, digamos que seja o u ´ltimo vetor, vn , fica 5.4. GERADORES 107 valendo a inclus˜ao, [[v1 , v2 , ..., vn−1 ]] ⊂ [[v1 , v2 , ..., vn−1 , vn ]]. De fato, cada vetor pertencente ao primeiro subespa¸co ´e um vetor pertencente ao segundo subespa¸co. Sen˜ao, vejamos. Afirmar que w ∈ [[v1 , v2 , ..., vn−1 ]] significa que w = a1 v1 + a2 v2 + · · · + an−1 vn−1 . Mas ao somarmos o vetor nulo o = 0vn ao vetor w obtemos ainda o vetor w. Logo, w = a1 v1 + a2 v2 + · · · + an−1 vn−1 + 0vn . Mas essa express˜ao est´a indicando que w ´e uma combina¸c˜ao linear dos n vetores, logo, w ∈ [[v1 , v2 , ...vn−1 , vn ]]. Portanto, ao eliminarmos o elemento vi da lista, fato que indicaremos simbolicamente como [[v1 , v2 , ...,  vi , ..., vn ]], vale a inclus˜ao de subespa¸cos [[v1 , v2 , ...,  vi , ..., vn ]] ⊂ [[v1 , v2 , ..., vi , ..., vn ]]. A principal observa¸c˜ao da qual seguir´a a teoria, ´e que n˜ao podemos concluir, de imediato, que vale a inclus˜ao pr´opria, isto ´e, [[v1 , v2 , ...,  vi , ..., vn ]]  [[v1 , v2 , ..., vi , ..., vn ]]. Algumas vezes, ao eliminarmos um vetor da lista, continuamos com o mesmo subconjunto, enquanto, outras vezes, obtemos um subconjunto pr´ oprio! Tal comportamento est´a relacionado com o conceito de combina¸c˜ao linear e ser´a discutido na pr´oxima proposi¸c˜ao. Exemplo 5.4.2 Seja Γ = [[v1 , v2 , v3 ]] ⊂ R3 , onde v1 = (5, −1, 0), v2 = (2, 2, −2) e v3 = (−1, −7, 6). Consideremos o vetor w ∈ Γ, w = 2v1 − v2 − v3 = (9, 3, −4).. O fato do terceiro vetor do conjunto de geradores ser uma combina¸c˜ao linear dos dois primeiros vetores, v3 = v1 − 3v2 , nos permite escrever que w = 2v1 − v2 − v1 + 3v2 = v1 + 2v2 . Logo, w ∈ [[v1 , v2 ]]. Essas contas num´ericas indicam que ao suprimirmos um vetor do conjunto de geradores que seja combina¸c˜ao linear dos outros vetores do conjunto de geradores o subespa¸co gerado ´e o mesmo. Deixemos registrado esse fato no principal teorema do cap´ıtulo. 2 108 CAP´ITULO 5. SUBESPAC ¸ O VETORIAL Deste ponto em diante, a menos que seja dito explicitamente o contr´ario, passamos a supor que os subespa¸cos considerados Γ ⊂ Rn n˜ ao s˜ ao o subespa¸co trivial e os conjuntos ordenados β = {v1 , v2 , ..., vk } s˜ao formados por vetores n˜ ao nulos. A seguir, apresentaremos trˆes afirma¸c˜oes eq¨ uivalentes. Isso significa que quando ocorre uma delas as outras duas tamb´em ocorrem. Teorema 5.4.1 Dado o subespa¸co [[v1 , v2 , ..., vk ]] ⊂ Rn . As afirma¸c˜oes s˜ao eq¨ uivalentes. 1. Algum vetor vi ´e uma combina¸c˜ao linear dos outros vetores da lista; 2. [[v1 , ..., vi , ...vk ]] = [[v1 , ..., vi , ...vk ]]. ( vi indica que vi foi suprimido) 3. O conjunto de vetores {v1 , ..., vi , ...vk } ´e linearmente dependente (l.d.), isto ´e, o vetor nulo expressa-se por uma combina¸c˜ao linear o = a1 v1 + a2 v2 + · · · + ak vk , na qual os coeficientes ai ’s n˜ ao s˜ ao todos iguais a zero. Prova 1. ⇒ 2.) Sem perder a generalidade, podemos supor que seja vk o vetor que ´e uma combina¸c˜ao linear dos outros vetores da lista, vk = c1 v1 + c2 v2 + · · · + ck−1 vk−1 . (5.1) vk ]] ⊂ [[v1 , ..., vk−1 , vk ]]. Para mostrar a igualJ´a sabemos que [[v1 , ..., vk−1 ,  dade devemos mostrar a inclus˜ao oposta. Considere um vetor w = a1 v1 + a2 v2 + · · · + ak vk ∈ [[v1 , v2 , ..., vk ]]. Substitu´ i ndo vk pela combina¸c˜ao linear 5.1 e reagrupando as parcelas obtemos w = (ak c1 + a1 )v1 + (ak c2 + a2 )v2 + · · · + (ak ck−1 + ak−1 )vk−1 . vk ]], pois ´e uma combina¸c˜ao linear dos k − 1 Claramente, w ∈ [[v1 , v2 , ...,  primeiros vetores. 5.4. GERADORES 109 2. ⇒ 3.) A hip´otese [[v1 , ...vk−1 ,  vk ]] = [[v1 , ..., vi , ...vk ]] implica que o vetor vk ∈ [[v1 , v2 , ..., vk−1 ]]. Logo, existem coeficientes ai ’s n˜ao todos iguais a zero (pois vk n˜ao ´e o vetor nulo) tais que vk = a1 v1 + a2 v2 + · · · + ak−1 vk−1 . Portanto, o vetor nulo expressa-se como o = a1 v1 + · · · + ak−1 vk−1 − vk , onde os coeficientes n˜ao s˜ao todos iguais a zero. 3. ⇒ 1.) Deixaremos como exerc´ıcio. 2 A proposi¸c˜ao estabelece um crit´erio para detetar quando o subespa¸co Γ = [[v1 , v2 , ..., vk ]] est´a sendo gerado com excesso de geradores. Basta examinar se o vetor nulo tamb´em tem excesso de combina¸c˜oes lineares para descrevˆelo. Ou falando tecnicamente, examinar se o conjunto β = {v1 , v2 , ..., vk } ´e lineamente dependente. A proposi¸c˜ao demonstrada tem uma vers˜ao na forma contrapositiva (negando todas as afirma¸c˜oes). Teorema 5.4.2 Dado o subespa¸co [[v1 , v2 , ..., vk ]] ⊂ Rn . As afirma¸c˜oes s˜ao equivalentes. 1. Nenhum vetor vi ´e uma combina¸c˜ao linear dos outros vetores da lista; 2. [[v1 , ..., vi , ...vk ]]  [[v1 , ..., vi , ...vk ]], para qualquer vetor vi ; 3. O conjunto {v1 , ..., vi , ...vk } ´e linearmente independente, (l.i) isso ´e, a u ´nica combina¸c˜ao para expressar o vetor nulo ´e aquela com todos os coeficientes iguais a zero, o = 0v1 + 0v2 + · · · + 0vk . Como uma primeira aplica¸c˜ao da proposi¸c˜ao, veremos que somente precisamos de um n´ umero de vetores no conjunto degeradores menor ou igual a n para gerar qualquer subespa¸co Γ ⊂ Rn . O determinante ser´a a ferramenta utilizada para verificar essa propriedade. Recordando o Teorema 2.4.1, (pg.37), o determinante de uma matriz quadrada ´e igual a zero se, e somente se, uma coluna ´e combina¸c˜ao linear de outras colunas. Exemplo 5.4.3 Dado o subespa¸co Γ = [[v1 , v2 , v3 ]] ⊂ R2 , onde v1 = (1, 1), v2 = (1, 2) e v3 = (−1, 1). Como det[v1 , v2 ] = 1 = 0, esses dois vetores formam uma base para o R2 . Logo, o terceiro vetor v3 ´e uma combina¸c˜ao linear dos dois primeiros, calculando CAP´ITULO 5. SUBESPAC ¸ O VETORIAL 110 obtemos que w = −3v1 + 2v2 . Pelo Teorema 5.4.1, (pg.108), podemos eliminar o terceiro vetor gerador que continuaremos com um conjunto de geradores para o subespa¸co, Γ = [[v1 , v2 ]]. Na verdade, Γ = R2 , pois qualquer vetor de R2 ´e uma combina¸c˜ao linear de v1 e v2 . Para determinar os coeficientes da combina¸c˜ao linear para expressar o terceiro vetor, devemos escrever v3 = a1 v1 + a2 v2 e resolver o sistema       1 1 a1 −1 a1 + a2 = −1 ou = . a1 + 2a2 = 1 1 2 a2 1 A regra de Cramer nos d´a a1 = −3 e a2 = 2. Como o conjunto de trˆes vetores em R2 n˜ao ´e linearmente independente, o vetor nulo o = (0, 0) n˜ao tem unicidade de combina¸c˜ao linear, ◦ o = 0v1 + 0v2 + 0v3 , ◦ o = −3v1 + 2v2 − v3 , (esta combina¸c˜ao sempre existe) (obtida da combina¸c˜ao linear para v3 ) ◦ o = −3a3 v1 + 2a3 v2 − a3 v3 . (pois a3 o = o) Se o vetor nulo n˜ao se expressa de maneira u ´ nica como combina¸c˜ao linear dos trˆes vetores, v1 , v2 e v3 , o mesmo ocorre com qualquer vetor. Vejamos esse fato. Um vetor w = (x, y) ∈ R2 , expressa-se como a combina¸c˜ao linear dos dois primeiros vetores como w = (2x − y)v1 + (y − x)v2 . Logo, somando o vetor nulo a ambos os membros, obtemos as igualdades w + o = w = (2x − y − 3a3 )v1 + (y − x + 2a3 )v2 − a3 v3 . 2 ´rio Novamente, fa¸camos uma Comenta analogia entre dependˆencia (ou independˆencia) linear de vetores e um conceito f´ısico. Suponha que s˜ao dados trˆes vetores que fixam as dire¸c˜oes poss´ıveis num plano Cartesiano pelas quais podemos caminhar para sair da origem O e chegar a um ponto W , como na figura. 5.4. GERADORES 111 Podemos percorrer uma trajet´oria sugerida pela combina¸c˜ao linear 3 8 w = v1 + v2 , 7 3 ou seguir uma trajet´oria do tipo 4 1 w = v3 + v2 − v1 . 3 7 Fato: n˜ao s˜ao necess´arias trˆes dire¸c˜oes para sair da origem e chegar a qualquer ponto do plano. Bastam duas dire¸c˜oes, digamos, aquelas dire¸c˜oes indicadas por v1 e v2 , a terceira dire¸c˜ao ´e desnecess´aria. Esse fenˆomeno pode ser captado examinando apenas trajet´orias que partem da origem e chegam a` origem, por exemplo, aquela sugerida por, o = 27 v1 + 43 v2 − v3 . Neste exemplo, os vetores s˜ao linearmente dependentes. 2 Exemplo 5.4.4 Considere o subespa¸co Γ = [[v1 , v2 , v3 , v4 , v5 ]] ⊂ R3 onde v1 = (1, 0, 1), v2 = (−2, −1, 0), v3 = (1, 1, −1) v4 = (4, 2, 0) e v5 = (2, 2, −2). Se, por acaso, para trˆes vetores da lista o determinante da matriz correspondente n˜ao fosse zero, os trˆes vetores formariam uma base do R3 , portanto, os outros vetores restantes ser´ıam expresso por uma combina¸c˜ao linear dos trˆes vetores encontrados e mais, Γ = R3 . Esse n˜ao ´e o caso, o determinante da matriz formada por qualquer trˆes vetores ´e igual a zero. Como det[v1 , v2 , v3 ] = 0, um desses vetores ´e combina¸c˜ao linear dos outro dois vetores, portanto, o vetor nulo tem uma outra combina¸c˜ao linear para express´a-lo, al´em da combina¸c˜ao linear trivial, o = 0v1 + 0v2 + 0v3 , os trˆes s˜ao linearmente dependentes, Teorema 5.4.1, (pg.108). Encontremos as outras combina¸c˜oes lineares para o pois ela nos dir´a qual o vetor que podemos eliminar da lista. Escrevendo o = a1 v1 + a2 v2 + a3 v3 , obtemos o sistema linear ⎧ ⎤⎡ ⎛ ⎡ ⎤ ⎡ ⎤⎞ a1 1 −2 1 0 ⎨ a1 − 2a2 + a3 = 0 ⎝ou ⎣ 0 −1 1 ⎦ ⎣ a2 ⎦ = ⎣ 0 ⎦⎠ . − a2 + a3 = 0 ⎩ 1 0 −1 0 − a3 = 0 a3 a1 N˜ao podemos utilizar regra de Cramer pois j´a sabemos que a matriz principal (dos coeficientes) tem determinante igual a zero. Devemos suprimir uma 112 CAP´ITULO 5. SUBESPAC ¸ O VETORIAL equa¸c˜ao resolver o subsistema obtido e verificar se a solu¸c˜ao satisfaz a equa¸c˜ao suprimida. Quando suprimimos a u ´ltima equa¸c˜ao, obtemos duas equa¸c˜oes com trˆes inc´ognitas, ⎤ ⎞ ⎛ ⎡      a1 a1 − 2a2 + a3 = 0 0 ⎠ 1 −2 1 ⎣ ⎝ou a2 ⎦ = . 0 0 −1 1 − a2 + a3 = 0 a3 Como sempre, devemos escolher uma maior submatriz quadrada com determinante diferente de zero e resolver o sistema que depender´a de um coeficiente,     %   $ a1 − 2a2 = −a3 −a3 1 −2 a1 = . ou − a2 = −a3 a2 −a3 0 −1 ´ imediato concluir que a1 = a3 e a2 = a3 e a solu¸c˜ao satisfaz a equa¸c˜ao supriE mida. Portanto, o = a3 v1 + a3 v2 + a3 v3 , ou seja, uma combina¸c˜ao linear para cada escolha de a3 . Para a3 = 1, segue que v1 ´e a combina¸c˜ao linear dos outros vetores, v1 = −v2 − v3 . Logo, podemos eliminar v1 dos geradores do subespa¸co que ele continua sendo gerado pelos outros vetores, Γ = [[v2 , v3 , v4 , v5 ]]. Como det[[v2 , v3 , v4 ]] = 0, um dos vetores ´e combina¸c˜ao linear dos outros dois. Com os mesmos procedimentos conclu´ımos que o = 2a4 v2 + 0v3 + a4 v4 . Logo, como v4 = −2v2 + 0v3 ele pode ser eliminado obtendo Γ = [[v2 , v3 , v5 ]]. Finalmente, ´e vis´ıvel que v5 = 2v3 , ou seja, ele ´e a combina¸c˜ao linear dos outros dois vetores, v5 = 0v2 + 2v3 . Logo, Γ = [[v2 , v3 ]]. N˜ao podemos mais reduzir o conjunto de geradores, pois ele ´e linearmente independente. Para mostrar esse fato, n˜ao existe mais o crit´erio do determinante ser ou n˜ao igual a zero, pois n˜ao podemos formar uma matriz quadrada 3×3 utilizando dois vetores do R3 . Devemos mostrar que s˜ao l.i. pela defini¸c˜ao. Escrever a combina¸c˜ao linear o = a2 v2 + a3 v3 resolver o sistema correspondente e verificar que a2 = a3 = 0. Portanto, s´o existe a combina¸c˜ao linear o = 0v2 + 0v3 . Segue pelo Teorema 5.4.2, (pg.109), que o conjunto formado por v2 e v3 s˜ao linearmente independente. 2 Proposi¸c˜ ao 5.4.1 Seja Γ = [[vi , v2 , ..., vk ]] ⊂ Rn um subespa¸co. Se k > n ent˜ ao o conjunto de geradores ´e linearmente dependente. Em particular, existe um subconjunto com no m´ aximo n vetores de {v1 , v2 , ..., vk } que geram Γ. Prova Como k > n podemos formar matrizes n × n cujos vetores colunas s˜ao elementos do conjunto de geradores. 5.4. GERADORES 113 Se alguma matriz formada por n vetores do conjunto de geradores tiver determinante diferente de zero, os vetores colunas formam uma base para o Rn , Γ = Rn , e os outros vetores da lista s˜ao combina¸c˜oes lineares dos vetores encontrados, logo, o conjunto com k > n vetores ´e linearmente dependente e Γ ´e gerado por essa base do Rn . Terminamos a demonstra¸c˜ao. Resta o caso de qualquer matriz formada por n vetores do conjunto de geradores ter determinante igual a zero. Consideramos o conjunto {v1 , v2 , ..., vn }, como algum vetor ´e combina¸c˜ao linear dos outos, o conjunto de geradores ´e linearmente dependente. Eliminado dessa lista um vetor que seja combina¸c˜ao linear dos outros vetores, temos agora o subespa¸co Γ gerado por k − 1 ≥ n vetores. Podemos continuar eliminando vetores do conjunto de geradores enquanto tivermos um n´ umero de vetores maior ou igual a n utilizando o crit´erio do determinante ser igual a zero. Isso termina a demonstra¸c˜ao. 2 Exerc´ıcios propostos 5.4.1 1. Expresse os vetores o = (0, 0, 0) e w = (2, 3, 1) por duas combina¸c˜oes lineares distintas dos vetores v1 = (1, 1, 1), v2 = (1, 2, 0) e v3 = (2, 3, 1). 2. Considere o subespa¸co Γ = [[v1 , v2 , v3 ]] ⊂ R2 , onde v1 = (1, 1), v2 = (3, −1) e v3 = (2, 1). Verifique quais dos vetores pertence ao subespa¸co e estude a unicidade da combina¸c˜ao linear. (a) e1 = (1, 0). (b) u = (−2, 1). (c) w = (1, 1). 3. Considere o subespa¸co Γ = [[v1 , v2 , v3 ]] ⊂ R3 , onde v1 = (1, 0, 1), v2 = (3, 2, 3) e v3 = (0, 1, 0). Determine quais dos vetores pertencem ao subespa¸co e estude a unicidade da combina¸c˜ao linear. (a) e1 = (1, 0, 0). (b) u = (−3, 4, 3). (c) w = (1, 1, 1). 4. Seja Γ = [[v1 , v2 , v3 ]]. Extraia um conjunto de geradores l.i. da lista. (a) v1 = (−2, 3), v2 = (−1, 1), v3 = (0, 1). (b) v1 = (2, 2), v2 = (1, 1), v3 = (−2, −2). (c) v1 = (−1, 4), v2 = (3, 2), v3 = (1, 0). 5. Seja Γ = [[v1 , v2 , v3 ]]. Extraia um conjunto de geradores l.i. para Γ e identifique quais dos subespa¸co s˜ao iguais ao espa¸co R3 . CAP´ITULO 5. SUBESPAC ¸ O VETORIAL 114 (a) v1 = (1, 1, 0), v2 = (−1, 1, 1), v3 = (0, 1, 0). (b) v1 = (2, 1, −1), v2 = (1, 0, 1), v3 = (3, 2, 0). (c) v1 = (2, 1, −1), v2 = (−2, 1, −1), v3 = (2, 3, −3). 6. Sejam v, w ∈ Rn . Mostre que v e w s˜ao linearmente independentes se, e somente se, v + w e v − w s˜ao linearmente independentes. 7. Dados os vetores v e w em Rn . Responda se a afirma¸c˜ao ´e verdadeira ou falsa. (a) Os dois vetores s˜ao l.d. implica que um deles ´e m´ ultiplo do outro. (b) Os dois vetores s˜ao l.d. implica que a soma dos dois ´e o vetor nulo. (c) Os dois vetores s˜ao l.d. implica que um deles ´e o vetor nulo. 8. Determine um conjunto de geradores l.i. para cada subespa¸co. (a) Γ = {(x, y) ∈ R2 ; 2x − 5y = 0}. (b) Γ = {(x, y, z) ∈ R3 ; 2x − 5y = 0 e y = 0}. (c) Γ = {(x, y, z) ∈ R3 ; y − z = 0}. (d) Γ = {(x, y, z) ∈ R3 ; x + 2y − z = 0}. 5.5 Bases Anteriormente, utilizamos o conceito de combina¸c˜ao linear para dar significado aos termos ”β = {v1 , v2 , ...vk } ´e um conjunto ordenado de geradores de um subespa¸co vetorial Γ”. O passo seguinte foi classificar os conjuntos ordenados de geradores em dois tipos: 1. aqueles conjuntos com os quais escrevemos cada vetor do espa¸co de maneira u ´ nica, tecnicamente falando, os linearmente independentes; 2. e aqueles que n˜ao possuem essa propriedade, os linearmente dependentes. Combinando os dois conceitos, geradores e independˆencia linear, definimos base ordenada de um subespa¸co, ⎧ ⎨ Conjunto ordenado de geradores Base ordenada . ⎩ Conjunto linearmente independente 5.5. BASES 115 Defini¸ c˜ ao 5.5.1 Um conjunto ordenado β = {v1 , v2 , ..., vk } ⊂ Rn ´e uma base para o subespa¸co Γ se 1. Γ = [[v1 , v2 , ..., vk ]]; 2. β ´e linearmente independente. (geradores) (l.i.) Se Γ ´e o espa¸co das combina¸c˜oes lineares de β = {v1 , v2 , ..., vk }, ou seja, Γ = [[v1 , v2 , ..., vk ]], e β ´e um conjunto linearmente independente, ent˜ao ao suprimirmos um vetor da lista, pelo Teorema 5.4.2, (pg.109), temos v1 , ..., vk ]]  [[v1 , v2 , ..., vk ]]. [[v1 , v2 , ... Quando o subespa¸co j´a est´a definido por um conjunto de geradores, desse conjunto podemos extrair uma base utilizando reiteradamente a proposi¸c˜ao da se¸c˜ao anterior. Corol´ ario 5.5.1 Dado o subespa¸co Γ = [[v1 , v2 , ..., vk ]] ⊂ Rn , podemos extrair um subconjunto α ⊂ {v1 , v2 , ..., vk } que ´e uma base ordenada de Γ. Prova Se o conjunto de geradores for linearmente independente, terminamos a prova, pois ele ´e uma base. Caso contr´ario, se o conjunto for linearmente dependente, diminu´ımos o n´ umero de vetores do conjunto ordenado de geradores β = {v1 , ..., vi , ..., vk } retirando do conjunto um elemento vi que seja combina¸c˜ao linear dos outros. Pelo Teorema 5.4.1, (pg.108), sabemos que o subespa¸co das combina¸c˜oes lineares de βi = {v1 , ...,  vi , ..., vk } ´e o mesmo, ou seja, vi , ..., vk ]] = [[v1 , ..., vi , ..., vk ]]. [[v1 , ...,  Ao conjunto ordenado de geradores βi , aplicamos o mesmo processo, retiramos um elemento vj que seja combina¸c˜ao lineares dos outros. Ap´os um n´ umero finito de etapas menor que k, temos constru´ıdo um conjunto ordenado de geradores, digamos α, contendo pelo menos um vetor e gerando o mesmo subespa¸co original. No conjunto α, um vetor qualquer n˜ao ´e combina¸c˜ao linear dos outros. Logo, ´e um conjunto de geradores linearmente independente, isto ´e, α uma base para o subespa¸co Γ. 2 Chamamos a aten¸c˜ao para um caso particular. Quando o conjunto ordenado ´e constitu´ıdo de um u ´ nico vetor n˜ao nulo, β = {v1 }, ele ´e linearmente independente pois se o = a1 v1 ent˜ao a1 = 0. Por exemplo, para CAP´ITULO 5. SUBESPAC ¸ O VETORIAL 116 β = {(1, −1, 3)} ⊂ R3 , temos que se (0, 0, 0) = a1 (1, −1, 3) = (a1 , −a1 , 3a1 ) ent˜ao a1 = 0. Exerc´ıcios propostos 5.5.1 1. Responda as perguntas com justificativas. (a) O conjunto de geradores de Γ = [[v1 , −3v1 ]] ⊂ Rn ´e uma base? (b) Um conjunto de geradores linearmente independente de um subespa¸co Γ ⊂ Rn pode conter dois vetores iguais? (c) Um conjunto de geradores lineramente independente de um subespa¸co Γ ⊂ Rn pode conter o vetor nulo? 2. Quais dos conjuntos abaixo s˜ao linearmente independente? Extraia um conjunto linearmente independente do conjunto dado. (a) β = {(4, 1, 0), (−2, 1, 2), (1, −3, 2), (2, 0, 1)} ⊂ R3 . (b) β = {(1, −1, 0), (0, −3, 4), (1, −4, 4)} ⊂ R3 . 3. Para cada subespa¸co, descreva-o como o subespa¸co de combina¸c˜oes linerares de uma base. Encontrado a base de Γ estenda-a a uma base do espa¸co. (a) Γ = {(x, y) ∈ R2 ; x − 2y = 0}. (b) Γ = {(x, y, z) ∈ R3 ; x − 2y + z = 0}. (c) Γ = {(t, x, y, z) ∈ R4 ; x − 2y = 0, 2x − 3y = 0}. (d) Γ = {(s, t, x, y, z) ∈ R5 ; x = 0}. 4. Encontre uma base para Γ e estenda-a a uma base do espa¸co. (a) Γ = [[(−4, 8), (2, −4), (−1, 2)]]. (e) Γ = [[(−2, 1, 0)]]. (b) Γ = [[(−2, 1, 0), (1, 1, 1)]]. (f) Γ = [[(1, 1, 1), (2, 2, 2)]]. (c) Γ = [[(0, 1, −2), (−3, 2, −7), (1, 0, 1)]]. (g) Γ = [[(−2, 2, 0), (1, −1, 0), (1, 1, 1)]]. (d) Γ = [[(−1, 2, −1)]]. ˜ 5.6. DIMENSAO 5.6 117 Dimens˜ ao Aprendemos que s´o ´e poss´ıvel diminuir o n´ umero de vetores de um conjunto de geradores de um subespa¸co, e continuar gerando o mesmo subespa¸co, quando o conjunto de geradores for linearmente dependente. A id´eia principal desta se¸c˜ao ´e, de certa forma, percorrer o caminho inverso. Dado um subespa¸co qualquer Γ ⊂ Rn , iremos escolher, sucessivamente, vetores v1 , v2 ,...,vk em Γ, linearmente independentes, at´e obter uma base ordenada e concluir que Γ = [[v1 , v2 , ..., vk ]]. Como isso, chegamos ao nosso objetivo, todo subespa¸co n˜ao trivial do Rn possui uma base. Ali´as, podemos construir muitas bases distintas aplicando os procedimentos indicados no seguinte lema. Lema 5.6.1 Seja {v1 , v2 , ..., vk } uma base do subespa¸co Γk = [[v1 , v2 , ..., vk ]] ⊂ / Γk = [[v1 , v2 , ..., vk ]] ent˜ ao {v1 , v2 , ..., vk , vk+1 } ´e uma base do Rn . Se vk+1 ∈ subespa¸co Γk+1 = [[v1 , v2 , ..., vk , vk+1]]. ´ claro, / Γk = [[v1 , v2 , ..., vk ]]. E Prova Escolhamos qualquer vetor vk+1 ∈ vk+1 = 0. Suponha, por absurdo, que os geradores de Γk+1 , onde Γk+1 = [[v1 , v2 , ..., vk , vk+1]], sejam l.d. Ent˜ao o vetor nulo tem uma express˜ao do tipo o = a1 v1 + a2 v2 + · · · + vk vk + ak+1 vk+1 , onde os coeficientes ai ’s n˜ao s˜ao todos iguais a zero. Logo, ak+1 vk+1 = −a1 v1 − a2 v2 − · · · − vk vk . Suponha, por absurdo, que o coeficiente ak+1 for igual a zero. Como nem todos os coeficientes s˜ao iguais a zero, o vetor nulo ´e expresso por uma combina¸c˜ao linear com coeficientes nem todo iguais a zero, o = −a1 v1 − a2 v2 − · · · − vk vk , de onde segue que os geradores de Γk n˜ao s˜ao linearmente independente, uma contradi¸c˜ao. Portanto, ak+1 = 0. Sendo assim, vk+1 = a1 a2 ak v1 + v2 + · · · + vk . ak+1 ak+1 ak+1 Isso implica que vk+1 ∈ Γk = [[v1 , v2 , ..., vk ]], uma contradi¸c˜ao. Portanto, n˜ao podemos supor que os k + 1 vetores s˜ao linearmente dependente, eles s˜ao l.i.2 118 CAP´ITULO 5. SUBESPAC ¸ O VETORIAL Ilustremos com um exemplo como o Lema 5.6.1 nos d´a um processo para constru´ırmos uma base para um subespa¸co. Dado o subespa¸co pr´oprio Γ = {(t, x.y.z) ∈ R4 ; 2t − x − 3y + z = 0} ⊂ R4 . Primeiro, escolhemos um vetor n˜ao nulo, digamos v1 = (1, 2, 0, 0) ∈ Γ, e consideramos o subespa¸co Γ1 = [[v1 ]] ⊂ Γ. Segundo, escolhemos outro vetor n˜ao nulo v2 ∈ Γ mas com v2 ∈ / Γ1 = [[v1 ]], ultiplo de v1 e pertencer ao por exemplo, v2 = (0, −1, 3, 0), basta n˜ao ser m´ subespa¸co Γ. Constru´ımos o subespa¸co Γ2 = [[v1 , v2 ]] ⊂ Γ. Observe que Γ1  Γ2  Γ. Terceiro, escolhemos um vetor v3 ∈ Γ mas com v3 ∈ / Γ2 = [[v1 , v2 ]], por exemplo v3 = (0, 1, 0, 1) (pertence a Γ mas n˜ao pode ser combina¸c˜ao linear dos outros dois primeiros desde que sua u ´ltima coordenada n˜ao ´e igual a zero ea u ´ ltima coordenada de v1 e de v2 s˜ao iguais a zero). Consideramos Γ3 = [[v1 , v2 , v3 ]] ⊂ Γ. O processo termina aqui, isto ´e, Γ3 = Γ. Deixemos essa afirma¸c˜ao para o pr´oximo teorema. Teorema 5.6.1 Seja Γ um subespa¸co n˜ ao trivial do Rn . Ent˜ao existe uma base ordenada α = {v1 , v2 , ..., vk } ⊂ Γ. Mais ainda: a) o n´ umero de elementos de uma base de Γ ´e menor ou igual a n; b) se o n´ umero de elementos de uma base de Γ ´e igual a n ent˜ a o Γ = Rn . c) se k < n, ent˜ ao uma base α = {v1 , v2 , ..., vk } pode ser estendida a uma base β = {v1 , ...vk , vk+1 , ..., vn } de Rn . Prova Iniciemos com a constru¸c˜ao de uma base ordenada para Γ. Como Γ ´e n˜ao trivial podemos escolher um vetor n˜ao nulo v1 ∈ Γ e considerar o subespa¸co Γ1 = [[v1 ]] ⊂ Γ. Se vale a igualdade dos conjuntos terminamos, pois α1 = {v1 } ´e um conjunto ordenado linearmente independente. / [[v1 ]]. Se n˜ao vale a igualdade, existe um outro vetor n˜ao nulo v2 ∈ Γ e v2 ∈ Pelo Lema 5.6.1, (pg.117), o conjunto α2 = {v1 , v2 } ´e linearmente independente. Consideramos ent˜ao o subespa¸co Γ2 = [[v1 , v2 ]] ⊂ Γ. Se vale a igualdade, terminamos. ˜ 5.6. DIMENSAO 119 Se n˜ao, continuamos com o mesmo procedimento. O processo acaba ap´os um n´ umero de etapas menor ou igual a n, pois sendo o conjunto αk linearmente independente, ele n˜ao pode conter mais de n vetores, veja Proposi¸c˜ao 5.4.1, (pg.112). Fica demonstrado que Γ tem uma base. Pela mesma proposi¸c˜ao segue o item a). A demonstra¸c˜ao do item b) repete a mesma id´eia. Seja αn = {v1 , v2 , ..., vn } ´e uma base ordenada de Γ com n elementos. Por absurdo, assuma que Γ  Rn . Escolha um vetor vn+1 ∈ / Γ. Necessariamente este vetor ´e n˜ao nulo e αn+1 = {v1 , v2 , ..., vn , vn+1 } ´e um conjunto linearmente independente em Rn com mais de n elementos. Pela Proposi¸c˜ao 5.4.1, (pg.112), isso ´e uma constradi¸c˜ao. Logo, Γ = [[v1 , v2 , ..., vn ]] = Rn . Exerc´ıcio: demonstre o item c) acrescentando vetores fora do subespa¸co.2 O n´ umero m´ınimo de vetores que geram um subespa¸co Γ chama-se de dimens˜ ao de Γ. Na L´ıngua Portuguesa, dependendo do contexto, a palavra dimens˜ao transmite a no¸c˜ao de comprimento, largura e altura. Fisicamente: diz-se que um segmento de reta tem comprimento; uma figura plana, como um retˆangulo tem comprimento e largura; um s´olido como um paralelep´ıpedo tem comprimento, largura e altura. A no¸c˜ao de dimens˜ ao de um subespa¸co transfere essas sensa¸c˜oes f´ısicas para a Matem´atica, mas para transfer´ı-la precisamos de toda a teoria apresentada at´e o momento. Corol´ ario 5.6.1 As bases de um subespa¸co n˜ ao trivial Γ ⊂ Rn tˆem o mesmo n´ umero de elementos. Prova Suponha que α = {v1 , v2 , ..., vk } e β = {w1 , w2 , ..., wl } sejam duas bases de um subespa¸co Γ ⊂ Rn . Pelo Teorema 5.6.1, (pg.118), sabemos que k ≤ n e l ≤ n. Vamos supor, por absurdo, que k = l, digamos que k < l. Por hip´otese, Γ = [[v1 , v2 ..., vk ]] = [[w1 , w2, ...wl ]]. Se acrescentarmos um vetor vk+1 ∈ / Γ a` lista de geradores teremos duas bases de um subespa¸co contendo Γ, [[v1 , v2 ..., vk , vk+1 ]] = [[w1 , w2 , ...wl , vk+1]]. Por esse processo, escolhendo sucessivamente vetores n˜ao pertencente ao novo subespa¸co constru´ıdo, obtemos ap´os n − k etapas uma base para o Rn , Rn = [[v1 , v2 ..., vk , vk+1 , ..., vn ]] = [[w1 , w2, ...wl , vk+1 , ..., vn ]]. CAP´ITULO 5. SUBESPAC ¸ O VETORIAL 120 Uma constradi¸c˜ao, pois o conjunto de geradores {w1 , ..., wl , vk+1, ..., vn } tem mais de n vetores, ele n˜ao pode ser linearmente independente, logo, l = k. 2 O corol´ario acima permite a seguinte defini¸c˜ao. Defini¸ c˜ ao 5.6.1 A dimens˜ ao de um subespa¸co n˜ ao trivial Γ ⊂ Rn ´e o n´ umero de elementos de uma de suas bases. A dimens˜ ao do espa¸co trivial ´e zero, por defini¸ca˜o. ´rio As dimens˜oes poss´ıveis para subespa¸cos n˜ao triviais Γ ⊂ R2 , Comenta s˜ao poucas. Como todo subespa¸co possui uma base ordenada β e mais de dois vetores em R2 s˜ao linearmente dependentes, segue que o conjunto linearmente independente β tem um ou dois vetores n˜ao nulos, Teorema 5.6.1, (pg.118). i) Quando β = {v1 } diz-se que Γ = [[v1 ]] tem dimens˜ao um. Sua representa¸c˜ao no plano Cartesiano ´e uma reta que cont´em a origem. ii) Caso β = {v1 , v2 } podemos afirmar que Γ = R2 . Recordamos que a base canˆonica de R2 tem dois elementos, logo sua dimens˜ao ´e dois. As dimens˜oes poss´ıveis para os subespa¸cos n˜ao triviais Γ ⊂ R3 s˜ao 3. Se β ´e uma base ordenada de Γ, β n˜ao pode ter mais de trˆes vetores, pois β ´e l.i. i) Quando β = {v1 }, Γ = [[v1 ]] tem dimens˜ao um. Sua representa¸c˜ao gr´afica no espa¸co Cartesiano ´e uma reta que cont´em a origem. ii) Quando β = {v1 , v2 }, o subespa¸co Γ = [[v1 , v2 ]] tem dimens˜ao dois. A representa¸c˜ao gr´afica Γ ´e um plano que cont´em a origem. 2 iii) Se β tem trˆes elementos temos Γ = R3 . Exerc´ıcio 5.6.1 Qual a dimens˜ao de Γk = [[e1 , e2 , ..., ek ]] ⊂ Rn ? Exemplo 5.6.1 Dados os subespa¸cos do R3 , ⎧ ⎨ Γ1 = {(x, y, z) ∈ R3 ; x − y + z = 0} ⎩ . Γ2 = {(x, y, z) ∈ R ; 2x + y + z = 0} 3 2 ˜ 5.6. DIMENSAO 121 Como sabemos, eles tˆem dimens˜ao dois (plano) e s˜ao formado por vetores ortogonais aos vetores η1 = (1, −1, 1) e η2 = (2, 1, 1), respectivamente. A interse¸c˜ao Γ1 ∩ Γ2 tamb´em ´e um subespa¸co e tem dimens˜ao um (reta) e seus vetores s˜ao simultaneamente ortogonais aos vetores normais η2 e η2 . Logo, qualquer vetor na interse¸c˜ao ´e colinear com o produto vetorial η2 × η2 = (−2, 1, 3). Portanto, 2 Γ1 ∩ Γ2 = [[η1 × η2 ]]. Corol´ ario 5.6.2 Dado um conjunto ordenado de n vetores β = {v1 , v2 , ..., vn } d0 Rn . As seguintes afirma¸c˜oes s˜ao equivalentes. i) β = {v1 , v2 , ..., vn } ´e uma base ordenada de Rn ; ii) det[v1 , v2 , ..., vn ] = 0; iii) β ´e linearmente independente. Prova Deixaremos como exerc´ıcio recomendando que reveja o Teorema 2.4.1, (pg.37). 2 Exerc´ıcios propostos 5.6.1 1. Calcule as dimens˜ oes do subespa¸cos. (a) Γ = {(t, x, y, z) ∈ R4 ; x − 2y + z = 0}. (b) Γ = {(t, x, y, z) ∈ R4 ; x − 2y + z = 0 e t − x + z = 0}. (c) Γ = {(t, x, y, z) ∈ R4 ; x − 2y + z = 0, t − x + z = 0 e t − z = 0}. (d) Γ = {(t, x, y, z) ∈ R4 ; x − 2y + z = 0, t − x + z = 0 e z = 0}. (e) [[(1, 0, 0, 1), (1, 1, 0, 1), (2, 1, 0, 2)]]. (f) [[(1, 1, 1, 1) (2, 2, 2, 2), (3, 3, 3, 3)]]. 2. Se β = {v1 , v2 , v3 } ´e uma base do R3 , mostre que γ = {w1 , w2 , w3 } tamb´em ´e uma base do R3 , onde w1 = v1 , w2 = v2 + v1 e w3 = v3 + v2 + v1 . 3. Sejam Γ e Λ subespa¸cos de Rn . Quais das seguintes afirma¸c˜oes s˜ao verdadeiras? CAP´ITULO 5. SUBESPAC ¸ O VETORIAL 122 (a) dim(Γ ∩ Λ) = dimΓ + dim Λ. (b) dim(Γ ∩ Λ) = |dimΓ − dim Λ|. (c) dim(Γ ∩ Λ) ≤ dimΓ + dim Λ. 4. Determine um conjunto com infinitos vetores S contido em Rn tal que qualquer escolha de n vetores de S s˜ao l.d. 5.7 Base e produto interno Uma base ordenada β = {v1 , v2 , ..., vn } do Rn ´e dita base ortogonal se os seus elementos s˜ao ortogonais dois a dois, isto ´e, vi , vj  = 0, para todo i = j. Ela ser´a dita base ortonormal se seus elementos s˜ao vetores unit´arios e ortogonais dois a dois. Essa informa¸c˜ao, em geral, ´e resumida por vi , vj  = δij , onde δij ´e o delta de Kronecker,  δij = 1 se i = j . 0 se i = j Por exemplo, a base canˆonica C = {e1 , e2 , ..., en } do Rn ´e uma base ortonormal. Exemplo 5.7.1 Seja u1 = (a, b) um vetor unit´ario de R2 . Como u1  = a2 + b2 = 1, pela trigonometria plana, existe θ, 0 ≤ θ < 2π, tal que a = cos θ e b = sen θ. Portanto, todo vetor unit´ario de R2 ´e da forma u1 = (cos θ, sen θ). 5.7. BASE E PRODUTO INTERNO 123 Sabemos encontrar um vetor perpendicular a ele, por exemplo, u2 = (−sen θ, cos θ), e esse vetor tamb´em ´e unit´ario. O conjunto ordenado β = {u1 , u2 } ´e uma base, pois det[u1 , u2] = 1 = 0 e ortonormal. Fixado u1 , a segunda possibilidade de escolher um vetor unit´ario normal a ele ´e −u2 . Da mesma forma, α = {u1, −u2 } ´e uma base ortonormal do R2 . Esse processo descreve todas as bases ortonor2 mais. Nesse u ´ ltimo caso, det[u1 , −u2 ] = −1. Exemplo 5.7.2 Considere o vetor v ∈ R3 , onde v = (−1, 2, 2). A sua normaliza¸c˜ao, 1 2 2 u1 = − , , − . 3 3 3 ´e um vetor unit´ario. Desejamos construir uma base ordenada ortonormal β cujo primeiro vetor seja u1 . Existem infinitas maneira de escolher um segundo vetor unit´ario u2 = (a, b, c) que seja ortogonal ao vetor u1 , pois as coordenadas desse vetor devem satisfazer `as equa¸c˜oes u1, u2  = 0 e u2  = 1, ou seja, ⎧ 1 ⎨ − 3 a + 23 b − 23 c = 0 . ⎩ a2 + b2 + c2 = 1 Escolhamos escalares a , b e c que satisfazem a primeira equa¸c˜ao e depois normatizemos o vetor v = (a , b , c ). Por exemplo, escolhidos a = 0, b = 1 e c = 1, consideramos o vetor unit´ario 1 1 u2 = 0, √ , √ . 2 2 Para escolher o terceiro vetor ortogonal aos anteriores, temos, apenas, duas escolhas. Uma delas ´e considerar o produto vetorial u3 = u1 × u2 . De fato, u3 ´e unit´ario. Pela F´ormula de Lagrange, Proposi¸c˜ao 4.6.2, (pg.89), temos u3  = u1 × u2  = u1 u2 sen θ = sen θ = 1, 124 CAP´ITULO 5. SUBESPAC ¸ O VETORIAL pois θ = π2 , desde que θ ´e o aˆngulo entre os vetores ortogonais u1 e u2 e 0 ≤ θ ≤ π. Calculando o vetor u3 obtemos 1 1 4 u3 = √ , √ , − √ . 18 18 18 A outra escolha poss´ıvel para u3 ´e u3 = −u1 ×u2 . Esse processo descreve todas as possibilidade de constru´ırmos bases ortonormais em R3 . 2 Vejamos uma proposi¸c˜ao bastante u ´ til. Proposi¸ c˜ ao 5.7.1 Seja β = {u1 , u2 , ..., un } um conjunto de n vetores do Rn . Se ui , uj  = δij ent˜ ao β ´e uma base. Em particular, um vetor v ∈ Rn ´e expresso pela combina¸c˜ao linear v = v, u1 u1 + v, u2 u2 + · · · + v, unun . Prova Suponha, por absurdo, que o conjunto β n˜ao seja uma base do Rn . Sendo assim, pelo Corol´ario 5.6.2, (pg.121), det[u1 , u2 , ..., un ] = 0 e, pelo Teorema 2.4.1, (pg.37), existe um vetor coluna que ´e uma combina¸c˜ao linear dos outros vetores colunas. Sem perda de generalidade, iremos assumir que esse vetor coluna seja un , un = a1 u1 + a2 u2 + · · · + an−1 un−1. Efetuando o produto interno com un em ambos os membros da igualdade e lembrando-se que ui, uj  = δij obtemos 1 = un , un  = a1 un , u1  + a2 un , u2  + · · · + an−1 un , un−1 = 0. Uma contradi¸c˜ao, logo, β ´e uma base. Como β ´e uma base, dado um vetor v ∈ Rn podemos escrever v = a1 u1 + a2 u2 + · · · + an un Para determinar os valores dos coeficientes da combina¸c˜ao linear efetuamos o produto interno com ui em cada membro da igualdade, v, ui = a1 u1 , ui  + · · · + ai ui , ui + · · · + an un , ui = ai . 5.7. BASE E PRODUTO INTERNO 125 Isso termina a demonstra¸c˜ao. 2 ´rio Explicitemos um dos conte´ udos Comenta geom´etricos contido na u ´ ltima proposi¸c˜ao. Dados v e v1 , dois vetores n˜ao nulos em Rn . Projetando ortogonalmente o vetor v sobre o vetor v1 obtemos um vetor do tipo cv1 . A quest˜ao que se imp˜oe ´e determinar o valor do escalar c. Dizer que cv1 ´e a poje¸c˜ao ortogonal de v sobre v1 ´e, por defini¸c˜ao, dizer que v − cv1 e v1 s˜ao ortogonais, portanto, 0 = v − cv1 , v1  = v, v1 − cv1 2 ⇒ c= 1 v, v1 . v1 2 Quando o vetor v1 ´e unit´ario, a proje¸c˜ao de v sobre o vetor v1 ´e precisamente v, v1 v1 . Sendo assim, dada uma base ortonormal β = {u1 , u2 , ..., un } do Rn , um vetor v ∈ Rn ´e a soma das proje¸c˜oes ortogonais desse vetor sobre cada elemento da base. Bases ortonormais em Rn existem e a demonstra¸c˜ao desse fato ´e construtiva. O m´etodo de constru¸c˜ao utilizado para mostrar a existˆencia ´e chamado de processo de ortogonaliza¸c˜ao de Gram-Schmidt e baseia-se nessa id´eia de proje¸c˜ao de um vetor sobre outro. Proposi¸c˜ ao 5.7.2 Todo subespa¸co n˜ ao trivial Γ ⊂ Rn possui uma base ortogonal. Prova Pelo Teorema 5.6.1, (pg.118), existe uma base ordenada γ = {w1 , w2 , ..., wk } de Γ. Denote por Γi o subespa¸co de dimens˜ao i gerado pelos i-´esimos primeiros vetores dessa base, γi = {w1 , w2 , ..., wi }. Sendo assim, valem as inclus˜oes pr´oprias de subespa¸cos Γ0 = {0}  Γ1  Γ2  · · ·  Γk = Γ. Feitos essas preliminares iniciemos a constru¸c˜ao indutiva de uma base ortogonal pelo processo de ortogonaliza¸c˜ao de Gram-Schmidt. A base ortogonal CAP´ITULO 5. SUBESPAC ¸ O VETORIAL 126 de Γ1 ser´a β1 = {v1 } em que v1 = w1 . Para construir uma base ortogonal para Γ2 consideramos o conjunto ordenado β2 = β1 ∪ {v2 } onde v2 = w2 − w2 , v1  v1 . v1 , v1  O vetor v2 est´a bem definido pois v1 n˜ao sendo nulo temos que v1 , v1  > 0. Note que tamb´em o vetor v2 n˜ao ´e nulo, caso contr´ario conclu´ımos que w1 e w2 s˜ao vetores linearmente dependentes contrariando o fato de γ ser uma base de Γ. Por outro lado, verificamos facilmente que v1 , v2  = 0 de onde segue que β2 ⊂ Γ2 ´e um conjunto linearmente independente num espa¸co vetorial de dimens˜ao dois, implicando que β2 = β1 ∪ {v2 } ´e uma base ortogonal de Γ2 . Por hip´otese de indu¸c˜ao, vamos assumir que j´a constru´ımos uma base ortogonal βi = {v1 , v2 , ..., vi } para o subespa¸co Γi . Seja βi+1 = βi ∪ {vi+1 }, onde vi+1 = wi+1 − wi+1 , v1  wi+1 , v2  wi+1 , vi  v1 − v2 − · · · − vi . v1 , v1  v2 , v2  vi , vi  Novamente, vi+1 est´a bem definido e ´e um vetor em Γi+1 . O vetor vi+1 n˜ao ´e nulo, caso contr´ario teremos wi+1 ∈ Γi contrariando a hip´otese de γ ser linearmente independente, desde que cada vi ´e combina¸c˜ao linear de γi . Uma simples verifica¸c˜ao mostra que βi+1 ´e um conjunto de vetores n˜ao nulos dois a dois ortogonais no subespa¸co Γi+1 cuja dimens˜ao ´e i + 1. Segue que βi+1 ´e uma base ortogonal desse espa¸co. Continuando o processo um n´ umero de vezes igual a` dim Γ, obtemos uma base ortogonal de Γ. 2 Corol´ ario 5.7.1 Todo subespa¸co n˜ ao trivial Γ ⊂ Rn possui uma base ortonormal. Em particular, Rn possui uma base ortonormal. Demonstra¸ c˜ ao Pelo processo de Gram-Schmdit podemos construir uma base ortogonal γ = {v1 , v2 , ..., vk } de Γ. O conjunto ordenado β = {u1, u2 , ..., un }, onde ui = v1i  vi , ´e formado por vetores unit´arios dois a dois ortogonais, logo, β ´e uma base ortonormal de Γ. 2 Exemplo 5.7.3 Apliquemos o processo de ortonormaliza¸c˜ao de Gram-Schmidt `a base β = {w1 , w2 , w3 } do R3 , onde w1 = (1, 1, 1), w2 = (1, 2, 0) e w3 = (2, 0, 0) 5.7. BASE E PRODUTO INTERNO 127 De fato, β ´e uma base, pois det[w1 , w2 , w3 ] = 2. Primeiro constru´ımos uma base ortogonal. Seja v1 = w1 = (1, 1, 1). O segundo vetor ser´a v2 = w2 − 1 w1 , v1 v1 = (0, 1, −1). v1 2 Ressaltamos dois fato, v2 , v1  = 0 e [[w1 , w2 ]] = [[v1 , v2 ]]. Calculemos o terceiro vetor, v3 = w3 − 1 1 w3 , v1 v1 − w3 , v2 v2 = (2, −1, −1). 2 v1  v2 2 A base α = {v1 , v2 , v3 } ´orotogonal. Para obter a base ortonormal, basta normalizar os vetores de α, 1 1 1 2 1 1 1 1 e u3 = √ , − √ , − √ . u1 = √ , √ , √ , u2 = 0, √ , − √ 3 3 3 2 2 6 6 6 A base obtida pelo processo de ortonormaliza¸c˜ao ´e β = {u1, u2 , u3 } 2 Exerc´ıcio 5.7.1 Sejam v e w vetores de Rn . Prove que as afirma¸c˜oes s˜ao eq¨ uivalentes. 1. v = w. 2. u, v = u, w, para todo u ∈ Rn . 3. v, ui = w, ui, para todo vetor ui de uma base ortonormal β de Rn . 2 Exerc´ıcios propostos 5.7.1 1. Projete ortogonalmente o vetor u sobre o vetor v. (a) u = (1, 1) e v = (2, 1) s˜ao vetores de R2 . (b) u = (1, 0, 1) e v = (1, 3, −1) s˜ao vetores de R3 2. Ortonormalize pelo processo de Gram-Schmidt as bases ordenadas de R2 . CAP´ITULO 5. SUBESPAC ¸ O VETORIAL 128 (a) β = {(1, 1), (2, 1)}. (b) β = {(2, 1), (−1, 2)} 3. Ortonormalize pelo processo de Gram-Schmidt as bases ordenadas de R3 . (a) β = {(1, 1, 1), (0, 2, 1), 0, 1, 1)}. 5.8 (b) β = {(1, 0, 0), (1, 1, 0), (1, 1, 1)}. Respostas e sugest˜ oes Se¸ c˜ ao 5.1 1) Substitua as coordenadas de cada vetor na equa¸c˜ao. Resposta: u e v. 2) O paralelep´ıpedo est´a contido num plano, ele n˜ ao possui volume positivo. 3) (a) Subespa¸co pr´oprio, corresponde ao eixo oy. (b) Subespa¸co pr´oprio corresponde ao plano determinado pelos eixos ox e oz. (c) N˜ ao ´e subespa¸co pr´oprio, Γ = R2 . (d) Subespa¸co pr´oprio correspondente ao eixo ox. 5) Por regra de Cramer, verifica-se que os vetores em Γ s˜ao os m´ ultiplos de v = (1, 2, 1). 6) O ponto O(0, 0) ∈ E2 . 7) Γ1 = {(x, y, z) ∈ R3 ; x + 2y − 3z = 0} e Γ2 = {(x, y, z) ∈ R3 ; x − y + z = 0}. Como ´e a interse¸c˜ao de dois planos, Γ corresponde a uma reta que cont´em a origem O(0, 0, 0). 8) O vetor v = (1, 1) ∈ Π, mas um m´ ultiplo, por exemplo, 3v n˜ ao pertence a Π. 9) (a) O ponto v = (3, 2) ∈ Π, mas seu m´ ultiplo 2v n˜ ao pertence. (b) Corresponde a duas retas paralelas do plano Cartesiano, uma delas passando pela origem o(0, 0). 10) Somente a afirma¸c˜ao (d) ´e verdadeira, todas as outras s˜ ao falsas. Se¸ c˜ ao 5.2 2) Corresponde a um plano. As equa¸c˜oes definem um mesmo plano em R3 . 3) (a) Falsa. (b) Verdadeira. (c) Verdadeira. (d) Falsa. Se¸ c˜ ao 5.3 1) Vocˆe pode ter encontrado outras equa¸c˜oes. De qualquer forma, verifique se os vetores dados satisfazem as equa¸c˜oes encontradas por vocˆe. ˜ 5.8. RESPOSTAS E SUGESTOES 129 (a) Γ = {(x, y) ∈ R2 ; 5x + 2y = 0}. (b) Γ = {(x, y, z) ∈ R3 ; x + 2y − 3z = 0}. (c) Γ = {(x, y, z) ∈ R3 ; x + 2y − z = 0}. (d) Γ = {(x, y, z) ∈ R3 ; 2x + y = 0 e y + 2z = 0}. (e) Γ = {(x, y, z) ∈ R3 ; x + 2y = 0 e z = 0}. (f ) Γ = {(x, y, z) ∈ R3 ; x − y = 0 e y − z = 0}. (g) Γ = {(t, x, y, z) ∈ R4 ; 2t + 3x + y = 0 e − 5t − 2x + z = 0}. (h) Γ = {(t, x, y, z) ∈ R4 ; t − 2x = 0, x − y = 0 e 3y + z = 0}. 2) det[v1 , v2 ] = 1 = 0 ⇒ {v1 , v2 } ´e base do R2 . Pela regra de Cramer, expressamos qualquer vetor v = (x, y) ∈ R2 de um u ´ nico modo, (x, y) = (5x − y)v1 + (x − 4y)v2 . Resta particularizar para os vetores dados, u, v, w e t. 3) Solu¸c˜ao semelhante ao do item anterior. Como det[v1 , v2 , v3 ] = −11 = 0, os vetores formam uma base do R3 e cada vetor ´e expresso por (x, y, z) = −1 11 (−x + 2y − 5z)v1 + −1 −1 (4x + 3y − 2z)v + (2x − 4y − z)v . Resta particularizar para os vetores dados. 2 3 11 11 4) Somente u e v pertencem ao subespa¸co. 5) Considere a interse¸c˜ao de todos os subespa¸cos que cont´em os vetores. Mostre que esse subespa¸co ´e [[v1 , v2 , ..., vk ]]. Se¸ c˜ ao 5.4 1) Como det[v1 , v2 , v3 ] = 0, eles s˜ ao l.d. Na verdade, v3 = v1 + v2 ∴ o = 0v1 + 0v2 + 0v3 e o = v1 + v2 − v3 . Para o vetor w podem ser as combina¸c˜oes lineares w = v1 + v2 + 0v3 ou w = w + o = 2v1 + 2v2 − v3 . 2) Como det[v1 , v2 ] = 0, os dois vetores formam uma base para o R2 . Logo, Γ = [[v1 , v2 ]] = R2 e o terceiro vetor escreve-se como v3 = 54 v1 + 14 v2 . Dessa igualdade segue que o vetor nulo, ou qualquer outro vetor, n˜ ao tem unicidade de combina¸c˜ao ao w = w + o = linear com os trˆes vetores dados, o = 54 v1 + 14 v2 − v3 . Se w = (x, y) ent˜ 1 1 (x + 3y + 5)v + (x − 2y + 1)v − v . Todos os vetores pertencem ao subespa¸co 1 2 3 4 4 Γ = R2 . 3) Como det[v1 , v2 , v3 ] = 0 eles s˜ao l.d. Verifica-se que v2 = 3v1 + 2v3 . Logo, Γ = [[v1 , v3 ]]  R3 . Somente w pertencem ao subespa¸co Γ. 4) (a) Como det[v2 , v3 ] = 0, β = {v2 , v3 } ´e um conjunto de geradores l.i. Observe que Γ = [[v2 , v3 ]]. (b) Como det[vi , vj ] = 0, eliminamos dois vetores. Escolha β = {v1 } como conjunto de geradores. 5) CAP´ITULO 5. SUBESPAC ¸ O VETORIAL 130 (a) Γ = R3 . (b) Γ = R3 . (c) Γ = [[v1 , v2 ]]  R3 . 7) Todas s˜ao falsas. As rec´ıprocas s˜ ao verdadeiras. 8) (a) β = {(5, 2)}. (b) β = {(0, 0, 1)}. (c) β = {(1, 0, 0), (0, 1, 1)}. (d) β = {(1, 0, 1), (0, 1, 2)}. Se¸ c˜ ao 5.5 1) (a) N˜ao. (b) N˜ao. (c) N˜ao. 2) (a) L.d. pois s˜ ao quatro vetores do R3 . Escolha os trˆes primeiros vetores de β. (b) S˜ ao l.d. pois det[v1 , v2 , v3 ] = 0. Escolha os dois primeiros vetores. 3) Para construir uma base do espa¸co Rn escolha vetores que n˜ao estejam em Γ. (a) Γ = [[(2, 1)]] e R2 = [[(2, 1) (1, 0)]]. (b) Γ = [[(2, 1, 0), (1, 0, −1)]] e R3 = [[(2, 1, 0) (1, 0, −1), (0, 1, 0)]]. (c) Γ = [[e3 , e4 ]] e R4 = [[e1 , e2 , e3 , e4 ]]. (d) Γ = [[e1 , e2 , e4 , e5 ]] e R5 = [[e1 , e2 , e3 , e4 , e5 ]]. 4) Acrescente o(s) vetor(es) indicado(s) para construir uma base do Rn . Utilizamos o crit´erio do determinante para escolher os vetores para formar uma base. Vocˆe pode ter encontrado outra base. (a) Γ = [[(−4, 8)]], v1 = (8, 4). (b) Γ = [[(−2, 1, 0), (1, 1, 1)]], v1 = (0, 0, 1). (c) Γ = [[(0, 1, −2), (−3, 2, −7)]], v1 = (1, 0, 0). (d) Γ = [[(−1, 2, −1)]], v1 = (1, 0, 0), v2 = (0, 1, 0). (e) Γ = [[(−2, 1, 0)]], v1 = (1, 0, 0), v2 = (0, 0, 1). (f ) Γ = [[(1, 1, 1), ]], v1 = (1, 0, 0), v2 = (0, 1, 0). (g) Γ = [[(−2, 2, 0), (1, 1, 1)]], v1 = (1, 0, 0). Se¸ c˜ ao 5.6 1) (a) 3. (b) 2. (c) 1. 2) 0 = det[v1 , v2 , v3 ] = det[w1 , w2 , w3 ]. 3) (d) 1. (e) 2. (f ) 1. ˜ 5.8. RESPOSTAS E SUGESTOES (a) Falsa. 131 (b) Falsa. (c) Verdadeira. 4) Escolha um subconjunto S que seja um subespa¸co de dimens˜ao n − 1. Se¸ c˜ ao 5.7 1) (a) 3 5 v. 2) (a) β = 3) (a) β = (b) o. ($ ($ % $ %) √1 , √1 √1 , − √1 , . 2 2 2 2 √1 , √1 , √1 , √1 3 3 3 3 (b) β = {e1 , e2 , e3 }. ($ (b) β = √2 , √1 5 5 % $ % $ % ) , − √12 , √12,0 , − √16 , − √16,2 . . % $ %) , − √15 , √25 . Cap´ıtulo 6 Transforma¸ co ˜es lineares Iniciaremos o estudo de fun¸c˜oes A : Rm → Rn , chamadas de transforma¸c˜oes lineares. Cada transforma¸c˜ao linear fica completamente determinada definindo o seu valor em cada vetor da base canˆonica do dom´ınio, valores esses, que ser˜ao guardados numa matriz, procedimento que possibilita detetar v´arias e importantes propriedades desse tipo de aplica¸c˜ao. Basicamente, todo o restante do texto ser´a dedicado ao estudo de tais fun¸c˜oes. 6.1 Transforma¸co ˜es lineares Diz-se que uma aplica¸c˜ao A : Rn → Rm ´e uma transforma¸c˜ao linear se para quaisquer vetores v, w ∈ Rn e para qualquer escalar λ ∈ R as seguintes condi¸c˜oes s˜ao verificadas: tl1 A(v + w) = A(v) + A(w); tl1 A(λv) = λA(w). Mostrar que transforma¸c˜oes lineares existem, como constru´ı-las ou como identific´a-las s˜ao tarefas simples. Suponha que A : Rm → Rn seja uma transforma¸c˜ao linear. Como sabemos, um vetor v = (x1 , x2 , ..., xm ) do dom´ınio ´e uma combina¸c˜ao linear dos elementos da base canˆonica, a saber, v = x1 e1 + x2 e2 + · · · + xm em . 132 ˜ 6.1. TRANSFORMAC ¸ OES LINEARES 133 Pela defini¸c˜ao de transforma¸c˜ao linear seguem as igualdades, A(x1 , x2 , ..., xm ) = A(x1 e1 + x2 e2 + · · · + xm em ) = A(x1 e1 ) + A(x2 e2 ) + · · · + A(xm em ) = x1 A(e1 ) + x2 A(e2 ) + · · · + xm A(em ). V´arias informa¸c˜oes sobre uma transforma¸c˜ao linear podem ser obtidas da igualdade A(x1 , x2 , ..., xm ) = x1 A(e1 ) + x2 A(e2 ) + · · · + xm A(em ). (6.1) 1o Para construir uma transforma¸c˜ao linear basta especificar quais s˜ao seus valores nos vetores ei s da base canˆonica do dom´ınio e definir a transforma¸c˜ao linear pela combina¸c˜ao linear a` direita da igualdade. 2o Para saber se uma fun¸c˜ao ´e uma transforma¸c˜ao linear ´e suficiente que a imagem de um vetor v = (x1 , x2 , ..., xm ) seja uma combina¸c˜ao linear como descrito em (6.1). 3o Quando duas transforma¸c˜oes lineares A, B : Rm → Rn assumem os mesmos valores na base canˆonica elas s˜ao idˆenticas. 4o Como veremos logo a seguir, da igualdade (6.1) obteremos informa¸c˜oes, sobre a injetividade e sobrejetividade da transforma¸c˜ao linear. 5o Com os valores A(ei ), i = 1, ..., m, construiremos uma matriz que ser´a chamada de matriz canˆonica da transforma¸c˜ao linear da qual podemos obter muitas outras informa¸c˜es sobre a transforma¸c˜ao linear. Exerc´ıcio 6.1.1 Para construir uma transforma¸c˜ao linear A : R2 → R2 , escolhemos os valores de A na base canˆonica do dim´ınio A(e1 ) e A(e2 ). Digamos que a escolha foi A(e1 ) = (−1, 0) e A(e2 ) = (0, 3). A express˜ao para a transforma¸c˜ao linear em termos de coordenadas ser´a A(x, y) = (−x, 3y) pois A(x, y) = xA(e1 ) + yA(e2 ) = x(−1, 0) + y(0, 3) = (−x, 3y). 134 ˜ CAP´ITULO 6. TRANSFORMAC ¸ OES LINEARES Falta verificar que essa aplica¸c˜ao A ´e uma transforma¸c˜ao linear, isto ´e, ela satisfaz as condi¸c˜oes tl1 e tl2 listadas na defini¸c˜ao. Para isso, efetuamos os seguintes c´alculos que s˜ao procedimentos de rotina. Considere dois vetores v = (x1 , y1 ) e w = (x2 , y2 ) em R2 e um escalar λ ∈ R. Calculemos, A(v + w) = = = = A(x1 + x2 , y1 + y2 ) (−x1 − x2 , 3y1 + 3y2 ) (−x1 , 3y1 ) + (−x2 , 3y2 ) A(v) + A(w), A(λv) = = = = A(λx, λy) (−λx, 3λy) λ(−x, 3y) λA(x, y). Esse exemplo justifiva a Proposi¸c˜ao 6.1.1, enunciada abaixo. 2 Exemplo 6.1.1 Para construir uma transforma¸c˜ao linear A : R2 → R3 basta especificar os valores de A na base canˆonica do dom´ınio C = {e1 , e2 }. Por exemplo, se desejamos que A(1, 0) = (1, −1, 2) e A(0, 1) = (2, 0, 3), ent˜ao, constru´ımos a transforma¸c˜ao linear como indicado, A(x, y) = xA(1, 0) + yA(0, 1) = x(1, −1, 2) + y(2, 0, 3) = (x + 2y, −x, 2x + 3y). Portanto, em coordenadas temos A(x, y) = (x + 2y, −x, 2x + 3y). 2 Exemplo 6.1.2 A aplica¸c˜ao A : R3 → R3 , A(x, y, z) = (2x − y + 3z, 4y + 2z, 2x − y) ´e uma transforma¸c˜ao linear. Se n˜ao vejamos, A(x, y, z) = (2x − y + 3z, 4y + 2z, 2x − y) = (2x, 0, 2x) + (−y, 4y, −y) + (3z, 2z, 0) = x(2, 0, 2) + y(−1, 4, −1) + z(3, 2, 0). Verifica-se que A(e1 ) = (2, 0, 2), A(e2 ) = (−1, 4, −1) e A(e3 ) = (3, 2, 0). 2 ˜ 6.1. TRANSFORMAC ¸ OES LINEARES 135 Proposi¸c˜ ao 6.1.1 Sejam v1 , v2 ,...,vm vetores do Rn . A aplica¸c˜ao A : Rm → n R , definida por A(x1 , x2 , ..., xm ) = x1 v1 + x2 v2 + · · · + xm vm ´e uma transforma¸c˜ao linear. Mais ainda, essa ´e a u ´nica transforma¸c˜ao linear A : Rm → n R tal que A(ei ) = vi , i = 1, ...m. Uma transforma¸c˜ao linear possui duas propriedades b´asicas, quais sejam, A(o) = o e A(−v) = −A(v). Verifiquemos a primeira delas. Seja λ = 0. Calculando A(o) = A(λo) = λA(o) = 0A(o) = o. Para veriricar a segunda igualdade fa¸ca w = −v = (−1)v e avalie A(w) = A(−v). Para organizar a apresenta¸c˜ao, fixemos terminologias. A aplica¸c˜ao Id : Rn → Rn , Id(v) = v, chamada de aplica¸c˜ao identidade, ´e uma transforma¸c˜ao linear. Em termos de coordenadas, temos Id(x1 , x2 , ..., xn ) = (x1 , x2 , ..., xn ). Observe que Id(x1 , x2 , ..., xn ) = x1 e1 + x2 e2 + · · · + xn en . Chamaremos de transforma¸c˜ao linear identicamente nula de Rm em Rn a aplica¸c˜ao A(v) = o para qualquer v ∈ Rm . Em termos de coordenadas, temos A(x1 , x2 , ...xm ) = (0, 0, ..., 0). Nesse caso, A(x1 , x2 , ..., xn ) = x1 o + x2 o + · · · + xn o. Exerc´ıcio 6.1.2 Determine quais das aplica¸c˜oes, A : R2 → R3 , ´e uma transforma¸c˜ao linear e discuta sua resposta. 1. A(x, y) = (3x + y, x − y, x + y). 2. A(x, y) = (3x2 + y, x − y, x + y). 3. A(x, y) = (3x + y + 2, x − y, x + y). 4. A(x, y) = (3x + y + xy, x − y, x + y). 2 136 ˜ CAP´ITULO 6. TRANSFORMAC ¸ OES LINEARES Exerc´ıcios propostos 6.1.1 1. Verifique quais das aplica¸c˜oes s˜ao transforma¸c˜oes lineares. (a) A : R2 → R2 , A(x, y) = (xy, y). (b) A : R3 → R2 , A(x, y, z) = 3(x − y, x + 2y + z). (c) A : R2 → R2 , A(x, y) = (3 − x + y − 1, x − 3y + 2). (d) A : R3 → R2 , A(x, y, z) = (x − 3z, y + 2z − 3x). 2. Dado o conjunto ordenado de vetores γ = {w1 , w2 , w3 } ⊂ Rn . Para cada item encontre a transforma¸c˜ao linear A : R3 → Rn satisfazendo as condi¸c˜oes A(ei ) = wi . (a) γ = {(1, 1), (1, −1), (2, 1)} ⊂ R2 . (b) γ = {(2, −3, 1), (0, 1, 0), (1, −1, 4)} ⊂ R3 . (c) γ = {(1, 1, 0, 1), (0, 1, 0, 1), (1, 2, 0, 2)} ⊂ R4 . 3. Fixado λ0 ∈ R. A aplica¸c˜ao A : Rn → Rn , A(v) = λ0 v, ´e chamada de homotetia. Mostre que ela ´e uma transforma¸c˜ao linear e descreva-a utilizando coordenadas. 4. Fixado o vetor v0 = (1, 1, 2) ∈ R3 . Mostre que a aplica¸c˜ao A : R3 → R3 ´e uma transforma¸c˜ao linear, onde A(v) = v − v, v0  v0 . v0 , v0  Determine A(e1 ), A(e2 ) e A(e3 ). 5. Mostre que uma aplica¸c˜ao A : Rm → Rn ´e uma transforma¸c˜ao linear se, e somente se, A(v + λw) = A(v) + λA(w) para quaisquer v, w ∈ Rm e λ ∈ R. 6.2 N´ ucleo, imagem e sistema linear Em geral, no estudo de uma fun¸c˜ao ´e conveniente saber duas informa¸c˜oes b´asicas. Se a fun¸c˜ao ´e, ou n˜ao, injetiva e/ou sobrejetiva. No caso de uma transforma¸c˜ao linear, A : Rm → Rn , tais informa¸c˜oes s˜ao obtidas examinando-se dois subconjuntos, um no contradom´ınio e outro no dom´ınio, chamados de imagem e n´ ucleo da transforma¸c˜ao linear. S˜ao eles, respectivamente: ´ 6.2. NUCLEO, IMAGEM E SISTEMA LINEAR 137 a) Im (A) = {w ∈ Rn ; w = A(v) para algum v ∈ Rm }; b) Nuc (A) = {v ∈ Rm ; A(v) = o}. Observe que o n´ ucleo n˜ao ´e vazio pois o vetor nulo pertence a esse conjunto. Mostraremos que esses subconjuntos s˜ao subespa¸cos do contradom´ınio e do dom´ınio, respectivamente, mas, antes, discutamos esses conceitos com uma transforma¸c˜ao linear espec´ıfica. Seja A : R3 → R2 , A(x, y, z) = (x + y − z, 3x − 2y). Como sabemos, podemos escrevˆe-la na forma A(x, y, z) = xA(e1 ) + yA(e2 ) + zA(e3 ), (6.2) onde A(e1 ) = (1, 3), A(e2 ) = (1, −2) e A(e3 ) = (−1, 0). Imagem A combina¸c˜ao linear (6.2) nos sugere que a imagem Im(A) ´e o subespa¸co das combina¸c˜oes lineares dos vetores A(e1 ), A(e2 ) e A(e3 ), ou seja, Im(A) = [[A(e1 ), A(e2 ), A(e3 )]]. De fato, isso ocorre. Inicialmente, mostremos a inclus˜ao Im(A) ⊂ [[A(e1 ), A(e2 ), A(e3 )]]. Dado um elemento w ∈ Im(A), por defini¸c˜ao de imagem, existe um elemento do dom´ınio v = (x, y, z) ∈ R3 tal que A(v) = w. Portanto, w ´e uma combina¸c˜ao linear do tipo w = xA(e1 ) + yA(e2 ) + zA(e3 ). Isso implica que w ∈ [[A(e1 ), A(e2 ), A(e3 )]]. Reciprocamente, dado um elemento de w ∈ [[A(e1 ), A(e2 ), A(e3 )]]. Por defini¸c˜ao de subespa¸co das combina¸c˜oes lineares, existem escalares a1 , a2 e ´ claro, A(v) = w onde v = a3 tais que w = a1 A(e1 ) + a2 A(e2 ) + a3 A(e3 ). E (a1 , a2 , a3 ). Isso mostra a inclus˜ao [[A(e1 ), A(e2 ), A(e3 )]] ⊂ Im(A). Portanto, vale a igualdade de conjuntos. Nesse caso espec´ıfico, podemos dizer um pouco mais sobre a imagem. Como   1 1 = −5 = 0, det[A(e1 ), A(e2 )] = det 3 −2 138 ˜ CAP´ITULO 6. TRANSFORMAC ¸ OES LINEARES o conjunto β = {A(e1 ), A(e2 )} ´e um conjunto de geradores linearmente independente de Im(A) e tamb´em uma base de R2 . Logo, Im(A) = R2 . Isso significa que a tansforma¸c˜ao linear ´e sobrejetiva. N´ ucleo A apresenta¸c˜ao da transforma¸c˜ao linear em coordenadas nos d´a a descri¸c˜ao do n´ ucleo utilizando equa¸c˜oes lineares homogˆeneas. Observe que o vetor v = (x, y, z) est´a no n´ ucleo se, e somente se, A(x, y, x) = (x + y − z, 3x − 2y) = (0, 0). Portanto, um vetor v = (x, y, z) est´a no n´ ucleo se, e somente se, suas coordenadas ´e solu¸c˜ao do sistema de equa¸c˜oes lineares homogˆeneas nas vari´aveis x, y e z,  x + y − z = 0 . 3x − 2y = 0 Sendo assim, podemos descrever o n´ ucleo por equa¸c˜oes lineares homogˆeneas, Nuc(A) = {(x, y, z) ∈ R3 ; x + y − z = 0 e 3x − 2y = 0}. Desse fato, segue que o n´ ucleo ´e um subespa¸co do dom´ınio. Resolvendo o sistema acima, podemos descrever o n´ ucleo como Nuc(A) = [[(2, 3, 5)]]. Proposi¸c˜ ao 6.2.1 O n´ ucleo e a imagem de uma transforma¸c˜ao linear A : m n R → R s˜ao subespa¸cos do dom´ınio e contradom´ınio, respectivamente. Em particular, Im(A) = [[A(e1 ), A(e2 ), ..., A(em )]]. Prova Mostremos que o n´ ucleo ´e um subespa¸co do dom´ınio. 1. O conjunto Nuc(A) n˜ao ´e vazio pois o ∈ Nuc(A). 2. Sejam v e w dois vetores de Nuc(A). Dado a soma v + w, avaliemos, A(v + w) = A(v) + A(w) = o + o = o. Portanto, v + w ∈ Nuc(A). 3. Sejam v ∈ Nuc(A) e λ ∈ R. Dado λv, avaliemos, A(λv) = λA(v) = λo = o. ´ 6.2. NUCLEO, IMAGEM E SISTEMA LINEAR 139 Portanto, λv ∈ Nuc(A). Ficar´a como exerc´ıcio demonstrar que Im(A) ´e um subespa¸co do contradom´ınio. 2 Registremos numa proposi¸c˜ao dois fatos simples mas de bastante utilidade. Proposi¸c˜ ao 6.2.2 Se A : Rm → Rn uma transforma¸c˜ao linear ent˜ ao: a) A ´e injetiva ⇔ Nuc(A) = {o}; b) A ´e sobrejetiva ⇔ Im(A) = Rn . Prova a) (⇒) Suponha que A ´e injetiva. Como A(o) = o, somente o vetor nulo, e nenhum outro vetor, pode assumir o valor o ∈ Rn , mostrando que Nuc(A) = {o}. (⇐) Vamos supor que Nuc(A) = {o}. Sejam v, w ∈ V vetores tais que A(v) = A(w). Por linearidade obtemos A(v − w) = o. Como o n´ ucleo ´e trivial concluimos que v − w = o, isto ´e, v = w, mostrando a injetividade. b) Essa ´e a pr´opria defini¸c˜ao de fun¸c˜ao sobrejetiva. 2 ´rio A discuss˜ao de sistemas de equa¸c˜oes lineares est´a estreitamente Comenta relacionada com os conceitos de n´ ucleo e imagem de uma transforma¸c˜ao linear. Considere o seguinte sistema 4 × 3 nas vari´aveis x, y, z, ⎧ x − 2y + 3z = 2 ⎪ ⎪ ⎨ 2x − y + z = 0 . y + z = 2 ⎪ ⎪ ⎩ x − y + z = −1 Imediatamente, podemos construir uma transforma¸c˜ao linear utilizando as express˜oes do membro esquerdo das equa¸c˜oes, A : R3 → R4 , A(x, y, z) = (x − 2y + 3z, 2x − y + z, y + z, 2x − y + z), √ e considerar o vetor do contradom´ınio w0 = ( 2, 0, 2, −1) ∈ R3 . Com essa constru¸c˜ao, o sistema ´e reescrito na forma compacta A(x, y, z) = w0 . O sistema somente ter´a solu¸c˜ao se o vetor w0 estiver no subespa¸co Im(A), ou equivalentemente, cas exista um vetor v0 ∈ R3 tal que A(v0 ) = w0 . Agora, podemos discutir o sistema utilizando esses novos conceitos. 140 ˜ CAP´ITULO 6. TRANSFORMAC ¸ OES LINEARES 1. O sistema ´e poss´ıvel ⇔ w0 ∈ Im(A). a) O sistema ´e determinado ⇔ {o} = Nuc(A). b) O sistema ´e indeterminado ⇔ {o}  Nuc(A). / Im(A). 2. O sistema ´e imposs´ıvel ⇔ w0 ∈ Suponha que o sistema ´e poss´ıvel, ou seja, A(v0 ) = w0 para algum v0 ∈ R3 . Se Nuc(A) = {o}, pela Proposi¸c˜ao 6.2.2, (pg.139) segue que A ´e injetiva, portanto, somente essa solu¸c˜ao v0 ´e poss´ıvel. O item 1.b) ´e o ponto a ser ressaltado. Afirmar que {o}  Nuc(A) ´e equivalente a afirmar que o n´ ucleo tem dimens˜ao pelo menos igual a 1, logo, o n´ ucleo possui infinitos vetores. Vamos supor que esse seja o caso. Seja u0 ∈ Nuc(A) onde u0 = o. Observe que vo + u0 ´e uma solu¸c˜ao do sistema, pois A(v0 + u0 ) = A(v0 ) + A(u0 ) = A(vo ) + o = A(v0 ) = w0 . Temos um sistema linear poss´ıvel e indeterminado. Aquele sistema dado acima n˜ao tem solu¸c˜ao, ou seja, w0 ∈ / Im(A). Exerc´ıcios propostos 6.2.1 1. Determine uma base para o n´ ucleo da transforma¸c˜ao linear, caso ela n˜ ao seja injetiva e uma base para a imagem. (a) A : R2 → R2 , A(x, y) = (x + y, y). (b) A : R2 → R3 , A(x, y) = (2x + y, 4y + 2y, x − y). (c) A : R3 → R2 , A(x, y, z) = (x + y, y − z). 2. Construa uma transforma¸c˜ao linear A : R2 → R2 com a propriedade pedida. (a) A reflete cada vetor em rela¸c˜ao ao eixo ox. (b) A reflete cada vetor em rela¸c˜ao ao eixo oy. (c) A reflete cada vetor em relac˜ao ao subespa¸co Γ = {(x, y) ∈ R2 ; x−y = 0}. (d) A rotaciona cada vetor no sentido anti-hor´ ario por um aˆngulo de 3. Construa uma transforma¸c˜ao linear com a propriedades pedida. π 2. ´ 6.2. NUCLEO, IMAGEM E SISTEMA LINEAR 141 (a) A : R3 → R2 tal que Im (A) = [[v1 , v2 ]], onde v1 = (1, 2) e v2 = (1, 1). (b) A : R2 → R3 tal que Im (A) = [[v1 ]], onde v1 = (0, 3, −1). (c) A : R3 → R2 tal que Im (A) = {(x, y) ∈ R2 ; 2x − y = 0}. (d) A : R3 → R3 tal que Im (A) = {(x, y, z) ∈ R3 ; 2x + 3y + z = 0}. (e) A : R3 → R2 tal que Im(A) = {(x, y) ∈ R2 ; x − y = 0}. 4. Construa uma transforma¸c˜ao linear com a propriedades pedida. (a) A : R3 → R2 tal que N uc (A) = {(x, y, z) ∈ R3 ; x − y + 2z = 0}. (b) A : R2 → R3 tal que N uc (A) = {(x, y) ∈ R2 ; x = 0}. (c) A : R3 → R2 tal que N uc (A) = {(x, y, z) ∈ R3 ; 2x − y = 0}. (d) A : R3 → R2 tal que N uc (A) = {(x, y, z) ∈ R3 ; x + y = 0 e z = 0}. (e) A : R2 → R2 tal que N uc (A) = {o}. 5. Fixados v1 , v2 ∈ R2 defina a aplica¸c˜ao A : R2 → R2 , A(x, y) = xv1 + yv2 . (a) Verifique que A ´e uma transforma¸c˜ao linear. (b) Demonstre que u e v s˜ao linearmente independente ⇔ A ´e injetiva. 6. Fixado v0 = (1, 1, −1) ∈ R3 , considere a transforma¸c˜ao linear A : R3 → R3 , A(v) = v − v, v0  v0 . v0 , v0  Determine uma base para o n´ ucleo e uma base para a imagem de A. ao pode ser sobrejetiva. 7. Prove que uma transforma¸c˜ao linear A : R2 → R3 n˜ 8. Discuta o sistema linear utilizando os conceitos de transforma¸c˜ao linear, n´ ucleo e imagem.  (a) x − y + z = 1 . 2x + y − 2z = −1 ⎧ ⎨ (b) x − y = 0 x + y − 2z = 1 . ⎩ 2x − 2z = 2 142 6.3 ˜ CAP´ITULO 6. TRANSFORMAC ¸ OES LINEARES Matriz de uma transforma¸c˜ ao linear Como vimos, uma transforma¸c˜ao linear A : Rm → Rn fica determinada quando conhecemos os valores de A na base canˆonica, A(e1 ), A(e2 ),...,A(em ). Por esse e outros motivos, guardamos os valores A(ei ) numa matriz, constru´ıda da seguinte forma, [A] = [A(e1 ), A(e2 ), ..., A(em )]. A matriz [A] ser´a chamada de matriz canˆ onica de A, ou, simplesmente, matriz da transforma¸c˜ao linear A. Por exemplo, seja A : R3 → R3 , A(x, y, z) = (x−z, −2x+2y +4z, −y +2z). N˜ao ´e dif´ıcil mostrar que A ´e uma transforma¸c˜ao linear. A matriz 3 × 3 da transforma¸c˜ao linear ´e obtida avaliando ⎧ A(1, 0, 0) = (1, −2, 0) ⎪ ⎪ ⎪ ⎪ ⎨ A(0, 1, 0) = (0, 2, −1) . ⎪ ⎪ ⎪ ⎪ ⎩ A(0, 0, 1) = (1, 4, 2) Logo, a matriz canˆonica de A fica sendo ⎤ 1 0 1 2 4 ⎦. [A] = [A(e1 ), A(e2 ), A(e3 )] = ⎣ −2 0 −1 2 ⎡ Ressaltamos que conhecida a matriz [A] recuperamos todas as informa¸c˜oes sobre a transforma¸c˜ao linear. Exemplo 6.3.1 Assuma que a matriz canˆonica da transforma¸c˜ao linear A : Rm → Rn ´e ⎤ ⎡ 10 −1 [A] = ⎣ −2 31 ⎦ . 0 5 1o Como a matriz tem duas colunas, ent˜ao A = [A(e1 ), A(e2 )]. Isso nos d´a a informa¸c˜ao que o dom´ınio de A ´e o espa¸co R2 . 2o Como A(e1 ) = (10, −2, 0) e A(e2 ) = (−1, 31, 5) s˜ao vetores de R3 ent˜ao o contradom´ınio ´e o R3 . ˜ LINEAR 6.3. MATRIZ DE UMA TRANSFORMAC ¸ AO 143 Dessas informa¸c˜oes conclu´ımos que A : R2 → R3 , A(x, y) = xA(e1 ) + yA(e2 ) = (10x − y, −2x + 31y, 5y). 2 Exerc´ıcio 6.3.1 a) Calcule a matriz canˆonica da transforma¸c˜ao linear A : R3 → R2 , onde A(x, y, z) = (x − 2y + 5z, 2x − z). b) Qual a matriz canˆonica da identidade Id : Rn → Rn ? 2 Existem muitas informa¸c˜oes contidas na matriz de uma transforma¸c˜ao linear, como veremos ao longo do texto. Apresentemos uma delas. Calculemos a matriz canˆonica de A : R3 → R3 , A(x, y, z) = (2x − 3y, x + y − z, y − 4z). Como A(x, y, z) = x(2, 1, 0) + y(−3, 1, 1) + z(0, −1, −4) obtemos a matriz 3 × 3 ⎤ 2 −3 0 1 −1 ⎦ . [A] = ⎣ 1 0 1 −4 ⎡ Observe o produto matricial ⎤⎡ ⎤ ⎡ ⎡ ⎤ 2x − 3y x 2 −3 0 ⎣ 1 1 −1 ⎦ ⎣ y ⎦ = ⎣ x + y + z ⎦ . y − 4z z 0 1 −4 No membro direito dessa igualdade obtemos as fun¸c˜oes coordenadas da transforma¸c˜ao linear A. Sendo assim, podemos fazer avalia¸c˜oes na forma matricial. Por exemplo, para A(1, 1, 0), temos ⎤ ⎤⎡ ⎤ ⎡ ⎡ −1 1 2 −3 0 1 −1 ⎦ ⎣ 1 ⎦ = ⎣ 2 ⎦ . [A][u] = ⎣ 1 1 0 0 1 −4 Portanto, A(1, 1, ) = (−1, 2, 1). ˜ CAP´ITULO 6. TRANSFORMAC ¸ OES LINEARES 144 Agora, considere os vetores u = (1, 1, 0), v = (−1, 2, 1) e w = (0, 3, −2) e suas avalia¸c˜oes A(u) = (−1, 2, 1), Matricialmente, temos: ⎡ ⎤ −1 [A][u] = ⎣ 2 ⎦ ; 1 A(v) = (−8, 0, −2) e A(w) = (−9, 5, 11). ⎤ −9 [A][w] = ⎣ 5 ⎦ . 11 ⎡ ⎤ −8 [A][v] = ⎣ 0 ⎦ ; 2 ⎡ As trˆes matrizes [A(u), A(v), A(w)], [A(e1 ), A(e2 , A(e3 )] e [u, v, w]. est˜ao relacionadas pelo produto de matricial, ⎤ ⎡ −1 −8 −9 0 5 ⎦. [A(u), A(v), A(w)] = ⎣ 2 1 −2 11 ⎤⎡ ⎤ ⎡ 2 −3 0 1 −1 0 2 3 ⎦ 1 −1 ⎦ ⎣ 1 = ⎣ 1 0 1 −4 0 1 −2 = [A][u, v, w]. Com isso verificamos que as colunas de [A(u), A(v), A(w)] s˜ao as entradas das matrizes colunas [A][u], [A][v] e [A][w], respectivamente. Esse ´e um algor´ıtmo que ser´a explorado in´ umeras vezes. Proposi¸ c˜ ao 6.3.1 Sejam A : Rm → Rn uma transforma¸c˜ao linear e u1 , u2 , ..., um vetores de Rm . Valem as seguintes afirma¸c˜oes. a) [A(u1 ), A(u2 ), ..., A(um )] = [A][u1 , u2 , ..., um ]. b) Se m = n ent˜ ao as matrizes descritas no item anterior s˜ ao quadradas e det [A(u1 ), A(u2 ), ..., A(un )] = det [A] det[u1 , u2 , ..., un ]. ˜ LINEAR 6.3. MATRIZ DE UMA TRANSFORMAC ¸ AO 145 Prova A demonstra¸c˜ao do item a) ´e combinat´oria e n˜ao a faremos. De qualquer forma, mostra-se que a i-´esima coluna da matriz [A(u1 ), A(u2), ..., A(um )] ´e formada pelas entradas da matriz coluna [A][ui ]. O segundo item ´e uma conseq¨ uˆencia imediata do primeiro, pois o determinante do produto de duas matrizes n × n ´e o produto dos determinantes de cada matriz, Proposi¸c˜ao 2.1.3, (pg.28). 2 ´rio O u Comenta ´ ltimo item da proposi¸c˜ao cont´em uma informa¸c˜ao geom´etrica relacionada com transforma¸c˜oes lineares que n˜ao est´a explicitada no enunciado. Examinemos o caso de uma transforma¸c˜ao linear cujo dom´ınio e contradom´ınio s˜ao iguais, por exemplo, A : R2 → R2 , A(x, y) = (2x − y, x + y). Nesse caso, a matriz canˆonica de A ´e quadrada 2 × 2 e det[A] = 3. Esse ´e o fator de transforma¸c˜ao de a´rea, no seguinte sentido. Considere a ´area de um paralelogramo cujas arestas s˜ao segmentos orientados que representam os vetores v e w. Como sabemos o valor dessa a´rea ´e |det[v, w]|, veja Proposi¸c˜ao 3.1.1, (pg.59). A transforma¸c˜ao linear A transforma esse paralelogramo num outro paralelogramo cujas arestas s˜ao representantes dos vetores A(v) e A(w). A a´rea desse u ´ ltimo ´e |detA(v), A(w)]|. O determinante det[A] = 3 ´e o fator que relaciona as a´reas do paralelogramo no dom´ınio e a a´rea do paralelogramo imagem, |detA(v), A(w)]| = |det[A] det[v, w]| . Essa ´e uma das leituras geom´etricas que podemos fazer do item b) da u ´ ltima proposi¸c˜ao. ˜ CAP´ITULO 6. TRANSFORMAC ¸ OES LINEARES 146 Para transforma¸c˜oes lineares A : R3 → R3 , a interpreta¸c˜ao ´e semelhante. O valor |det[A]| ´e o fator de transforma¸c˜ao de volume quando consideramos um paralelep´ıpedo cujas arestas s˜ao segmentos orientados representando os vetores u, v, w ∈ R3 . 2 Finalmente, relacionemos as entradas da matriz canˆonica de uma transforma¸c˜ao linear com o produto interno de vetores. Exemplo 6.3.2 Seja A : Rm → Rn uma transforma¸c˜ao linear. Utilizando o produto interno, mostre que as entradas da matriz [A] = [aij ] s˜ao determinadas por aij = ei , A(ej ). Sugest˜ ao Primeiro, verifique que a afirma¸c˜ao ´e verdadeira para a transforma¸c˜ao linear A : R2 → R3 , A(x, y) = (x − y, 2x − 3y, −x + 4y). Depois fa¸ca o caso gen´erico. 2 Exerc´ıcios propostos 6.3.1 1. Determine as matrizes das seguintes transforma¸c˜oes lineares. (a) A : R3 → R3 , A(x, y, z) = (6x + y − 3z, z − y, 2x − z). (b) A : R2 → R3 , A(x, y) = (x + y, 2x − y, y − 2x). (c) A : R3 → R2 , A(x, y, z) = (x + y + z, x + y + z). (d) Id : R3 → R3 , Id(x, y, z) = (x, y, z). R2 → R4 , (Identidade) A(x, y) = (0, 0, 0, 0). (identicamente nula) (f) A : R3 → R3 , A(x, y, z) = (0, y, 0). (proje¸c˜ao sobre o eixo y) (e) A : 2. Sabendo-se que a matriz canˆ onica de uma transforma¸c˜ao liner ´e [A], dˆe o dom´ınio, contradom´ınio, a rela¸c˜ao, uma base para a imagem e uma base para o n´ ucleo (se n˜ao for trivial). ⎡ ⎤ ⎡ ⎤   −2 −4 1 −1 1 −1 0 2 ⎦. (a) [A] = ⎣ 1 b) [A] = ⎣ 2 −2 ⎦. c) [A] = . 1 2 3 1 2 −1 0 3. Fixados w1 = (1, 0, −2) e w2 = (1, −2, 2) do R3 e v1 = (−2, 1) e v2 = (1, 1) do R2 , defina uma aplica¸c˜ao A : R2 → R3 por A(v) = v, v1 w1 + v, v2 w2 . (a) Mostre que A ´e uma transforma¸c˜ao linear. ´ 6.4. TEOREMA DO NUCLEO E DA IMAGEM 147 (b) Calcule a matriz canˆ onica de A. 4. Seja A : R2 → R2 , A(x, y) = (x − 2y, −x + y). Fixados v1 = (1, 1) e v2 = (−2, 1), defina uma aplica¸c˜ao B : R2 → R2 por B(v) = A(v), v1 v1 + A(v), v2 v2 . (a) Mostre que B ´e uma transforma¸c˜ao linear. (b) Calcule a matriz canˆ onica de B. 5. Fixados w1 = (1, 1, 1), w2 = (2, 1, 0) do R3 , defina uma aplica¸c˜ao A : R3 → R3 por A(v) = (v, w1 , 0, v, w1 ). (a) Mostre que A ´e uma transforma¸c˜ao linear. (b) Calcule a matriz canˆ onica de A. 6. Fixado v0 = (2, 1, 1) ∈ R3 , defina a aplica¸c˜ao A : R3 → R3 , A(v) = v − v, v0  v0 , v0 , v0  (a) Mostre que A ´e uma transforma¸c˜ao linear e calcule sua matriz canˆ onica. ultiplo de w0 . (b) Calcule todos os vetores w0 ∈ R3 tais que A(w0 ) seja um m´ 7. Sejam A : R3 → R3 , A(x, y, z) = (z, x, y) e v0 = (3, 1, 1) ∈ R3 . Defina uma aplica¸c˜ao B : R2 → R2 por B(v) = A(v) × v0 . (a) Mostre que B ´e uma transforma¸c˜ao linear. (b) Determine uma base para o n´ ucleo e uma base para a imagem de B. (c) Calcule a matriz de B. 6.4 Teorema do n´ ucleo e da imagem Para conhecer melhor as propriedades de uma transforma¸c˜oes lineares precisamos de um resultado, conhecido como Teorema do n´ ucleo e da imagem, do qual decorrem muitos corol´arios. Intuitivamente falando, a dimens˜ao do n´ ucleo m n de A : R → R mensura quanto de dimens˜ao foi perdida ao transformamos linearmente o espa¸co Rm no subespa¸co Im(A) ⊂ Rn . 148 ˜ CAP´ITULO 6. TRANSFORMAC ¸ OES LINEARES Teorema 6.4.1 (Teorema do n´ ucleo e da imagem) Seja A : Rm → Rn uma transforma¸c˜ao linear. Ent˜ ao dim Rm = dim Nuc(A) + dim Im(A). ´ claro que k ≤ m, pois o n´ Prova Vamos assumir que dim Nuc(A) = k. E ucleo m ´e um subespa¸co do dom´ınio R . De in´ıcio, considere uma base ordenada β = {v1 , ..., vk , vk+1, ..., vm } para Rm na qual os k primeiros elementos formam uma base para o n´ ucleo de A, veja o Teorema 5.6.1, (pg.118). Afirma¸c˜ao 1: Vale a igualdade entre os subespa¸cos Im(A) = [[A(vk+1 ), A(vk+2), ..., A(vm )]]. Como cada A(vi ) ∈ Im(A) ´e imediato conclu´ırmos a inclus˜ao [[A(vk+1 ), A(vk+2), ..., A(vm )]] ⊂ Im(A), pois A(vi ) = o para todo i = 1, ..., k. Examinemos a inclus˜ao oposta. Por defini¸c˜ao de conjunto imagem, dado um vetor w ∈ Im(A) existe um vetor v ∈ Rm tal que w = A(v). Escrevamos o vetor v como uma combina¸c˜ao linear dos vetores da base β, v = x1 v1 + x2 v2 + · · · + xm vm . Levando-se em conta que os k primeiros vetores de β pertencem ao n´ ucleo de A, avaliemos, w = A(v) = A(x1 v1 + x2 v2 + · · · + xn vn ) = xk+1 A(vk+1 ) + xk+2 A(vk+2 ) + · · · + xm A(vm ). De onde conclu´ımos que v ∈ [[A(vk+1 ), A(vk+2 ), ..., A(vm )]], mostrando a inclus˜ao oposta e terminando a prova da afirma¸c˜ao. Afirma¸c˜ao 2: A(β) = {A(vk+1 ), A(vk+2), ..., A(vm )} ´e um conjunto linearmente independente. Em particular, dim Im(A) = n − k. Consideremos a combina¸c˜ao linear o = yk+1A(vk+1 ) + yk+2 A(vk+2 ) + · · · + ym A(vm ). ´ 6.4. TEOREMA DO NUCLEO E DA IMAGEM 149 Por linearidade de A, podemos reescrever essa u ´ ltima equa¸c˜ao vetorial como o = A(yk+1vk+1 + yk+2vk+2 + · · · + ym vm ). Isto significa que yk+1vk+1 + yk+2vk+2 + · · · + ym vm ∈ Nuc(A). Logo, este u ´ ltimo vetor tamb´em ´e uma combina¸c˜ao linear dos k primeiros vetores da base ordenada β, pois tais vetores formam uma base para o n´ ucleo de A, isto ´e, yk+1vk+1 + yk+2 vk+2 + · · · + ym vm = x1 v1 + x2 v2 + · · · + xk v, ou equivalentemente, x1 v1 + x2 v2 + · · · + xk vk − yk+1vk+1 − yk+2vk+2 − · · · − ym vm = 0. Como β ´e linearmente independente, todos os coeficientes dessa combina¸c˜ao linear s˜ao nulos, em particular, yk+1 = yk+2 = · · · = ym = 0, mostrando que o conjunto A(β) ´e linearmente independente. Como A(β) ´e um conjunto ordenado de geradores, significa que A(β) ´e uma base ordenada de Im(A), de onde segue que dim Im(A) = n − k. Temos provado a Afirma¸c˜ao 2. Sendo assim, dim Rm = k + (m − k) = dim Nuc(A) + dim Im (A). Isto termina a demostra¸c˜ao do teorema. 2 Exerc´ıcios propostos 6.4.1 1. Determine uma base para a imagem e uma base para o n´ ucleo, quando ele for n˜ ao trivial, das seguintes transforma¸c˜oes lineares. Verifique o Teorema do n´ ucleo e da imagem. (a) A : R3 → R3 , A(x, y, z) = (6x + y − 3z, z − y, 2x − z). (b) A : R2 → R3 , A(x, y) = (x + y, 2x − y, y − 2x). (c) A : R3 → R2 , A(x, y, z) = (x + y + z, x + y + z). (d) Id : R3 → R3 , Id(x, y, z) = (x, y, z). 150 ˜ CAP´ITULO 6. TRANSFORMAC ¸ OES LINEARES (e) A : R3 → R3 , A(x, y, z) = (0, z − y, 0). (f) A : R2 → R4 , A(x, y) = (x + y, x + y, x + y, x + y). 2. Para cada item, determine a transforma¸c˜ao linear A : R3 → Rn satisfazendo as condi¸c˜oes A(ei ) = wi , em que γ = {w1 , w2 , w3 } ⊂ Rn e encontre uma base para o n´ ucleo e uma base para a imagem. (a) γ = {(1, 1), (1, −1), (2, 1)} ⊂ R2 . (b) γ = {(2, −3, 1), (0, 1, 0), (1, −1, 4)} ⊂ R3 . (c) γ = {(1, 1, 0, 1), (0, 1, 0, 1), (1, 2, 0, 2)} ⊂ R4 . 3. Construa uma transforma¸c˜ao linear A : R3 → R3 satisfazendo a condi¸c˜ao dada. (a) Im (A) ´e gerado por ε = {(2, −1, 1), (1, 0, 1)}. (b) N uc(A) ´e gerado por ε = {(2, −1, 1), (1, 0, 1)}. (c) Im(A) ⊂ N uc(A). 4. Seja A : Rm → Rn uma transforma¸c˜ao linear. Prove as afirma¸c˜oes. (a) Se m < n ent˜ ao A n˜ ao ´e sobrejetiva. (b) Se m > n ent˜ ao A n˜ ao ´e injetiva. 5. Existe uma transforma¸c˜ao linear A : R11 → R11 tal que Im(A) = N uc(A)? Justifique sua resposta. 6. Sejam w1 , w2 e w3 vetores n˜ao nulos de R3 tais que 2w1 − w2 + w3 = o e w1 = 4w2 . Considere a transforma¸c˜ao linear A : R3 → R3 tal que A(e1 ) = w1 , A(e2 ) = w2 e A(e3 ) = w3 . Calcule uma base para N uc(A) e uma base para Im(A). 7. Fixado v0 = (1, 1, 1) ∈ R3 , defina A : R3 → R3 por A(v) = v × v0 (produto vetorial). (a) Verifique que A ´e uma transforma¸c˜ao linear e calcule sua matriz canˆ onica. (b) Encontre uma base para o n´ ucleo e uma base para a imagem. ´ 6.4. TEOREMA DO NUCLEO E DA IMAGEM 151 8. Fixados v1 = (1, −1) ∈ R2 e w1 = (−2, 0, 3) ∈ R3 , defina A : R3 → R2 por A(v) = v, w1 v1 . (a) Verifique que A ´e uma transforma¸c˜ao linear e calcule [A]. (b) Encontre uma base para o n´ ucleo e uma base para a imagem. 9. Fixados w1 = (1, 0, 1), w2 = (2, 1, 0), vetores de R3 , defina A : R3 → R3 por A(v) = (v, w1 , 0, v, w2 ). (a) Mostre que A ´e uma transforma¸c˜ao linear. (b) Determine uma base para o n´ ucleo e uma base para a imagem de A. 10. Fixados w1 = (1, 0, −2) e w2 = (1, −2, 2), vetores do R3 e os vetores v1 = (−2, 1) e v2 = (1, 1) do R2 . Defina uma aplica¸c˜ao A : R2 → R3 por A(v) = v, v1 w1 + v, v2 w2 . (a) Mostre que A ´e uma transforma¸c˜ao linear e calcule [A]. (b) Determine uma base para Im(A) e uma base para N uc(A), caso seja n˜ ao trivial. 11. Seja A : R2 → R2 , A(x, y) = (x + y, x + y). Fixados os vetores v1 = (1, 1) e v2 = (−1, 1), defina uma aplica¸c˜ao B : R2 → R2 por B(v) = A(v), v1 v1 + A(v), v2 v2 . (a) Mostre que B ´e uma transforma¸c˜ao linear e calcule a matriz canˆ onica. (b) Determine uma base para o n´ ucleo e uma base para a imagem de B. 12. Seja A : Rm → Rn um operador linear. Quais das afirma¸c˜oes s˜ao verdadeiras para quaisquer inteiros positivos m e n? (a) m ≤ dim Im(A) ≤ n. (b) m ≤ dim N uc(A). (c) dim N uc(A) ≤ m. (d) |dim Im(A) − dim N uc(A)| = |n − m|. ˜ CAP´ITULO 6. TRANSFORMAC ¸ OES LINEARES 152 6.5 Opera¸ co ˜es Nessa se¸c˜ao definiremos trˆes opera¸c˜oes envolvendo transforma¸c˜oes lineares: ◦ soma de transforma¸c˜oes lineares; ◦ multiplica¸c˜ao de uma transforma¸c˜ao linear por um escalar; ◦ composi¸c˜ao de transforma¸c˜oes lineares. Dadas duas transforma¸c˜oes lineares com iguais dom´ınio e contradom´ınio, digamos A, B : Rm → Rn , definimos a aplica¸c˜ao soma das transforma¸c˜oes lineares como A + B : Rm → Rn , (A + B)(v) =: A(v) + B(v). A nova aplica¸c˜ao assim constru´ıda ´e tamb´em uma transforma¸c˜ao linear pois (A + B)(v + w) ≡ A(v + w) + B(v + w) = A(v) + A(w) + B(v) + B(w) = (A + B)(v) + (A + B)(w). De modo semelhante mostramos que (A + B)(λv) = λ(A + B)(v). Dado um escalar µ ∈ R, definimos a multiplica¸c˜ao de uma transforma¸c˜ao por um escalar como sendo a aplica¸c˜ao µA : Rm → Rn , (µA)(v) =: µA(v). ´ rotina verificar que µA ´e uma transforma¸c˜ao linear. E Exemplo 6.5.1 Sejam A, B : R3 →R2 as transforma¸c˜oes lineares A(x, y, z) = (2y, z − x) e B(x, y, z) = (x − z, z). Calculemos A − 2B : R3 → R3 . Pelas defini¸c˜oes, obtemos (A − 2B)(x, y, z) = (2y, z − x) − 2(x − z, z) = (2y − 2x + 2z, −z − x). ˜ 6.5. OPERAC ¸ OES 153 Esse c´alculo fica bastante simplificado com matrizes. Calculemos a matriz de A − 2B tendo em mente as regras para a soma de matrizes e a multiplica¸c˜ao de uma matriz por um escalar, [A − 2B] = = = = [(A − 2B)(e1 ), (A − 2B)(e2 )] [A(e1 ) − 2B(e1 ), A(e2 ) − 2B(e2 )] [A(e1 ), A(e2 )] − 2[B(e1 ), B(e2 )] [A] − 2[B]. Esses coment´arios justificam o enunciado da proposi¸c˜ao abaixo cuja demonstra¸c˜ao ser´a deixada como exerc´ıcio. 2 Proposi¸c˜ ao 6.5.1 Sejam A, B : Rm → Rn duas transforma¸c˜oes lineares e λ ∈ R. Vale a rela¸c˜ao matricial [A + λB] = [A] + λ[B]. Uma outra opera¸c˜ao que efetuamos com transforma¸c˜oes lineares ´e a composi¸c˜ao. Sejam A : Rm → Rn e C : Rn → Rk duas transforma¸c˜oes lineares. Constru´ımos uma outra transforma¸c˜ao linear, chamada de composta, denotada e definida por C ◦ A : Rm → Rk , C ◦ A(v) =: C(A(v)), diagramaticamente, Rm A / Rn C 8 / Rk . C◦A Para efetuar a opera¸c˜ao de composi¸c˜ao ´e necess´ario que o contradom´ınio de A seja o dom´ınio de C. A composta ´e tamb´em uma transforma¸c˜ao linear pois se u, v ∈ Rm e λ ∈ R, as igualdades abaixo s˜ao justificadas pelas defini¸c˜oes j´a apresentadas, C ◦ A(u + λv) = = = = C(A(u + λv)) C(A(u) + λA(v)) C(A(u)) + λC(A(v)) C ◦ A(u) + λC ◦ A(v). Exemplo 6.5.2 Calculemos a composta ˜ CAP´ITULO 6. TRANSFORMAC ¸ OES LINEARES 154 R3 A / R2 C / 8 R2 , C◦A onde A(x, y, z) = (y, z) e C(x, y) = (y, x − y). Primeiro, observe que C ◦ A : R3 → R2 , C ◦ A(x, y, z) = C(A(x, y, z)) = C(y, z) = (z, y − z). Levando em conta a Proposi¸c˜ao 6.3.1, (pg.144), desse cap´ıtulo, a matriz da composta ´e [C ◦ A] = [C(A(e1 )), C(A(e2 )), C(A(e3 ))] = [C][A(e1 ), A(e2 ), A(e3 )] = [C][A]. Isto ´e, a matriz da composta ´e o produto das matrizes. 2 Proposi¸c˜ ao 6.5.2 Sejam A : Rm → Rn e C : Rn → Rk duas transforma¸c˜oes lineares. Ent˜ ao a composta C ◦ A : Rm → Rk ´e uma transforma¸ca˜o linear e vale a identidade matricial [C ◦ A] = [C][A]. Prova A demonstra¸c˜ao ´e uma aplica¸c˜ao da Proposi¸c˜ao 6.3.1, (pg.144), e em nada difere daquela argumenta¸c˜ao feita no u ´ltimo exerc´ıcio. 2 Exerc´ıcios propostos 6.5.1 1. Para cada item, efetue, quando poss´ıvel, as opera¸c˜oes 2A− B, A◦B, B ◦A, A2 e B 2 em que A e B s˜ao as transforma¸c˜oes lineares dadas. Efetue as opera¸c˜oes expl´ıcita e matricialmente. (a) A : R2 → R2 , A(x, y) = (2x, y − x) B : R2 → R2 , B(x, y) = (x − y, −y). (b) A : R2 → R3 , A(x, y) = (3y, y − 2x, y − x) B : R3 → R3 , B(x, y, z) = (x − y, y, 2x). (c) A : R2 → R2 , A(x, y) = (2x + 2y, y − x) B : R2 → R2 , B(x, y) = (x − y, y). ˜ 6.6. RESPOSTAS E SUGESTOES 155 2. Efetue o produto das seguintes matrizes na ordem poss´ıvel ⎡ ⎤   1 2 1 1 ⎣ ⎦ [A] = 0 −1 e [B] = . 2 0 3 0 Dˆe as transforma¸c˜oes lineares que elas definem (dom´ınio, contradom´ınio e rela¸c˜ao). 3. Efetue a composta A2 = A ◦ A, onde A : R2 → R2 , A(x, y) = (−2x + 4y, −x + 2y). Qual a rela¸c˜ao de inclus˜ ao entre N uc(A) e Im(A)? 4. Dada a transforma¸c˜ao linear A : R2 → R2 , A(x, y) = (3x + 9y, −x − 3y). Construa uma transforma¸c˜ao linear n˜ ao identicamente nula B : R2 → R2 tal 2 que A ◦ B(v) = o para todo v ∈ R . 5. Considere a seguinte composta de operadores lineares, Rk A / Rm B / Rn . 8 B◦A Responda quais das afirma¸c˜oes s˜ao falsas ou verdadeiras. (a) B ◦ A sobrejetiva ⇒ B sobrejetiva. (b) B ◦ A injetiva ⇒ A injetiva. (c) B ◦ A invert´ıvel ⇒ A injetiva e B sobrejetiva. (d) A sobrejetiva e B ◦ A injetiva ⇒ B injetiva. (e) B ◦ A sobrejetiva e B injetiva ⇒ A sobrejetiva. 6.6 Respostas e sugest˜ oes Se¸ c˜ ao 6.1 ˜ CAP´ITULO 6. TRANSFORMAC ¸ OES LINEARES 156 1) (a) N˜ao. (b) Sim. (c) N˜ao. 2) (a) A(x, y, z) = (x + y + 2z, x − y + z). (d) Sim. (b) A(x, y, z) = (2x + z, −3x + y − z, x + 4z).       3) A(e1 ) = 56 , − 16 , − 62 ; A(e2 ) = − 61 , 56 , − 26 ; A(e1 ) = − 26 , − 62 , 26 . 4) A(x1 , x2 , ..., xn ) = (λ0 x1 , λ0 x2 , ..., λ0 xn ). Se¸ c˜ ao 6.2 1) (a) N uc(A) = {o}. (b) N uc(A) = [[(1, −2)]]. (c) N uc(A) = [[(−1, 1, 1)]]. 2) Defina os valores na base canˆ onica como indicado e escreva-a em coordenadas. (a) A(e1 ) = e1 , A(e2 ) = −e2 , A(x, y) = (x, −y). (b) A(e1 ) = −e1 , A(e2 ) = e2 , A(x, y) = (−x, y). (c) A(e1 ) = e2 , A(e2 ) = e1 , A(x, y) = (y, x). (d) A(e1 ) = e2 , A(e2 ) = −e1 , A(x, y) = (−y, x). 3) Defina os valores na base canˆ onica como indicado e escreva-a em coordenadas. Os trˆes u ´ ltimos exemplos foram constru´ıdos calculando uma base para a imagem. (a) A(e1 ) = v1 , A(e2 ) = v2 , A(e3 ) = v1 , A(x, y) = (x + y + z, 2x + y + z). (b) A(e1 ) = v1 , A(e2 ) = v1 , (d) A(e1 ) = (1, 0, −2), A(e2 ) = (0, 1, −3), (e) A(e1 ) = (1, 1), A(e2 ) = (1, 1), A(x, y) = (0, 3x + 3y, −x − y). A(e3 ) = o, A(x, y) = (x + y, x + y). A(e3 ) = o, A(x, y, z) = (x, y, −2x − 3y). 4) Vocˆe poder´ a ter encontrado outras transforma¸c˜oes. (a) A(x, y, z) = (x − y + 2z, x − y + 2z). (d) A(x, y, z) = (x + y, z). (b) A(x, y) = (x, 2x, 3x). (e) A(x, y) = (y, x). (c) A(x, y, z) = (2x − y, 0). ˜ 6.6. RESPOSTAS E SUGESTOES 157 6) Determine a transforma¸c˜ao linear. ii) Im(A) = [[(1, −1, 0), (1, 0, 1)]]. i) N uc(A) = [[vo ]]. 7) Por absurdo, suponha que a transforma¸c˜ao linear A seja sobrejetiva. Isto ´e, Im(A) = [[A(e1 ), A(e2 )]] = R3 . Sendo assim, o espa¸co vetorial R3 ´e gerado por dois vetores, uma contradi¸c˜ao. 8) (a) A : R3 → R2 , A(x, y, z) = (x − y + z, 2x + y − 2z). A ´e sobrejetiva, logo o a na imagem de A implicando que o sistema tem solu¸c˜ao. vetor w0 = (1, −1) est´ N´ ucleo de A n˜ ao ´e trivial, logo, o sistema tem infinitas solu¸c˜oes. (b) A : R3 → R3 , A(x, y, z) = (x − y, x + y − 2z, 2x − 2z). O vetor w0 = (0, 1, 2) n˜ ao est´ a na imagem de A, ou seja, o sistema n˜ao tem solu¸c˜ao. Se¸ c˜ ao 6.3 1) ⎡ ⎤ 1 −3 −1 1 ⎦. 0 −1 6 (a) [A] = ⎣ 0 2 ⎡ 1 (b) [A] = ⎣ 2 −2  (c) [A] = ⎤ 1 −1 ⎦. 1 1 1 1 1 1 1  . ⎡ 1 0 (d) [A] = ⎣ 0 1 0 0 ⎡ 0 0 ⎢ 0 0 ⎢ (e) [A] = ⎣ 0 0 0 0 ⎡ 0 0 (f ) [A] = ⎣ 0 1 0 0 ⎤ 0 0 ⎦. 1 ⎤ ⎥ ⎥. ⎦ ⎤ 0 0 ⎦. 0 2) Vocˆe poder´a ter encontrados outros vetores para as bases. (a) A : R2 → R3 , N uc(A) = [[2e1 − e2 ]], (b) A : R → R , 2 3 N uc(A) = {o}, (c) A : R → R , 3 2 N uc(A) = [[(3, 3, −3)]], A(x, y) = (−2x− 4y, x+ 2y, x+ 2y), Im (A) = [[A(e1 )]]. A(x, y) = (x − y, 2x − 2y, −x), Im (A) = [[A(e1 ), A(e2 )]]. A(x, y, z) = (x − y, x + 2y + 3z), Im (A) = [[A(e1 ), A(e2 )]] = R2 . 3) Obtenha as resposta da rela¸c˜ao A(x, y) = (−x + 2y, −2x − 2y, 6y). 4) Obtenha as resposta da rela¸c˜ao B(x, y) = (6x − 11y, −3x + 4y). 5) Obtenha as resposta da rela¸c˜ao A(x, y, z) = (x + y + z, 0, 2x + y). 6) (b) Todos os m´ ultiplos de v0 . 7) Utilize a defini¸c˜ao de produto vetorial, Se¸c˜ao 4.6, (pg.86). ˜ CAP´ITULO 6. TRANSFORMAC ¸ OES LINEARES 158 (a) B(x, y, z) = (x − y, 3y − z, −3x + z). (b) N uc(B) = [[(1, 1, 3)]]. Im(A) = [[(1, −3, 0), (1, 0, −1)]]. Se¸ c˜ ao 6.4 1) Vocˆe poder´ a ter encontrado outros vetores para as bases. (a) Im(A) = R3 , N uc(A) = {o}. (b) Im(A) = [[A(e1 ), A(e2 )]], N uc(A) = {o}. (c) Im(A) = [[A(e1 )]], N uc(A) = [[e1 − e2 , e1 − e3 ]]. (d) Im(A) = [[A(e1 ), A(e2 ), A(e3 )]], N uc(A) = {o}. (e) Im(A) = [[A(e2 )]], N uc(A) = [[e1 , e2 + e3 ]]. (f ) Im(A) = [[A(e1 )]], N uc(A) = [[e1 − e2 ]]. 2) Vocˆe poder´ a ter encontrado outros vetores para as bases. (a) A(x, y, z) = (x + y + 2z, x − y + 2z), N uc(A) = [[4e1 − 2e3 ]], Im(A) = [[A(e1 ), A(e2 )]] = R2 . (b) A(x, y, z) = (2x + z, −3x + y − z, x + 4z), N uc(A) = {o}, Im(A) = [[A(e1 ), A(e2 ), A(e3 )]] = R3 . (c) A(x, y, z) = (x + z, x + y + 2z, 0, x + y + 2z), N uc(A) = [[e1 − e2 ]], Im(A) = [[A(e1 ), A(e2 )]]. 3) Vocˆe poder´ a ter encontrado outras transforma¸c˜oes. (a) A(x, y, z) = (2x + y, −x, x + y). (b) A(x, y, z) = (x + y − z, x + y − z, x + y − z). (c) A(x, y, z) = (0, 0, x + y). 4) (a) Suponha, por absurdo, que A seja sobrejetiva, isso ´e equivalente a dizer que Rn = Im(A) = [[A(e1 ), A(e2 ), ..., A(em )]]. Logo, o espa¸co Rn teria um conjunto de geradores com um n´ umero de vetores m < n. Uma contradi¸c˜ao. (b) Suponha, por absurdo, que A seja injetiva, isso ´e equivalente a dizer que Rn = Im(A) = [[A(e1 ), A(e2 ), ..., A(em )]]. Logo, o espa¸co Rn teria uma base com um n´ umero de vetores m > n. Uma contradi¸c˜ao. ˜ 6.6. RESPOSTAS E SUGESTOES 159 5) N˜ ao existe. Caso contr´ ario, pelo Teorema do n´ ucleo e da imagem ter´ıamos a igualdade 11 = 2dim Im(A), uma contradi¸c˜ao, pois 11 n˜ ao ´e par. 6) Im(A) = [[w3 ]] e N uc(A) = [[(2, −1, 1), (1, 4, 0)]]. 7) (b) N uc(A) = [[v0 ]] e Im(A) = [[(1, −1, 0), (1, 0, −1)]]. 8) (b) N uc(A) = [[(3, 0, 2), e2 ]] e Im(A) = [[v1 ]]. 9) (b) N uc(A) = [[w1 × w2 ]] e Im(A) = [[e1 , e3 ]]. 10) (b) N uc(A) = {o} e Im(A) = [[w1 , w2 ]]. 11) (b) N uc(B) = [[(1, −1)]] e Im(A) = [[2v1 − v2 ]]. 12) (a) Falsa. (b) Falsa. (c) Verdadeira. (d) Falsa. Se¸ c˜ ao 6.5 1) (a) (2A− B)(x, y) = (3x+ y, −2x+ 3y). A ◦ B(x, y) = (2x − 2y, −x). B ◦ A(x, y) = (3x − y, x − y). A ◦ A(x, y) = (4x, −3x + y). B ◦ B(x, y) = (3x − y, x − y). (b) (2A − B) n˜ ao existe. B ◦ A(x, y) = (2x + 2y, −2x + y, 6y). A ◦ B(x, y) n˜ ao existe. A ◦ A(x, y) n˜ ao existe. B ◦ B(x, y) = (x, y, 2x − 2y). (c) (2A − B) = (3x + 5y, −2x + y). A ◦ B(x, y) = (2x, −x + 2y). B ◦ A(x, y) = (3x + y, −x + y). A ◦ A(x, y) = (6y, −3x − y). B ◦ B(x, y) = (x − 2y, y). 2) Somente podemos efeturar a multiplica¸c˜ao na ordem [A] [B]. O produto matricial nos d´ a a matriz da composta A ◦ B onde A : R2 → R3 , A(x, y) = (x + y, −y, 3x) e 2 B : R → R2 ´e definida por B(x, y) = (x + y, 2x). 3) A2 (x, y) = (0, 0) (identicamente nula), logo, Im (A) ⊂ N uc (A). Na verdade, nesse exemplo a imagem e o n´ ucleo s˜ao iguais. 4) Escolha B(e1 ) e B(e2 ) em N uc(A) e defina B(x, y) = xB(e1 ) + yB(e2 ). 5) Todas s˜ao verdadeiras. Cap´ıtulo 7 Operadores lineares Uma transforma¸c˜ao linear cujo dom´ınio e contradom´ınio s˜ao iguais, A : Rn → Rn , ´e chamada de operador linear. Esse cap´ıtulo ´e dedicado aos operadores lineares e tem como objetivo final apresentar os conceitos de autovalor e autovetor. Antes, apresentaremos transforma¸c˜oes lineares invert´ıveis e estudaremos como contruir transforma¸c˜oes lineares especificando seus valores numa base qualquer, e n˜ao apenas na base canˆonica. 7.1 Isomorfismos A opera¸c˜ao de composi¸c˜ao nos permite fixar um novo conceito. Uma transforma¸c˜ao linear A : Rm → Rn ´e invert´ıvel, se existe uma aplica¸c˜ao denotada por A−1 : Rn → Rm tal que ⎧ ⎨ A−1 ◦ A = Id : Rm → Rm ⎩ A ◦ A−1 = Id : Rn → Rn Quando existe uma tal aplica¸c˜ao diremos que A−1 ´e a inversa de A. Quando A ´e invert´ıvel, a inversa ´e u ´ nica. Isso n˜ao ´e um fato exclusivo de transforma¸c˜ao linear. Teoria elementar de conjuntos garante que uma fun¸c˜ao entre conjuntos ´e invert´ıvel ent˜ao a inversa ´e u ´ nica. Uma transforma¸c˜ao linear invert´ıvel tamb´em ´e chamada de isomorfismo linear. 160 7.1. ISOMORFISMOS 161 ´ claro, a aplica¸c˜ao identidade Id : Rn → Rn ´e um operador linear inE vert´ıvel e a sua inversa ´e ela pr´opria. A transforma¸c˜ao linear A : R2 → R2 , A(x, y) = (x − y, y), ´e um isomorfismo linear e tem como aplica¸c˜ao inversa A−1 : R2 → R2 , A−1 (x, y) = (x + y, y). Vejamos, A ◦ A−1 (x, y) = A(x + y, y) = (x + y − y, y) = Id(x, y), por outro lado, A−1 ◦ A(x, y) = A−1 (x − y, y) = (x − y + y, y) = Id(x, y). Nesse exemplo, ressaltamos trˆes pontos: 1o A−1 ´e uma transforma¸c˜ao linear; 2o det[A] = 1 = 0; 3o A matriz [A−1 ] ´e a inversa da matriz [A], ou seja [A−1 ] = [A]−1 . Pela Teoria elementar de conjuntos, sabemos que uma fun¸c˜ao entre dois conjuntos ´e invert´ıvel se, e somente se, a fun¸c˜ao ´e injetiva e sobrejetiva. Logo, pela Proposi¸c˜ao 6.2.2, (pg.139), podemos afirmar que uma transforma¸c˜ao linear A : Rm → Rn ´e invert´ıvel ⇔ Im(A) = Rn e Nuc(A) = {o}. Pelo Teorema do n´ ucleo e da imagem, (pg.148), temos m = dim Rm = dim Rn + dim Nuc(A) = n. Com isso, conclu´ımos que A ´e um operador linear, ou seja, o dom´ınio e do contradom´ınio s˜ao iguais e sua matriz [A] ´e uma matriz quadrada n × n. Proposi¸c˜ ao 7.1.1 Se A : Rm → Rn ´e uma transforma¸ca˜o linear invert´ıvel ent˜ ao m = n. Mais ainda, se A ´e invert´ıvel ent˜ ao a inversa A−1 ´e um operador linear. 162 CAP´ITULO 7. OPERADORES LINEARES Prova A primeira parta da proposi¸c˜ao, m = n, j´a foi demonstrada acima. Mostremos qua A−1 ´e um operador linear. Dados os vetores w1 , w2 ∈ Rn e o escalar λ ∈ R. Como A ´e sobrejetiva, ´e poss´ıvel determinar dois vetores v1 , v2 ∈ Rn tais que A(v1 ) = w1 e A(v2 ) = w2 . Sendo assim, temos A−1 (w1 + λw2 ) = = = = A−1 (A(v1 ) + λA(v2 )) A−1 (A(v1 + λv2 )) v1 + λv2 A−1 (w1 ) + λA−1 (w2 ). 2 No que segue, desejamos relacionar operadores lineares invert´ıveis com matrizes quadradas invert´ıveis. Com isso, teremos em m˜aos um algoritmo para detetar se um operador linear ´e, ou n˜ao ´e, invert´ıvel e como construir sua inversa, caso exista. Proposi¸ c˜ ao 7.1.2 Seja A : Rn → Rn ´e um operador linear. A ´e invert´ıvel se, e somente se, a matriz canˆ onica [A] ´e uma matriz invert´ıvel. Nesse caso, quando A ´e invert´ıvel temos [A−1 ] = [A]−1 . Prova ⇒ Assuma que A ´e invert´ıvel. J´a sabemos que A−1 ´e um operador linear. Calculemos a matriz da composta A−1 ◦ A = Id, lembrando-se que [Id] ´e a matriz identidade n × n. Pela Proposi¸c˜ao 6.3.1, (pg.144), temos a sequˆencia de igualdades, [Id] = [A−1 ◦ A] = [A−1 ][A]. Da mesma forma mostramos que [A][A−1 ] = [Id]. Isso ´e suficiente para conclu´ımos que [A] ´e uma matriz invert´ıvel e que [A−1 ] = [A]−1 . ⇐ Suponha que [A] seja uma matriz invert´ıvel. Seja B : Rn → Rn o operador linear tal que [B] = [A]−1 . Calculemos a matriz canˆonica da composta B ◦ A, [B ◦ A] = [B] [A] = [A]−1 [A] = [Id]. Logo, B ◦ A = Id. Da mesma forma, mostramos que A ◦ B = Id. Portanto, o operador A ´e invert´ıvel e B = A−1 . Nesse caso, [A]−1 = [B] = [A−1 ]. 7.1. ISOMORFISMOS 163 2 Isso termina a demonstra¸c˜ao. A proposi¸c˜ao acima nos ensina como explicitar a inversa de um operador linear invert´ıvel. Devemos seguir a sequˆencia de procedimentos: 1o calcular a matriz canˆonica do operador linear [A]; 2o inverter a matriz, [A]−1 ; 3o definir o operador linear A−1 cuja matriz canˆonica ´e [A]−1 . Exemplifiquemos. Seja A : R2 → R2 , A(x, y) = (3x + 5y, x + 2y). A matriz canˆonica do operador linear ´e   3 5 [A] = . 1 2 Como det[A] = −1 = 0, a matriz [A] ´e invert´ıvel e a sua matriz inversa ´e   2 −5 −1 [A] = . −1 3 O leitor pode verificar, sem esfor¸co algum, que [A] [A]−1 = [Id] = [A]−1 [A]. Pela u ´ ltima proposi¸c˜ao, temos a igualdade[A−1 ] = [A]−1 , de onde segue que A−1 : R2 → R2 , A−1 (x, y) = (2x − 5y, −1 + 3y). Pelo visto, um operador linear ´e invert´ıvel se, e somente se, sua matriz canˆonica ´e invert´ıvel. Por outro lado, o Cor´olario 2.2.1, (pg.2.2.1), nos d´a um crit´erio utilizando determinantes para saber quando uma matriz ´e invert´ıvel. Relacionando aquele corol´ario e a u ´ ltima proposi¸c˜ao temos um crit´erio semelhante. Proposi¸c˜ ao 7.1.3 Um operador linerar A : Rn → Rn ´e invert´ıvel se, e somente se, det [A] = 0. Deixemos registrada algumas equivalˆencias sobre isomorfismos lineares que ser˜ao u ´ teis no futuro. Examinemos a invertibilidade do operador linear A : R2 → R2 , A(x, y) = (2x − y, 4x + 1y). CAP´ITULO 7. OPERADORES LINEARES 164 Por tudo j´a apresentado, sabemos que a matriz de [A] na base canˆonica ´e   2 −1 [A] = . 4 1 Como o determinante de [A] n˜ao ´e zero, a matriz ´e invert´ıvel e sua inversa ´e o operador linear cuja matriz na base canˆonica ´e ⎡ 1 1 ⎤   6 6 1 1 1 ⎦. =⎣ [A]−1 = 6 −4 2 4 2 −6 6 Sabendo-se que [A]−1 = [A−1 ], obtemos o operador inverso, A−1 : R2 → R2 , 1 4 2 1 −1 x + y, − x + y . A (x, y) = 6 6 6 6 Exemplo 7.1.1 Um fato u ´ til para a teoria ´e relacionar operadores invert´ıveis com bases. Considere o operador linear A : R2 → R2 , A(x, y) = (3x + y, 2x − 7y), e a base canˆonica C = {e1 , e2 } do R2 . Desejamos saber se o conjunto A(C) = {A(e1 ), A(e2 )} ´e uma base de R2 . A regra de Cramer, (pg.16), nos d´a a resposta. Calculemos,   3 2 = −25 = 0. det[A(e1 ), A(e2 )] = det[A] = 2 −7 Portanto, A(C) = {A(e1 ), A(e2 )} ´e uma base de R2 . Observe que A(C) ´e uma base se, e somente se, det[A] = 0, ou seja, se, esomente se, A ´e um operador linear invert´ıvel. 2 Colocaremos numa u ´ nica proposi¸c˜ao uma s´erie de crit´erios sobre invertibilidade de operadores lineares. Dependendo do contexto, um crit´erio ser´a mais u ´ til que o outro, embora todos sejam equivalentes. Um dos crit´erios ´e a rela¸c˜ao entre invertibilidade e base, conseq¨ uˆencia da regra de Cramer. Proposi¸ c˜ ao 7.1.4 Seja A : Rn → Rn um operador linear. As seguintes afirma¸c˜oes s˜ao equivalentes. 7.1. ISOMORFISMOS 165 a) A ´e invert´ıvel. b) Nuc(A) = {0}. c) Im(A) = Rn . d) A imagem por A de qualquer base de Rn ´e uma base de Rn . e) A imagem por A da base canˆ onica de Rn ´e uma base de Rn . Prova a) ⇒ b) Se A ´e invert´ıvel ent˜ao A ´e injetiva, portanto, Nuc(A) = {0}, Proposi¸c˜ao 6.2.2, (pg.139). b) ⇒ c) Suponha que Nuc(A) = {0}. Pelo Teorema do n´ ucleo e da imagem segue que dim Im(A) = dim Rn . Desde que Im(A) ⊂ Rn ´e um subespa¸co com a mesma dimens˜ao de Rn , conclu´ımos que Im(A) = Rn , veja Teorema 5.6.1, (pg.118). c) ⇒ d) Assuma que Im(A) = Rn . ´ f´acil mostrar Considere uma base ordenada β = {v1 , v2 , ..., vn } de Rn . E que o conjunto ordenado A(β) = {A(v1 ), A(v2 ), ..., A(vn )} ´e um conjunto de geradores com n elementos de Im(A) = Rn . Portanto podemos afirmar que A(β) ´e uma base de Rn = Im(A), veja Teorema 5.6.1, (pg.118). d) ⇒ e) Se a imagem por A de qualquer base ´e uma base, em particular, a base canˆonica ´e aplicada numa base. e) ⇒ a) Assumamos que A(C) = {A(e1 ), A(e2 ), ..., A(en )} ´e uma base. Considere um vetor v = (a1 , a2 , ..., an ) ∈ Nuc(A). Sendo assim, A(v) = a1 A(e1 ) + a2 A(e2 ) + · · · + an A(en ) = o. Como A(C) ´e um conjunto l.i. ent˜ao a1 = a2 = · · · = an = 0. Isso mostra que o n´ ucleo ´e trivial, Nuc(A) = {o}, ou seja, A ´e um operador linear injetivo. Pelo Teorema do n´ ucleo e da imagem temos n = dim Rn = dim Im(A). Como o subespa¸co imagem de A tem a mesma dimens˜ao do contradom´ınio, obtemos que Im(A) = Rn , isto ´e, A ´e sobrejetiva, Teorema 5.6.1, (pg.118) . Em resumo, A ´e injetiva e sobrejetiva, portanto, A ´e invert´ıvel. 2 Exerc´ıcio 7.1.1 Se A, B : Rn → Rn s˜ao dois operadores lineares invert´ıveis, prove que a composta B ◦ A ´e invert´ıvel e que (B ◦ A)−1 = A−1 ◦ B −1 . CAP´ITULO 7. OPERADORES LINEARES 166 Sugest˜ ao Componha B ◦ A com A−1 ◦ B −1 , pela direita e pela esquerda. 2 Encerraremos a se¸c˜ao com um corol´ario u ´ til, pois evita muitos c´alculos. Veremos que a existˆencia de um inversa `a esquerda implica que o operador ´e invert´ıvel. O mesmo ´e v´alido quando existe uma inversa a` direita para o operador, mas deixaremos esse caso como exerc´ıcio. Corol´ ario 7.1.1 Sejam A e B operadores lineares em Rn . Se B ◦ A = Id ent˜ ao A ´e invert´ıvel e B = A−1 Prova As igualdades 1 = det[Id] = det([B ◦ A]) = det([B] [A]) = det[B] det[A] implicam que det[B] = 0, logo, o operador linear B ´e invert´ıvel. Calculemos, ◦ A ◦B = B −1 ◦ B = Id. A ◦ B = B −1 ◦ B   Id ´ nica. 2 Portanto, A ´e invert´ıvel e A−1 = B, poi se a inversa de A existe ela ´e u Exerc´ıcios propostos 7.1.1 1. Apenas uma das condi¸c˜oes exigidas na defini¸c˜ao de uma transforma¸c˜ao linear invert´ıvel n˜ ao ´e suficiente para garantir a invertibilidade da transforma¸c˜ao. Dadas as transforma¸c˜oes lineares A : R2 → R3 , A(x, y) = (x, y, 0), e B : R3 → R2 , B(x, y, z) = (x, y). ao ´e a identidade do R3 . Verifique que B ◦ A = Id : R2 → R2 e que A ◦ B n˜ Esse ´e um contra-exemplo para o Corol´ ario 7.1.1? 2. Se A : R2 → R2 for invert´ıvel, calcule sua inversa. (a) A(x, y) = (2x, y − x). (c) A(x, y) = (2x + 4y, x + 2y) (b) A(x, y) = (2x − 4y, x + 2y). (d) A(x, y) = (x + y, x − y). 3. Se A : R3 → R3 , for invert´ıvel, calcule a sua inversa. (a) A(x, y, z) = (x + y + z, 3x + 4y + 3z, 3x + 3y + 4z). (b) A(x, y, z) = (2x + y + z, x + 2z, 3x + y + 2z). 7.1. ISOMORFISMOS 167 (c) A(x, y, z) = (2x − 3y + 7z, x + 3z, 2y − z). (d) A(x, y, z) = (x, x + y, x + y + z). 4. Calcule o operador linear inverso, se existir, dos seguintes operadores lineares cujas matrizes na base canˆonica s˜ao as matrizes dadas. ⎡ 2 0 (a) [A] = ⎣ 1 2 −3 1 ⎤ 5 1 ⎦. 3 ⎡ ⎤ 2 10 3 (b) [B] = ⎣ 0 1 3 ⎦ . 0 0 2 ⎡ 1 (c) [C] = ⎣ 4 5 ⎤ −1 3 2 3 ⎦. 1 6 5. Se a transforma¸c˜ao linear A : Rn → Rn tem uma inversa a` direita, prove que A ´e invert´ıvel. 6. Assuma que β = {v1 , v2 } ´e uma base de R2 . Defina a aplica¸c˜ao A : R2 → R2 por A(x, y) = xv1 + yv2 . Prove que A ´e uma transforma¸c˜ao linear e invert´ıvel. 7. Seja A : R3 → R3 definida por A(x, y, z) = (y, z, x). (a) Calcule A3 = A ◦ A ◦ A. (b) A ´e invert´ıvel? Caso seja invert´ıvel, calcule sua inversa. 8. Seja A : R2 → R2 , A(x, y) = (3x + 9y, −x − 3y). Calcule A ◦ A e conclua que A n˜ ao ´e invert´ıvel. 9. Considere a transforma¸c˜ao linear A : R3 → R3 , A(x, y, z) = (0, x, y). (a) Verifique que A3 (x, y, z) = (0, 0, 0). (identicamente nula) (b) Justifique a afirma¸c˜ao: ”A n˜ ao ´e invert´ıvel”. 10. Suponha que A : Rn → Rn ´e uma transforma¸c˜ao linear tal que Ak (v) ≡ o para algum inteiro k > 0 e todo v ∈ Rn . (a) Mostre que A n˜ ao ´e invert´ıvel. (b) Mostre que Id−A ´e invert´ıvel e que (Id−A)−1 = Id+A+A2 +· · ·+Ak−1 . 11. Sejam A e B operadores lineares em Rn . Responda se a afirma¸c˜ao ´e falsa ou verdadeira. (a) A e B invert´ıveis ⇒ A + B invert´ıvel. (b) A e B invert´ıveis ⇒ A ◦ B invert´ıvel.  3  −1 . (c) A3 invert´ıvel ⇔ A invert´ıvel e A−1 = A3 CAP´ITULO 7. OPERADORES LINEARES 168 7.2 Aplica¸c˜ ao Para construir uma transforma¸c˜ao linear A : Rm → Rn basta estabelecer os valores de A nos vetores da base canˆonica C = {e1 , e2 , ..., en }. Recapitulemos os procedimentos descritos no Cap´ıtulo 6. Se desejarmos contruir um operador linear A : R3 → R3 tal que A(e1 ) = (1, 2, −1), A(e2 ) = (1, 0, 1) e A(e3 ) = (2, 2, 0) basta definir o operador linear A(x, y, z) = x(1, 2, −1) + y(1, 0, 1) + z(2, 2, 0). Os valores na base canˆonica s˜ao guardados ⎡ 1 1 ⎣ 2 0 [A] = −1 1 na matriz canˆonica do operador, ⎤ 2 2 ⎦. 0 Generalizaremos essa constru¸c˜ao. Veremos que para definir uma transforma¸c˜ao linear ´e suficiente explicitar os valores da transforma¸c˜ao numa base qualquer, n˜ao precisamos, necessariamente, trabalhar com a base canˆonica. Vejamos uma justificativa para essa afirma¸c˜ao. Seja A ´e um operador linear de Rn e β = {v1 , v2 , ..., vn } uma base ordenada desse espa¸co vetorial. Qualquer vetor v ∈ Rn ´e expresso como um combina¸c˜ao linear u ´nica do tipo v = a1 v1 + a2 v2 + · · · + an vn . Fazendo a avalia¸c˜ao A(v), levando que A ´e um operador linear, temos A(v) = a1 A(v1 ) + a2 A(v2 ) + · · · + an A(vn ). (7.1) Portanto, definindo os valores A(vi ) temos constru´ıdo uma transforma¸c˜ao linear. A quest˜ao que se coloca ´e calcular a matriz canˆonica do operador linear, pois na express˜ao (7.1) os escalares ai ’s n˜ao s˜ao as coordenadas do vetor na base canˆonica! Nessa se¸c˜ao, iremos reponder, por exemplo, a perguntas do tipo: • Qual a transforma¸c˜ao linear C : R3 → R2 que aplica a base ordenada α = {u, v, w} no conjunto ordenado β = {u , v , w  } ⊂ R2 . ˜ 7.2. APLICAC ¸ AO 169 A solu¸c˜ao ´e introduzir um espa¸co intermedi´ario igual ao dom´ınio para auxiliar a constru¸c˜ao. Nesse caso o dom´ınio de C ´e o R3 . Feito isso, basta seguir os seguintes procedimentos. 1o Constru´ımos um operador linear A : R3 → R3 que aplica a base canˆonica C = {e1 , e2 , e3 } no conjunto α = {u, v, w}, e1 → u, e2 → v e3 → w. e Como sabemos, a matriz canˆonica de A ser´a [A] = [u, v, w]. O operador linear A ´e invert´ıvel, pois β sendo uma base temos det[u, v, w] = 0, Proposi¸c˜ao 7.1.4, (pg.164). 2o Constru´ımos um operador linear B : R3 → R2 que aplica a base canˆonica C = {e1 , e2 , e3 } no conjunto ordenado β = {u , v , v  }, e1 → u , e2 → v  e e3 → w  . Nesse caso, a matriz canˆonica do operador B ser´a [B] = [u , v  , v  ]. 3o Consideramos a transforma¸c˜ao linear C = B ◦ A−1 . O operador C ´e obtido matricialmente por [C] = [B] [A]−1 , Proposi¸c˜ao 6.5.2, (pg.154). Exemplo 7.2.1 O conjunto ordenado de vetores em R3 , α = {u, v, w}, onde u = (0, 1, 1), v = (1, 0, −1), w = (2, 1, 0), ´e uma base ordenada de R3 , pois det[u, v, w] = 0. Contruiremos um operador linear C : R3 → R2 que aplica essa base, na ordem apresentada, no conjunto ordenado de trˆes vetores β = {u , v , w  } de R2 , onde u = (2, 0), v  = (1, 2, ), w  = (2, 1). 170 CAP´ITULO 7. OPERADORES LINEARES O operador linear A : R3 → R3 que aplica e1 , e2 e e3 nos vetores u, v e w ´e invert´ıvel e sua matriz e de sua inversa s˜ao, respectivamente, ⎤ ⎤ ⎡ ⎡ 0 1 2 −1 2 −1 0 1 ⎦ 2 −2 ⎦ . e [A]−1 = ⎣ −1 [A] = ⎣ 1 1 −1 0 1 −1 1 O operador linear B : R3 → R3 que aplica e1 , e2 e e3 em u , v  e w  tem a seguinte matriz canˆonica,   2 1 2 [B] = . 0 2 1 Logo, o operador linear procurado, C : R3 → R3 , ´e definido pela matriz [C] = [B][A]−1 . Um c´alculo simples nos d´a ⎡ ⎤   −1   2 −1 2 1 2 ⎣ −1 4 −2 −1 −1 2 −2 ⎦ = . [C] = [B][A] = 0 2 1 −1 3 −3 1 −1 1 Deixaremos para o leitor verificar que o operador linear C(x, y, z) = (−x + 4y − 2z, −x + 3y − 3z, 4x − 6y + 5z), de fato, aplica os vetores como pedido, C(u) = u , C(v) = v  e C(w) = w  . 2 Exemplo 7.2.2 Os procedimentos descritos acima permitem algebrizar muitos operadores definidos geometricamente. Vejamos o exemplo da transforma¸c˜ao do plano Cartesiano que reflete os pontos em torno da reta r : 2x − y = 0. Considere a subespa¸co Γ = {(x, y) ∈ R2 ; 2x − y = 0} ⊂ R2 . Escolhamos uma base apropriada do R2 para descrever o operador linear. O primeiro elemento da base ser´a o vetor normal ao subespa¸co η = (2, −1) e o segundo elemento ser´a o gerador do subespa¸co, µ = (1, 2). Observe que, de fato, {η, µ} ´e uma base, pois det[η, µ] = 5 = 0. ˜ 7.2. APLICAC ¸ AO 171 A escolha dessa base tem uma justificativa simples. Desejamos construir um operador linear C : R2 → R2 que descreve a refle¸c˜ao em torno do subespa¸co Γ. Como todo vetor v ´e uma combina¸c˜ao linear v = a1 η + a2 µ e C ´e linear temos C(v) = a1 C(η) + a2 C(µ). Geometricamente, sabemos que C(η) = −η, pois essa imagem ´e o vetor refletido e C(µ) = µ, pois os vetores em Γ ficam fixos pela reflex˜ao. Aplicando a constru¸c˜ao acima, temos       1 2 −1 2 1 −2 1 −1 [A] = , [A] = e [B] = . −1 2 2 1 2 5 1 Como C = B ◦ A−1 , um c´alculo matricial nos d´a   1 −3 4 [C] = . 4 3 5 Finalmente, chegamos a` C(x, y) = 4 4 3 3 − x + y, x + y . 5 5 5 5 Deixamos dois exerc´ıcios. a) Verifique que C(η) = −η e que C(µ) = µ. b) Explique, geometricamente, o valor | det[C]| = 1. Exerc´ıcios propostos 7.2.1 1. Construa o operador linear C : R2 → R2 que assume os valores indicados. (a) C(1, 1) = (−1, 1) e C(−1, 1) = (−1, −1). (b) C(3, 1) = (2, 1) e C(3, 2) = (2, 1); (c) C(−2, 1) = (1, 1) e C(1, 1) = (1, −1). 2. Construa o operador linear C : R3 → R3 que assume os valores indicados. (a) C(1, 1, 1) = (−1, 1, 0), C(−1, 0, 1) = (−1, −1, 2) e C(0, 2, 0) = (0, 0, 0). (b) C(1, 1, 1) = (1, 1, 1), C(1, 0, 1) = (1, 0, 1) e C(0, 0, 1) = (0, 0, 1). 2 172 CAP´ITULO 7. OPERADORES LINEARES (c) C(1, −2, 0) = (1, 1, 0), C(−1, 0, 1) = (1, 1, 2) e C(0, 2, 1) = (1, 0, 0). 3. Construa o operador linear C : R2 → R2 satisfazendo a condi¸c˜ao pedida. (a) C reflete os vetores em torno do subespa¸co Γ : x − 3y = 0. (b) C rotaciona os vetores de π 6 no sentido anti-hor´ ario. (c) C reflete os vetores em torno do subespa¸co Γ : x − 3y = 0 e em seguida ario. rotaciona os vetores de π6 no sentido anti-hor´ 4. Construa o operador linear C : R3 → R3 satisfazendo a condi¸c˜ao pedida. (a) C reflete os vetores em torno do subespa¸co Γ : x − 3y + 2z = 0. (b) C rotaciona os vetores de π2 em torno do subespa¸co Γ = [[(1, 1, 1)]] (existem dois operadores, depende do sentido da rota¸c˜ao escolhida). 7.3 Autovalor e Autovetor Dado um operador linear A : Rn → Rn . Nesta se¸c˜ao examinaremos a seguinte pergunta. • Existe um escalar λ ∈ R e um vetor n˜ ao nulo v0 ∈ Rn tal que A(v0 ) = λv0 ? Para o operador linear A : R2 → R2 , A(x, y) = (−3x + 4y, 4x + 3y), a resposta ´e sim. Por exemplo, se v0 = (1, 2) e λ = 5 temos A(v0 ) = A(1, 2) = (5, 10) = 5(1, 2) = λv0 . Quando determinamos um vetor com essa propriedade, determinamos infinitos vetores com a mesma propriedade, basta tomar qualquer m´ ultiplo de v0 , a linearidade do operador garante esse fato. Se w = ρv0 ent˜ao A(w) = A(ρvo ) = ρA(v0 ) = 5ρv0 = 5w. Entretanto, para o operador linear A : R2 → R2 , A(x, y) = (−y, x), a resposta `aquela pergunta ´e n˜ ao. A imagem por A de qualquer vetor v0 = (x0 , y0 ), ´e ortogonal a ele, v0 , A(vo ) = (x0 , y0), (−y0 , x0 ) = 0. Como um vetor n˜ao nulo n˜ao pode ser m´ ultiplo de um ortogonal a ele, temos uma respota negativa a` pergunta. 7.3. AUTOVALOR E AUTOVETOR 173 Em muitas aplica¸c˜oes, a resposta a tal quest˜ao ´e importante, por isso, iremos sistematizar o seu estudo. Antes de tudo, fixemos alguns termos. Quando existem um escalar λ ∈ R e um vetor n˜ao nulo v ∈ Rn tais que A(v) = λv, diz-se que λ ´e um autovalor de A e que o vetor v ´e um autovetor de A associado ao autovalor λ1 . Examinemos o operador linear A : R2 → R2 , A(x, y) = (3x − 2y, 4y). O vetor v = (1, 0) ´e um autovetor associado ao autovalor λ1 = 3 pois A(v) = A(1, 0) = (3, 0) = 3(1, 0) = 3v. O vetor w = (−2, 1) ´e autovetor associado ao autovalor λ2 = 4 pois A(w) = A(−2, 1) = (−8, 4) = 4(−2, 1) = 4w. O leitor pode verificar que qualquer m´ ultiplo de v ´e um autovetor associado ao autovalor λ1 = 3, bem como, qualquer m´ ultiplo de w ´e um autovetor associado ao autovalor λ = 2. Esses exemplos n˜ao foram solucionados pelo ”m´etodo da tentativa e erro”. Existem procedimentos que s˜ao aplicados a qualquer operador linear A em Rn para calcular seus autovalores e seus autovetores associados. Para dimens˜oes baixas de Rn , n = 2, 3, esses procedimentos determinam todos os autovetores e autovalores de operador linear. Consideramos o operador identidade Id : Rn → Rn e fazemos uma pergunta equivalente a`quela feita no in´ıcio da se¸c˜ao. • Existe um escalar λ tal que o n´ ucleo de λId − A : Rn → Rn ´e n˜ao trivial? De fato, a pergunta ´e equivalente. Se o n´ ucleo de λId − A ´e n˜ao tivial, existe um vetor n˜ao nulo v tal que λId(v) − A(v) = 0, de onde conclu´ımos que A(v) = λv. A rec´ıproca tem verifica¸c˜ao imediata. Nesta altura da teoria, temos condi¸c˜oes de responder a` u ´ ltima pergunta, veja Proposi¸c˜ao 7.1.4, (pg.164). ◦ Existir´a um escalar λ se, e somente se, λId − A ´e um operador linear n˜ao invert´ıvel! Em outras palavras, pela Proposi¸c˜ao 7.1.3 , (pg.163), podemos responder da seguinte forma: 1 Em alguns livros encontramos a terminologia valor pr´ oprio e vetor pr´ oprio, respectivamente. 174 CAP´ITULO 7. OPERADORES LINEARES ◦ existir´a um escalar λ se, e somente se, det[λId − A] = 0! Para continuar, fixemos mais duas terminologias. a) O n´ ucleo do operador linear λId−A : Rn → Rn , ´e chamado de autoespa¸co associado a λ, e iremos registr´a-lo como Vλ = {v ∈ Rn ; A(v) = λv}. b) O polinˆomio de grau n, p(λ) = det[λId − A], ´e chamado de polinˆ omio caracter´ıstico de A. Fixados os termos, reescrevamos a resposta da seguinte forma: ◦ existir´a um vetor n˜ao nulo v ∈ Rn tal que A(v) = λv se, e somente se, λ for uma raiz real do polinˆomio caracter´ıstico de A! Exemplo 7.3.1 Seja A : R2 → R2 , A(x, y) = (4x + 12y, 12x − 3y). Para o c´alculo dos autovetores e autovalores seguimos um mesmo roteiro, a saber. 1o Consideramos a identidade Id : R2 → R2 e contru´ımos as matrizes:       4 12 1 0 λ − 4 −12 ; [Id] = ; [λ Id − A] = . [A] = 12 −3 0 1 −12 λ + 3 2o Calculamos o polinˆomio caracter´ıstico,   λ − 4 −12 p(λ) = det[λId − A] = det = λ2 − λ − 156. −12 λ + 3 3o Calculamos as ra´ızes do polinˆomio caracter´ıstico que s˜ao os autovalores de A, λ1 = −12 ou λ2 = 13. 4o Calculamos os autovetores associados ao autovalor λ1 = −12. Desejamos determinar vetores v = (x, y) tais que λ1 (x, y) − A(x, y) = (0, 0). Essa equa¸c˜ao vetorial d´a origem a um sistema de equa¸c˜oes lineares, a saber,  16x + 12y = 0 . 12x + 9y = 0 ´ imediato concluir que o vetor procurado ´e do tipo v = (x, − 4 x). Sendo E 3 assim, autoespa¸co associado ´e descrito por Vλ1 = {(x, y) ∈ R2 ; 4x + 3y = 0} = [[(−3, 4)]]. 7.3. AUTOVALOR E AUTOVETOR 175 5o Calculamos os autovetores associados ao autovalor λ2 = 13. Desejamos determinar vetores v = (x, y) tais que A(x, y) = λ2 (x, y). Essa equa¸c˜ao vetorial d´a origem a um sistema de equa¸c˜oes lineares, a saber,  9x − 12y = 0 . −12x + 16y = 0 Logo, o autoespa¸co associado ao autovalor λ2 = 13 ´e o subespa¸co Vλ1 = {(x, y) ∈ R2 ; 3x − 4y = 0} = [[(4, 3)]]. Como vemos, todo o problema fica solucionado caso conhe¸camos as ra´ızes do polinˆomio caracter´ıstico de A. 2 ´rio O polinˆomio caracter´ıstico de um operador linear em R2 tem Comenta grau 2 e coeficientes reais, portanto, o n´ umero de suas ra´ızes reais s˜ao restritas. Ou existem duas ra´ızes reais, com ou sem repeti¸c˜oes, ou n˜ao existe raiz real. Caso exista uma raiz complexa a conjugada dessa raiz ´e uma outra raiz, entretanto, elas n˜ao s˜ao autovalores. 2 Exerc´ıcio 7.3.1 O operador linear A : R2 → R2 , A(x, y) = (x, x + y) tem ´ nico autoespa¸co apenas um autovalor com repeti¸c˜ao dois, λ1 = λ2 = 1 e um u Vλ1 de dimens˜ao um. Verifique a afirma¸c˜ao. 2 ucleo do operador linear λId− Recordamos que Vλ um subespa¸co, pois ´e o n´ A. Portanto, podemos encontrar uma base ordenada de autovetores, isto ´e, podemos escrever Vλ = [[v1 , v2 , ..., vk ]], onde A(vi ) = λvi e αλ = {v1 , v2 , ...vk } ´e uma base ordenada para o subespa¸co Vλ . Exemplo 7.3.2 Retornemos a um exemplo do ´ınicio dessa se¸c˜ao. Vimos que o operador linear A : R2 → R2 , A(x, y) = (−y, x), transforma um vetor n˜ao nulo v em um vetor A(v) ortogonal a ele, portanto, a imagem A(v) nunca pode ser colinear com o vetor v. O fato de n˜ao ter autovalor ´e detetado algebricamente com o polinˆomio caracter´ıstico,   λ − 0 −1 det[λId − A] = det = λ2 + 1. 1 λ0 Como o polinˆomio caracter´ıstico de A n˜ao tem raiz real, o n´ ucleo do operador 2 2 2 linear λId − A : R → R ´e trivial, qualquer que seja o escalar λ ∈ R. CAP´ITULO 7. OPERADORES LINEARES 176 Exerc´ıcio 7.3.2 Defimos o tra¸co de uma matriz quadrada como a soma das entradas da diagonal principal. Se a matriz ´e 2 × 2,   a b [A] = , c d temos que tr [A] = a + d. 1. Mostre que o polinˆomio caracter´ıstico de uma matriz 2 × 2 ´e p(λ) = λ2 − tr[A]λ + det[A]. 2. Seja [A] uma matriz 3 × 3. Mostre que o coeficiente do termo λ2 do polinˆomio caracter´ıstico de [A] ´e −tr[A] e que o termo independente ´e − det[A]. 2 Exemplo 7.3.3 Seja A : R3 → R3 , A(x, y, z) = (x + 2y, y, x + y + 2z). Para o c´alculo dos autovetores e autovalores seguimos o mesmo roteiro. 1o Consideramos a ⎡ 1 [A] = ⎣ 0 1 identidade Id : R3 → R3 e contru´ımos as matrizes: ⎤ ⎡ ⎤ 2 0 λ − 1 −2 0 1 0 ⎦ ; [λ Id − A] = ⎣ 0 λ−1 0 ⎦. 1 2 −1 −1 λ − 2 2o Calculamos o polinˆomio caracter´ıstico, ⎡ ⎤ λ − 1 −2 0 p(λ) = det[λId − A] = det ⎣ 0 λ−1 0 ⎦ = λ3 − 4λ2 + 5λ + 2. −1 −1 λ − 2 3o Calculamos as ra´ızes do polinˆomio caracter´ıstico que s˜ao os autovalores de A. Como p(λ) = (λ − 2)(λ − 1)(λ − 1), os autovalores s˜ao λ1 = 2 e λ2 = 1 = λ3 . 4o Calculamos os autovetores associados ao autovalor λ1 = 2. Desejamos determinar vetores v = (x, y, z) tais que λ1 (x, y, z)−A(x, y, z) = (0, 0, 0). 7.3. AUTOVALOR E AUTOVETOR 177 Essa equa¸c˜ao vetorial d´a origem a um saber, ⎧ ⎨ x − 2y y ⎩ −x − y sistema de equa¸c˜oes lineares, a = 0 = 0 . = 0 ´ imediato concluir que o vetor procurado ´e do tipo v = (0, 0, z). O E autoespa¸co associado ´e descrito por Vλ1 = {(x, y, z) ∈ R2 ; x = 0, e y = 0} = [[(0, 0, 1)]]. 5o Calculamos os autovetores associados ao autovalor λ2 = 1. Desejamos determinar vetores v = (x, y, z) tais que A(x, y, z) = λ2 (x, y, z). Essa equa¸c˜ao vetorial d´a origem a um sistema de equa¸c˜oes lineares, a saber, ⎧ − 2y = 0 ⎨ 0= 0 . ⎩ −x − y − z = 0 Portanto, Vλ2 = {(x, y, z) ∈ R2 ; x + z = 0} = [[(1, 1, 0) (0, 1, 1)]] ´e o autoespa¸co associado ao autovalor λ2 = 1. 2 O polinˆomio caracter´ıstico de um operador linear A : Rn → Rn ´e um polinˆomio com grau n. Sendo assim, pode ocorrer que suas ra´ızes reais sejam distintas ou n˜ao. Portanto, contada as repeti¸c˜oes, o operador pode ter um n´ umero de autovalores entre 0 e n, inclusive. A grande dificuldade desses procedimentos reside em determinar as ra´ızes de um polinˆomio de grau n. Nas aplica¸c˜oes, esses autovalores s˜ao calculados aproximadamente com m´etodos de C´alculo Num´erico. Na Leitura complementar, Se¸c˜ao 11.5, (pg.293), do Cap´ıtulo 11, apresentamos sem demonstra¸c˜ao a f´ormula de Cardano-Tartaglia que permite encontrar as ra´ızes de um polinˆomio de grau 3. Exerc´ıcio 7.3.3 Operadores distintos podem ter polinˆomios caracter´ısticos iguais. Sejam A e B os operadores lineares em R2 , A(x, y) = (2x + 6y, −x + 3y) e B(x, y) = (x + 4y, −2x + 4y). Calcule os polinˆomios caracter´ısticos de A e B. 2 CAP´ITULO 7. OPERADORES LINEARES 178 Lema 7.3.1 Sejam A : Rn → Rn um operador linear e β = {v1 , v2 , ..., vk } um conjunto formado por autovetores de A associados aos autovalores λ1 , λ2 , ..., λk , respectivamente. Se os autovalores s˜ ao distintos dois a dois ent˜ ao β ´e um conjunto linearmente independente. Prova Assuma, por absurdo, que o conjunto de autovetores ´e linearmente dependente. Seja vi+1 o primeiro autovetor que ´e uma combina¸c˜ao linear dos anteriores, vi+1 = a1 v1 + a2 v2 + · · · + ai vi . Recordamos que algum escalar ai n˜ao ´e nulo pois vi+1 n˜ao ´e o vetor nulo. A menos de uma reordena¸c˜ao dos i primeiros elementos do conjunto β podemos assumir que ai = 0. Avaliando o operador linear A em cada membro da igualdade e multiplicando ambos os membros da igualdade por λi+1 obtemos duas outras igualdades, λi+1 vi+1 = λ1 a1 v1 + λ2 a2 v2 + · · · + λi ai vi , λi+1 vi+1 = λi+1 a1 v1 + λi+1 a2 v2 + · · · + λi+1 ai vi . Subtra´ındo chegamos a` combina¸c˜ao linear 0 = (λi+1 − λ1 )a1 v1 + (λi+1 − λ2 )a2 v2 + · · · + (λi+1 − λi )ai vi . Por hip´otese os autovalores s˜ao distintos dois a dois, λi+1 − λj = 0, garantimos que vi ´e uma combina¸c˜ao linear dos anteriores, a saber, vi = λi+1 − λ1 λi+1 − λ2 λi+1 − λi−1 a1 v1 + a2 v2 + · · · + ai−1 vi−1 . λi+1 − λi λi+1 − λi λi+1 − λi Isto contradiz a escolha de vi+1 , ele ´e o primeiro vetor expresso como uma combina¸c˜ao linear dos anteriores. Portanto, os autovetores s˜ ao linearmente independentes. 2 Exerc´ıcio 7.3.4 Mostre que se um operador linear A : Rn → Rn ´e invert´ıvel ent˜ao: 1. todos autovalores s˜ao diferentes de zero; 2. os autovalores da inversa A−1 s˜ao os inversos dos autovalores de A. 2 Exerc´ıcio 7.3.5 Determine o polinˆomio caracter´ıstico do operador linear A : R2 → R2 , A(x, y) = (2x − y, 4x − 2y). 2 7.3. AUTOVALOR E AUTOVETOR 179 Exerc´ıcios propostos 7.3.1 1. Verifique se o vetor v ´e autovetor do operador A : R3 → R3 onde: (a) A(x, y, z) = (x + y + z, 2y + z, 2y + 3z) e v = (1, 1, 2); (b) A(x, y, z) = (−2x + 3y − z, y − z, x + 2y − 2z) e v = (−2, 1, 3). 2. Determine os autoespa¸cos do operador linear A : R2 → R2 quando: (a) A(x, y) = (−3x + 4y, −x + 2y); (d) A(x, y) = (2x − 4y, x − 2y); (b) A(x, y) = (4x + 5y, 2x + y); (e) A(x, y) = (x, x + y); (c) A(x, y) = (2x + 2y, x + y); (f) A(x, y) = (x − y, x + y). 3. Determine os autoespa¸cos do operador linear A : R3 → R3 quando: (a) A(x, y, z) = (3x + y − z, x + 3y − z, −x − y + 5z); (b) A(x, y, z) = (x + y + z, 2y + z, 2y + 3z); (c) A(x, y, z) = (2z, −y, 2x); (d) A(x, y, z) = (3x − y − 3z, 2y − 3z, −z); (e) A(x, y, z) = (x, −2x − y, 2x + y + 2z). (f) A(x, y, z) = (2x + 2z, −2y, −2x + 2z). (g) A(x, y, z) = (x − y, 2x + 2y + 2z, x + y + z). (h) A(x, y, z) = (x, x + y − 2z, y − z). (i) A(x, y, z) = (3x + 3y − 2z, −y, 8x + 6y − 5z). 4. Mostre que um operador linear A : R3 → R3 possui pelo menos um autovalor. Mais geralmente, mostre que qualquer operador em Rn , n ´ımpar, possui um autovalor. ao ´e invert´ıvel 5. Mostre a afirma¸c˜ao sobre um operador linear A : Rn → Rn : A n˜ ⇔ λ = 0 ´e raiz do polinˆ omio caracter´ıstico de A. 6. Seja v0 ´e um autovetor associado ao autovalor λ de um operador linear A : R3 → R3 . Mostre que v0 ´e um autovetor associado a um autovalor (qual?) do operador linear An (a composta de A n vezes). 7. Sejam A, B : Rn → Rn dois operadores lineares tais que o vetor v0 ∈ Rn ´e um autovetor de A associado ao autovalor λ1 e ´e um autovetor de B associado ao autovalor λ2 . Mostre que vo ´e autovetor dos operadores A + B e A ◦ B. CAP´ITULO 7. OPERADORES LINEARES 180 8. Construa um operador linear A : R2 → R2 satisfazendo as condi¸c˜oes pedidas. (a) V1 : x + y = 0 ´e o autoespa¸co associado ao autovalor λ1 = 1 e V2 : 2x + y = 0 ´e o autoespa¸co associado ao autovalor λ2 = −2. (b) V1 : 2x + 3y = 0 ´e o autoespa¸co associado ao autovalor λ = −3 e N uc(A) : x + 2y = 0. 9. Construa um operador linear A : R3 → R3 satisfazendo as condi¸c˜oes pedidas. (a) V : x + y + z = 0 ´e um autoespa¸co associado ao autovalor λ = −2 e N uc(A) = [[(1, 1, 2)]]. (b) V1 = [[(1, 1, 0)]] ´e o autoespa¸co associado ao autovalor λ1 = −3, V2 = [[](2, 0, 1)]] ´e o autoespa¸co associado ao autovalor λ2 = −3 e V2 = [[](0, 1, 1)]] ´e o autoespa¸co associado ao autovalor λ3 = −0. 10. Fixado o vetor v0 = (2, 1, −2) de R3 , defina uma aplica¸c˜ao A : R3 → R3 por A(v) = v × v0 (produto vetorial). Dˆe uma base para cada autoespa¸co de A. 11. Fixado o vetor v0 = (1, 2, 2) ∈ R3 . Calcule uma base para cada autoespa¸co de A : R3 → R3 , v, v0  v0 . A(v) = v − v0 , v0  12. Calcule os autoespa¸cos dos seguintes operadores lineares. (a) A : R2 → R2 , A(x, y) = (x + y, −x − y). (b) A : R3 → R3 , A(x, y, z) = (z, 0, y). 7.4 Respostas e sugest˜ oes Se¸ c˜ ao 7.1 1) B ◦ A(x, y) = (x, y) e A ◦ B(x, y, z) = (x, y, 0). N˜ ao h´ a contradi¸c˜ao alguma, pois o Corol´ ario diz respeito a operadores lineares e as transforma¸c˜oes lineares envolvidas no exemplo n˜ao s˜ao operadores. ´ invert´ıvel quando det[A] = 0. 2) E (a) A−1 (x, y) = ( 12 x, 12 x + y). −1 (b) A (x, y) = (x − 2y, − 21 x (c) N˜ao ´e invert´ıvel. + y). (d) A−1 (x, y) = ( 12 x + 12 y, 12 x − 12 y). ˜ 7.4. RESPOSTAS E SUGESTOES 181 3) Todas s˜ao invert´ıveis, pois det[A] = 0. (a) A−1 (x, y, z) = (7x − y − z, −3x + y, −3x + z). (b) A−1 (x, y, z) = (−2x − y + 2z, 4x + y − 3z, x + y − z). (c) A−1 (x, y, z) = (6x − 11y + 9z, −x + 2y − z, −2x + 4y − 3z). (d) A−1 (x, y, z) = (x, −x + y, −y + z). (e) A−1 (x, y, z) = (y, z, x). 4) Todas s˜ao invert´ıveis e o determinante ´e 1, para qualquer k.     1 −k cos kt sen kt . . (a) [A]−k = (c) [C]−k = 0 1 −sen kt cos kt ⎤ ⎡ 1 −k k(k−1) 2 (b) [B]−k = ⎣ 0 1 −k ⎦. 0 0 1 5) Veja Corol´ ario 7.1.1, (pg.166), e adapte a demonstra¸c˜ao. 6) Seja v = (x, y) ∈ N uc(A), isto ´e, A(v) = xv1 + yv1 = o. Como β ´e uma base, ent˜ao v1 e v2 s˜ao l.i. Pela Proposi¸c˜ao 5.4.2, (pg.109), x = 0 = y, logo, v = o, ou seja N uc(A) = {o}. Pela Proposi¸c˜ao, 6.2.2, (pg.139), A ´e injetiva. O Teorema do n´ ucleo e da imagem garante que A ´e sobrejetiva, portanto, A ´e invert´ıvel. (b) A−1 = A2 . 7) (a) A3 = id. 8) (b) A(v) = o e A ◦ A(v) = o para algum v. Logo, {o}  Im(A) ⊂ N uc(A), implicando que A n˜ ao ´e injetiva. 9) (b) Como A3 (v) = o para todo v, ent˜ ao A n˜ ao ´e invert´ıvel pelos mesmos argumentos do item anterior. 10) (b) Id = Id − Ak = (Id − A)(Id + A + A2 + · · · + Ak−1 ). 11) (a) Falsa. (b) Falsa. (c) Verdadeira. Se¸ c˜ ao 7.2 1) O operador linear C(x, y) ´e a composta B ◦ A−1 (x, y). (a) C(x, y) = (−y, x), B(x, y) = (−x − y, x + y), A−1 (x, y) = 12 (x + y, −x + y). (b) C(x, y) = 13 (2x, x), B(x, y) = (2x + 2y, x + y), A−1 (x, y) = 13 (2x − y, −x + 3y). (c) C(x, y) = 13 (3y, −2x − y), B(x, y) = (x + y, x − y), A−1 (x, y) = 13 (−x + y, x + 2y). CAP´ITULO 7. OPERADORES LINEARES 182 2) O operador C(x, y, z) ´e a composta B ◦ A−1 (x, y, z). (a) C(x, y, z) = (−z, x, − 21 x − 32 z), B(x, y, z) = (−x − y, x − y, x + 2y, 0), A−1 (x, y, z) = 14 (2x + 2z, −x + 2z, −x + 2y − z). (b) C(x, y, z) = (x, y, z), B(x, y, z) = (x + y, x, x + y + z), A−1 (x, y, z) = (y, x − y, −x + z). (c) C(x, y, z) = 14 (2x − y + 6z, −2y + 4z, −4x − 2y + 4z), B(x, y, z) = (x + y + z, x + y, 2y), A−1 (x, y, z) = 14 (2x − y + 2z, −2x − y + 2z, 2x + y + 2z). Se¸ c˜ ao 7.3 ´ suficiente fazer a avalia¸c˜ao. 1) E (a) A(v) = 4v. (b) A(v) = −2v. 2) Apresentamos o polinˆ omio caracter´ıstico decomposto em produtos de parcelas indecompon´ıveis, os autovalores e autoespa¸cos associados com uma base, respectivamente. (a) p(λ) = (λ − 1)(λ + 2), λ1 = 1, λ2 = −2. Vλ1 = {(x, y) ∈ R2 ; x − y = 0} = [[(1, 1)]], Vλ2 = {(x, y) ∈ R2 ; x − 4y = 0} = [[(4, 1)]]. (b) p(λ) = (λ − 6)(λ + 1), λ1 = 6, λ2 = −1. Vλ1 = {(x, y) ∈ R2 ; 2x − 5y = 0} = [[(5, 2)]], Vλ2 = {(x, y) ∈ R2 ; −x − y = 0} = [[(1, 1)]]. (c) p(λ) = (λ − 0)(λ − 3), λ1 = 0, λ2 = 3. Vλ1 = {(x, y) ∈ R2 ; −x − y = 0} = [[(−1, 1)]], Vλ2 = {(x, y) ∈ R2 ; x − 2y = 0} = [[(2, 1)]]. (d) p(λ) = (λ − 0)(λ − 0), λ1 = 0 = λ2 . Vλ1 = {(x, y) ∈ R2 ; x − 2y = 0} = [[(2, 1)]]. (e) p(λ) = (λ − 1)(λ − 1), λ1 = 1 = λ2 . Vλ1 = {(x, y) ∈ R2 ; x = 0} = [[(0, 1)]]. ao tem autovalor. (f ) p(λ) = λ2 − 2λ + 2. N˜ ˜ 7.4. RESPOSTAS E SUGESTOES 183 3) Apresentamos o polinˆ omio caracter´ıstico decomposto em produtos de parcelas indecompon´ıveis, os autovalores e autoespa¸cos associados com uma base, respectivamente. (a) p(λ) = (λ − 2)(λ − 3)(λ − 6), λ1 = 2, λ2 = 3, λ3 = 6. Vλ1 = {(x, y, z) ∈ R3 ; x + y − z = 0 e x + y − 3z = 0} = [[(1, −1, 0)]], Vλ2 = {(x, y, z) ∈ R3 ; x − z = 0 e y − z = 0} = [[(1, 1, 1)]], Vλ3 = {(x, y, z) ∈ R3 ; 3x − y + z = 0 e x − 3y − z = 0} = [[(1, 1, −2)]]. (b) p(λ) = (λ − 1)(λ − 1)(λ − 4), λ1 = 1 = λ2 , λ3 = 4. Vλ1 = {(x, y, z) ∈ R3 ; y + z = 0} = [[(1, 0, 0) (0, 1, −1)]], Vλ3 = {(x, y, z) ∈ R3 ; 3x − y + z = 0 e 2y − z = 0} = [[(1, 1, 2)]]. (c) p(λ) = (λ + 1)(λ − 2)(λ + 2), λ1 = −1, λ2 = −2, λ3 = 2. Vλ1 = {(x, y, z) ∈ R3 ; x + 2z = 0 e 2x + z = 0} = [[(0, 1, 0)]], Vλ2 = {(x, y, z) ∈ R3 ; y = 0 e x − z = 0} = [[(1, 0, 1)]], Vλ3 = {(x, y, z) ∈ R3 ; y = 0 e x + z = 0} = [[(1, 0, −1)]]. (d) p(λ) = (λ − 3)(λ − 2)(λ + 1), λ1 = −3, λ2 = 2, λ3 = 1. Vλ1 = {(x, y, z) ∈ R3 ; y + 3z = 0 e z = 0} = [[(1, 0, 0)]], Vλ2 = {(x, y, z) ∈ R3 ; z = 0 e y + 3z = 0} = [[(1, 1, 0)]], Vλ3 = {(x, y, z) ∈ R3 ; −4x + y + 3z = 0 e − 3y + 3z = 0} = [[(1, 1, 1)]]. (e) p(λ) = (λ − 1)(λ + 1)(λ − 2), λ1 = 1, λ2 = −1, λ3 = 2. Vλ1 = {(x, y, z) ∈ R3 ; 2x + 2y = 0 e − 2x − y − z = 0} = [[(1, −1, 1)]], Vλ2 = {(x, y, z) ∈ R3 ; x = 0 e 2x + y + 3z = 0} = [[(0, −3, 1)]], Vλ3 = {(x, y, z) ∈ R3 ; x = 0 e 2x + 3y = 0} = [[(0, 0, 1)]]. (f ) p(λ) = (λ + 2)(λ2 + 2λ + 2), λ1 = −2. Vλ1 = {(x, y, z) ∈ R3 ; −4x − 2z = 0 e 2x − 4z = 0} = [[(0, 1, 0)]]. (g) p(λ) = (λ − 0)(λ2 − 4λ + 5), λ1 = 0. Vλ1 = {(x, y, z) ∈ R3 ; −x + y = 0 e − x − y − z = 0} = [[(1, 1, −2)]]. (h) p(λ) = (λ − 1)(λ2 + 1), λ1 = 1. Vλ1 = {(x, y, z) ∈ R3 ; −x + 2y = 0 e − y + 2z = 0} = [[(4, 2, 1)]]. (i) p(λ) = (λ + 1)(λ + 1)(λ + 1), λ1 = λ2 = λ3 = 1. Vλ1 = {(x, y, z) ∈ R3 ; −4x − 3y + 2z = 0} = [[(1, 0, 2) (0, 1, 3/2)]]. 4) O polinˆ omio caracter´ıstico de um operador linear em R3 tem grau 3. Todo polinˆ omio de grau ´ımpar com coeficientes reais tem pelo menos uma raiz real, e a raiz do polinˆ omio caracter´ıstico ´e um autovalor. O resultado ´e o mesmo para qualquer operador linear num espa¸co R2k+1 (dimens˜ao ´ımpar). 184 CAP´ITULO 7. OPERADORES LINEARES 5) Se o operador A n˜ ao ´e invert´ıvel, ent˜ ao ele n˜ao ´e injetor, logo, seu n´ ucleo ´e n˜ao trivial. Sendo assim, existe um vetor n˜ao nulo v ∈ N uc(A) tal que A(v) = o. Isso significa que v ´e um autovetor associado ao autovalor λ = 0. Reciprocamente, se λ = 0 ´e um autovalor, ent˜ ao existe um autovetor associado a esse autovalor, digamos que seja o vetor n˜ ao nulo v. Sendo assim, A(v) = o. Portanto, o n´ ucleo de A ´e n˜ ao trival, implicando que A ´e n˜ao invert´ıvel. 6) Se λ ´e autovalor de A ent˜ ao λn ´e autovalor de An . 7) Se v ´e um vetor n˜ ao nulo tal que A(v) = λ1 v e B(v) = λ2 v, ent˜ ao λ1 + λ2 ´e autovalor de A + B e λ1 λ2 ´e autovalor de B ◦ A. 10) O u ´ nico autoespa¸co ´e Vλ = [[vo ]], onde λ = 0. 11) Existem dois auto espa¸cos. Vλ1 = [[v0 ]] ´e autoespa¸co associado ao autovalor λ1 = 0 e Vλ2 = {(x, y, z) ∈ R3 ; x + 2y + 2z = 0} ´e o autoespa¸co associado ao autovalor λ2 = 1. 12) (a) Polinˆ omio caracter´ıstico: p(λ) = λ2 . Para λ = 0: Vλ = [[(1, −1)]]. (b) Polinˆ omio caracter´ıstico: p(λ) = λ3 . Para λ = 0: Vλ = [[(1, 0, 0)]]. Cap´ıtulo 8 Operadores e produto interno Nesse cap´ıtulo faremos um breve estudo sobre operadores normais. Operadore normais s˜ao operadores lineares nos quais o conceito de ortogonalidade sempre est´a relecionado com as propriedades que os caracterizam. Um dos objetivos centrais ´e apresentar o Teorema espectral que, pelas suas aplica¸c˜oes, ´e im´ prenscind´ıvel em qualquer curso introdut´orio `a Algebra Linear. Outro tipo de operador estudado com mais detalhes s˜ao os operadores ortogonais. Para esses, discorrermos sobre suas propriedades alg´ebricas e geom´eticas. Como aplica¸c˜ao, faremos a classifica¸c˜ao dos movimentos r´ıgidos do Rn . 8.1 Operador transposto Para cada operador linear A : Rn → Rn , desejamos determinar um operador linear, chamado de operador transposto de A e denotado por At : Rn → Rn , possu´ındo a propriedade v, A(w) = At (v), w, (8.1) para quaisquer v, w ∈ Rn . Sabemos que para determinar qualquer operador linear ´e suficiente conhecer sua matriz canˆonica e isso ´e simples de calcular. Ao escrevermos [A] = [vij ] = [A(e1 ), A(e2 ), ..., A(en )] estamos indicando que j-´esima coluna ´e vj = A(ej ) = (v1j , v2j , ..., vnj ). 185 186 CAP´ITULO 8. OPERADORES E PRODUTO INTERNO Portanto, a entrada vij ´e calculada pelo produto interno vij = ei , A(ej ). Por outro lado, a matriz canˆonica do operador linear que estamos procurando, At , ´e dada por [At ] = [At (e1 ), At (e2 ), ..., At (en )]. Da mesma forma, as entradas uij de [At ] s˜ao calculadas por uij = ei , At (ej ). Sendo assim, temos uij = ei , At (ej ) = At (ej ), ei  = ej , A(ei ) = vji . Isso mostra que a matriz do operador procurado deve satisfazer a condi¸c˜ao [At ] = [A]t . Ou seja, a matriz do operador transposto de A deve ser a transposta da matriz de A. Como existe uma correspondˆencia biun´ıvoca entre ´ nico operador operadores lineares em Rn e matrizes n × n, s´o existir´a um u satisfazendo a condi¸c˜ao (8.1), logo, o operador transposto deve ter matriz canˆonica [A]t . Registremos esses coment´arios numa proposi¸c˜ao. ´nico opeProposi¸c˜ ao 8.1.1 Dado um operador linear A em Rn existe um u t n rador linear A em R tal que v, A(w) = At (v), w, para quaisquer v, w ∈ Rn . Mais ainda, vale a rela¸c˜ao matricial [At ] = [A]t . Examinemos um exemplo. Seja A : R2 → R2 , A(x, y) = (x − 4y, −2x + y). Para determinar um operador linear At : R2 → R2 tal que v, A(w) = At (v), w, para quaisquer vetores v, w ∈ R2 , ´e suficiente considerar a transposta da matriz de A,     1 −4 1 −2 t [A] = , [A] = , −2 1 −4 1 e definir At (x, y) = (x − 2y, −4x + y). Tais operadores satisfazem a condi¸c˜ao (8.1), calculemos: i) (x, y) , A(x, y) = (x, y), (x − 4y, −2x + y) = x2 + y 2 − 6xy; ii) At (x, y), (x, y) = (x − 2y, −4x + y), (x, y) = x2 + y 2 − 6xy. 8.1. OPERADOR TRANSPOSTO 187 Exerc´ıcio 8.1.1 Mostre as seguintes afirma¸c˜oes sobre os operadores transpostos de A, B : Rn → Rn . a) (A + B)t = At + B t . b) (λA)t = λAt para todo escalar λ. c) Idt = Id. Solu¸ c˜ ao A t´ıtulo de ilustra¸c˜ao, mostremos o item i). Examine a seq¨ uˆencia de n igualdades para quaisquer v, w ∈ R , v, (A+B)(w) = v, A(w)+v, B(w) = At (v), w+B t (v), w = (At +B t)(v), w. As demonstra¸c˜oes dos outros ´ıtens seguem racioc´ınios semelhantes. 2 Proposi¸c˜ ao 8.1.2 Seja A : Rn → Rn um operador linear. Valem as afirma¸co˜es. t −1 i) A invert´ıvel ⇔ At ´e invert´ıvel. Nesse caso, A−1 = At . ii) O polinˆomio caracter´ıstico de A e At s˜ao iguais. Prova i) Pela Proposi¸c˜ao 2.1.2, (pg.28), det [A] = det [A]t . Como vale a rela¸c˜ao matricial [At ] = [A]t , ent˜ao det [A] = 0 se, e somente se, det [At ] = 0. Se A ´e invert´ıvel ent˜ao A−1 ◦ A = Id. Calculando a transposta dessa t composi¸c˜ao, obtemos At ◦ A−1 = Id. Pelo Corol´ario 7.1.1, (pg.166), podemos t −1 afirmar que A−1 = At . ii) Denote por pA (λ) e pAt (λ) os polinˆomios caracter´ısticos de A e At , respectivamente. Observe que λ Id = λ Idt. Sendo assim, pA (λ) = = = = = Isso termina a demonstra¸c˜ao. det[λ Id − A] det[λ Id − A]t det[λ Idt − At ] det[λ Id − At ] pAt (λ). 2 CAP´ITULO 8. OPERADORES E PRODUTO INTERNO 188 Exerc´ıcios propostos 8.1.1 1. Calcule o operador transposto do operador linear A : R3 → R3 . (a) A(x, y, z) = (z, x, y). (b) A(x, y, z) = (x + 2z, 3z, 2x + 3y + z). (c) A(x, y, z) = (x, x + y, x + y + z). (d) A(x, y, z) = (x + y − z, 2x − 2y + z, x − z). 2. Mostre as afirma¸c˜oes sobre os operadores transpostos dos operadores lineares A e B do Rn . t (a) At = A. (b) A(v), w = v, At (w) para quaisquer v, w ∈ Rn . (c) (B ◦ A)t = At ◦ B t . −1 (d) Se A ´e invert´ıvel vale a identidade At t = A−1 . 2 3. Mostre que qualquer vetor que est´ a no n´ ucleo de um operador At em Rn ´e ortogonal a qualquer vetor que est´ a na imagem de A. 4. Mostre que qualquer vetor que est´ a no n´ ucleo de um operador A em Rn ´e ortogonal a qualquer vetor que est´ a na imagem de At . omios 5. Mostre que um operador A em Rn e seu operador transposto At tˆem polinˆ caracter´ısticos iguais. 8.2 Operadores normais Iniciaremos o estudo de operadores lineares A em Rn gozando da propriedade A(v) , A(w) = At (v), At (w), (8.2) para quaisquer vetores v, w ∈ Rn . Pela defini¸c˜ao de operador transposto, podemos reescrever a igualdade na forma equivalente v , At ◦ A(w) = v, A ◦ At (w), para quaisquer v, w ∈ Rn . Para relacionar as matrizes [A ◦ At ] = [aij ] e [At ◦ A] = [bij ] 8.2. OPERADORES NORMAIS 189 basta aplicar a defini¸c˜ao, bij = ei , At ◦ A(ej ) = ei , A ◦ At (ej ) = aij . Como as matrizes [At ][A] e [A][At ] s˜ao iguais, os operadores A ◦ At e At ◦ A s˜ao iguais. Isso nos leva a uma defini¸c˜ao. Defini¸ c˜ ao 8.2.1 Diz-se que um operador linear A : Rn → Rn ´e normal se, e somente se, A ◦ At = At ◦ A. Em outras palavras, um operador linear ´e normal se, e somente se, ele comuta com o seu operador transposto. Observe que a condi¸c˜ao de normalidade pode ser verificada matricialmente, pois, pelas Proposi¸c˜ao 6.5.2, (pg.154, e Proposi¸c˜ao 8.1.1, 186), um operador ´e normal se, e somente se, [A] [A]t = [A]t [A]. Exemplo 8.2.1 Para verificar se um operador ´e normal, digamos que o operador seja A : R2 → R2 , A(x, y) = (2x − 2y, 2x + 2y), basta verificar a rela¸c˜ao de normalidade matricialmente. Como   2 −2 [A] = , 2 2 um c´alculo rotineiro nos d´a [A] [A]t = 4[Id] = [A]t [A]. Um fato geom´etrico deve ser destacado no produto matricial [A]t [A]. Como [A] = [A(e1 ), A(e2 )], pela defini¸c˜ao de produto matricial, temos ⎤ ⎡ A(e1 ), A(e1 ) A(e2 ), A(e1 ) ⎦. [A]t [A] = ⎣ A(e1 ), A(e2 ) A(e2 ), A(e2 ) 2 Na verdade essa observa¸c˜ao pode ser generalizada. Demonstremos um algoitmo que ser´a utilizado in´ umeras vezes. Proposi¸ c˜ ao 8.2.1 Se [B] = [w1 , w2, ..., wn ] e [A] = [v1 , v2 , ..., vn ] s˜ao matrizes quadradas n × n ent˜ ao ⎡ w1 , v1  w1 , v2  ⎢ w2 , v1  w2 , v2  [B]t [A] = ⎢ ⎣ ··· ··· wn , v1  wn , v2  ··· ··· ··· ··· ⎤ w1 , vn  w2 , vn  ⎥ ⎥. ⎦ ··· wn , vn  190 CAP´ITULO 8. OPERADORES E PRODUTO INTERNO Prova O resultado segue imediatamente da defini¸c˜ao de produto matricial. A entrada cij da matriz [B]t [A] ´e obtida pelo produto cij = w1i v1j + w2i v2j + · · · + wnivnj = wi, vj . Recorde que a i-´esima linha de [B]t ´e a i-coluna de [B]. 2 Nesse momento, ´e conveniente fixar uma apresenta¸c˜ao para a matriz identidade. Denotaremos a matriz identidade por [Id] = [δij ], onde δij ´e o delta de Kronecker,  1 se i = j δij = . 0 se i = j Com essa nota¸c˜ao, a matriz do operador identidade do Rn ´e obtida por δij = ei , ej , onde os ei ’s s˜ao os vetores da base canˆonica do Rn . Exerc´ıcio 8.2.1 Mostre que se um operador linear A em Rn ´e normal e invert´ıvel ent˜ao A−1 tamb´em ´e normal. Sugest˜ ao Utilize a defini¸c˜ao de normalidade e a Proposi¸c˜ao 8.1.2, (pg.187).2 Neste cap´ıtulo estudaremos os dois principais tipos de operadores normais em Rn . 1. Operador sim´etrico: At = A. 2. Operador ortogonal: U ◦ U t = Id = U t ◦ U. ´ cl´assico designar um operador ortogonal pela letra U. Sem dificuldade E alguma, verifica-se que tais tipos de operadores s˜ao normais. Exerc´ıcios propostos 8.2.1 1. Verifique que os operadores lineares em R2 cujas matrizes canˆonicas s˜ao dadas a seguir s˜ao operadores normais.       0 3 cos t −sen t 3 −1 (a) [A] = . (b) [B] = . (c) [C] = . −3 0 sen t cos t −1 2 8.2. OPERADORES NORMAIS 191 2. Determine quais dos operadores lineares do R3 ´e normal. (a) A(x, y, z) = (−2y + 3z, 2x + z, −3x − y). (b) A(x, y, z) = (z, y, x). (c) A(x, y, z) = (x + y + z, x − y + z, x − 2z). 3. Considere o operador linear A : R3 → R3 , A(x, y, z) = (x − z, y, x + z). (a) Verifique que A ´e normal e invert´ıvel. (b) Calcule o operador inverso A−1 e verifique ele ´e normal. ao N uc(A) = N uc(At ). Mostre essa 4. Se A ´e um operador normal em Rn ent˜ afirma¸c˜ao. 5. Existem v´ arios modos de produzir operadores lineares sim´etricos em Rn . Mostre alguns deles. (a) Dado um operador linear A ent˜ ao B = A + At ´e sim´etrico. (b) Dado um operador linear A ent˜ao as compostas B = A ◦ At e C = At ◦ A s˜ao operadores sim´etricos. O operador B = At ◦A ´e chamado de operador de Gram associado ao operador A (c) Se A ´e um operador sim´etrico invert´ıvel ent˜ ao A−1 ´e tamb´em sim´etrico e invert´ıvel. 6. Mostre as afirma¸c˜oes sobre operadores ortogonais em Rn . (a) Todo operador ortogonal U ´e invert´ıvel. (b) Os u ´nicos valores poss´ıveis para o determinante de um operador ortogonal U ´e 1 ou −1. 7. Diz-se que um operador linear A em Rn ´e anti-sim´etrico quando At = −A. Mostre as afirma¸c˜oes. (a) Um operador anti-sim´etrico ´e normal. (b) Se n ´e ´ımpar ent˜ ao todo operador anti-sim´etrico n˜ ao ´e invert´ıvel. (c) Existem operadores anti-sim´etricos invert´ıveis em R2 . ao A = B − B t ´e anti-sim´etrico. (d) Se B ´e um operador linear em Rn ent˜ (e) As entradas da diagonal principal de [A] ´e zero. 192 CAP´ITULO 8. OPERADORES E PRODUTO INTERNO 8. Quais das afirma¸c˜oes sobre os operadores lineares A e B em Rn s˜ao falsas ou verdadeiras. (a) Se A e B s˜ao sim´etricos ent˜ao A ◦ B ´e sim´etrico. (b) Se A e B s˜ao invert´ıveis ent˜ ao A ◦ B ´e invert´ıvel. (c) Se A e B s˜ao normais ent˜ao A ◦ B ´e normal. 8.3 Operadores sim´ etricos Como sabemos, um operador sim´etrico A do Rn , satisfaz a condi¸c˜ao v, A(w) = A(v), w para quaisquer dois vetores v, w ∈ Rn , isto ´e At = A. Segue dos coment´arios de se¸c˜oes anteriores que podemos reconhecer matricialmente um operador sim´etrico. verificando se sua matriz canˆonica ´e sim´etrica, [A]t = [At ] = [A]. Exemplo 8.3.1 Seja A : R3 → R3 , A(x, y, z) = (7x − 2y, −2x + 6y − 2z, −2y + 5z). Para verificar que v, A(w) = A(v), w para quaisquer vetores v, w ∈ R3 ´e suficiente examinar a matriz ⎡ ⎤ 7 −2 0 6 −2 ⎦ = [A]t . [A] = ⎣ −2 0 −2 5 Como a matriz ´e sim´etrica, o operador linear ´e sim´etrico. 2 A principal propriedade de um operador sim´etrico diz respeito aos seus autovalores e autoespa¸cos. O Teorema espectral, que ser´a apresentado logo abaixo, trata exatamente desse aspecto. No cap´ıtulo anterior tomamos conhecimento que autovetores associados a autovalores distintos s˜ao linearmente independentes, Lema 7.3.1, (pg.178). Quando o operador ´e sim´etrico podemos afirmar mais, eles s˜ao ortogonais. Lema 8.3.1 Sejam A um operador linear sim´etrico em Rn e β = {v1 , v2 , ..., vk } um conjunto formado por autovetores de A associados aos autovalores λ1 , ao λ2 ,...,λk , respectivamente. Se os autovalores s˜ao distintos dois a dois ent˜ os vetores de β s˜ao ortogonais dois a dois. ´ 8.3. OPERADORES SIMETRICOS 193 Prova Seja i = j. Observe a seguinte seq¨ uˆencia de igualdades, λi ui, uj  = λi ui, uj  = A(ui ), uj  = ui , A(uj ) = ui , λj uj  = λj ui , uj . Portanto, (λi − λj )ui , uj  = 0. Como λi = λj segue que ui, uj  = 0. 2 Teorema 8.3.1 (Teorema espectral em R2 ) Se o operador linear A em R2 ´e sim´etrico ent˜ ao: a) o polinˆ omio caracter´ıstico de A possui 2 ra´ızes reais contando as repeti¸c˜oes, {λ1 , λ2 }; b) existe uma base ortonormal de R2 formada por autovetores, β = {u1 , u2}, onde A(ui ) = λi ui . Diz-se que a base β ´e uma base espectral de A. Prova Como o operador linear ´e sim´etrico, ent˜ao A(x, y) = (ax + by, bx + cy) pois sua matriz na base canˆonica ´e sim´etrica,   a b [A] = . b c Calculando o polinˆomio caracter´ıstico de [A] obtemos   λ − a −b p(t) = det = λ2 − (a + c)λ + (ac − b2 ). −b λ − c Como o discriminante ∆ de p(λ) n˜ao ´e negativo, pois ∆ = (−a − c)2 − 4(ac − b2 ) = (a − c)2 + 4b2 ≥ 0, p(λ) admite duas ra´ızes reais que ser˜ao distintas se, e somente se, ∆ > 0, e admite uma raiz com repeti¸c˜ao 2 se, e somente se, ∆ = 0. Examinemos os dois casos. 1o caso ∆ = 0. Sendo assim, a = c e b = 0. Logo, a matriz [A] ´e uma matriz diagonal, a saber,   a 0 [A] = . 0 a 194 CAP´ITULO 8. OPERADORES E PRODUTO INTERNO Sendo assim A(x, y) = (ax, ay) = a(x, y). Isto significa que qualquer vetor de R2 ´e um autovetor associado ao autovalor λ = a, seguindo nossa nota¸c˜ao escrevemos R2 = Vλ . Portanto, escolhidos quaisquer dois vetores unit´arios mutuamente ortogonais, β = {u1 , u2 } formamos uma base ortonormal para o R2 com autovetores unit´arios. 2o caso ∆ > 0 Nesse caso, teremos dois autovalores distintos, digamos λ1 e λ2 . Sejam u1 e u2 dois autovetores unit´arios associados aos autovalores λ1 e λ2 , respectivamente. Pelo Lema 7.3.1, o conjunto β = {u1 , u2 } ⊂ R2 ´e linearmente independente, e pelo Lema 8.3.1, (pg.192), β ´e uma base ortonormal. 2 Exemplo 8.3.2 Consideremos o operador linear A : R2 → R2 , A(x, y) = (−2x + 6y, 6x − 7y).  Sua matriz canˆonica [A] = −2 6 6 −7  ´e sim´etrica, logo, A ´e um operador linear sim´etrico. Do polinˆomio caracter´ıstico de [A],   λ+2 −6 p(λ) = det = λ2 + 9λ − 22 = (λ + 11)(λ − 2), −6 λ + 7 obtemos dois autovalores λ1 = −11 e λ2 = 2. Resolvendo o sistema linear      −6 x 0 λi + 2 = , −6 λi + 7 y 0 para cada autovalor λi , obtemos os autoespa¸cos Vλ1 = [[(2, −3)]] e Vλ2 = [[(3, 2]]. Como os autovalores s˜ao distintos, o Lema 8.3.1, (pg.192), garante que os vetores do autoespa¸co Vλ1 s˜ao ortogonais aos vetores do autoespa¸co Vλ2 . Isso ´e ´ 8.3. OPERADORES SIMETRICOS 195 facilmente verificado efetuando o produto interno de m´ ultiplos dos geradores. Normalizando os geradores, obtemos uma base espectral para A,  * 2 3 3 2 √ , −√ β= , √ ,√ . 13 13 13 13 Recordamos que base espectral para o operador linear sim´etrico A significa uma base ortonormal formada por autovetores de A. 2 A existˆencia de uma base ortonormal de autovetores de um operador linear ´ sim´etrico ´e um dos importantes teoremas de Algebra Linear e ´e v´alido em qualquer dimens˜ao. Deixaremos registrado o teorema sem a demonstra¸c˜ao, pois a argumenta¸c˜ao utilizada, quando o operador linear sim´etrico ´e de Rn , n > 2, foge do material apresentado neste texto. Teorema 8.3.2 (Teorema espectral) Se o operador linear A em Rn ´e sim´etrico ent˜ ao: a) o polinˆ omio caracter´ıstico de A possui n ra´ızes reais, contando as repeti¸co˜es, {λ1 , λ2 , ..., λn }; b) existe uma base ortonormal de Rn formada por autovetores, β = {u1 , u2, ..., un }, onde A(ui ) = λi ui . Diz-se que a base β ´e uma base espectral de A. Exemplo 8.3.3 Considere a matriz ⎡ ⎤ 1 −1 1 1 1 ⎦. [A] = ⎣ −1 1 1 2 Como a matriz [A] ´e sim´etrica, o operador linear A que ela define em R3 ´e sim´etrico. O Teorema espectral garante que A possui trˆes autovalores reais (eventualemente com repeti¸c˜aoes) e que existe trˆes autovetores associados (um para cada autovalor), que s˜ao ortogonais dois a dois. Ao calcularmos as ra´ızes do polinˆomio caracter´ıstico de A obtemos os autovalores √ √ λ1 = 2, λ2 = 1 + 3, e λ3 = 1 − 3. 196 CAP´ITULO 8. OPERADORES E PRODUTO INTERNO Com um pouco de esfor¸co o leitor pode determinar os seguintes autovetores associados, respectivamente, aos autovalores λ1 , λ2 e λ3 : √ √ √ √ v1 = (−1, 1, 0); v2 = (−1 + 3, −1 + 3, 1); v3 = (−1 − 3, −1 − 3, 1). Verifica-se que eles s˜ao dois a dois ortogonais e que det[v1 , v2 , v3 ] = 0. Logo β = {v1 , v2 , v3 } ´e uma base de R3 . Para conseguir uma base espectral α basta normalizar os vetores de β,  * 1 1 1 α= v1 , v2 , v3 . v1  v2  v3  A terminologia sobre bases est´a na Se¸c˜ao 5.7, (pg.122). 2 Um operador sim´etrico A em Rn ´e dito ser positivo quando v, A(v) > 0, qualquer que seja o vetor n˜ao nulo v ∈ Rn . Exerc´ıcio 8.3.1 Mostre que um operador linear sim´etrico ´e positivo se, e somente se, todos os seus autovalores s˜ao positivos. Sugest˜ ao Considere uma base espectral β = {u1 , u2, ..., u3 }, escreva um vetor n˜ao nulo v como combina¸c˜ao linear dos vetores da base e fa¸ca a avalia¸c˜ao v, A(v) > 0. 2 Definimos um operador linear sim´etrico negativo de forma an´aloga e conclu´ımos que todos os autovalores s˜ao negativos. Exerc´ıcios propostos 8.3.1 1. Verifique que o operador A em R2 ´e sim´etrico e determine uma base espectral para A. (a) A(x, y) = (10x + 6y, 6x + 10y). (c) A(x, y) = (6x − 2y, −2x + 6y). (b) A(x, y) = (4x + 4y, 4x + 10y). (d) A(x, y) = (5x + 3y, 3x + 5y). 2. Verifique quais dos operadores sim´etricos em R2 ´e invert´ıvel e determine uma base espectral para sua inversa. (a) A(x, y) = (10x + 6y, 6x + 10y). (c) A(x, y) = (6x − 2y, −2x + 6y). (b) A(x, y) = (4x + 4y, 4x + 10y). (d) A(x, y) = (5x + 3y, 3x + 5y). 3. Verifique que o operador A em R3 ´e sim´etrico e determine uma base espectral para A. (a) A(x, y, z) = (2z, −y, 2x). (c) A(x, y, z) = (x + z, −y, x + z). (b) A(x, y, z) = (x + 3y, 3x + 9y, 0). (d) A(x, y, z) = (−7x, −7y, 2x). 8.4. OPERADORES ORTOGONAIS I 197 4. Existe um operador sim´etrico A em R2 tal que A(1, 2) = 3(1, 2) e A(1, 1) = −2(1, 1)? 5. Construa um operador sim´etrico A em R2 satisfazendo a condi¸c˜ao pedida. (a) A(−1, 2) = (2, 4) e A(2, 1) = (6, 3). (b) A(3, 1) = (0, 0) e A(−1, 3) = (1, −3). (c) A(1, 2) = (2, 4) e possua λ = −1 como um dos autovalores. 6. Determine os autovalores e autovetores de Id : Rn → Rn . 7. Defina A : R3 → R3 por A(v) = v0 , vv0 onde v0 = (−2, 1, 1). (a) Mostre que o operador A ´e sim´etrico. (b) Determine seus autoespa¸cos. 8. Generalize o exemplo anterior. Defina A : R3 → R3 por A(v) = v0 , vv0 onde v0 ∈ R3 . (a) Mostre que o operador A ´e sim´etrico. (b) Determine seus autoespa¸cos. omio caracter´ıstico do operador de 9. Seja B um operador linear em Rn . O polinˆ Gram A = B t ◦ B s˜ao reais e n˜ao negativos. Prove essa afirma¸c˜ao. 10. Mostre que se β ´e uma base espectral de Rn para um operador sim´etrico e invert´ıvel A ent˜ ao β ´e uma base espectral para A−1 . 8.4 Operadores ortogonais I Um operador linear U do Rn ´e dito ortogonal se satisfaz a condi¸c˜ao U ◦ U t = Id = U t ◦ U, (8.3) ou, em termos matriciais, U ´e um operador ortogonal se, e somente se, [U] [U]t = [Id] = [U]t [U]. Outra defini¸c˜ao eq¨ uivalente a essas, segue de (8.2). O operador linear U em n R ´e ortogonal quando U(v), U(w) = v, w, 198 CAP´ITULO 8. OPERADORES E PRODUTO INTERNO para quaisquer v, w ∈ Rn . Da defini¸c˜ao, (8.3), ´e imediato concluir que um operador ortogonal U ´e invert´ıvel e que U −1 = U t . Na pr´atica, ´e suficiente verificar apenas uma das condi¸c˜oes exigidas na defini¸c˜ao para determinar a ortogonalidade do operador, se um operador linear tem uma inversa a` direita (repectivamente, a` esquerda), ent˜ao ele ´e invert´ıvel, Proposi¸c˜ao 7.1.1, (pg.166), Para futuras referˆencias, registraremos um corol´ario. Corol´ ario 8.4.1 Um operador linear U : Rn → Rn ´e ortogonal se, e somente se, U ´e invert´ıvel e U −1 = U t . Mais ainda, o operador inverso ´e ortogonal. Examinemos o operador linear U : R2 → R2 , √ √ √ √ 2 2 2 2 x− y, x+ y . U(x, y) = 2 2 2 2 As matrizes na base canˆonica de [U] e [U]t s˜ao, respectivamente,  √  √ √  √  2 2 2 2 − t √2 √2 √2 [U] = √22 = e [U] . 2 − 22 22 2 2 Facilmente, mostramos que [U] [U]t = [Id] = [U]t [U], portanto, o operador ´e ortogonal. O fato crucial a ser destacado para a compreens˜ao de um operador ortogonal ´e o significado alg´ebrico desse produto matricial. Considere os vetores u1 = U(e1 ) e u2 = U(e2 ). O conjunto ordenado β = {u1 , u2} ´e uma base ortonormal! Utilizemos a Proposi¸c˜ao 8.2.1, (pg.162), para calcular cada produto interno ui, uj , i, j = 1, 2,  t [U] [U] = u1, u1  u1 , u2 u2, u1  u2 , u2   = 1 0 0 1  . Como o conjunto β ´e um conjunto de vetores unit´arios dois a dois ortogonais, β ´e uma base do R2 , Proposi¸c˜ao 5.7.1, (pg.124). Essa propriedade matricial nos permite caracterizar, algebricamente, um operador ortogonal utilizando a base canˆ onica. 8.4. OPERADORES ORTOGONAIS I 199 Proposi¸c˜ ao 8.4.1 Um operador linear U : Rn → Rn ´e ortogonal se, e somente se, β = {U(e1 ), U(e2 ), ..., U(en )} ´e uma base ortonormal de Rn Prova Examinemos o produto matricial descrito na Proposi¸c˜ao 8.2.1, (pg.189), ⎡ U (e1 ), U (e1 ) U (e1 ), U (e2 ) ⎢ U (e2 ), U (e1 ) U (e2 ), U (e2 ) [U ]t [U ] = ⎢ ⎣ ··· ··· U (en ), U (e1 ) U (en ), U (e2 ) ··· ··· ··· ··· ⎤ U (e1 ), U (en ) U (e2 ), U (en ) ⎥ ⎥. ⎦ ··· U (en ), U (en ) Sendo assim, [U]t [U] = [Id] se, e somente se, U(C) = {U(e1 ), U(e2 ), ..., U(en )} ´e um conjunto de vetores unit´arios e dois a dois ortogonais, ou equivalentemente, U(C) ´e uma base ortonormal do Rn , Proposi¸c˜ao 5.7.1, (pg.124). 2 A proposi¸c˜ao nos diz como devemos contruir qualquer operador ortogonal. Devemos escolher uma base ortonormal β = {u1 , u2 , ..., un } de Rn e definir U : Rn → Rn por U(x1 , x2 , ..., xn ) = x1 u1 + x2 u2 + · · · + xn un , pois, com tal defini¸c˜ao temos U(ei ) = ui , i = 1, ..., n e [U] = [u1 , u2 , ..., un ]. Exemplo 8.4.1 Seja u1 um vetor unit´ario de R2 . Necessariamente, esse vetor ´e da forma u1 = (cos θ, sen θ) para algum θ, com 0 ≤ θ < 2π. N´os temos duas maneiras de escolher um vetor unit´ario ortogonal ao vetor u1 , uma delas ´e considerar o vetor u2 = (−sen θ, cos θ). Feito essa escolha, definimos o operador ortogonal U em R2 por U(x, y) = x(cos θ, sen θ) + y(−sen θ, cos θ). ´ claro, a matriz canˆonica de U ´e E   cos θ −sen θ [U] = . sen θ cos θ O operador U ´e chamado de rota¸c˜ao por θ. U define uma transforma¸c˜ao do plano Euclidiano que rotaciona cada elemento no sentido anti-hor´ario por um ˆangulo θ. Para verificar essa afirma¸c˜ao, basta verificar essa transforma¸c˜ao nos segmentos orientados que representam e1 e e2 . A outra maneira de escolher u2 ´e u2 = (sen θ, −cos θ). Sendo assim, a defini¸c˜ao U(x, y) = xu1 + yu2 200 CAP´ITULO 8. OPERADORES E PRODUTO INTERNO nos d´a um outro operador ortogonal cuja matriz canˆ onica ´e   cos θ sen θ [U] = . sen θ −cos θ Esse operador define uma transforma¸c˜ao do plano Euclidiano que pode ser descrito como uma composta de uma reflex˜ao em torno do eixo ox seguida de uma rota¸c˜ao no sentido anti-hor´ario por θ, pois      cos θ sen θ cos θ −sen θ 1 0 = sen θ −cos θ sen θ cos θ 0 −1 Assim, ficam descritos todos os operadores ortogonais de R2 . 2 Exemplo 8.4.2 Consideremos o vetor unit´ario u1 ∈ R3 , onde 1 1 2 u1 = √ , √ , − √ . 6 6 6 Existem infinitas possibilidades de escolhas de um vetor unit´ario u2 = (a, b, c) ortogonal ao vetor u1 . As coordenadas do vetor u2 s˜ao solu¸c˜oes das equa¸c˜oes ⎧ 1 2 1 ⎨ √6 a + √6 b − √6 c = 0 . ⎩ 2 2 2 = 1 a +b +c A primeira equa¸c˜ao do sistema n˜ao linear garante que u2 ´e ortogonal ao vetor u1 e a segunda garante que u2 ´e unit´ario. Escolharemos escalares que satisfazem a primeira equa¸c˜ao e depois normatizaremos o vetor com essas coordenadas. Por exemplo, tomemos 3 1 1 u2 = √ , − √ , √ . 11 11 11 Para escolher o terceiro vetor ortogonal aos anteriores, temos, apenas, duas escolhas. Uma delas ´e considerar o produto vetorial u3 = u1 × u2 . De fato, u3 ´e unit´ario. Pela F´ormula de Lagrange, Proposi¸c˜ao 4.6.2, (pg.89), temos u3  = u1 × u2  = u1 u2 sen θ = sen θ = 1, 8.4. OPERADORES ORTOGONAIS I 201 pois θ = π2 , desde que θ ´e o aˆngulo entre os vetores ortogonais u1 e u2 e 0 ≤ θ ≤ π. Calculando o vetor u3 obtemos 4 7 1 u3 = √ , − √ , − √ . 66 66 66 Feito essas escolhas, definimos um operador ortogonal em R3 por U(x, y, z) = xu1 + yu2 + zu3 cuja matriz canˆonica ´e ⎡ ⎢ ⎢ ⎢ [U] = [u1 , u2, u3 ] = ⎢ ⎢ ⎣ √1 6 √2 6 √3 11 √1 66 − √111 − √466 − √16 √1 11 − √766 ⎤ ⎥ ⎥ ⎥ ⎥. ⎥ ⎦ A outra escolha poss´ıvel para u3 ´e u3 = −u1 ×u2 . Esse processo descreve todas 2 as possibilidade de constru´ırmos operadores ortogonais em R3 . Exerc´ıcios propostos 8.4.1 1. Fixe o vetor unit´ ario u do R2 , u = ( 12 , √ 3 2 ). (a) Construa um operador ortogonal U1 em R2 tal que [U1 ] = [u, v] (explicite um vetor v). Calcule seu determinante e seu polinˆ omio caracter´ıstico. Caso ele admita autovalores, determine os autoespa¸cos. (b) Determine um outro operador ortogonal U2 tal que [U2 ] = [u, w]. Calcule seu determinante e seu polinˆ omio caracter´ıstico. Caso ele admita autovalores, determine os autoespa¸cos. 2. Identifique todos os operadores ortogonais U do R2 que admitem autovalores. 3. Verifique quais dos operadores lineares em R3 s˜ao ortogonais. (a) A(x, y, z) = ( √12 x + √1 z, y, − √1 x 2 2 (b) A(x, y, z) = (x, −y, −z). (c) A(x, y, z) = (y, z, x). + √1 z). 2 202 CAP´ITULO 8. OPERADORES E PRODUTO INTERNO $ (d) U (x, y, z) = √1 x 3 − √2 y, √1 x 6 3 + √1 y 6 − √1 z, √1 x 2 3 + √1 y 6 + √1 z 2 % . 4. Sejam v e w vetores unit´ arios e ortogonais de R3 . (a) O conjunto β = {v, w, v × w} ´e uma base. Justifique essa afirma¸c˜ao. (b) Considere a matriz [U ] = [u, v, v × w]. Mostre que [U ]t [U ] = [Id]. (c) Conclua que [U ] ´e uma matriz ortogonal. 5. A composta de dois operadores ortogonais em Rn ´e um operador ortogonal. Mostre essa afirma¸c˜ao. 8.5 Operadores ortogonais e geometria Na se¸c˜ao anterior, fizemos o estudo alg´ebrico de operadores unit´arios. A Proposi¸c˜ao 8.4.1, (pg.199), descreve como devemos construir operadores ortogonais. Nessa se¸c˜ao mudaremos de ponto de vista, examinaremos a rela¸c˜ao entre operadores ortogonais e geometria. Operadores ortogonais preservam as principais propriedades geom´etrica. Verificaremos que os conceitos da geometria associados a objetos, medidas de comprimento, volume, aˆngulo, n˜ao s˜ao modificados quando transformados por um operador ortogonal U do R3 . Iniciemos com uma propriedade b´asica. Afirma¸c˜ao 1 U preserva o produto interno: para quaisquer u, v ∈ Rn vale a igualdade v, w = U(v), U(w). Em essˆencia, isso ´e a defini¸c˜ao de operador ortogonal, pois v, w = v, Id(w) = v, U t ◦ U(w) = U(v), U(w). Afirma¸c˜ao 2 U preserva a norma: para qualquer v ∈ Rn vale a igualdade v = U(v). Essa afirma¸c˜ao segue da afirma¸c˜ao anterior: v2 = v, v = U(v), U(v) = U(v)2 . Como a norma de um vetor ´e n˜ao negativa, segue o resultado. 8.5. OPERADORES ORTOGONAIS E GEOMETRIA 203 Afirma¸c˜ao 3 U preserva aˆngulo: para quaisquer v, w ∈ Rn vale a igualdade θ(v, w) = θ(U(v), U(w)). Recordamos que θ(v, w) indica o aˆngulo entre os dois vetores, veja Se¸c˜ao 4.3, (pg.79), para revis˜ao, terminologias e propriedades relacionadas com aˆngulos entre vetores. Como ⎧ = v wcos θ(v, w) ⎨ v, w , ⎩ U(v), (w) = U(v) U(w)cos θ (U(v), U(w)) pelas duas afirma¸c˜oes acima, segue que cos θ(v, w) = cos θ(U(v), U(w)). Como um ˆangulo entre dois vetores ´e um n´ umero no intervalo [0, π] e o cosseno ´e injetivo nesse intervalo, conclu´ımos que θ(v, w) = θ(U(v), U(w)). Para uma melhor comprens˜ao da pr´oxima afirma¸c˜ao, recomendamos a leitura do Coment´ario na p´agina 145. Afirma¸c˜ao 4 U preserva volume: | det[u, v, w]| = | det[U(u), U(v), U(w)]|. Inicialmente, demonstraremos que | det[U]| = 1. Essa propriedade segue da Proposi¸c˜ao 2.1.2, (pg.28), que garante a igualdade det[U]t = det[U]. Sendo assim,   1 = det[Id] = det [U]t [U] = det[U]t det[U] = (det[U])2 . Para finalizar a demonstra¸c˜ao, aplicamos a Proposi¸c˜ao 6.3.1, (pg.144), |det[U(u), U(v), U(w)]| = |det[U]| |det[u, v, w]| = |det[u, v, w]| . Tendo em m˜aos essas informa¸c˜oes passaremos a descrever, geometricamente, a transforma¸c˜ao executada por um operador ortogonal U no espa¸co R3 . Para isso precisaremos do conceito de subespa¸co invariante. Defini¸ c˜ ao 8.5.1 Um subespa¸co Γ ⊂ Rn ´e invariante por um operador linear A : Rn → Rn se A(Γ) ⊂ Γ. Quando A ´e invert´ıvel, vale a igualdade A(Γ) = Γ. Observe que n˜ao ´e exigido que os vetores do subespa¸co invariante fiquem fixos pelo operador. Exerc´ıcio 8.5.1 Mostre que um autoespa¸co Vλ de um operador linear A em Rn ´e um subespa¸co invariante por A. 2 204 CAP´ITULO 8. OPERADORES E PRODUTO INTERNO No caso de um operador ortogonal U : R3 → R3 , mostraremos que: i) existe um autoespa¸co unidimensional Vλ associado a um autovalor λ, com |λ| = 1; ii) um subespa¸co bidimensional Γ invariante por U e ortogonal ao autoespa¸co Vλ . Exemplo 8.5.1 Examinemos o operador linear U : R3 → R3 , U(x, y, z) = (z, x, y). Esse operador ´e ortogonal, pois os vetores colunas da matriz [U] = [U(e1 ), U(e2 ), U(e3 )] = [e2 , e3 , e1 ] s˜ao vetores unit´arios e ortogonais dois a dois, Proposi¸c˜ao 8.4.1, (pg.199). Poder´ıamos verificar o mesmo fato, diretamente da defini¸c˜ao de operador ortogonal, ⎡ ⎤⎡ ⎤ ⎡ ⎤ 0 1 0 0 0 1 1 0 0 [U]t [U] = ⎣ 0 0 1 ⎦ ⎣ 1 0 0 ⎦ = ⎣ 0 1 0 ⎦ = [Id]. 1 0 0 0 1 0 0 0 1 Um operador ortogonal U em R3 sempre tem um autovalor λ com |λ| = 1. Sen˜ao vejamos. O polinˆomio caracter´ıstico de U tem grau trˆes, portanto, possui, pelo menos, uma raiz real λ. Seja v ∈ R3 um autovetor associado a esse autovalor. Como U preserva norma, temos v = U(v) = λv = |λ| v, de onde segue que λ = 1 ou λ = −1. No nosso exemplo, o polinˆomio caracter´ıstico do operador U(x, y, z) = (z, x, y), p(λ), tem apenas um autovalor, pois p(λ) = λ3 − 1 = (λ − 1)(λ2 + λ + 1). Um c´alculo simples nos d´a como autoespa¸co associado o subespa¸co unidimencional Vλ = [[(1, 1, 1)]]. 8.5. OPERADORES ORTOGONAIS E GEOMETRIA 205 Consideremos o subespa¸co bidimensional formado por todos vetores ortogonais ao vetor v0 = (1, 1, 1), ou seja, Γ = {v ∈ R3 ; v, vo  = 0}. Observe que qualquer vetor nesse subespa¸co bidimensional ´e ortogonal a um vetor do autoespa¸co Vλ = [[v0 ]]. Mostremos que Γ ´e invariante por U. Seja v ∈ Γ. Lembrando-se que U(v0 ) = v0 e que U preserva produto interno, calculemos U(v), v0  = U(v), U(v0 ) = v, v0  = 0. Por defini¸c˜ao de Γ segue que U(v) ∈ Γ. Exerc´ıcios propostos 8.5.1 1. Verifique que cada operador ´e ortogonal U em R3 . Determine um autoespa¸co unidimencional Vλ e um subespa¸co bidimensional Γ invariante. (a) U (x, y, z) = ( √12 x + √1 z, y, − √1 x 2 2 + √1 z). 2 (b) U (x, y, z) = (y, x, z). 2. Todo operador ortogonal em Rn , n ´ımpar, tem um autovalor λ com |λ| = 1. 3. Construa um operador ortogonal U : R3 → R3 que transforma o subespa¸co Γ = {(x, y, z) ∈ R3 ; x − 2y + 2z = 0} no subespa¸co Π = [[(1, 0, 1), (0, 1, 2)]]. ao 4. Dˆe um exemplo de uma aplica¸c˜ao f : R2 → R2 que preserva a norma mas n˜ ´e um operador ortogonal. 5. A esfera unit´ aria canˆ onica em R3 ´e o subconjunto denotado e definido por 2 3 S = {v ∈ R ; v = 1}. Seja U um operador ortogonal em R3 . Mostre as afirma¸c˜oes. (a) A aplica¸c˜ao U0 : S2 → S2 , U0 (v) = U (v), est´a bem definida. (b) U0 : S2 → S2 ´e injetora e sobrejetora. (c) Existe um vetor v ∈ S2 tal que U0 (v) = v ou tal que U0 (v) = −v. 206 CAP´ITULO 8. OPERADORES E PRODUTO INTERNO 6. Considere o operador linear A em R3 , A(x, y, z) = (x− 2z, 2y, −x+ z). Mostre que V = [[e1 , e2 ]] ´e invariante por A. 7. Fixado o vetor u = (1, 1, 1) em R3 . Defina aplica¸c˜ao A : R3 → R2 , A(v) = v − 2 v, u v. u2 (a) Mostre que A ´e um operador linear. (b) Interprete, geometricamente, a transforma¸c˜ao executada no espa¸co por esse operador. (c) Verifique que A ◦ A = Id (d) Mostre que A ´e um operador unit´ ario. 8.6 Operadores ortogonais II* Esse e o pr´oximo cap´ıtulo podem ser dispensado numa primeira leitura. Apresentaremos algumas caracteriza¸c˜oes para operadores ortogonais. Proposi¸c˜ ao 8.6.1 Seja U : Rn → Rn um operador linear. As seguintes afirma¸c˜oes s˜ao equivalentes. 1. U ´e um operador ortogonal. 2. U preserva o produto interno, isto ´e, U(v), U(w) = v, w para quaisquer u, v ∈ Rn . 3. U transforma base ortonormal em base ortonormal. Prova (1. ⇒ 2.) Vamos assumir que U ´e unit´ario. Sejam v, w ∈ Rn . Recordando que U t ◦ U = Id temos U(v), U(w) = U t ◦ U(v), w = v, w. (2. ⇒ 3.) Suponha que U preserva o produto interno. 8.6. OPERADORES ORTOGONAIS II* 207 Seja β = {u1 , ..., un } uma base ortonormal do Rn . Mostremos que U(β) = {U(u1 ), ..., U(un )} ´e um conjunto de vetores unit´arios dois a dois ortogonais. Calculemos, U(ui ), U(uj ) = ui, uj  = δij , onde δij ´e o delta de Kronecker. Pela Proposi¸c˜ao 5.7.1, (pg.124), U(β) ´e uma base ortonormal de Rn . (3. ⇒ 1.) Assuma que U transforma bases ortonormais em bases ortonormais. Sendo assim, o conjunto U(C) = {U(e1 ), U(e2 ), ..., U(en )} ´e uma base orotogonal. Pela Proposi¸c˜ao 8.4.1, U ´e um operador ortogonal. 2 Finalizaremos a se¸c˜ao com uma outra caracteriza¸c˜ao de operadores ortogonais. Proposi¸c˜ ao 8.6.2 Seja U : Rn → Rn um operador linear. As seguintes afirma¸c˜oes s˜ao equivalentes. 1. U ´e um operador ortogonal. 2. U preserva a norma, isto ´e, U(v) = v para qualquer v ∈ Rn . Prova (1. ⇒ 2.) Assuma que U ´e um operador normal. Para todo vetor v ∈ Rn temos U(v)2 = U(v), U(v) = v, U t ◦ U(v) = v, v = v2 . Como a norma de qualquer vetor ´e n˜ao negativa segue que U(v) = v. (2. ⇒ 1.) Assuma que U preserve a norma. Sejam v, w ∈ Rn . Calculemos v − w2 = v − w, v − w = v2 − 2v, w + w2 . Por outro lado, U(v) − U(w)2 = U(v) − U(w), U(v) − U(w) = U(v)2 − 2U(v), U(w) + U(w)2 . Por hip´otese, U ´e um operador linear que preserva a norma, ent˜ao U(v − w)2 = U(v) − U(w)2 = v − w2 . Como U(v) = v e U(w) = (w) obtemos a igualdade U(v), U(w) = v, w. Pela Proposi¸c˜ao 8.6.1, (pg.206), conclu´ımos a demonstra¸c˜ao. 2 CAP´ITULO 8. OPERADORES E PRODUTO INTERNO 208 8.7 Classifica¸ c˜ ao das isometrias* Numa primeira leitura essa se¸c˜ao pode ser omitida. Uma distˆancia num conjunto S ´e uma fun¸c˜ao d : S × S → [0, +∞) satisfazendo as seguintes condi¸c˜oes para quaisquer elementos a, b e c: d1 d(a, b) ≥ 0 e d(a, b) = 0 ⇔ a = b; ( positiva definida) d2 d(a, b) = d(b, a); d3 d(a, b) ≤ d(a, c) + d(c, b). (sim´etrica) (desigualdade triangular) Um conjunto S no qual est´a definida uma distˆancia d ´e chamado de espa¸co m´etrico. Uma fun¸c˜ao bijetiva F : S → S no espa¸co m´etrico S ´e dita ser uma isometria se d(F (a), F (b)) = d(a, b), para quaisquer a e b em S. Em outras palavras, F ´e uma isometria se preserva a distˆancia. ´ aquela O conjunto Rn pode ser equipado com uma distˆancia canˆonica. E que prov´em do produto interno, mais precisamente, prov´em da norma induzida pelo produto interno. A distˆancia canˆonica d : Rn × Rn → [0, +∞) ´e definida por d(v, w) = w − v. As condi¸c˜oes d1 e d2 s˜ao facilmente verificadas. A desigualdade triangular para a norma, demonstrada na Se¸c˜ao 4.2, (pg.74), implica na desigualdade triangular para a distˆancia, d(v, w) = w −v = (w −u)+(u−v) ≤ w −u+u−v = d(v, u)+d(u, w). ´ f´acil exibir isometiras1 em Rn , isometrias relativas a` m´etrica canˆonica. E Uma classe de isometrias ´e formada pelas transla¸c˜oes por v0 ∈ Rn , isto ´e, por fun¸c˜oes do tipo T : Rn → Rn , T (v) = v + v0 . Exerc´ıcio 8.7.1 Mostre as afirma¸c˜oes sobre transla¸c˜oes em Rn . 1 Isometrias do Rn tamb´em s˜ao chamadas de movimentos r´ıgidos ˜ DAS ISOMETRIAS* 8.7. CLASSIFICAC ¸ AO 209 1. Uma transla¸c˜ao por v0 = o n˜ao ´e um operador linear. 2. Uma transla¸c˜ao por v0 ´e invert´ıvel e sua inversa ´e a transla¸c˜ao pelo vetor 2 −v0 . Uma segunda classe de isometria do Rn ´e formada pelos operadores ortogonais. Como sabemos, Proposi¸c˜ao 8.6.2, (pg.207), um operador ortogonal U preserva norma. Sendo assim, para quaisquer v, w ∈ Rn temos d(U(v), U(w)) = U(w) − U(v) = U(w − v) = w − v = d(v, w). Portanto, um operador ortonormal preserva a distˆancia, ele ´e uma isometria. Exerc´ıcio 8.7.2 Mostre que a composta de uma transla¸c˜ao com um operador ortogonal ´e uma isometria. 2 O objetivo dessa se¸c˜ao ´e demonstrar a rec´ıproca do resultado enunciado no exerc´ıcio acima. Iremos demonstrar que uma isometria do Rn ´e uma composi¸c˜ao de uma transla¸c˜ao com um operador ortogonal. Para isso precisamos caracterizar fun¸c˜oes que preservam produto interno. Diz-se que uma fun¸c˜ao f : Rn → Rn preserva o produto interno se, e somente se, f (v), f (w) = v, w, para quaisquer u, v ∈ Rn . A propriedade de preservar o produto interno ´e extremamente r´ıgida, somente os operadores ortogonais tˆem essa propriedade. Lema 8.7.1 Seja f : Rn → Rn uma aplica¸c˜ao. As seguintes afirma¸c˜oes s˜ao equivalentes. 1. f ´e um aplica¸c˜ao que preserva o produto interno. 2. f ´e um operador ortogonal. Prova (1. ⇒ 2.) Assuma que f preserva o produto interno. Calculemos, f (ei ), f (ej ) = ei , ej  = δij . Pela Proposi¸c˜ao 5.7.1, o conjunto β = {f (e1 ), f (e2 ), ..., f (en )} ´e uma base ortonormal de Rn . CAP´ITULO 8. OPERADORES E PRODUTO INTERNO 210 Seja v = (x1 , x2 , ..., xn ) ∈ Rn . Como β ´e uma base existem esclares (´ unicos) a1 , a2 ,...,an tais que f (x1 , x2 , ..., xn ) = a1 f (e1 ) + a2 f (e2 ) + · · · + an f (en ). Novamente, como f preserva o produto interno temos xi = = = = v, ei  f (v), f (ei) a1 f (e1 ), f (ei) + · · · + ai f (ei ), f (ei) + · · · + an f (en ), f (ei ) ai . Sendo assim, f (x1 , x2 , ..., xn ) = x1 f (e1 ) + x2 f (e2 ) + · · · + xn f (en ). Mas ´e assim que constru´ımos operadores lineares. (pg.199), conclu´ımos a demonstra¸c˜ao da implica¸c˜ao. Pela Proposi¸c˜ao 8.4.1, (2. ⇒ 1.) Veja Proposi¸c˜ao 8.6.1, (pg.206). 2 Teorema 8.7.1 (Classifica¸ c˜ ao das isometrias) Seja F : Rn → Rn um aplica¸ca˜o. F ´e uma isometria se, e somente se, F = T ◦ U onde T e U s˜ ao uma transla¸c˜ao e um operador ortogonal do Rn , respectivamente. Prova Suponha que F ´e uma isometria do Rn . Defina a aplica¸c˜ao U = T −1 ◦F , onde T ´e a transla¸c˜ao T (v) = v−F (o). Observe que U(o) = o. A aplica¸c˜ao U tamb´em ´e uma isometria. Para demonstrar essa afirma¸c˜ao, examinemos as igualdades, para quaisquer v e w em Rn , U(v) − U(w) = = = = F (v) − F (o) − F (w) + F (o) d(F (w), F (v)) d(w, v) v − w. Isso significa que d(U(w), U(v)) = d(w, v), como desej´avamos verificar. Em particular, temos v = d(v, o) = d(U(v), U(0)) = U(v), portanto, U preserva a norma. ˜ 8.8. RESPOSTAS E SUGESTOES 211 A igualdade U(v) − U(w) = v − w implica que U preserva o produto interno. Sen˜ao vejamos. Calculemos v − w2 = v − w, v − w = v2 − 2v, w + w2 . Por outro lado, U(v) − U(w)2 = U(v) − U(w), U(v) − U(w) = U(v)2 − 2U(v), U(w) + U(w)2 . Como U ´e uma aplica¸c˜ao que preserva a norma e U(v) − U(w)2 = v − w2, segue a igualdade U(v), U(w) = v, w, isto ´e, U preserva o produto interno. Pela Lema 8.7.1, (pg.209), a aplica¸c˜ao U ´e um operador ortogonal, portanto, F = T ◦ U, onde T ´e uma transla¸c˜ao e U um operador ortogonal, como desej´avamos demonstrar. 2 A rec´ıproca fica como exerc´ıcio. 8.8 Respostas e sugest˜ oes Se¸ c˜ ao 8.1 1) Considere a matriz [A]t e recupere o operador At . (a) At (x, y, z) = (y, z, x). (b) At = A. (c) At (x, y, z) = (x + y + z, y + z, z). (c) At (x, y, z) = (x + 2y + z, x − 2y − z, −x + y). 2) (c) v, A(B(w)) = At (v), B(w) = B t (At (v))v, w), ou seja, (A ◦ B)t = B t ◦ At . 3) Suponha que v ∈ N uc(At ) e w ∈ Im(A). Sendo assim, w = A(u), para algum vetor u. Calculando, v, w = v, A(u) = At (v), u = o, u = 0. 4) A demonstra¸c˜ao ´e semelhante `a do item anterior. t 5) Como [Id]t = [Id], temos (λ[Id] − [A]) = (λ[Id] − [A]t ). Sabendo-se que o determinante de uma matriz ´e igual ao determinante de sua tranposta, Proposi¸c˜ao 2.1.2, (pg.28), segue a afirma¸c˜ao. CAP´ITULO 8. OPERADORES E PRODUTO INTERNO 212 Se¸ c˜ ao 8.2 1) Todos s˜ao operadores normais. (a) At ◦ A = 9Id = A ◦ At . ario). (b) B t ◦ B = Id = B ◦ B t (unit´ (c) C t = C (sim´etrico). 2) Verifica-se matricialmente. (a) At = −A, logo, A ◦ At = −A2 = At ◦ A. (b) A ◦ At = Id = At ◦ A, ou seja, A ´e um operador ortogonal. (c) N˜ ao ´e normal. 3 Verifica-se matricialmente. (a) A ◦ At (x, y, z) = (2x, y, 2z) = At ◦ A(x, y, z) e det[A] = 2. t t (b) A−1 ◦ A−1 (x, y, z) = (2x, y, 2z) = A−1 ◦ A−1 (x, y, z). 4) Pela equa¸c˜ao (8.2), (pg.188), temos A(v)2 = At (v)2 . Logo, A(v) = o ⇔ At (v) = o. 5) t t (a) B t = (A + At ) = At + At = At + A = B. t (b) B t = (A ◦ At )t = At ◦ At = A ◦ At = B. (c) Considere a composta A◦A−1 = Id. Calculando a transposta dessa composi¸c˜ao t t obtemos A−1 ◦ A = Id, ou seja A−1 = A−1 . 6) (a) A defini¸c˜ao implica que U ´e invert´ıvel e U t = U −1 . (b) Pela Proposi¸c˜ao 2.1.2, sabemos que det[U ] = det[U ]t . A afirma¸c˜ao segue de   1 = det[Id] = det [U ] ◦ [U ]t = det[U ] det[U ]t = (det[U ])2 . 7) (a) At ◦ A = −A2 = A ◦ At . (b) det[A] = det[A]t = det(det −[A]) = (−1)n det[A]. Se n ´e ´ımpar, ent˜ ao det[A] = − det[A]. Isso implica que det[A] = 0. Logo, A n˜ ao ´e invert´ıvel. (c) A(x, y) = (−y, x) ´e anti-sim´etrico e det[A] = −1, portanto, invert´ıvel. t (d) At = (B − B t )t = B t − B t = B t − B = −A. (e) Matricialmente, temos a igualdade [A]t = −[A]. Como as entradas das diagonais de ambas matrizes s˜ao iguais, segue que essas entradas s˜ao nulas, pois aii = −aii . 8) ˜ 8.8. RESPOSTAS E SUGESTOES (a) Falsa. 213 (b) Verdadeira. (c) Falsa. Se¸ c˜ ao 8.3 1) Cada operador linear ´e sim´etrico, pois sua matriz ´e sim´etrica. Para cada operador, apresentamos o polinˆ omio caracter´ıstico decomposto em fatores lineares e uma base espectral de R2 relativa ao operador considerado. ($ % $ %) −1 √1 √1 , √1 √ β= (a) p(λ) = (λ − 16)(λ − 4), , , . 2 2 2 2 ($ (b) p(λ) = (λ − 12)(λ − 2), β= (c) p(λ) = (λ − 8)(λ − 4), β= (d) p(λ) = (λ − 0)(λ − 10), β= ($ ($ −2 √1 , √ 5 5 % $ %) , √25 , √15 . √1 , √1 2 2 % $ %) −1 √1 , √ . , 2 2 −1 √3 √ , 10 10 % $ %) , √−3 . , √−1 10 10 2) Compare com a quest˜ao acima. Somente o operador linear do item (d) n˜ ao ´e invert´ıvel pois tem um autovalor igual a zero. Isso significa que o operador tem n´ ucleo n˜ ao trivial. O restante dos operadores s˜ ao invert´ıveis e, ´e claro, sim´etricos. Para cada item na qual o operador ´e invert´ıvel, uma base espectral para A−1 pode ser a mesma para A. Os autovalores de A−1 s˜ao os inversos multiplicativos dos autovalores de A. 3) Cada operador linear ´e sim´etrico, pois sua matriz ´e sim´etrica. Para cada operador, apresentamos o polinˆ omio caracter´ıstico decomposto em fatores lineares e uma base espectral de R3 relativa ao operador considerado. ) ( (a) p(λ) = (λ − 1)(λ − 2)(λ + 2), β = e2 , √12 (1, 0, 1) , √12 (−1, 0, 1) . ( (b) p(λ) = (λ − 0)(λ − 2)(λ + 1), β= (c) p(λ) = (λ − 0)(λ − 0)(λ − 10), β= (d) p(λ) = (λ + 7)(λ + 7)(λ − 2), β = {e1 , e2 , e3 }. ( √1 2 (1, 0, −1) , √1 10 √1 2 ) (1, 0, 1) , e2 . (−3, 1, 0) , e3 , √1 10 ) (1, 3, 0) . 4) N˜ao existe. Caso contr´ ario, v1 = (1, 2) e v2 = (1, 1) seriam autovetores associados aos autovalores λ1 = 3 e λ2 = −2. Pelo Lemma 8.3.1, (pg.192), v1 e v2 deveriam ser ortogonais, mas isso n˜ao ocorre. 5) Utilize a constru¸c˜ao apresentada na Se¸c˜ao 7.2, (pg.168). (a) Observe que os vetores v1 = (−2, 1) e v2 = (1, 2) s˜ao ortogonais, portanto, uma base de R2 . O operador linear sim´etrico procurado ´e A(x, y) = formam 14 2 2 11 5 x + 5 y, 5 x + 5 y . CAP´ITULO 8. OPERADORES E PRODUTO INTERNO 214 (b) Os vetores v1 = (3, 1) e v2 = (−1, 3) s˜ao ortogonais, portanto, formam uma base  1  3 1 3 de R2 . O operador sim´etrico procurado ´e A(x, y) = − 10 x + 10 y, 10 x − 10 y . (c) Como A(1, 2) = 2(1, 2) devemos definir num vetor perpendicular, digamos descrito na Se¸ v2 = (−2, 1) o valor A(−2, 1) = −(−2, 1). Pelo processo c˜ao  7.2, (pg.168), o operador linear procurado ´e A(x, y) = − 52 x + 65 y, 65 x − 75 y . 6) O polinˆ omio caracter´ıstico da identidade ´e p(λ) = (λ−1)n . Todos os n autovalores s˜ ao iguais a λ = 1 e todos os vetores do Rn s˜ao autovetores associados, isto ´e, Vλ = Rn . 7) O operador linear ´e A(x, y, z) = (−4x − 2y − 2z, −2x + y + z, −2x + y + z). (a) Verifica-se matricialmente que A ´e sim´etrico. (b) O autoespa¸co correspondente ao autovalor λ1 = 6 = v0  ´e Vλ1 = [[v0 ]]. O autoespa¸co correspondente ao autovalor λ2 = 0 (com repeti¸c˜ao 2) ´e Vλ2 = [[(1, 2, 0), (0, 1, −1)]]. Observe que os vetores desse u ´ltimo autospa¸co s˜ao perpendiculares ao vetor v0 . 8) Utilize diretamente a defini¸c˜ao de operador sim´etrico. (a) Verifica-se que v, A(w) = v, vo  w, vo  = A(v), w, ∀ v, w ∈ Rn . (b) Os autovalores s˜ ao λ = v0  e λ = 0 com repeti¸c˜ao n − 1. Agora, Vλ1 = [[v0 ]] e Vλ2 = {v ∈ Rn ; v, vo  = 0}. t 9) O operador A = B t ◦ B ´e sim´etrico, pois At = (B t ◦ B)t = B t ◦ B t = B t ◦ B = A. Sendo assim, pelo Teorema espectral, as ra´ızes do polinˆ omio caracter´ıstico de A s˜ao reais. Seja λ um autovalor e v um autovetor associado. Calculemos, λv2 = v, A(v) = v, B t ◦ B(v) = B(v), B(v) = B(v)2 ≥ 0. Como v ≥ 0, pois ´e um autovetor, segue que λ ≥ 0. 10 Se A ´e invert´ıvel ent˜ ao um autovetor de A associado a um autovalor λ ´e um autovetor de A−1 associado ao autovalor λ1 . Logo, uma base espectral para A ´e uma base espectral para A−1 . Se¸ c˜ ao 8.4 1) O Exemplo 8.4.1, (pg.199), descreve todas maneiras de construir operadores ortogonais em R2 . √ (a) Considerando v = (− 23 , 12 ) obtemos um operador ortogonal U cuja matriz canˆonica tem determinante igual a 1 e polinˆ omio caracter´ıstico p(t) = λ2 −λ+1, sem ra´ızes reais. √ (b) Considerando w = ( 23 , − 12 ) = −v obtemos um operador ortogonal e sim´etrico. omio caracter´ıstico U2 cuja matriz canˆonica tem determinante igual a −1 e polinˆ p(t) = λ2 − 1 = (λ − 1)(λ + 1). √ Os autoespa¸cos associados√a λ = 1 e a λ = −1 s˜ao, respectivamente, Vλ1 = [[( √53 , √15 )]] e Vλ2 = [[(− √15 , √35 )]]. Os geradores formam uma base espectral para U2 . ˜ 8.8. RESPOSTAS E SUGESTOES 215 2) Novamente, utilizamos o Exemplo 8.4.1. Quando o operador ortogonal U ´e da forma U (x, y) = (cos t x − sen t y, sen t x + cos t y), para algum t ∈ [0, 2π), o determinante ´e igual a 1 e o o polinˆ omio caracter´ıstico ´e p(λ) = λ2 − 2cos t λ + 1 com discriminante 2 ∆ = 4cos t − 4 ≤ 0. Portanto, para todo t ∈ (0, 2π) o operador n˜ ao tem autovalor, exceto quando t = 0 e nesse caso U = Id e todo vetor do R2 ´e autovetor. Quando o operador ortogonal U ´e da forma U (x, y) = (cos t x+sen t y, sen t x−cos t y), para algum t ∈ [0, 2π), ele ´e tamb´em um operador sim´etrico. O determinante ´e igual a −1 e o polinˆ omio caracter´ıstico ´e p(λ) = λ2 − 1 = (λ − 1)(λ + 1). Portanto, sempre tem autovalores. 3) Todos s˜ao operadores ortogonais. 4) (a) Como v e w s˜ao unit´arios e ortogonais, temos v × w = v wsen π2 = 1. Por outro lado, valem as igualdades v, v × w = 0 = w, v × w. Pela Proposi¸c˜ao 5.7.1, (pg.124), podemos concluir que β = {v, w, v × w} ´e uma base ortonormal de R3 . (b) Utilize a Proposi¸c˜ao 8.2.1, (pg.189). (c) Utilize o Corol´ ario 7.1.1, (pg.166). 5) Sejam U1 e U2 operadores ortogonais em Rn . Calculemos (U1 ◦ U2 )t ◦ (U1 ◦ U2 ) = (U2t ◦ U1t ) ◦ (U1 ◦ U2 ) = U2t ◦ Id ◦ U2 = U2t ◦ U2 = Id. Se¸ c˜ ao 8.5 1) A solu¸c˜ao segue o roteiro utilizado no Exemplo 8.5.1, (pg.204). (a) O operador ´e ortogonal, veja Proposi¸ omio carac√c˜ao 8.4.1, (pg.199). O polinˆ ´ nico ter´ıstico de U ´e p(λ) = (λ − 1)(λ2 − 2λ + 1). Autoespa¸co associado ao u autovalor λ1 = 1: V = [[(e2 ]]. Subespa¸co bidimensional invariante e ortogonal a esse autoespa¸co: Γ = [[e1 , e3 ]]. (b) Observe que o operador, al´em de ortogonal, ´e sim´etrico. O polinˆ omio caracter´ıstico ´e p(λ) = (λ − 1)2 (λ + 1).++$Escolhendo%,, o autovalor λ1 = 1 temos o √1 , √1 , 0 . Espa¸co bidimensional inautoespa¸co unidimensional Vλ1 = 2 2 ,, ++$ % √1 , − √1 , 0 , e3 . Os geradores formam uma base espectral variante: Γ = 2 2 para U . 2) O polinˆ omio caracter´ıstico p(λ) de um operador U em Rn tem grau n. Se n ´e ´ımpar, ent˜ ao p(λ) tem pelo menos uma raiz real. Seja v um autovetor associado ao autovalor λ. Como U preserva norma, temos v = U (v) = |λ|v, logo, |λ| = 1. 3) Utilizaremos a constru¸c˜ao de operadores apresentada na Se¸c˜ao 7.2, (pg.168). Escol´ ltimos hemos duas bases ortonormais do R3 : i) α = {v1 , v2 , v3 } ´e tal que os dois u elementos formam uma base para Γ e o primeiro elemento, ´e claro, ´e um vetor nor´ltimos elementos formam mal a esse subespa¸co; ii) β = {w1 , w2 , w3 } tal que os dois u 216 CAP´ITULO 8. OPERADORES E PRODUTO INTERNO uma base para Π e o primeiro ´e um vetor normal a esse subespa¸co. Feito isso, considere o operador definido pela matriz [U ] = [B] [A]−1 , onde [A] = [v1 , v2 , v3 ] e [B] = [w1 , w2 , w3 ]. U ´e ortogonal, pois A e B o s˜ao, Proposi¸c˜ao 8.4.1, (pg.199). 4) f (v) = (v, 0) ´e uma aplica¸c˜ao que preserva norma mas n˜ ao ´e um operador linear. 5) (a) Dado um vetor v ∈ S2 temos U (v) = v = 1, ent˜ ao U0 (v) ∈ S2 . (b) Segue do fato de U0 ser invert´ıvel. (c) Escolha um autovalor λ tal que |λ| = 1 e um autovetor unit´ ario associado v. Sendo assim, A(v) = v ou A(v) = −v. 6) Um vetor v = (a, b, c) pertence ao subespa¸co V se, e somente se, a segunda coordenada for igual a 0. Verifique que A(a, 0, c) tem a segunda coordenada igual a zero. 7) (b) Reflex˜ ao em torno do subespa¸co Γ = {(x, y, z) ∈ R3 ; x + y + z = 1}. Cap´ıtulo 9 Formas bilineares Nesse cap´ıtulo estudaremos formas bilineares, uma generaliza¸c˜ao do conceito de produto interno. O estudo tem como objetivo principal apresentar formas quadr´aticas para futura utiliza¸c˜ao na classifica¸c˜ao de cˆonicas e qu´adricas. 9.1 Funcionais lineares Um funcional linear em Rn ´e uma aplica¸c˜ao f : Rn → R tal que f (v + λw) = f (v) + λf (w), para quaisquer vetores v, w ∈ Rn e para qualquer escalar λ ∈ R. Os termos funcional linear e forma linear tˆem o mesmo significado. Utilizando a identifica¸c˜ao de R com R1 , um funcional linear no Rn ´e uma transforma¸c˜ao linear. Sendo assim, um funcional linear ´e expresso como f (x1 , x2 , ..., xn ) = a1 x1 + a2 x2 + · · · + an xn . Para constru´ırmos funcionais lineares em Rn ´e suficiente escolher um vetor v0 ∈ Rn e definir f : Rn → R, f (v) = v, v0 , onde  ,  denota o produto interno. De fato, f ´e um funcional linear, pois f (v + λw) = v + λw, v0  = v, v0  + λw, v0  = f (v) + λf (w). 217 CAP´ITULO 9. FORMAS BILINEARES 218 Por exemplo, escolhido o vetor v0 = (2, −4, 1) ∈ R3 , definimos o funcional linear f : R3 → R por f (x, y, z) = (x, y, z), (2, −4, 1) = 2x − 4y + z. Vale ressaltar que recuperamos o vetor v0 selecionando os coeficientes das vari´aveis do funcional linear, v0 = (f (e1 ), f (e2 ), f (e3 )). Por outro lado, a matriz de f ´e matriz 1 × 3 [f ] = [f (e1 ), f (e2 ), f (e3 )] = [2 − 4 1]. A constru¸c˜ao apresentada acima admite a rec´ıproca. Dado o funcional linear f : R3 → R f (x, y, z) = −x + 2y + 3z, ´e imediato determinar o vetor v0 tal que f (v) = v, v0, para isso, basta considerar o vetor cujas coordenadas s˜ao os coeficientes das vari´aveis, respeitando-se a ordem das vari´aveis, v0 = (−1, 2, 3) = (f (e1 ), f (e2 ), f (e3 )). Em geral, essa apresenta¸c˜ao de um funcional linear f em Rn utilizando produto interno sempre ´e poss´ıvel. Deixaremos como exerc´ıcio o Teorema 9.1.1 (Representa¸c˜ ao de um funcional linear) Para cada funn cional linear f : R → R existe um u ´nico vetor vf ∈ Rn tal que f (v) = v, vf , para todo v ∈ Rn . Reciprocamente, cada vetor v0 ∈ Rn define um funcional linear por g(v) = v, v0 . Mais ainda, se f e g s˜ao um funcionais lineares diferentes ent˜ ao vf = vg . Sugest˜ ao para a prova Defina vf = (f (e1 ), f (e2 ), ..., f (en )). 2 O teorema garante que existem tantos funcionais lineares no Rn quantos s˜ao os vetores do Rn . Exerc´ıcios propostos 9.1.1 1. Determine uma base para o n´ ucleo de cada funcional linear. (a) f : R2 → R, f (x, y) = −3x + 2y. (b) f : R2 → R, f (v) = v, v0 , onde v0 = (1 − 1). 9.2. FORMAS BILINEARES 219 (c) f : R3 → R, f (x, y) = −x + y + z. (d) f : R3 → R, f (v) = v, v0 , onde v0 = (1, 0, 1). 2. Construa um funcional linear cujo n´ ucleo est´a indicado. (a) f : R2 → R, N uc(f ) = [[(1, 3)]]. (b) f : R2 → R, N uc(f ) = {(x, y) ∈ R2 ; x − 2y = 0}. (c) f : R3 → R, N uc(f ) = [[(1, −2, 1), (2, 1, 1)]]. (d) f : R3 → R, N uc(f ) = {(x, y, z) ∈ R3 ; x − y + z = 0}. 3. Mostre que um funcional linear f no Rn ´e identicamente nulo ou sobrejetor, condi¸c˜oes mutuamente exclusivas. 4. Qual a dimens˜ ao do n´ ucleo de um funcional linear f n˜ ao identicamente nulo em Rn ? 5. Mostre que dados dois vetores distintos v0 e w0 em Rn , existe um funcional linear f : Rn → R tal que f (v0 ) = f (w0 ). 9.2 Formas bilineares Uma forma bilinear g em Rn ´e uma aplica¸c˜ao g : Rn × Rn → R possuindo as seguintes propriedades, para quaisquer vetores u, v, w ∈ Rn e para qualquer escalar λ ∈ R: 1. g(u + λv, w) = g(u, w) + λg(v, w); 2. g(u, v + λw) = g(u, v) + λg(u, w). Em outras palavras, g ´e uma forma bilinear quando fixado v0 ∈ Rn , a aplica¸c˜ao fv0 : Rn → R, fv0 (w) = g(v0, w), ´e um funcional linear e fixado w0 ∈ Rn a aplica¸c˜ao fw0 : Rn → R, tamb´em ´e um funcional linear. fw0 (w) = g(v, w0), CAP´ITULO 9. FORMAS BILINEARES 220 O produto interno do Rn ´e um exemplo de forma bilinear com a qual temos trabalhado ao longo do texto, g : Rn × Rn → R, g(v, w) = v, w. Existem muitas outras formas bilineares e ´e f´acil contru´ı-las utilizando o produto interno e operadores lineares do Rn . Vejamos essa constru¸c˜ao. Dado um operador linear A : Rn → Rn , defina a aplica¸c˜ao, g : Rn × Rn → R, . g(v, w) = v, A(w) . Verifiquemos que g satisfaz as condi¸c˜oes exigidas na defini¸c˜ao de forma bilinear em Rn . Sejam u, v, w ∈ Rn e λ ∈ R. . g(u + λv, w) = u + λv, A(w) . . = u, A(w) + λ v, A(w) = g(u, w) + λg(v, w). . g(u, v + λw) = u, A(v + λw) . = u, A(v) + λA(w) . . = u, A(v) + λ u, A(w) = g(u, v) + λg(u, w). Um exemplo num´erico deixar´a a constru¸c˜ao mais clara. Exemplo 9.2.1 Considere a forma bilinear g : R2 × R2 → R, . g(v, w) = v, A(w) , onde A : R2 → R2 , A(x, y) = (x − 2y, x + y). Calculemos g(v, w) em termos das coordenadas dos vetores. Se v = (x1 , y1 ) e w = (x2 , y2 ) ent˜ao . g(v, w) = (x1 , y1 ), (x2 − 2y2 , x2 + y2 ) = x1 x2 − 2x1 y2 + y1 x2 + y1 y2 . 9.2. FORMAS BILINEARES 221 O ponto importante ´e recuperar o operador linear A, conhecida uma express˜ao para g em termos das coordenadas dos vetores. Na verdade, podemos recuperar imediatamente a matriz canˆonica [A] = [aij ], pois, pelo Exerc´ıcio 6.3.2, (pg.146), g(ei, ej ) = ei , A(ej ) = aij . Portanto,  [A] = [g(ei, ej )] = 1 −2 1 1  . Se conhecemos essa matriz, conhecemos o operador linear A. 2 O operador linear envolvido no caso particular do produto interno ´e a . identidade do Rn , g(v, w) = v, w = v, Id(w) . Exemplo 9.2.2 Considere a aplica¸c˜ao g : R3 × R3 → R, g(v, w) = 3x1 z2 − y1 y2 + 4z1 y2 − x1 y2 . onde v = (x1 , y1, z1 ) e w = (x2 , y2 , z2 ). Para mostrar que essa aplica¸c˜ao ´e uma forma bilinear, podemos aplicar diretamente a defini¸c˜ao, entretanto, observando que . g((x1 , y1 , z1 ), (x2 , y2, z2 )) = (x1 , y1, z1 ), (−y2 + 3z2 , −y2 , 4y2) , definimos o operador linear A : R3 → R3 , A(x, y, z) = (−y + 3z, −y, 4y), e reescrevemos g como . g(v, w) = v, A(w) . Como vimos, g ´e uma forma bilinear. Novamente, o fato importante ´e o c´alculo 2 das entradas aij de [A]. Teorema 9.2.1 (Representa¸c˜ ao de uma forma bilinear) Para cada forma n bilinear g em R existe um u ´nico operador linear A em Rn tal que . g(v, w) = v, A(w) , para quaisquer v, w ∈ Rn . O operador ´e aquele cuja matriz ´e [A] = [aij ] em que aij = g(ei, ej ). n Reciprocamente, cada . operador linear B em R define uma forma bilinear por g(v, w) = v, B(w) . Mais ainda, se g e f s˜ao formas bilineres distintas ent˜ ao os operadores associados s˜ ao distintos. 222 CAP´ITULO 9. FORMAS BILINEARES Prova Mostremos o teorema para formas bilineares g em R2 , a concep¸c˜ao para dimens˜oes maiores ´e a mesma. Dados os vetores v = x1 e1 + y1 e2 e w = x2 e1 + y2 e2 , avaliemos o valor de g nesses vetores. Pela linearidade em cada vari´avel, seguem as igualdades envolvendo o produto interno, g(v, w) = g(e1 , e1 )x1 x2 + g(e1 , e2 )x1 y2 + g(e2 , e1 )y1 x2 + g(e2 , e2 )y1 y2 = (x1 , y1 ), (g(e1, e1 )x2 + g(e1 , e2 )y2 , g(e2, e1 )x2 + g(e2 , e2 )y2 ) = v, A(w), onde A : Rn → R2 ´e o u ´ nico operador linear cuja matriz na base canˆ onica ´e   g(e1 , e1 ) g(e1, e2 ) [A] = . g(e2 , e1 ) g(e2, e2 ) A rec´ıproca j´a foi demonstrada no in´ıcio da se¸c˜ao. Deixaremos como exerc´ıcio a demonstra¸c˜ao que se g e f s˜ao formas bilineres distintas ent˜ao os operadores associados s˜ao distintos. 2 O operador linear citado no enuncidado ´e chamado de operador que representa a forma bilinear g. O teorema garante que existem tantas formas bilineares no Rn quantos s˜ao os operadores lineares no Rn . ´ conveniente utilizarmos matrizes para simplificar c´alculos e detetar proE priedade de formas bilineares. Examinemos a forma bilinear g em R3 , g(v, w) = 2x1 x2 + 4x1 z2 − y1 x2 + y1 y2 + z1 y2 − 3z1 z2 . = (x1 , y1 , z1 ), (2x2 + 4z2 , −x2 + y2 , y2 − 3z2 ) . = v, A(w) , onde v = (x1 , y1 , z1 ) e w = (x2 , y2 , z2 ) e A : R3 → R3 ´e o operador linear definido por A(x, y, z) = (2x + 4z, −x + y, y − 3z). Poder´ıamos ter computado o operador constru´ındo sua matriz [A] = [g(ei , ej )]. Entretanto, observe que podemos reescrever a forma bilinear como um produto de trˆes matrizes ⎡ ⎤⎡ ⎤ 2 0 4 x 2 0 / 0 ⎦ ⎣ y2 ⎦ , g(v, w) = v, A(w) = x1 y1 y1 ⎣ −1 1 z2 0 1 −3 9.2. FORMAS BILINEARES 223 ou seja, g(v, w) = [v]t [A] [w], onde [v]t indica transposta da matriz coluna [v]. O segundo membro dessa igualdade ´e uma matriz 1 × 1, mas estamos identificando-a com um n´ umero real. Exemplo 9.2.3 Examinemos a forma bilinear g em R3 definida por g(v, w) = −x1 x2 + 3x1 y2 + 45x1 z2 + y1 x2 − 3y1y2 − 5z1 x2 + 7z1 y2 − 21z1 z2 . onde v = (x1 , y1 , z1 ) e w = (x2 , y2, z2 ) s˜ao vetores de R3 . ´ simples construir a matriz do operador linear A que representa a forma biE linear g, pois o valor g(ei, ej ) ´e o coeficiente de uma parcela da soma que define g. Por exemplo, g(e3 , e1 ) = −5 ´e o coeficiente do termo z1 x2 e, como sabemos, [A] = [aij ] em que aij = g(ei , ej ). Para orientar a constru¸c˜ao, indexamos a entrada da matriz [A] pela parcela da forma quadr´arica correspondente, ⎤ ⎡ ⎡ ⎤ 3 x 1 y2 45x1 z2 −1x1 x2 −1 3 45 0y1 z2 ⎦ = ⎣ 1 −3 0 ⎦. [A] = ⎣ 1y1 x2 −3y1 y2 −5z1 x2 7z1 y2 −21z1 z2 −5 7 −21 Dessa matriz obtemos o operador linear A que representa g. 2 Exerc´ıcios propostos 9.2.1 1. Represente matricialmente a forma bilinear g : R2 × R2 → R. Em outras palavras, determine um operador linear A em Rn tal que g(v, w) = [v]t [A] [w]. (a) g((x1 , y1 ), (x2 , y2 )) = x1 y2 . (b) g((x1 , y1 ), (x2 , y2 )) = −x1 y2 − 2y1 x2 + y1 y2 . (c) g((x1 , y1 ), (x2 , y2 )) = 2x1 x2 − y1 y2 . (d) g((x1 , y1 ), (x2 , y2 )) = 4y1 x2 . (e) g((x1 , y1 ), (x2 , y2 )) = (x1 − 3y1 )(2x2 − y2 ). 2. Represente matricialmente a forma bilinear g : R3 × R3 → R. (a) g ((x1 , y1 , z1 ), (x2 , y2 , z2 )) = y1 z2 + z1 y2 . (b) g ((x1 , y1 , z1 ), (x2 , y2 , z2 )) = 3x1 y2 − x1 z2 + y1 x2 + y1 z2 − 2z1 y2 . CAP´ITULO 9. FORMAS BILINEARES 224 (c) g ((x1 , y1 , z1 ), (x2 , y2 , z2 )) = (x1 − 2y1 )(x2 − z2 ). (d) g ((x1 , y1 , z1 ), (x2 , y2 , z2 )) = x1 x2 +x1 z2 −y1 y2 −2y1 z2 +z1 x2 −z1 y2 +4z1 z2 . (e) g ((x1 , y1 , z1 ), (x2 , y2 , z2 )) = 2x1 x2 − 3x1 y2 + y1 z2 + 4z1 y2 . 3. A aplica¸c˜ao g : R3 × R3 → R, g ((x1 , y1 , z1 ), (x2 , y2 , z2 )) = x21 + y12 + z12 , ´e uma forma bilinear? 9.3 Formas bilineares sim´ etricas Uma forma bilinear g em Rn ´e dita sim´etrica se g(v, w) = g(w, v), para quaisquer v, w ∈ Rn . O exemplo mais simples de uma forma bilinear sim´etrica em Rn ´e o produto interno, pois g(u, v) = v, w = w, v = g(w, v), em que v = (x1 , y1, z1 ) e w = (x2 , y2 , z2 ) s˜ao vetores de R3 . Exerc´ıcio 9.3.1 A forma bilinear g : R2 × R2 → R, g((x1 , y1 ), (x2 , y2 )) = x1 y2 + x2 y1 , ´e sim´etrica, pois g(v, w) = v, A(w) onde o operador linear A : R2 → R2 que a representa, A(x, y) = (y, x), ´e sim´etrico, propriedade identificada pela matriz   0 1 [A] = . 1 0 De fato, pela defini¸c˜ao de operador linear sim´etrico dada na Se¸c˜ao 8.3, (pg.192), temos . . . g(v, w) = v, A(w) = A(v), w = w, A(v) = g(w, v). Detetar quando uma forma bilinear ´e sim´etrica examinando o operador que a representa ´e um procedimento geral. 2 ´ 9.3. FORMAS BILINEARES SIMETRICAS 225 Seja A : Rn → Rn o operador linear que representa a forma bilinear g, veja Proposi¸c˜ao 9.2.1, (pg.221). Sendo assim, g ´e sim´etrica se, e somente se, A ´e sim´etrico. Essa afirma¸c˜ao tem uma verifica¸c˜ao simples. Pelas defini¸c˜oes, temos v, A(w) = g(v, w) = g(w, v) = w, A(v). Como v, A(w) = w, A(v) = A(v), w, segue que A ´e um operador sim´etrico, Se¸c˜ao 8.3. Portanto, g ´e uma forma bilinear sim´etrica se, e somente se, sua matriz [A] ´e sim´etrica. Exerc´ıcio 9.3.2 Mostre que se g ´e uma forma bilinear em Rn ent˜ao a aplica¸c˜ao h : Rn × Rn → R definida por h(v, w) = 12 (g(v, w) + g(w, v)) ´e uma forma bilinear sim´etrica. Se A ´e o operador que representa g, qual o operador B que representa h?2 Exerc´ıcios propostos 9.3.1 1. Verifique quais das aplica¸c˜oes g : R2 × R2 → R ´e uma forma bilinear. Caso a resposta seja afirmativa, verifique se ela ´e sim´etrica. (a) g ((x1 , y1 ), (x2 , y2 )) = x1 y2 + x2 y1 (b) g ((x1 , y1 ), (x2 , y2 )) = x1 x2 − 2x1 y2 − 2y1 x2 + y1 y2 . (c) g ((x1 , y1 ), (x2 , y2 )) = −2x1 y2 − y1 x2 + y1 y2 . (d) g ((x1 , y1 ), (x2 , y2 )) = 2x1 + 3y1 . (e) g ((x1 , y1 ), (x2 , y2 )) = (x1 + y1 )(x2 + y2 ). 2. Verifique quais das aplica¸c˜oes g : R3 × R3 → R ´e uma forma bilinear. Caso a resposta seja afirmativa, verifique se ela ´e sim´etrica. (a) g ((x1 , y1 , z1 ), (x2 , y2 , z2 )) = x1 z2 + y1 y2 + z1 x2 . (b) g ((x1 , y1 , z1 ), (x2 , y2 , z2 )) = x1 x2 + y1 y2 + z1 z2 . (c) g ((x1 , y1 , z1 ), (x2 , y2 , z2 )) = x1 x2 + x1 z2 + y1 y2 + y1 z2 + 2z1 x2 − z1 − z2 . (d) g ((x1 , y1 , z1 ), (x2 , y2 , z2 )) = x1 y2 z1 . (e) g ((x1 , y1 , z1 ), (x2 , y2 , z2 )) = (x1 + y1 + z1 )(x2 + y2 + z2 ). 226 CAP´ITULO 9. FORMAS BILINEARES . 3. Seja B um operador em Rn . Mostre que g(v, w) = B(v), B(w) ´e uma forma bilinear sim´etrica em Rn . Qual o operador linear que representa essa forma bilinear? . 4. Seja g(v, w) = v, A(w) uma forma bilinear sim´etrica em Rn . Se β = {v1 , v2 , ..., vn } ´e uma base espectral do operador sim´etrico A, determine os poss´ıveis valores de g(vi , vj ). 5. Diz que uma forma bilinear g em Rn ´e anti-sim´etrica se g(v, w) = −g(w, v) para quaisquer vetores v e w em Rn . Mostre que se g ´e anti-sim´etrica ent˜ao o operador linear A que a representa ´e um operador anti-sim´etrico. 6. Verifique que a forma bilinear g ((x1 , y1 ), (x2 , y2 )) = x1 y2 − x2 y1 ´e uma forma bilinear anti-sim´etrica em R2 . 9.4 Forma quadr´ atica Iniciaremos o estudo de fun¸c˜oes polinomiais homogˆeneas de grau 2 em v´arias vari´aveis. A prop´osito, uma fun¸c˜ao f : Rn → R ´e homogˆenea de grau r se f (λv) = λr f (v), para todo v ∈ Rn e λ ∈ R. atica se existe Defini¸ c˜ ao 9.4.1 Uma aplica¸c˜ao q : Rn → R ´e uma forma quadr´ uma forma bilinear g em Rn tal que q(v) = g(v, v). Exemplo 9.4.1 A fun¸c˜ao polinomial de grau 2 em duas vari´aveis q : R2 → R, q(x, y) = 3x2 − 2xy + y 2 , ´e homogˆena, pois q(λv) = λ2 q(v) para todo λ ∈ R e todo v ∈ R2 . Utilizando o mesmo racioc´ınio das se¸c˜oes anteriores, temos q(x, y) = 3x2 − 2xy + y 2 . = (x, y), (3x − 2y, y) . = (x, y), B(x, y) , onde B ´e o operador em R2 definido por B(x, y) = (3x − 2y, y). Portanto, por defini¸c˜ao, q ´e uma forma quadr´atica, pois q(v) = g(v, v) em que g ´e a ´ 9.4. FORMA QUADRATICA 227 . forma bilinear g(v, w) = v, B(w) . Registremos a matriz de B para futuras compara¸c˜oes,   3 −2 [B] = . 0 1 Ressaltamos que a forma quadr´atica q pode ser expressa matricialmente como    / 0 3 −2 x , q(x, y) = x y 0 1 y ou seja, q(v) = [v]t [B] [v]. N˜ao existe apenas essa forma bilinear g, tal que q(v) = g(v, v), podemos construir muitas outras, inclusive uma forma bilinear sim´etrica, fato crucial no estudo de cˆonicas e qu´adricas que faremos posteriormente. Por exemplo, poder´ıamos ter realizado a sequˆencia de manipula¸c˜oes alg´ebricas, q(x, y) = 3x2 − 2xy + y 2 . = (x, y), (3x − y, −x + y) . = (x, y), A(x, y) , onde A ´e o operador sim´etrico em R2 definido por A(x, y) = (3x − y, −x + y). De fato, A ´e sim´etrico, pois   3 −1 [A] = . −1 1 Da mesma forma, temos q(v) = [v]t [A] [v]. Observe que A = 12 (B + B t ). 2 Proposi¸c˜ ao 9.4.1 (Representa¸c˜ ao de uma forma quadr´ atica) Dada uma n forma quadr´ atica operador linear sim´etrico A do Rn tal que . q em R existe um q(v) = v, A(v) para todo v ∈ Rn . Prova Por defini¸c˜ao de forma quadr´atica, existe uma forma bilinear sim´etrica g do Rn tal que q(v) = g(v, v). Pelo Teorema da representa¸c˜ao de uma forma bilinear sim´etrica, (pg.221),- existe .um u ´ nico operador linear B do Rn que representa g. Logo, q(v) = v, B(v) , para todo vetor v do Rn . Considere o operador linear sim´etrico A = 12 (B + B t ). De fato, A ´e sim´etrico, pois % 1   1 1$ t t t t tt = A = B+B = B +B B t + B = A. 2 2 2 CAP´ITULO 9. FORMAS BILINEARES 228 Recordando que, por defini¸c˜ao de operador transposto, vale a identidade . . v, B(w) = B t (v), w , para quaisquer vetores v, w ∈ Rn , calculemos, . - 1  . v, A(v) = v, B + B t (v) 2 . 1. 1v, B(v) + v, B t (v) = 2 2 . 1. 1= v, B(v) + B(v), v 2 -2 . = v, B(v) = q(v) Isso termina a demonstra¸c˜ao. 2 Exemplo 9.4.2 Reescrevamos a forma quadr´atica q : Rn → R, q(x, y) = x2 + 2xy + 5xz + 7y 2 + 3yz + 11z 2 utilizando o produto interno e um operador linear sim´etrico. Para identificar quais as entradas da matriz do operador linear sim´etrico, basta observar quais s˜ao os coeficientes das parcelas da forma quadr´atica. Para orientar a constru¸c˜ao, indexamos a entrada da matriz [A] pela parcela da forma quadr´arica correspondente, ⎡ ⎤ ⎡ ⎤ 1 1 2 1 52 2x 2 2 5 2 xy 2 xz ⎢ ⎥ ⎢ ⎥ ⎢ 1 ⎥ ⎢ ⎥ 1 3 7y 2 3 ⎥ ⎢ 1 7 2 ⎥ [A] = ⎢ 2 yz ⎥ = ⎢ ⎢ 2 2xy ⎥. ⎣ ⎦ ⎣ ⎦ 3 1 5 1 5 3 11 11 2 xz 2 yz 2 2 Sendo assim, q(v) = [v]t [A] [v] . ou, registrando de outra forma, q(v) = v, A(v) 2 O termo representar matricialmente uma forma quadr´ atica significa express´a-la na forma q(v) = [v]t [A] [v], onde [A] ´e uma matriz sim´etrica. (9.1) ˜ 9.5. RESPOSTAS E SUGESTOES 229 Exerc´ıcios propostos 9.4.1 1. Represente matricialmente as formas quad´aticas em R2 . Relembramos que vocˆe deve encontrar uma matriz sim´etrica. (a) q(x, y) = 2xy + y 2 . (b) q(x, y) = 3x2 − y 2 . (c) q(x, y) = x2 − xy + 3y 2 . (d) q(x, y) = 2xy. 2. Represente matricialmente as formas quad´aticas em R2 . (a) q(x, y, z) = 2xy + y 2 + xz + z 2 . (b) q(x, y, z) = 3x2 − 3xz − y 2 + yz + z 2 . (c) q(x, y, z) = 2xy + 2xz + 2yz. (d) q(x, y, z) = x2 + y 2 . 9.5 Respostas e sugest˜ oes Se¸ c˜ ao 9.1 1) Pelo Teorema do n´ ucleo e da imagem, (pg.148), os n´ ucleos dos funcionais em R2 s˜ao 3 ucleos s˜ ao bidimensionais. unidimensionais, enquanto em R , os n´ (a) N uc(f ) = [[(2, 3)]]. (b) N uc(f ) = [[(1, 1)]]. (c) N uc(f ) = [[(1, 1, 0), (0, 1, −1)]]. Os vetores s˜ao l.i. e est˜ao no n´ ucleo (d) N uc(f ) = [[(−1, 0, 1), e2]]. Os vetores s˜ao l.i. e est˜ao no n´ ucleo. 2) Pelo Teorema da representa¸c˜ao de um funcional linear, (pg.218), devemos considerar um vetor vf normal a cada subespa¸co e definir o funcional linear com o produto interno. (a) vf = (−3, 1) e f (x, y) = −3x + y. (b) vf = (2, 1) e f (x, y) = 2x + y. (c) vf = (−3, 1, 5) e f (x, y, z) = −3x+y+5y. Observe que vf = (1, −2, 1)×(2, 1, 1). (d) vf = (1, −1, 1) e f (x, y, z) = x − y + z. CAP´ITULO 9. FORMAS BILINEARES 230 3) Assuma que f n˜ ao ´e identicamente nula. Sendo assim, existe um vetor n˜ao nulo v1 ∈ Rn tal que f (v1 ) = 0. Dado r ∈ R, seja λ = f (vr 1 ) . Calculando, f (λv1 ) = λf (v1 ) = r. 4) Pelo Teorema do n´ ucleo e da imagem, 6.4.1, dim N uc(f ) = n − 1. 5) Temos dois casos a examinar. 1o ) v0 e w0 s˜ao l. d. Nesse caso, como ambos n˜ao s˜ao simultaneamente nulos, pois s˜ ao distintos, um deles ´e m´ ultiplo do outro por um escalar λ = 1. Digamos que v0 = 0. Sendo assim, w0 = λv0 . Defina o funcional f (v) = v, v0 . Calculando, f (v0 ) = v0 2 = λv0 2 = f (w0 ). 2o ) v0 e w0 s˜ao l. i. Veja o Coment´ario a` Proposi¸c˜ao 5.7.1, (pg.124), para acompanhar a constru¸c˜ao. O 0 ,w0  e ortogonal ao vetor w0 . Defina o funcional f (v) = v, η. vetor η = v0 − vw 2 w0 ´ 0 Por defini¸c˜ao de η temos f (w0 ) = 0 e f (v) = 0. Se¸ c˜ ao 9.2 1) Explicitaremos o operador A em R2 . (a) A(x, y) = (y, 0). (d) A(x, y) = (0, 4x). (b) A(x, y) = (−y, −2x + y). (e) A(x, y) = (2x − y, −6x + 3y). (c) A(x, y) = (2x, −y). 2) Explicitaremos o operador A em R3 . (a) A(x, y, z) = (0, z, y). (b) A(x, y, z) = (3y − z, x + z, −2y). (c) A(x, y, z) = (x − z, 2x + 2z, 0). (d) A(x, y, z) = (x + z, −y − 2z, x − y + 4z). (e) A(x, y, z) = (2x − y, z, 4x). 3) N˜ ao, pois g(λv, w) = λ2 g(v, w) = λg(v, w). Se¸ c˜ ao 9.3 1) Quando a aplica¸c˜ao for uma forma bilinear, explicitaremos o operador A em R2 que representa a forma bilinear. (a) Forma bilinear sim´etrica. A(x, y) = (y, x). (b) Forma bilinear sim´etrica. A(x, y) = (x − 2y, −2x + y). (c) Forma bilinear, entretanto, n˜ ao ´e sim´etrica. A(x, y) = (−2y, −x + y). (d) N˜ ao ´e forma bilinear, pois g(v, λw) = λg(v, w), embora, g(λv, w) = λg(v, w). (e) Forma bilinear sim´etrica. A(x, y) = (x + y, x + y). ˜ 9.5. RESPOSTAS E SUGESTOES 231 2) Quando a aplica¸c˜ao for uma forma bilinear, explicitaremos o operador A em R3 que representa a forma bilinear. (a) Forma bilinear sim´etrica. A(x, y, z) = (z, y, x). (b) Forma bilinear sim´etrica. A(x, y, z) = (x, y, z). Ela ´e o produto interno. (c) Forma bilinear, entretanto, n˜ ao ´e sim´etrica. A(x, y, z) = (x + 3y, y + z, 2x − z). (d) N˜ao ´e forma bilinear, pois g(v, λw) = λg(v, w), embora, g(λv, w) = λ2 g(v, w). (e) Forma bilinear sim´etrica. A(x, y, z) = (x + y + z, x + y + z, x + y + z). 3) g(v, w) = v, B t ◦ B(w). Como A = B t ◦ B ´e um operador linear sim´etrico, ent˜ ao g ´e uma forma bilinear sim´etrica e A representa g. 4) Se A(vi ) = λi vi , ent˜ ao g(vi , vj ) = vi , A(vj ) = λvi , vj  = λi δij , onde δij ´e o delta de Kronecker. 5) Comparemos as matrizes [A] = [aij ] e [At ] = [bij ]: aij = g(ei , ej ) = −g(ej , ei ) = −bji . 6) g(v, w) = v, A(w) onde A(x, y) = (−y, x). Matricialmente verificamos que A ´e anti-sim´etrico. Se¸ c˜ ao 9.4 1) Aplica¸c˜ao da Proposi¸c˜ao 9.4.1, (pg.227).   0 1 (a) [A] = . 1 2   3 0 (b) [A] = . 0 −1 2) Aplica¸c˜ao da Proposi¸c˜ao 9.4.1, (pg.227). ⎤ ⎡ 0 1 12 (a) [A] = ⎣ 1 1 0 ⎦ . 1 0 1 2 ⎤ ⎡ 3 0 − 32 1 ⎦ . (b) [A] = ⎣ 0 −1 2 3 1 −2 1 2  (c) [A] = − 21 3 1 − 12  (d) [A] = ⎡ 0 1 1 0 0 1 (c) [A] = ⎣ 1 0 1 1 ⎡ 1 0 (d) [A] = ⎣ 0 1 0 0  .  . ⎤ 1 1 ⎦. 0 ⎤ 0 0 ⎦. 0 Cap´ıtulo 10 Representa¸c˜ ao matricial ´ claro, reEste cap´ıtulo ´e preparat´orio ao estudo de cˆonicas e qu´adricas. E presenta¸c˜oes matriciais de transforma¸c˜oes lineares tˆem muitas outras aplica¸c˜oes, n˜ao se restringem ao estudo de tais curvas, isso ser´a apenas uma aplica¸c˜ao do tema. J´a sabemos associar cada transforma¸c˜ao linear a uma matriz. Recordando a costru¸c˜ao feita: dada uma transforma¸c˜ao linear A : Rm → Rn , constru´ımos a matriz canˆonica de A pela regra [A] = [A(e2 ), A(e2 ), ..., A(em )]. Essa constru¸c˜ao ser´a generalizada. Fixado uma base ordenada α do dom´ınio de A e uma base ordenada β do contradom´ınio, ´e poss´ıvel associar uma matriz diferente daquela matriz canˆonica, matriz essa, denotada por [A]αβ . Algumas vezes, essa matriz ser´a mais u ´ til, pois explicitar´a informa¸c˜oes sobre a transforma¸c˜ao A que n˜ao s˜ao percept´ıveis com a matriz canˆonica. 10.1 Representa¸ c˜ ao de vetores Seja α = {v1 , v2 , ..., vn } uma base ordenada de Rn . Como sabemos, qualquer ´ nica combina¸c˜ao linear dos vetores dessa vetor v ∈ Rn ´e expresso por uma u base, v = a1 v1 + a2 v2 + · · · + an vn . Os coeficientes ai ’s s˜ao chamados de coordenadas do vetor v na base α. Esses coeficientes s˜ao comput´aveis e ´e conveniente guard´a-los na forma matricial 232 ˜ DE VETORES 10.1. REPRESENTAC ¸ AO ⎡ ⎢ ⎢ [v]α = ⎢ ⎣ a1 a2 .. . 233 ⎤ ⎥ ⎥ ⎥. ⎦ an A matriz [v]α ser´a chamada de representa¸ca˜o matricial do vetor v na base α ou matriz das coordenadas do vetor v na base α. Exemplifiquemos essa defini¸c˜ao. Calculemos a matriz das coordenadas do vetor v0 = (−3, 2) em duas bases diferentes do R2 . Na base canˆonica n˜ao h´a dificuldade alguma, pois   −3 ∴ [v0 ]C = . v0 = −3e1 + 2e2 2 Consideremos a base ordenada α = {v1 , v2 }, onde v1 = (2, 3) e v2 = (1, 2). De fato, α ´e uma base, pois det[v1 , v2 ] = 0. Para determinar os coeficientes da combina¸c˜ao linear      2 1 a1 −3 (−3, 2) = a1 (2, 3) + a2 (1, 2) ou = . 3 2 a2 2 podemos utilizar regra de Crames e obter a1 = −8 e a2 = 13. Logo,   −8 ∴ [v0 ]α = . v0 = −13v1 + 8v2 13 Ressaltamos que a nota¸c˜ao s´o faz sentido conhecendo-se a base ordenada com a qual estamos trabalhando. Ao trocarmos a ordem dos elementos da base, tamb´em trocamos a ordem das entradas da matriz das coordenadas de um vetor. Dada a base ordenada do R3 , β = {v1 , v2 , v3 }, onde v1 = (1, −1, 1), v2 = (0, 2, 1) e v3 = (1, 0, 1). Sabendo-se a representa¸c˜ao matricial de um vetor v nessa base, digamos que seja ⎡ ⎤ −3 [v]β = ⎣ 2 ⎦ , 0 ˜ MATRICIAL CAP´ITULO 10. REPRESENTAC ¸ AO 234 recuperamos o vetor pela combina¸c˜ao linear v = −3v1 + 2v2 + 0v3 = (−3, 7, −1). Um fato deve ser ressaltado. Como β ´e uma base, somente esse vetor tem essas coordenadas e elas s˜ao as u ´ nicas coordenadas do vetor nessa base. Portanto, v = w se, e somente se [v]β = [w]β . Caso a base ordenada do R3 seja α = {u1 , u2, u3 }, onde u1 = (1, 2, 0), u2 = (−1, 2, 1) e u3 = (1, 2, 1), ⎡ ⎤ −3 [v]α = ⎣ 2 ⎦ , 0 ent˜ao a matriz ´e a representa¸c˜ao matricial do vetor v = −3u1 + 2u2 + 0u3 = (−5, −2, 2). Exerc´ıcio 10.1.1 Seja α uma base ordenada do Rn . Mostre que [v + λw]α = [v]α + λ[w]α para quaisquer v, w ∈ Rn e λ ∈ R. 2 Exerc´ıcios propostos 10.1.1 1. Dados os conjuntos ordenados α = {v1 , v2 } e β = {w1 , w2 } de R2 , onde v1 = (10, 3), v2 = (7, 2), w1 = (3, 1) e w2 = (2, 1). (a) Mostre que os conjuntos α e β s˜ao bases de R2 . (b) Determine a representa¸c˜ao matricial de v ∈ R2 em cada base. (i) v = (10, 3). (ii) v = (0, 1). (iii) v = (10, 4). (iv) v = (−4, 2). 2. Dados os conjuntos ordenados α = {v1 , v2 , v3 } e β = {w1 , w2 , w3 } de R3 , onde v1 = (1, 0, 3), v2 = (0, 1, 2), v3 = (0, 0, 1), w1 = (3, 1, 1), w2 = (0, 0, 1) e w3 = (2, 1, 1). ˜ DE TRANSFORMAC ˜ 10.2. REPRESENTAC ¸ AO ¸ OES 235 (a) Mostre que os conjuntos α e β s˜ao bases de R3 . (b) Determine a representa¸c˜ao matricial de v ∈ R3 em cada base. (i) v = (1, 0, 3). (ii) v = (0, 1, 0). (iii) v = (1, 1, 3). (iv) v = (0, 2, 1). 3. Verifique que o conjunto ordenado α = {v1 , v2 } de R2 , onde v1 = (3, 4) e v2 = (3, 2), ´e uma base de R2 e calcule o vetor cuja representa¸c˜ao matricial ´e a indicada.     0 −2 (c) [v]α = . . (a) [v]α = 1 3     1 1 . (b) [v]α = (d) [v]α = 0 1 4. Considere a base ordenada α = {w1 , w2 } de R2 onde w1 = (1, 1) e w2 = (−1, 1). Calcule o vetor v ∈ R2 cuja representa¸c˜ao matricial em rela¸c˜ao a essa base seja a indicada no exerc´ıcio anterior. 10.2 Representa¸ c˜ ao de transforma¸c˜ oes J´a sabemos associar uma transforma¸c˜ao linear a uma matriz, procedimento apresentado no Cap´ıtulo 6. Nessa se¸c˜ao, generalizaremos aquela constru¸c˜ao. Dada uma transforma¸c˜ao linear A : Rm → Rn . Sejam α = {v1 , v2 , ..., vm } e β = {w1 , w2 , ..., wn } bases ordenadas do dom´ınio e do contadom´ınio, respecunicos) n escalares, tivamente. Para cada vj ∈ α, existem (´ a1j , a2j , ..., anj ∈ R, que s˜ao as coordenadas do vetor A(vj ) ∈ Rn na base ordenada do contradom´ınio, β. Mais precisamente, A(vj ) = a1j w1 + a2j w2 + · · · + anj wn . Seguindo a nota¸c˜ao da se¸c˜ao anterior, registramos esse fato como ⎤ ⎡ a1j ⎢ a2j ⎥ ⎥ ⎢ [A(vj )]β = ⎢ .. ⎥ . ⎣ . ⎦ anj 236 ˜ MATRICIAL CAP´ITULO 10. REPRESENTAC ¸ AO A matriz de A relativa a`s bases ordenadas α e β ´e a matriz m × n denotada e definida por ⎡ ⎤ a11 a12 · · · a1m ⎢ a21 a22 · · · a2m ⎥ ⎢ ⎥ [A]αβ = ⎢ .. .. ⎥ . .. ⎣ . . ⎦ . an1 an2 · · · anm Algumas vezes, registraremos a matriz de A relativa a`s bases α e β como [A]αβ = [[A(v1 )]β [A(v2 )]β ... [A(vn )]β ]. (10.1) Com isso, indicaremos que a j-´esima coluna de [A]αβ ´e formada pelas entradas da matriz coluna [A(vj )]β . Uma tal matriz guarda quase todas as informa¸c˜oes sobre a transforma¸c˜ao linear A. Dadas as bases ordenadas α, β e a matriz [A]αβ , recuperamos a transforma¸c˜ao linear pelas avalia¸c˜oes, para todo i, A(vj ) = a1j w1 + a2j wj + · · · + amj wj . Como sabemos, A fica determinada conhecendo-se os valores nos vetores de uma base e, essencialmente, estes valores est˜ao registrados nas colunas da matriz, veja Se¸c˜ao 7.2, (pg.168). Diremos que a matriz [A]αβ ´e a representa¸ca˜o matricial de A nas bases ordenadas α e β. Observamos que a representa¸c˜ao matricial depende das bases e das escolhas das ordens nas bases! Exemplo 10.2.1 Determinemos a representa¸c˜ao matricial de A : R3 → R2 , A(x, y, z) = (x − 2y, 2x + 3y − z), nas bases canˆonicas C = {e1 , e2 , e3 } ⊂ R3 e C = {e1 , e2 } ⊂ R2 . Para isso, precisamos das avalia¸c˜oes, ⎧ A(e1 ) = ( 1, 2 ) = 1e1 + 2e2 ⎪ ⎪ ⎪ ⎪ ⎨ A(e2 ) = (−2, 3) = −2e1 + 3e2 . ⎪ ⎪ ⎪ ⎪ ⎩ A(e3 ) = (0, −1) = 0e1 − 1e2 ˜ DE TRANSFORMAC ˜ 10.2. REPRESENTAC ¸ AO ¸ OES  de onde obtemos [A]CC = 237  1 −2 0 2 3 −1 . Observe que [A]CC = [A] = [A(e1 ), A(e2 ), A(e3 ], como definida no Cap´ıtulo 6. Para enfatizar a diferen¸ca, vejamos a representa¸c˜ao matricial da mesma transforma¸c˜ao linear A, agora com respeito a`s bases C de R3 e β = {(1, 1), (0, 1)} ⊂ R2 . Para isto, precisaremos das ⎧ A(1, 0, 0) ⎪ ⎪ ⎪ ⎪ ⎨ A(0, 1, 0) ⎪ ⎪ ⎪ ⎪ ⎩ A(0, 0, 1) avalia¸c˜oes, = (1, 2) = 1(1, 1) + 1(0, 1) = (−2, 3) = −2(1, 1) + 5(0, 1) . = (0, −1) = Portanto, [A]Cβ  = 0(1, 1) − 1(0, 1)  1 −2 0 1 5 −1 , que tamb´em ´e uma matriz 2 × 3, mas com entradas diferentes das entradas da matriz anterior. Para finalizar as compara¸c˜oes, calculemos a representa¸c˜ao de A em rela¸c˜ao `as bases ordenadas α = {1, 1, 1), (0, 1, 1), (0, 0, 1)} ⊂ R3 Como sempre, precisamos das ⎧ A(1, 1, 1) = ⎪ ⎪ ⎪ ⎪ ⎨ A(0, 1, 1) = ⎪ ⎪ ⎪ ⎪ ⎩ A(0, 0, 1) = β = {(1, 1), (0, 1)} ⊂ R2 . avalia¸c˜oes, (−1, 4) = −1(1, 1) + 5(0, 1) (−2, 2) = −2(1, 1) + 4(0, 1) . (0, −1) = Das avalia¸c˜oes obtemos  [A]αβ e = 0(1, 1) − 1(0, 1) −1 −2 0 5 4 −1  , Repetimos, a matriz depende das bases e das ordens das bases. 2 ˜ MATRICIAL CAP´ITULO 10. REPRESENTAC ¸ AO 238 A representa¸c˜ao matricial ´e natural no que diz respeito a` opera¸c˜ao de soma de transforma¸c˜oes lineares e `a multiplica¸c˜ao de uma transforma¸c˜ao por um escalar. Exerc´ıcio 10.2.1 Sejam α e β bases ordenadas de Rm e Rn , respectivamente. Mostre que se A, B : Rm → Rn s˜ao duas transforma¸c˜oes lineares ent˜ao [A + λB]αβ = [A]αβ + λ[B]αβ , 2 onde λ ´e um escalar. As pr´oximas se¸c˜oes ser˜ao dedicadas a responder v´arias perguntas an´alogas `aquelas feitas para a representa¸c˜ao matricial canˆonica. Exerc´ıcios propostos 10.2.1 1. Calcule a representa¸c˜ao matricial de cada um dos operadores lineares do R2 considerando a base ordenada do dom´ınio α = {v1 , v2 } e a do contradom´ınio C = {e1 , e2 }, onde v1 = (1, 1), e v2 = (2, 3). (a) A(x, y) = (−y, x). (d) A(x, y) = (x + y, 2x + 3y). (b) Id(x, y) = (x, y). (e) A(x, y) = (2x, 0). (c) A(x, y) = (x, x + y). (f) A(x, y) = (x, −y). 2. Calcule a representa¸c˜ao matricial de cada um dos operadores lineares do R2 considerando a base ordenada do dom´ınio α = {v1 , v2 } e a do contradom´ınio β = {w1 , w2 }, onde v1 = (1, 1), v2 = (2, 3), w1 = (1, 2) e w2 = (2, 5). (a) A(x, y) = (−y, x). (d) A(x, y) = (x + y, 2x + 3y). (b) Id(x, y) = (x, y). (e) A(x, y) = (2x, 0). (c) A(x, y) = (x, x + y). (f) A(x, y) = (x, −y). 3. Calcule a representa¸c˜ao matricial da transforma¸c˜ao linear A : R2 → R3 , A(x, y) = (x + 2y, y, 2x − 3y), nas bases indicadas. (a) Da base canˆonica para a base canˆonica. ˜ DE TRANSFORMAC ˜ 10.2. REPRESENTAC ¸ AO ¸ OES 239 (b) Da base canˆ onica para γ = {(1, 0, 2), (2, 1, −3), (0, 0, 1)} ⊂ R3 . onica. (c) De β = {(1, 1), (1, −1)} ⊂ R2 para a base a base canˆ (d) De β = {(1, 1), (1, −1)} ⊂ R2 para γ. 4. Descreva a representa¸c˜ao matricial da identidade Id de R3 : (a) da base canˆ onica C para a base ordenada α = {v1 , v2 , v3 } em que v1 = (0, 1, 0), v2 = (0, 0, 1) e v3 = (1, 0, 0); (b) da base α para a base canˆ onica; (c) Calcule o produto matricial [Id]αC [Id]Cα . 5. Considere a base ordenada β = {v1 , v2 , v3 } do R3 , onde v1 = (1, 1, 1) v2 = (1, 0, −1) e v3 = (0, 1, 1). Seja A : R3 → R3 o operador linear A(v) = a1 v1 , se v = a1 v1 + a2 v2 + a3 v3 . Calcule as representa¸c˜oes matriciais: (a) [A]βC ; (b) [A]ββ ; (c) [A]Cβ ; (d) [A]CC . 6. Considere a base ordenada β = {v1 , v2 , v3 } de R3 , dada no exerc´ıcio anterior. Calcule as representa¸c˜oes da homotetia A : R3 → R3 , A(v) = 3v como pedido. (a) [A]βC ; (b) [A]ββ ; (c) [A]Cβ ; (d) [A]CC . 7. Sejam A um operador linear em R3 e α = {v1 , v2 , v3 } uma base ordenada desse espa¸co. Descreva a representa¸c˜ao matricial [A]αC onde C ´e a base canˆonica. 8. Sejam A um operador linear invet´ıvel em Rn e α = {v1 , v2 , ..., vn } uma base desse espa¸co. (a) β = {A(v1 ), A(v2 ), ..., A(vn )} ´e uma base de Rn ! Justifique. (b) Calcule a representa¸c˜ao matricial [A]αβ . 9. Sabe-se que os operadores lineares A eB do R2 tˆem as representa¸c˜oes matriciais:     3 4 3 4 ; [B]Cβ = . [A]Cα = 2 3 2 3 ˜ MATRICIAL CAP´ITULO 10. REPRESENTAC ¸ AO 240 (a) Explicite a rela¸c˜ao A(x, y) sabendo que α = {v1 , v2 }, onde v1 = (2, 1) e v2 = (1, 1). (b) Explicite a rela¸c˜ao B(x, y) sabendo-se que β = {w1 , w2 }, onde w1 = (3, 4) e w2 = (1, 2). 10.3 Algoritmos Antes de tudo, fixemos uma nota¸c˜ao que simplificar´a a reda¸c˜ao e a leitura. Ao registrarmos n A : Rm α → Rβ (10.2) pretendemos indicar que A ´e uma transforma¸c˜ao linear e que α e β s˜ao bases ordenadas pr´e-fixadas no dom´ınio e no contradom´ınio de A, respectivamente. A primeira proposi¸c˜ao relaciona as representa¸c˜oes matriciais constru´ıdas at´e o momento. n Proposi¸c˜ ao 10.3.1 Dada uma transforma¸c˜ao linear A : Rm α → Rβ . Vale a rela¸ca˜o matricial [A(v)]β = [A]αβ [v]α . Prova Por clareza, restringiremos a demonstra¸c˜ao para transforma¸c˜oes lineares A : R3 → R2 , a concep¸c˜ao da demonstra¸c˜ao do caso geral ´e similar. Sejam α = {v1 , v2 , v3 } e β = {w1 , w2 } as bases ordenadas fixadas no dom´ınio e no contradom´ınio, respectivamente. Dado um vetor v ∈ R3 . Digamos que  [A(v)]β = c1 c2   Isso significa que [A]αβ = , ⎧ ⎨ ⎩ v a11 a12 a13 a21 a22 a23 ⎡  e = b1 v1 + b2 v2 + b3 v3 . A(v) = c1 w1 + c2 w2 ⎤ b1 [v]α = ⎣ b2 ⎦ . b3 10.3. ALGORITMOS 241 Por outro lado, levando em conta que A(vi ) = a1i w1 +a2i w2 temos as igualdades A(v) = b1 A(v1 ) + b2 A(v2 ) + b3 A(v3 ) = b1 (a11 w1 + a21 w2 ) + b2 (a12 w1 + a22 w2 ) + b3 (a13 w1 + a23 w2 ) = (b1 a11 + b2 a12 + b3 a13 )w1 + (b1 a21 + b2 a22 + b3 a23 )w2 Portanto, ⎧ ⎨ c1 = b1 a11 + b2 a12 + b3 a13 ⎩ . c2 = b1 a21 + b2 a22 + b3 a23 Escrevendo maticialmente, obtemos  c1 c2   = a11 a12 a13 a21 a22 a23  ⎤ b1 ⎣ b2 ⎦ , b3 ⎡ ou seja, [A(v)]β = [A]αβ [v]α . 2 Isso termina a demonstra¸c˜ao da proposi¸c˜ao. Exerc´ıcio 10.3.1 Mostre as afirma¸c˜oes. 1. Sejam [M], [N] matrizes n × m. Mostre que se [M][P ] = [N][P ], para toda matriz coluna [P ], ent˜ao [M] = [N]. 2. A representa¸c˜ao matricial da identidade id : Rnα → Rnα ´e a matriz identidade n × n. 2 O pr´oximo resultado ´e uma generaliza¸c˜ao da Proposi¸c˜ao 6.5.2, (pg.154), ele relaciona a composta de transforma¸c˜oes lineares com o produto matricial. Um resultado crucial para o desenvolvimento da teoria de representa¸c˜ao. Teorema 10.3.1 Dadas as transforma¸c˜oes lineares Rm α A / Rnβ B◦A B 8 / Rkγ . 242 ˜ MATRICIAL CAP´ITULO 10. REPRESENTAC ¸ AO Vale a rela¸c˜ao matricial [B ◦ A]αγ = [B]βγ [A]αβ . Prova A demonstra¸c˜ao ´e uma aplica¸c˜ao da proposi¸c˜ao anterior. Seja v ∈ Rm α. Por defini¸c˜ao de composta de fun¸c˜oes temos B ◦ A(v) = B(A(v)). Aplicando o algoritmo anterior aos membros dessa igualdade, [B ◦ A]αγ [v]α = [B]βγ [A(v)]β . Aplicando, novamente, o algoritmo no membro direiro da igualdade chegamos `a igualdade matricial [B ◦ A]αγ [v]α = [B]βγ [A]αβ [v]α . Pelo Exerc´ıcio 10.3.1, (pg.241), conclu´ımos a demonstra¸c˜ao. 2 ´rio A teoria sobre representa¸c˜ao matricial apresentada at´e o moCometa mento ´e bastante geral, mas na maioria das aplica¸c˜oes, os problemas envolvidos dizem respeito aos operadores lineares. Por isso, a partir desse momento nos concentraremos nas representa¸c˜oes matriciais desse tipo de transforma¸c˜ao linear. Especificamente, estaremos interessados em estudar representa¸c˜oes matriciais de operadores, esquematicamente indicadas, nas seguintes situa¸c˜oes: i) A : Rnα → Rnα ; ii) A : Rnα → RnC . iii) A : RnC → Rnα . A situa¸c˜ao A : RnC → RnC foi estudada at´e o cap´ıtulo anterior. 2 Compare o corol´ario abaixo com o item (c) da Proposi¸c˜ao 7.1.2, (pg.162). Corol´ ario 10.3.1 Seja A : Rnα → Rnβ ´e um operador linear. A ´e invert´ıvel se, e somente se, [A]αβ ´e uma matriz invert´ıvel. Sendo assim, −1 [A−1 ]βα = [A]αβ . Prova (⇒) Aplicando o algoritmo descrito no Teorema 10.3.1 para a composi¸c˜ao A ◦ A−1 = Id, (pg.241), 10.3. ALGORITMOS 243 Rnβ A−1 / Rnα A Rnβ , / 8 A◦A−1 =Id obtemos [A]αβ [A−1 ]βα = [Id]αα = [Id]. Isso demonstra que a matriz [A]αβ ´e invert´ıvel e que sua inversa ´e a matriz [A]βα . −1 Sendo assim, [A−1 ]βα = [A]αβ . −1 (⇐) Suponha que [A]αβ seja invert´ıvel e que [A]αβ = [bij ] seja a sua matriz inversa. Digamos que α = {v1 , v2 , ..., vn } e que β = {w1 , w2, ..., wn } sejam as bases ordenadas. Pelo visto na Se¸c˜ao 7.2, (pg.168), existe um u ´nico operador n n linear B : Rβ → Rα tal que B(wj ) = b1j v1 + b2j v2 + · · · + bnj vn . −1 Observe que [B]βα = [A]αβ . Logo, pelos algoritmos vistos acima, −1 [B ◦ A]βα = [B]βα [A]αβ = [A]αβ [A]αβ = [Id]. −1 Portanto, B = A−1 , isto ´e, A ´e invert´ıvel e [A−1 ]βα = [A]αβ . Veja Corol´ario 7.1.1 para essa u ´ ltima afirma¸c˜ao, (pg.166). 2 Exerc´ıcios propostos 10.3.1 1. Sejam α e β duas bases ordenadas de Rn e A e B dois operadores nesse espa¸co. Responda quais das nota¸c˜oes abaixo s˜ ao v´ alidas e quando for v´ alida escreva a matriz da composta A ◦ B. (a) [A]αα [B]ββ . (c) [A]αβ [B]ββ . (e) [A]αβ [B]βα . (g) [A]αα [B]αα . (b) [A]βα [B]ββ . (d) [A]βα [B]αβ . (f) [A]αβ [B]αβ . (h) [A]ββ [B]ββ . 2. Seja α = {v1 , v2 , v3 } uma base ordenada do R3 , onde: v2 = (2, 0, 3); v3 = (1, 0, 1). v1 = (1, 1, 0); Fixemos o operador linear A : R3α → R3α ⎡ 1 α ⎣ [A]α = 0 1 com representa¸c˜ao matricial ⎤ 1 0 1 1 ⎦. 2 1 (a) Sabendo-se a representa¸c˜ao matricial do vetor v ∈ R3α , calcule a representa¸c˜ao matricial [A(v)]α . ˜ MATRICIAL CAP´ITULO 10. REPRESENTAC ¸ AO 244 ⎡ ⎤ 2 i. [u]α = ⎣ 0 ⎦. 1 ⎡ ⎤ 1 ii. [v]α = ⎣ 0 ⎦. 0 ⎡ ⎤ 0 iii. [w]α = ⎣ 1 ⎦. −1 (b) Calcule os vetores A(u), A(v) e A(w). (c) Mostre que A n˜ ao ´e invert´ıvel. (d) Calcule uma base para N uc(A). (e) Calcule [A]αC . (f) Calcule a representa¸c˜ao matricial [A ◦ A]αα . 3. Sejam β uma base de Rn e A : Rnβ → Rnβ um operador linear. 2 (a) Justifique a igualdade [A2 ]ββ = [A]ββ . ´ verdade que [Ak ]β = [A]β k para todo inteiro k ≥ 1? (b) E β β 4. Considere a identidade Id : R3 → R3 e a base β = {v1 , v2 , v3 } formada pelos vetores: v1 = (1, 0, 1); v2 = (1, 1, 1); v3 = (1, −1, 0). (b) [Id]Cβ ; (c) [Id]βC [Id]Cβ . Calcule: (a) [Id]βC ; 10.4 Mudan¸ ca de coordenadas Sejam α e β duas bases ordenadas de Rn . Uma quest˜ao se coloca naturalmente: ◦ estabelecer uma rela¸c˜ao entre as representa¸c˜oes matriciais de um mesmo vetor v ∈ Rn , ou seja, relacionar as matrizes colunas [v]α e [v]β . O estudo dessa quest˜ao resume-se numa aplica¸c˜ao direta da Proposi¸c˜ao 10.3.1, (pg.240). Considere a identidade Id : Rnα → Rnβ , Id(v) = v, ent˜ao [v]β = [Id(v)]β = [Id]αβ [v]α . A matriz quadrada [Id]αβ ´e, sugestivamente, chamada de matriz mudan¸ca de coordenadas da base ordenada α para a base ordenada β. Os coment´arios acima nos permite enunciar o 10.4. MUDANC ¸ A DE COORDENADAS 245 Corol´ ario 10.4.1 Sejam α e β bases ordenadas do Rn . As representa¸c˜oes matriciais de um vetor v ∈ Rn nessas bases est˜ ao relacionadas por [v]β = [Id]βα [v]α , onde a matriz mudan¸ca de coordenadas ´e dada por [Id]βα = [[v1 ]β , [v2 ]β , ..., [vn ]β ]. Destaquemos um resultado j´a conhecido que ser´a muito utilizado posteriormente. Corol´ ario 10.4.2 Para quaisquer bases ordenadas α e β do Rn vale a rela¸c˜ao matricial −1 [Id]βα = [Id]αβ . Prova Aplicando o algoritmo descrito no Teorema 10.3.1 para Id ◦ Id = Id, (pg.241), Rnα Id / Rnβ Id 8 / Rnα , Id◦Id=Id obtemos [Id]αβ [Id]βα = [Id]αα = [Id]. 2 Isso termina a demonstra¸c˜ao. Exemplo 10.4.1 Consideremos duas bases ordenadas de R2 . Uma delas ser´a α = {v1 , v2 }, onde v1 = (−3, 2) e v2 = (1, 1). A segunda base ordenada ser´a a base canˆonica, C = {e1 , e2 }. Calcular a matriz mudan¸ca de coordenadas de α para C significa, na nossa nota¸c˜ao, calcular a matriz de Id : R2α → R2C . O fato da base do contradom´ınio ser a base canˆonica, facilita bastante os c´alculos, pois (veja a nota¸c˜ao ficada em (10.1)),   −3 1 α . [Id]C = [v1 , v2 ] = 2 1 Calculemos a matriz mudan¸ca de coordenadas de C para α, isto ´e, a matriz de Id : R2C → R2α . Como Id−1 = Id segue a rela¸c˜ao   1 1 −1 C α−1 [Id]α = [Id]C = − . 5 −2 −3 246 ˜ MATRICIAL CAP´ITULO 10. REPRESENTAC ¸ AO Consideremos outra base ordenada no contradom´ınio, por exemplo, β = {w1 , w2 }, onde w1 = (2, 3) e w2 = (5, 3). Calculemos a matriz de Id : R2α → R2β . Como vimos, caso a base ordenada escolhida para o contradom´ınio fˆosse a base canˆonica o c´alculo seria simples. Por esse motivos, podemos escrever a identidade como a composta Id = Id◦Id, ou seja, R2α Id / R2C Id 8 / R2β . Id Por tudo j´a visto, podemos escrever as igualdades [Id]αβ = [Id]Cβ [Id]αC = [Id]βC −1 [Id]αC . Todas as parcelas do produto matrical s˜ao comput´aveis, pois [Id]αβ = [w1 , w2 ]−1 [v1 , v2 ]. Dessa forma, obtemos −1      1 −19 −2 2 5 −3 1 α [Id]β = =− . 3 3 2 1 13 −1 9 2 Exemplo 10.4.2 Examinemos um exemplo efetuando os c´alculos diretamente pela regra de Cramer. O espa¸co considerado ´e o R2 . Considere a base ordenada α = {v1 , v2 } onde v1 = (1, 2) e v2 = (1, 1). Pela regra de Cramer, podemos calcular a combina¸c˜ao linear do vetor v = (3, 1) nessa base e obter a matriz das coordenadas   −2 . [v]α = 5 Isto significa que v = −2v1 + 5v2 . Agora, consideremos a base ordenada β = {w1 , w2 } onde w1 = (3, 2) e w2 = (4, 3). 10.4. MUDANC ¸ A DE COORDENADAS 247 Para calcular [v]β basta conhecer [v1 ]β e [v2 ]β . Novamente, pela regra de Cramer, determinamos as coordenadas dos vi ’s na base β e obtemos     −5 −1 e [v2 ]β = . [v1 ]β = 4 1 Portanto, a matriz mudan¸ca de coordenadas ´e   −5 −1 β . [Id]α = 4 1 Finalmente,  [v]β = [Id]βα [vα ] = 5 −3 Isso significa que v = 5w1 − 3w2 .  . 2 ´ conveninete, para futuras aplica¸c˜oes, agregar um conte´ E udo geom´etrico ao conceito mudan¸ca de coordenadas. O caso mais importante diz respeito a` mudan¸ca de coordenadas quando as bases envolvidas s˜ao ortonormais. Ilustremos essas id´eias quando uma das bases envolvidas ´e a base canˆonica. Seja C = {e1 , e2 } a base canˆonica do R2 . Sabemos que essa base ´e ortonormal e a representa¸c˜ao por segmentos orientados dos vetores dessa base num sistema de eixos Cartesianos em E2 s˜ao segmentos unit´arios e est˜ao, respectivamente, sobre os eixos coordenados ox e oy. Um vetor v = (x, y) ´e representado por um seg−−→ mento orientado OV , onde V (x, y). Consideremos outra base ordenada ortonormal α = {v1 , v2 } do R2 . Essa base d´a origem a novos eixos Cartesianos ox e oy . Um mesmo vetor v ∈ R2 ´e −−→ representado pelo mesmo segmento orientado OV onde, em rela¸c˜ao a esse novo sistema de coordenadas, V (x , y ). A quest˜ao ´e: conhecida as coordenadas de V em uma das bases, determinar as coordenadas de V na outra base. 248 ˜ MATRICIAL CAP´ITULO 10. REPRESENTAC ¸ AO A resposta a essa quest˜ao ´e dada pela matriz mudan¸ca de coordenadas, [v]α = [Id]Cα [v]C . Quando as bases s˜ao ortonormais essa matriz ´e bem especial, ´e uma matriz ortogonal. Proposi¸c˜ ao 10.4.1 Se α e β s˜ao bases ordenadas ortonormais de Rn ent˜ ao a α matriz mudan¸ca de coordenadas [Id]β ´e uma matriz ortogonal. Mais precisamente, −1 t [Id]αβ = [Id]αβ . Prova Digamos que as bases envolvidas sejam α = {v1 , v2 , ...vn } e β = {w1 , w2 , ..., wn }, e que a matriz mudan¸ca de coordenadas de ⎡ a11 a12 ⎢ a21 a22 [Id]αβ = ⎢ ⎣ · · an1 an2 α para β seja ⎤ · a1n · a2n ⎥ ⎥. · · ⎦ · ann Sendo assim, para cada j, temos vj = a1j w1 + a2j w2 + · · · + anj wn . Como as bases s˜ao ortogonais temos 1 = vj , vj   = akj alj wk , wl  k,l = =  k 2 a1j akj akj + a22j + · · · + a2nj . Portanto, os vetores colunas de [Id]αβ s˜ao unit´arios. Agora, se i = j temos vi , vj  = 0. Da mesma forma mostramos que a1i a1j + a2i a2j + · · · + ani anj = 0, ou seja, os vetores colunas da matriz [Id]αβ s˜ao ortogonais. Pela Proposi¸c˜ao 8.4.1, (pg.199), podemos concluir que [Id]αβ ´e uma matriz ortogonal. 2 ˜ DE OPERADORES 10.5. REPRESENTAC ¸ AO 249 Exerc´ıcios propostos 10.4.1 1. Sejam Id o operador identidade de Rn e β ⊂ Rn uma base. Mostre que [Id]ββ = [Id] (matriz identidade). 2. Considere a seguinte base ordenada de R3 ,  * 1 1 1 √ √ √ β= (1, 0, 1), (1, 2, −1), (−2, 2, 2) . 2 6 12 (b) Calcule [Id]Cβ . (a) Calcule [Id]βC . 3. Sejam α = {v1 , v2 } e β = {w1 , w2 } conjuntos ordenados de R2 , onde: i) v1 = (cosθ, senθ), v2 = (−senθ, cosθ), ii) w1 = (cosµ, senµ); w2 = (−senµ, cosµ). (a) Mostre que α e β s˜ao bases de R2 . (b) Calcule as matrizes mudan¸ca de coordenadas [Id]αβ e [Id]αβ . 4. Sejam A e B dois operadores lineares em R2 e β uma base desse espa¸co vetorial. Assuma que conhecemos as representa¸c˜oes matriciais dos operadores,     cos θ −sen θ cos θ −sen θ β . [A] = e [B]C = cos θ sen θ cos θ sen θ Qual das afirma¸c˜oes ´e verdadeira? (a) A ≡ B. 10.5 (b) A ≡ B. Representa¸ c˜ ao de operadores Da mesma forma que fizemos para vetores, precisamos estudar qual ´e a rela¸c˜ao entre as representa¸c˜oes matriciais de um mesmo operador linear, onde duas bases ordenadas est˜ao envolvidas. a) A : Rnα → Rnα , representa¸c˜ao matricial: [A]αα . n b) A : Rm β → Rβ , representa¸c˜ao matricial: [A]ββ . ˜ MATRICIAL CAP´ITULO 10. REPRESENTAC ¸ AO 250 Examinemos, esquematicamente, o problema de relacionar essas representa¸c˜oes matriciais,  / A Rβn Id Rβn O Id / A Rαn . Rαn Observe que A = Id ◦ A ◦ Id. Pelo Teorema 10.3.1, (pg.241), podemos escrever [A]ββ = [Id]αβ [A]αα [Id]βα . −1 Lembrando-se que [Id]αβ = [Id]βα , Corol´ario 10.4.2, (pg.245), reescrevemos a rela¸c˜ao matricial como −1 [A]ββ = [Id]βα [A]αα [Id]βα . Fixemos uma terminologia que ser´a utilizada na pr´oxima proposi¸c˜ao. Defini¸ c˜ ao 10.5.1 Sejam [M] e [N] duas matrizes quadradas n × n. Diremos que [M] ´e conjugada1 a [N] se existe uma matriz quadrada invert´ıvel [R] tal que [N] = [R]−1 [M][R]. Proposi¸c˜ ao 10.5.1 Duas representa¸c˜oes matriciais [A]αα e [A]ββ de um operador linear A em Rn s˜ao conjugadas. Mais precisamente, −1 [A]ββ = [Id]βα [A]αα [Id]βα . Em conseq¨ uˆencia, det[A] = det[A]αα , para qualquer base α do Rn Prova A primeira parte do corol´ario j´a foi demonstrada nos coment´arios acima. Sendo assim, vale a rela¸c˜ao entre as representa¸c˜oes matriciais na base canˆonica e numa base qualquer α, −1 [A]αα = [Id]αC [A] [Id]αC . $ % α−1 Como det [Id]C = (det[Id]αC )−1 , obtemos det[A] = det[A]αα . 1 Alguns autores utilizam o termo ”´e semelhante a”. 2 ˜ DE OPERADORES 10.5. REPRESENTAC ¸ AO 251 Exemplo 10.5.1 Vejamos uma das principais aplica¸c˜oes dessa u ´ ltima proposi¸c˜ao: ◦ examinar a transforma¸c˜ao que um operador realiza no plano. A id´eia b´asica desse estudo ´e representar matricialmente o operador numa base conveniente. Seja A : R2 → R2 , A(x, y) = (2x + 2y, −2x − 3y). O polinˆomio caracter´ıstico de A ´e p(λ) = (λ − 1)(λ + 2). Os autoespa¸cos associados aos autovalores λ1 = 1 e λ2 = −2 s˜ao, repectivamente, Vλ1 = [[(−2, 1)]] e V = [[(1, −2)]]. Pelo Lema 7.3.1, (pg.178), os vetores v1 = (−2, 1) e v2 = (1, −2) s˜ao l.i., logo, β = {v1 , v2 } ´e uma base ordenada de R2 . Calculemos a representa¸c˜ao matricial [A]ββ . Pela u ´ ltima proposi¸c˜ao temos o algoritmo para realizar esse c´alculo, [A]ββ = [Id]Cβ [A] [A]βC = [Id]βC −1 [A] [A]βC . Recordando o Corol´ario 10.4.2, (pg.245), como [Id]βC ´e a inversa de [Id]Cβ , temos as matrizes:       1 −2 −1 −2 1 2 2 β C ; [Id]β = [A] = ; [Id]C = . 1 −2 −2 −3 3 −1 −2 Efetuando as multiplica¸c˜oes chegamos a` representa¸c˜ao matricial,     1 0 λ1 0 β . = [A]β = 0 λ2 0 −2 Certamente, essa representa¸c˜ao maticial ´e simples. 2 A Proposi¸c˜ao 10.5.1, (pg.250), admite uma releitura, teoricamente, interessante. Na verdade, o determinante ´e uma fun¸c˜ao que associa cada operador linear a um n´ umero real. Inicialmente, o determinante foi definido utilizando a matriz canˆonica, mas seu valor ´e independente da representa¸c˜ao matricial do operador, em outras palavras, o determinante depende, apenas, do operador. O mesmo ocorre com o polinˆomio caracter´ıstico, como mostraremos na pr´oxima proposi¸c˜ao. Ele ´e um polinˆomio associado ao operador, independe da representa¸c˜ao maticial. ˜ MATRICIAL CAP´ITULO 10. REPRESENTAC ¸ AO 252 Exerc´ıcio 10.5.1 Mostre as afirma¸c˜oes sobre matrizes quadradas. 1. Se [M] ´e conjugada a [N] ent˜ao [N] ´e conjugada a [M]. 2. Duas matrizes conjugadas tˆem determinantes iguais. 3. Duas matrizes conjugadas tˆem polinˆomios caracter´ısticos iguais. O polinˆomio carater´ıstico de uma matriz [A] ´e definida de forma semelhante, p(λ) = det (λ[Id] − [A]) , 2 ond [Id] ´e a matriz identidade. omio caProposi¸c˜ ao 10.5.2 Para qualquer base ordenada β de Rn , o polinˆ n n racter´ıstico de um operador linear A : R → R pode ser calculado por $ % β β p(λ) = det λ[Id]β − [A]β . Prova Necessitamos de duas informa¸c˜oes. Primeira: det[R]−1 = (det[R])−1 para qualquer matriz invert´ıvel R. Segunda: [Id]ββ = [Id] (matriz identidade). Voltando para o c´alculo do polinˆomio caracter´ıstico. Para simplificar a escrita e a leitura, denote [R] = [Id]βC . Sendo assim, $ %   det λ[Id]ββ − [A]ββ = det λ[R]−1 [Id] [R] − [R]−1 [A] [R]   = det [R]−1 (λ[Id] − [A]) [R] = det(λ[Id] − [A]) = p(λ). Veja a defini¸c˜ao de polinˆomio caracter´ıstico na Se¸c˜ao 7.3, (pg.172). 2 Exemplo 10.5.2 Considere o operador linear A : R3 → R3 , A(x, y, z) = (2x + y + z, x + 2y − z, x − y + 2z). Calculemos a representa¸c˜ao matricial [A]ββ na base ordenada β = {v1 , v2 , v3 }, onde v1 = (−1, 1, 1), v2 = (1, 1, 0) e v3 = (1, −1, 2). ˜ DE OPERADORES 10.5. REPRESENTAC ¸ AO 253 De fato, β ´e uma base, pois det[v1 , v2 , v3 ] = −6 = 0. Para aplicar o algoritmo descrito na Proposi¸c˜ao 10.5.1, (pg.250), utilizaremos a base canˆonica C = {e1 , e2 , e3 } para auxiliar o c´alculo. Recordamos que a representa¸c˜ao matricial canˆonica de A ´e a representa¸c˜ao matricial de A na base C, ⎡ ⎤ 2 1 1 2 −1 ⎦ . [A]CC = [A] = [A(e1 ), A(e2 ), A(e3 )] = ⎣ 1 1 −1 2 Para calcular a outra representa¸c˜ao, apoiamo-nos no diagrama abaixo, Rβ2  / A O Id Id RC2 Rβ2 / A . RC2 Ele indica que [A]ββ = [Id]βC −1 [A] [Id]βC . (10.3) A matriz mudan¸ca de coordenadas [A]βC tamb´em ´e f´acil de computar, ⎤ −1 1 1 [A]βC = [v1 , v2 , v3 ] = ⎣ 1 1 −1 ⎦ . 1 0 2 ⎡ Resta calcular a sua inversa. Com alguns c´alculos obtemos ⎡ ⎤ −2 2 2 −1 1 3 0 ⎦. [A]βC = ⎣ 3 6 1 −1 2 Finalmente, podemos computar a representa¸c˜ao desejada pela rela¸c˜ao (10.3), ⎤ ⎡ 0 0 0 [A]ββ = ⎣ 0 3 0 ⎦ . 0 0 3 Nesse exemplo, o polinˆomio caracter´ıstico de [A] ´e p(λ) = λ(λ − 3)2 . 2 254 ˜ MATRICIAL CAP´ITULO 10. REPRESENTAC ¸ AO Encerraremos a se¸c˜ao relacionando matrizes mudan¸ca de coordenadas quando as bases envolvidas s˜ao ortonormais. Como vimos, A ´e um operador linear sim´etrico em Rn se, e somente se, sua matriz [A] ´e sim´etrica. Esse resultado pode ser generalizado para qualquer base ortonormal. Corol´ ario 10.5.1 Um operador linear A : Rn → Rn ´e sim´etrico se, e somente se, a representa¸ca˜o matricial [A]αα ´e uma matriz sim´etrica para qualquer base ortonormal α do Rn . Prova (⇒) Suponha que A ´e um operador sim´etrico. J´a sabemos que a representa¸c˜ao matricial na base canˆonica [A] ´e uma matriz sim´etrica. Pela Proposi¸c˜ao 10.5.1, (pg.250), temos −1 [A]αα = [Id]αC [A] [Id]αC . Como a base canˆonia C e a base α s˜ao bases ortonormais, pela Propsi¸c˜ao 10.4.1, (pg.248), segue que [Id]αC ´e ortonormal, isto ´e, −1 [Id]αC Portanto, t = [Id]αC . t [A]αα = [Id]αC [A] [Id]αC . Recordando que vale a rela¸c˜ao matricial ([M][N])t = [N]t [M]t e que, por hip´otese, [A]t = [A], calculando a transposta da matriz [A]αα obtemos t t [A]αα = [Id]Cα [A] [Id]αC = [A]αα . (⇐) Se a representa¸c˜ao matricial de A em qualquer base ortonormal ´e sim´etrica, em particular, a representa¸c˜ao na base canˆonica, [A], ´e sim´etrica. Portanto, A ´e um operador sim´etrico. 2 Exerc´ıcios propostos 10.5.1 1. A representa¸c˜ao matricial de um operador A em R3 numa base β ⊂ R3 ´e   3 2 β . [A]β = 3 −1 ˜ DE OPERADORES 10.6. DIAGONALIZAC ¸ AO 255 (a) Calcule os autovalores de A. (b) Calcule o determinante det[A]. 2. Se [M ] ´e conjugada a [N ] ent˜ ao [M ]k ´e conjugada a [N ]k para todo inteiro k ≥ 0. Mostre essa afirma¸c˜ao. 3. Sejam A e B dois operadores invert´ıveis em Rn . Mostre que os autovalores de A ◦ B e de B ◦ A s˜ao iguais. 4. Mostre que a matriz [U ]αα de qualquer operador ortogonal U em Rn ´e uma matriz ortogonal, quando α ´e uma base ortonormal de Rn . 10.6 Diagonaliza¸ c˜ ao de operadores Um operador linear A : Rn → Rn ´e diagonaliz´ avel se existe uma base orn denada β = {v1 , v2 , ..., vn } de R formada por autovetores de A. O termo diagonaliz´avel se justifica pelo formato da representa¸c˜ao matricial [A]ββ . Como β ´e formada por autovetores de A ent˜ao para cada i, 1 ≤ i ≤ n, A(vi ) = λi vi = 0v1 + · · · + λi vi + · · · + 0vn , onde λi ∈ R ´e o autovalor correspondente ao autovetor vi . A base ordenada formada por autovetores de A d´a origem a uma representa¸c˜ao matricial na qual todas as entradas fora da diagonal principal s˜ao iguais a zero, ⎡ ⎤ λ1 0 · · 0 0 ⎢ 0 λ2 · · 0 0 ⎥ ⎢ ⎥ β ⎥. · · · · · · [A]β = ⎢ ⎢ ⎥ ⎣ 0 0 · · λn−1 0 ⎦ 0 0 · · 0 λn Pela Proposi¸c˜ao 10.5.2, (pg.252), segue que o polinˆomio caracter´ıstico de operador diagonaliz´avel A ´e fatorado em um produto de n polinˆomios de grau 1 com coeficientes reais, p(λ) = (λ − λ1 ) (λ − λ2 ) · · · (λ − λn ). O termo diagonalizar um operador linear A : Rn → Rn significa representar matricialmente o operador numa base de autovetores. 256 ˜ MATRICIAL CAP´ITULO 10. REPRESENTAC ¸ AO ´ claro, existem operadores que n˜ao s˜ao diagonaliz´aveis. Esse ´e o caso do E operador A : R2 → R2 , A(x, y) = (−y, x). Seu polinˆomio caracter´ısitico ´e p(λ) = λ2 + 1. Portanto, n˜ao pode ser fatorado em um produto de polinˆomios de grau 1 com coeficientes reais pois suas ra´ızes s˜ao complexas. Nessa altura do texto, temos repostas para muitas perguntas envolvendo diagonaliza¸c˜ao de operadores. Apresentemos um resumo. Recordamos que o ´ Teorema Fundamental da Algebra garante que um polinˆomio de grau n admite n ra´ızes complexas, entre as quais, algumas, ou todas, podem se reais. 1. Se o polinˆomio caracter´ıstico do operador linear A em Rn tem alguma raiz complexa e n˜ao real, ele n˜ao ´e diagonaliz´avel. 2. Quando o polinˆomio caraceter´ıstico de um operador linear A em Rn tem n ra´ızes reais e distintas dois a dois, λ1 , λ2 , ..., λn , ele ´e diagonaliz´avel. A justificativa para essa afirma¸c˜ao est´a no lema da (pg.178). Seja β = {v1 , v2 , ..., vn } um conjunto de n vetores formado por autovetores de A associados aos autovalores λ1 , λ2 , ..., λn , respectivamente. Se os autovalores s˜ao distintos dois a dois ent˜ao β ´e um conjunto linearmente independente. Como s˜ao n vetores linearmente independentes em Rn , eles formam uma base de autovetores de A. 3. Um operador linear sim´etrico A : Rn → Rn ´e diagonaliz´avel. Esse ´e o esp´ırito do Teorema espectral, (pg.195). O teorema espectral garante que, al´em de um operador sim´etrico ser diagonaliz´avel, tamb´em garante que podemos determinar uma base ordenada e ortonormal de autovetores. Nesse caso, todos os autovalores s˜ao reais. N˜ao importa se eles s˜ao distintos, ou n˜ao. Para examinar todas as possibilidades, resta a situa¸c˜ao na qual um operador n˜ao sim´etrico possui todos autovalores reais e n˜ao s˜ao distintos dois a dois. Existem operadores lineares que satisfazem essa condi¸c˜ao e s˜ao diagonaliz´aveis e existem operadores que satisfazem a mesma condi¸c˜ao mas n˜ao s˜ao diagonaliz´aveis. Esse caso ´e estudado com t´ecnicas que n˜ao desenvolveremos nesse texto. Exemplo 10.6.1 Seja A : R3 → R3 , A(x, y, z) = (2x + y + z, y + z, z). ˜ DE OPERADORES 10.6. DIAGONALIZAC ¸ AO 257 Calculando o polinˆomio caracter´ıstico obtemos ⎡ ⎤ λ − 2 −1 −1 λ − 1 −1 ⎦ = (λ − 2)(λ − 1)2 . p(λ) = det ⎣ 0 0 0 λ−1 Para determinar os autoespa¸cos associados, resolvemos o sistema, ⎤⎡ ⎤ ⎡ ⎤ ⎡ −1 x 0 λi − 2 −1 ⎦ ⎣ ⎦ ⎣ ⎣ 0 λi − 1 −1 y = 0 ⎦, 0 0 λi − 1 z 0 quando λ1 = 1 e λ2 = 2. Para λ1 = 1, obtemos o autoespa¸co unidimensional Vλ1 = [[(1, −1, 0)]]. Para λ2 = 2, obtemos o autoespa¸co unidimensional Vλ2 = [[(1, 0, 0)]]. Portanto, n˜ao podemos escolher trˆes autovetores linearmente independentes 2 para formar uma base ordenada de R3 e diagonalizar o operador. Exemplo 10.6.2 Consideremos o operador linear A : R3 → R3 , A(x, y, z) = (3x − z, 3y + 2z, z). Calculando o polinˆomio caracter´ıstico obtemos ⎤ ⎡ λ−3 0 −1 λ − 3 −2 ⎦ = (λ − 3)2 (λ − 1). p(λ) = det ⎣ 0 0 0 λ−1 Para determinar os autovetores associados, resolvemos o sistema, ⎤⎡ ⎤ ⎡ ⎤ ⎡ x 0 0 −1 λi − 3 ⎦ ⎣ ⎦ ⎣ ⎣ 0 y = 0 ⎦, λi − 3 −2 z 0 0 0 λi − 1 para cada autovalor, que s˜ao λ1 = 3 e λ2 = 1. Para λ1 = 3, todo autovetor associado ´e do tipo v = (x, y, 0). Logo, obtemos o autoespa¸co bidimensional Vλ1 = [[(1, 1, 0), (0, 1, 0]]. Para λ2 = 1, todo autovetor associado ´e do tipo v = (− 12 z, −z, z). Sendo assim, o autoespa¸co unidimensional ´e Vλ2 = [[(−1, −2, 2)]]. 258 ˜ MATRICIAL CAP´ITULO 10. REPRESENTAC ¸ AO Nessas condi¸c˜oes, podemos escolher trˆes autovetores linearmente independentes para formar uma base ordenada e diagonalizar o operador, quais sejam v1 = (1, 1, 0), v2 = (0, 1, 0) e v3 = (−1, −2, 2). Na base ordenada α = {v1 , v2 , v3 }, a representa¸c˜ao matricial do operador A fica sendo ⎡ ⎤ 3 0 0 [A]αα = ⎣ 0 3 0 ⎦ . 0 0 1 2 Para operadores sim´etricos a base que diagonaliza o operador ´e a base espectral. Exemplo 10.6.3 Seja A : R3 → R3 , A(x, y, z) = (2z, −y, 2x). Esse operador ´e sim´etrico, pois sua representa¸c˜ao matricial na base canˆonica ´e sim´etrica, ⎡ ⎤ 0 0 2 [A] = ⎣ 0 −1 0 ⎦ . 2 0 0 Seu polinˆomio caracter´ıstico, p(λ) = λ3 + λ2 − 4λ − 4, ´e fatorado como p(λ) = (λ + 1)(λ − 2)(λ + 2). Para determinar os autovetores associados, ⎤⎡ ⎡ 0 −2 λi ⎣ 0 λi + 1 0 ⎦ ⎣ −2 0 λi resolvemos o sistema, ⎤ ⎡ ⎤ x 0 ⎦ ⎣ y = 0 ⎦, z 0 para cada autovalor, que s˜ao λ1 = −1, λ2 = 2 e λ3 = −2. Resolvendo o sistema para λ1 = −1, conclu´ımos que os autovetores associados s˜ao da forma v = (0, y, 0). Logo, o autoespa¸co associado ´e Vλ1 = [[(0, 1, 0)]]. Resolvendo o sistema para λ2 = 2, conclu´ımos que os autovetores associados s˜ao da forma v = (x, 0, x). Sendo assim, o autoespa¸co associado ´e Vλ1 = [[( √12 , 0, √12 )]]. Finalmente, resolvendo o sistema para λ2 = 2, conclu´ımos que os autovetores associados s˜ao da forma v = (x, 0, −x). Portanto, o autoespa¸co associado ´e Vλ1 = [[( √12 , 0, − √12 )]]. ˜ DE OPERADORES 10.6. DIAGONALIZAC ¸ AO 259 A escolha de normalidade para os geradores dos autoespa¸cos foi proposital, enquanto a ortogonalidade dos vetores de β = {v1 , v2 , v3 } ´e decorrente do Teorema espectral. O conjunto ordenado β ´e linearmente independente, pois ´e formado por autovetores de autovalores distintos, Lema 7.3.1, (pg.178). Como s˜ao trˆes vetores linearmente independentes de R3 , β ´e uma base. Nessa base espectral temos a representa¸c˜ao matricial ⎡ ⎤ −1 0 0 [A]ββ = ⎣ 0 2 0 ⎦ . 0 0 −2 2 Na Proposi¸c˜ao 10.5.1, (pg.250), foi mostrado que o determinante n˜ao depende da representa¸c˜ao matricial do operador linear. Mostra-se, al´em disso, que o determinante de um operador linear A em Rn ´e o produto das ra´ızes do polinˆomio caracter´ıstico de A, independente das ra´ızes serem reais ou n˜ao, contadas as repeti¸c˜oes. A demonstra¸c˜ao desse fato n˜ao cabe na teoria desenvolvida nesse texto, entretanto, podemos demonstrar um resultado mais restrito. Corol´ ario 10.6.1 Seja A um operador linear em Rn . Se A ´e diagonaliz´ avel, omio ent˜ ao det[A] = λ1 λ2 ... λn , onde λi , i = 1, ..., n, s˜ao as ra´ızes do polinˆ caracter´ıstico, contando-se as multiplicidades. Prova Seja β uma base para qual a matriz de ⎡ λ1 0 · · · ⎢ 0 λ2 · · · ⎢ [A]ββ = ⎢ .. .. ⎣ . . 0 0 ··· A ´e diagonaliz´avel, ⎤ 0 0 ⎥ ⎥ .. ⎥ . . ⎦ λn Pela Proposi¸c˜ao 10.5.1, (pg.250), det[A] = det[A]ββ = λ1 λ2 ... λn . 2 Exerc´ıcios propostos 10.6.1 1. Determine se o operador linear ´e diagonaliz´avel. Caso seja, fa¸ca a diagonaliza¸c˜ao do operador, isto ´e, encontre uma base na qual a representa¸c˜ao matricial do operador ´e uma matriz diagonal. 260 ˜ MATRICIAL CAP´ITULO 10. REPRESENTAC ¸ AO (a) A : R3 → R3 , A(x, y, z) = (y, z, x). (b) A : R3 → R3 , A(x, y, z) = (3x + y + z, x + 5y + z, x + y + 3z). (c) A : R2 → R2 , A(x, y) = (2x + 2y, x + y). (d) A : R2 → R2 , A(v) = (v, e1 , v, v0 ), onde v0 = (1, −1). (e) A : R3 → R3 , A(v) = v0 × v onde v0 = (1, −1, 1). (f) A : R3 → R3 , A(x, y, z) = (x + y + z)(1, −2, 1). (g) A : R3 → R3 , A(x, y, z) = (y + z, x + z, x + y). (h) A : R3 → R3 , A(x, y, z) = (x + 2y + 2z, y + 2z, 2z). (i) A : R3 → R3 , A(x, y, z) = (2x, 2y, 2z). (j) A : R3 → R3 , A(x, y, z) = (2x, 2y + z, 2z). 2. Considere o operador A : R2 → R2 , A(x, y) = (3x + y, x + 3y). (a) Calcule A10 (A composto 10 vezes). (b) Qual o polinˆ omio caracter´ıstico de A10 ? (c) Encontre um operador linear B em R2 tal que B 3 = A. 3. Assuma que A seja um operador sim´etrico em Rn . ao A2 = Id. Justifique a (a) Se Ak = Id para algum inteiro k > 2 ent˜ afirma¸c˜ao ao A(v) = o para todo v ∈ Rn . (b) Se A2 (v) = o para todo v ∈ Rn ent˜ (c) Dˆe um exemplo de um operador linear B em R2 tal que B 2 (v) = o para ´ claro, B n˜ ao ´e identicamente nulo. E ao ´e sim´etrico. todo v ∈ R2 , mas B n˜ 4. Dˆe condi¸c˜oes necess´arias e suficientes para que o operador A em R2 , A(x, y) = (ax + by, cx + dy) seja diagonaliz´ avel. 5. Calcule [A]10 sabendo-se que ⎡ ⎤ 1 0 0 [A] = ⎣ 1 2 0 ⎦. 0 2 −1 6. Sabe-se que os autovalores de um operador linear A em R3 s˜ao λ1 = −1, λ2 = 0 e λ3 = 1 com autoespa¸cos correspondentes, Vλ1 = [[(−1, 1, −1)]], Vλ2 = [[(−1, 0, 2)]] e Vλ3 = [[(1, −1, 0)]] ˜ DE FORMAS QUADRATICAS ´ 10.7. DIAGONALIZAC ¸ AO 261 (a) A ´e um operador sim´etrico? (b) A ´e um operador invert´ıvel? (c) Calcule [A]ββ onde β = {(−1, 1, −1), (−1, 0, 2), (1, −1, 0)}. (d) Calcule [A]. 7. Sejam A um operador linear e U um operador ortogonal, ambos em Rn Considere o operador linear B = U −1 ◦ A ◦ U . Responda quais das afirma¸c˜oes s˜ao verdadeiras. (a) Se A ´e sim´etrico ent˜ao B ´e sim´etrico. (b) Se A ´e diagonaliz´avel ent˜ ao B ´e diagonaliz´avel. (c) Se A ´e ortogonal ent˜ ao B ´e ortogonal. 10.7 Diagonaliza¸ c˜ ao de formas quadr´ aticas A rela¸c˜ao estreira entre formas quadr´aticas e operadores sim´etricos, permite simplificar, e muito, a representa¸c˜ao matricial de uma forma quadr´atica. Recapitulemos rapidamente a teoria apresentada. Para simplificar, ilustraremos a diagonaliza¸c˜ao de uma forma quadr´atica q em R3 , q(x, y, z) = ax2 + bxy + cxz + dy 2 + eyz + f z 2 . A representa¸c˜ao de uma forma quadr´atica por um operador linear sim´etrico, Proposi¸c˜ao 9.4.1, (pg.227), permete-nos representar q na forma matricial ⎡ ⎤⎡ ⎤ c b x / 0 ab 2 2e ⎣ ⎦ ⎣ y ⎦. x y y q(x, y, z) = d 2 2 c e z f 2 2 ou seja, q(v) = [v]t [A] [v] = v, A(v), (10.4) onde A ´e o operador linear sim´etrico em R3 definido pela matriz [A]. Seja β = {v1 , v2 , v3 } a base espectral do operador sim´etrico A. Essa base ´e ortonormal e fomada por autovetores de A. Vamos assumir que A(vi ) = λi vi , 262 ˜ MATRICIAL CAP´ITULO 10. REPRESENTAC ¸ AO i = 1, 2, 3. Dado um vetor v ∈ R3 , escrevamos esse vetor como uma combina¸c˜ao linear dos vetores da base espectral, v = x v1 + y  v2 + z  v3 , ou seja, ⎡  ⎤ x ⎣ [v]β = y  ⎦ . z O Coro´ario 10.4.1, (pg.245), estabelece a rela¸c˜ao entre as representa¸c˜oes matriciais [v] e [v]β , qual seja, [v] = [Id]βC [v]β . Substitu´ındo em (10.4), obtemos q(v) = [v]tβ $ % βt β [Id]C [A] [Id]C [v]β . Desde que as bases canˆonica e espectral s˜ao ortonormais, pela Proposi¸c˜ao 10.4.1, (pg.248), a matriz mudan¸ca de coordenadas ´e uma matriz ortogonal, t −1 [Id]βC = [Id]βC . Portanto, $ % β −1 β t q(v) = [v]β [Id]C [A] [Id]C [v]β . Pela Proposi¸c˜ao 10.5.1, (pg.250), chegamos a q(v) = [v]tβ [A]ββ [v]β . Sendo assim, como β ´e a base espectral do operador sim´etrico A, temos ⎡ ⎤ λ1 0 0 [A]ββ = ⎣ 0 λ2 0 ⎦ . 0 0 λ3 Finalmente, 2 2 2 q(v) = λ1 x + λ2 y  + λ3 x , onde x y  e z  s˜ao as coordenadas do vetor v na base espectral β. Registraremos essa dedu¸c˜ao na Proposi¸c˜ ao 10.7.1 (Diagonaliza¸ c˜ ao de uma forma quadr´ atica) Sejam q(v) = v, A(v) uma forma quadr´ atica em Rn e β = {v1 , v2 , ..., vn } uma base ˜ 10.8. RESPOSTAS E SUGESTOES 263 espectral do operador linear sim´etrico A. Se A(vi ) = λi vi , para i = 1, ..., n e ⎡ ⎢ ⎢ [v]β = ⎢ ⎣ x1 x2 .. . ⎤ ⎥ ⎥ ⎥, ⎦ xn ent˜ ao 2 2 2 q(v) = λ1 x1 + λ2 x2 + · · · + λn xn . O objetivo principal do processo de diagonaliza¸c˜ao ´e obter uma express˜ao para a forma quadr´atica na qual n˜ao existem termos mistos, do tipo x y , etc. Exerc´ıcios propostos 10.7.1 1. Diagonalize as formas quadr´aticas em R2 . (a) q(x, y) = 9xy. (c) q(x, y) = x2 + 2xy + y 2 . (b) q(x, y) = 16x2 − 24xy + 9y 2 . (d) q(x, y) = 4x2 + 24xy − 3y 2 . 2. Diagonalize as formas quadr´aticas em R3 . (a) q(x, y, z) = 2xy + 2xz + 2yz. (b) q(x, y, z) = 16x2 − 24xy + 9y 2 . (c) q(x, y, z) = 4xz − y 2 . (d) q(x, y) = 2x2 + 2xy + 2xz + 2y 2 + 2yz + 2z 2 . 10.8 Respostas e sugest˜ oes Se¸ c˜ ao 10.1 1) (a) α e β s˜ao bases, pois det[v1 , v2 ] = −1 = 0 e det[w1 , w2 ] = 1 = 0. (b) Utilize regra de Cramer.     1 4 i) [v]α = . [v]β = . 0 −1     7 1 ii) [v]α = . [v]β = . −10 3  iii) [v]α =  iv) [v]α = 8 −10 22 −32   . [v]β =   . [v]β = 5 2  −8 2 .  . ˜ MATRICIAL CAP´ITULO 10. REPRESENTAC ¸ AO 264 2) (a) α e β s˜ao bases, pois det[v1 , v2 , v3 ] = 1 = 0 e det[w1 , w2 , w3 ] = −3 = 0. (b) Utilize regra de Cramer. ⎡ ⎤ ⎡ 1 ⎤ 1 3 i) [v]α = ⎣ 0 ⎦. [v]β = ⎣ 1 ⎦. − 31 0 ⎡ ⎡ 2 ⎤ ⎤ 0 −3 ii) [v]α = ⎣ 1 ⎦. [v]β = ⎣ 13 ⎦. 2 −2 3 ⎡ ⎤ ⎡ 1 −3 −1 iii) [v]α = ⎣ 1 ⎦. [v]β = ⎣ 23 2 −2 3 ⎡ ⎤ ⎡ 4 0 −3 iv) [v]α = ⎣ 2 ⎦. [v]β = ⎣ − 13 2 −3 ⎤ ⎦. ⎤ ⎦. 3) O conjunto α ´e uma base, pois det[v1 , v2 ] = −6 = 0. (a) v = (3, 2). (b) v = (3, 4). (c) v = (3, −2). (d) v = (6, 6). 4) O conjunto α ´e uma base, pois det[v1 , v2 ] = 2 = 0. (a) v = (−1, 1). (b) v = (1, 1). (c) v = (−5, 1). (d) v = (0, 2). Se¸ c˜ ao 10.2 1) De fato, α ´e base de R2 .   −1 −3 α (a) [A]C = . 1 2   1 2 (b) [Id]α = . C 1 3   1 2 α (c) [A]C = . 2 5  (d) [A]α C =  (e) [A]α C =  (f ) [A]α C = 2 3 2 0  5 . 13  4 . 0 1 2 −1 −3  . 2) De fato, α e β s˜ao bases de R2 . Pode-se utilizar a regra de Cramer para determinar os coeficientes das matrizes.     −7 −19 0 −1 α α . . (a) [A]β = (d) [A]β = 3 8 1 3     3 4 10 20 α (b) [Id]α (e) [A] = . = . β β −1 −1 −4 −8     1 0 7 16 α α (c) [A]β = (f ) [A]β = . . 0 1 −3 −7 3) Utilize regra de Cramer. ˜ 10.8. RESPOSTAS E SUGESTOES ⎡ ⎤ 1 2 1 ⎦. (a) [A]Cγ = ⎣ 0 2 −3 ⎡ ⎤ 1 0 (b) [A]Cγ = ⎣ 0 1 ⎦. 0 0 4 Observe, por exemplo, ⎡ 0 1 (a) [Id]Cα = ⎣ 0 0 1 0 265 ⎡ ⎤ 3 −1 (c) [A]βC = ⎣ 1 −1 ⎦. −1 5 ⎡ ⎤ 1 1 (d) [A]βγ = ⎣ 1 −1 ⎦. 0 0 que Id(e1 ) = 0v1 + 0v2 + 1v3 . ⎤ ⎡ 0 0 0 1 ⎦. (b) [Id]Cα = ⎣ 1 0 0 0 1 ⎤ 1 0 ⎦. 0 C (c) [Id]α C [Id]α = [Id]. 5 Observe que e1 = v1 + 0v2 − v3 , e2 = −v1 + v2 + 2v3 e e3 ⎡ ⎡ ⎤ 1 0 0 1 (a) [A]βC = ⎣ 1 0 0 ⎦. (c) [A]Cβ = ⎣ 0 1 0 0 0 ⎡ ⎡ ⎤ 1 0 0 1 (b) [A]ββ = ⎣ 0 0 0 ⎦. (d) [A]CC = ⎣ 1 0 0 0 1 = v1 − v2 − v3 . ⎤ −1 1 0 0 ⎦. 0 0 ⎤ −1 1 −1 1 ⎦. −1 1 6 Observe que e1 = v1 + 0v2 − v3 , e2 = −v1 + v2 + 2v3 e e3 = v1 − v2 − v3 . ⎡ ⎡ ⎤ ⎤ 3 3 0 3 −3 3 β 0 3 ⎦. 3 −3 ⎦. (a) [A]C = ⎣ 3 (c) [A]Cβ = ⎣ 0 3 −3 3 −3 6 −3 ⎡ ⎤ ⎡ ⎤ 3 0 0 3 0 0 (b) [A]ββ = ⎣ 0 3 0 ⎦. (d) [A]CC = ⎣ 0 3 0 ⎦. 0 0 3 0 0 3 7) [A]α C = [A(v1 ), A(v2 ), A(v3 )]. 8) Pela Proposi¸c˜ao 6.3.1, (pg.144), det[A(v1 ), A(v2 ), ..., A(vn )] = det[A] det[v1 , v2 , ..., vn ]. (a) 1o ) A ´e invert´ıvel ⇔ det[A] = 0. 2o ) α ´e base ⇔ det[v1 , ..., vn ] = 0. Logo, det[A(v1 ), ..., A(vn )] = 0 implicando que β ´e uma base. (b) [A]α β = [Id] (matriz identidade). 9) Observe que A(e1 ) = 3v1 + 2v2 . ˜ MATRICIAL CAP´ITULO 10. REPRESENTAC ¸ AO 266 (a) A(x, y) = (8x + 5y, 11x + 7y). (b) B(x, y) = (11x + 15y, 15x + 22y). Se¸ c˜ ao 10.3 1) Neste cap´ıtulo, um produto matricial tem origem numa composta de transforma¸c˜oes lineares, como indicado no Teorema 10.3.1, (pg.241). Neste exerc´ıcio estamos tratando de uma composi¸c˜ao de operadores lineares A e B em Rn , composi¸c˜ao feita na ordem A ◦ B, Rn B / Rn / Rn . 9 A A◦B A nota¸c˜ao somente faz sentido quando a base do dom´ınio de A, indicada no ´ındice matricial superior [A]∗ , for a mesma base do contradom´ınio de B, indicada no ´ındice β matricial inferior, [B]∗ , esquematicamente, [A]∗ [B]∗ . Por exemplo, [A]α α [B]α , decorre da composta Rnβ B / Rnα A / Rnα . 8 A◦B 2) (a) N˜ao. (c) N˜ao. (e) Sim. [A◦B]ββ . (g) Sim. [A◦B]α α. (b) Sim. [A◦B]βα . (d) Sim. [A◦B]α α. (f ) N˜ao. (h) Sim. [A◦B]ββ . (a) Aplica¸c˜ao da Proposi¸c˜ao 10.3.1, (pg.240). ⎡ ⎡ ⎤ ⎤ 2 1 i. [A(u)]α = ⎣ 1 ⎦. ii. [A(v)]α = ⎣ 0 ⎦. 3 1 ⎡ ⎤ 1 iii. [A(w)]α = ⎣ 0 ⎦. 1 (b) Relembre que A(u) = 2v1 + v2 + 3v3 . i. A(u) = (47, 2, 6). ii. A(v) = (2, 0, 1). iii. A(w) = (4, 1, 4). (c) det[A]α ario 10.3.1, (pg.242), A n˜ ao ´e invert´ıvel. β = 0, pelo Corol´ (d) Seja v ∈ N uc(A). Suponha que a representa¸c˜ao matricial desse vetor seja ⎡ ⎤ a [v]α = ⎣ b ⎦ . c Como [A(v)]β = [A]α β [v]α = [o]β ⎡ 1 1 ⎣ 0 1 1 2 devemos resolver ⎤⎡ ⎤ ⎡ 0 a 1 ⎦⎣ b ⎦=⎣ 1 c o sistema linear ⎤ 0 0 ⎦. 0 ˜ 10.8. RESPOSTAS E SUGESTOES 267 Feito isso, obtemos b = −a, c = a. Portanto, todos os vetores do n´ ucleo ´e da forma v = av1 − av2 + av3 = a(v1 − v2 + v3 ), logo, N uc(A) = [[(0, 1, −2)]]. (e) [A]βC = [v1 , v2 , v3 ]. α α ca esse produto matri(f ) Pelo Teorema 10.4.1, (pg.242), [A ◦ A]α α = [A]α [A]α . Fa¸ cial. 3) Ambos os ´ıtens s˜ao aplica¸c˜oes do Teorema 10.3.1, (pg.241). (a) Considere A : Rnβ → Rnβ . Pelo teorema citado temos [A ◦ A]ββ = [A]ββ [A]ββ . (b) Utilize o processo indutivo para a demonstra¸c˜ao. 4) Para determinar [Id]Cβ devemos encontrar a combina¸c˜ao linear Id(ej ) = ej = a1j v1 + a2j v2 + a3j v3 . Por exemplo, e1 = −v1 + v2 + v3 . ⎡ ⎤ −1 −1 −2 (a) [A]βC = [v1 , v2 , v3 ]. (b) [Id]Cβ = ⎣ 1 1 −1 ⎦ . β C (c) [Id]C [Id]β = [Id]. 1 0 −1 Se¸ c˜ ao 10.4 1) Seja β = {v1 , v2 , ..., vn }. Observemos que Id(vj ) = 0v1 + v2 + · · · + 1vj + · · · + 0vn . Os coeficientes dessa combina¸c˜ao linear s˜ ao as entradas da j-´esima coluna de [Id]ββ = [aij ]. Na coluna j, a u ´ nica entrada que n˜ ao ´e nula ´e ajj = 1. Logo, [Id]ββ = [Id]. 2) A base β = {v1 , v2 , v3 } ´e ortonormal. (a) [Id]βC = [v1 , v2 , v3 ]. Como a base ´e ortonormal, pela Proposi¸c˜ao 8.4.1, (pg.199), [Id]βC ´e uma matriz ortogonal. (b) Pelo Corol´ ario 10.4.2, (pg.245), [Id]Cβ = [Id]βC ortogonais. 3) −1 t = [Id]βC , pois as matrizes s˜ ao (a) det[v1 , v2 ] = 1 = det[w1 , w2 ], logo, α e β s˜ao bases. (b) Utilizando identidades trigonom´etricas obtemos   t cos(µ − θ) −sen(µ − θ) = = [Id]βα . [Id]α β sen(µ − θ) cos(µ − θ) 4) O item (b) ´e verdadeiro. O operador linear A corresponde a uma rota¸c˜ao do plano em torno da origem por um aˆngulo θ. O operador B ´e a identidade, ou seja, B = Id e [Id]βC ´e a matriz mudan¸ca de coordenadas da base ordenada ortonormal β = {(cos θ, sen θ), (−sen θ, cos θ)} para a base canˆ onica C. Se¸ c˜ ao 10.5 1) (a) λ1 = 1 + √ √ 10 e λ2 = 1 − 10. ˜ MATRICIAL CAP´ITULO 10. REPRESENTAC ¸ AO 268 (b) det[A] = λ1 λ2 = −9.  k 2) [M ] = [R]−1 [N ] [R] ⇒ [M ]k = [R]−1 [N ][R] = [R]−1 [N ]k [R].   omios carac3) Observe que det ([A] [B]) = det [B]−1 [B] [A] [B] e conclua que os polinˆ ter´ısticos s˜ao iguais. N˜ao ´e verdade que os autoespa¸cos sejam os mesmos. t α α 4) Utilize a igualdade matricial [U ]α α = [Id]C [U ] [Id]C . Se¸ c˜ ao 10.6 1) (a) O operador ´e ortogonal com polinˆ omio caracter´ıstico p(λ) = (λ − 1)(λ2 + λ + 1). O fator de grau 2 n˜ ao tem ra´ızes reais, portanto, o operador n˜ ao ´e diagonaliz´ avel. (b) O operador ´e sim´etrico. Pelo Teorema espectral ele ´e diagonaliz´ avel. O polinˆ omio caracter´ıstico ´e fatorado na forma p(λ) = (λ − 2)(λ − 6)(λ − 3). Base espectral, onde os autovetores s˜ao associados aos autovalores λ1 = 2, λ2 = 6 e λ3 = 3, respectivamente,  * 1 1 1 β = √ (1, 0, −1), √ (1, 2, 1), √ (2, −2, 2) . 2 6 12 Observe que tamb´em podemos justificar a diagonaliza¸c˜ao com o Lema 7.3.1, (pg.178). (c) O polinˆ omio caracter´ıstico ´e fatorado na forma p(λ) = λ(λ − 3). Como as ra´ızes s˜ao distintas e reais, λ1 = 0 e λ2 = 3, pelo Lema 7.3.1, (pg.178), o operador ´e diagonaliz´ avel. Observe que a base que diagonaliza o operador n˜ ao ´e ortogonal, β = {(1, −1), (2, 1)} . (d) Novamente, utilizamos o Lema 7.3.1. O operador ´e diagonaliz´ avel pois o polinˆ omio caracter´ıstico ´e fatorado em p(λ) = (λ − 1)(λ + 1). Portanto, suas ra´ızes, λ1 = 1 e λ = −1, s˜ao reais e distintas. Base que diagonaliza o operador: β = {(2, 1), (0, 1)} . (e) N˜ao ´e diagonaliz´ avel, pois p(λ) = λ(λ2 + 3). O fator de grau 2 n˜ ao tem ra´ızes reais. √ √ √ 3 (f ) N˜ ao ´e diagonaliz´ avel, pois p(λ) = (λ − 3 2)(λ2 + 3 2λ + 22 ). O fator de grau 2 n˜ ao tem ra´ızes reais. (g) Observe que o polinˆ omio caracter´ıstico tem trˆes ra´ızes reais (contanto as repeti¸c˜oes) p(λ) = (λ − 1)3 . Entretanto, o autoespa¸co associado, V = [[((1, 0, 0)]] ´e unidmensional. Logo, n˜ ao podemos escolher trˆes autovetores associados ao autovalor λ1 = 1 que sejam l.i. (h) O operador ´e diagonaliz´ avel. O polinˆ omio caracter´ıstico ´e p(λ) = (λ − 2)3 . O autoespa¸co associado ao autovalor λ1 = 2 ´e Vλ1 = R3 . Logo, qualquer conjunto de trˆes vetores l.i. em R3 formam uma base que diagonaliza o operador. Observe que o operador linear ´e sim´etrico. ˜ 10.8. RESPOSTAS E SUGESTOES 269 (i) O operador n˜ ao ´e diagonaliz´ avel. O polinˆ omio caracter´ıstico ´e p(λ) = (λ − 2)3 . O autoespa¸co associado ao autovalor λ1 = 2 ´e Vλ1 = [[e1 , e2 ]]. N˜ ao ´e poss´ıvel encontrar outro autoespa¸co, pois os valores dos outros autovalores s˜a iguais. Logo, n˜ ao podemos escolher trˆes vetores l.i. num espa¸co bidimensional para formar a base que diagonaliza o operador. 2) O operador ´e sim´etrico e seu polinˆ omio caracter´ıstico ´e p(λ) = (λ − 4)(λ + 2). Os autovalores s˜ ao λ1 = 4 e λ2 = −2. Fixemos a base espectral respeitando-se a ordem dos autovalores,  * 1 1 1 1 β = ( √ , √ ), (− √ , √ ) . 2 2 2 2 Faremos detalhes do exerc´ıcio para recordar a teoria vista. (a) Pela Proposi¸c˜ao 10.5.1, (pg.250), sabemos que vale a conjuga¸c˜ao [A]ββ = [Id]Cβ [A] [Id]βC . Como β ´e uma base espectral, ent˜ao   4 0 β [A]β = . 0 −2 Pelo Teorema 10.3.1, (pg.241), segue que [A10 ]ββ = [A]ββ 10  = 4 0 0 −2 10  = 410 0 0 (−2)10  . Para calcular A10 , ´e suficiente calcular a matriz [A10 ] = [A]10 . Pela Proposi¸c˜ao 10.5.1, (pg.250), vale a conjuga¸c˜ao [A] = [Id]βC [A]ββ [Id]Cβ . Observe que multiplicandose duas vezes ambos os membros desse conjuga¸c˜ao, obtemos [A2 ] = [A]2 = [Id]βC [A]βC [Id]Cβ [Id]βC [A]ββ [Id]Cβ    = [Id]βC [Id] 2 [A]ββ [Id]Cβ . A Proposi¸c˜ao 10.4.2, (pg.245), justifica a igualdade [Id]Cβ [Id]βC = [Id], ou seja, [Id]Cβ = [Id]βC −1 . Pelo mesmo argumento, temos 10 [A10 ] = [A]10 = [Id]βC [A]ββ [Id]Cβ . Como a base canˆonica ´e ortonormal e, por defini¸c˜ao de base espectral, a base β ´e ortonormal (vetores ortogonais e unit´ arios), segue que a matriz mudan¸ca de coordenadas ´e ortogonal, Proposi¸c˜ao 10.4.1, (pg.248). Portanto, [Id]Cβ = [Id]βC −1 t = [Id]βC . Sendo assim, t 10 [A10 ] = [Id]Cβ [A]ββ [Id]Cβ . ˜ MATRICIAL CAP´ITULO 10. REPRESENTAC ¸ AO 270 Substituindo,  10 [A ] = − √12 √1 2 √1 2 √1 2   410 . 0 0 (−2)10  √1 2 − √12 √1 2 √1 2  . Um c´alculo matricial nos d´a, ap´ os simplifica¸c˜ao,  19  2 + 29 219 − 29 [A10 ] = . 219 − 29 219 + 29 (b) Pela Proposi¸c˜ao 10.5.2, (pg.252), %  $   10 = λ − 410 λ − (−2)10 . p(λ) = det λ[Id] − [A]ββ (b) Defina B utilizando a representa¸c˜ao matricial   √ 3 4 √0 [B]ββ = . 3 0 −2 3) As solu¸c˜oes s˜ao obtidas estudando os autovalores λ1 , λ2 , ..., λn de A. Por hip´ otese, A ´e sim´etrico, logo o Teorema espectral garante que o polinˆomio caracter´ıstico de A tem n ra´ızes reais. (a) Seja β uma base espectral de A. Como [Id]ββ = [Id] e, pelo Teorema 10.3.1, k (pg.241), [Ak ]ββ = [A]ββ , a igualdade Ak = Id implica na igualdade matricial ⎡ ⎢ ⎢ ⎢ ⎣ λk1 0 .. . 0 λk2 .. . ··· ··· 0 0 .. . 0 0 ··· λkn ⎤ ⎡ ⎥ ⎢ ⎥ ⎢ ⎥=⎢ ⎦ ⎣ 1 0 .. . 0 ··· 1 ··· .. . 0 0 .. . 0 0 ··· 1 ⎤ ⎥ ⎥ ⎥. ⎦ Logo, todo autovalor de A satisfaz a condi¸c˜ao λki = 1. Isso significa que λi = 1 ou λi = −1. Seja qual for o valor, vale a igualdade λ2i = 1. Logo, [A2 ]ββ = [Id] = [Id]βα ⇒ A2 = Id. (b) Seja v um autovetor associado ao autovalor λi . Vale as implica¸c˜oes: A(v) = λi v ⇒ o = A2 (v) = A(λi A(v)) = λi A(v) = λ2i v ⇒ λi = 0. Sendo assim, a representa¸c˜ao matricial de A na base espectral ´e identicamente nula, [A]ββ = [0]. Logo, A ´e identicamente nula. (c) Construa um operador linear n˜ ao identicamente nulo B tal que Im(B) ⊂ Im(B). Utilize o processo construtivo dado na Se¸c˜ao 7.2, (pg.168). De qualquer forma, verifique que B(x, y) = (4x − 8y, 2x − 4y) ´e tal que B 2 ´e o operador identicamente nulo. 4) i) (a − d)2 + 4cb > 0 ou ii) a = d e b = c = 0 ˜ 10.8. RESPOSTAS E SUGESTOES 271 5) Utilize a Teoria de diagonaliza¸c˜ao par mostrar que ⎤ ⎡ ⎡ ⎤ ⎡ 10 3 0 0 1 0 0 1 ⎦ 1⎣ 1 0 [A]10 = ⎣ −1 3 0 ⎦ ⎣ 0 210 3 0 0 (−1)10 1 −1 2 1 6) ⎤ 0 0 1 0 ⎦. −2 3 (a) N˜ao pode ser sim´etrico, pois os autoespa¸cos n˜ao s˜ao ortogonais. (b) N˜ao ´e invert´ıvel, pois det[A] = λ1 λ2 λ3 = 0. Os autovalores s˜ao distintos, logo, diagonaliz´ avel. Portanto, podemos aplicar o Corol´ ario 10.6.1, (pg.259). ⎤ ⎡ ⎤ ⎡ −4 −5 −2 0 0 λ1 0 ⎦. 5 2 ⎦. (d) [A] = ⎣ 4 (c) [A]ββ = ⎣ 0 λ2 0 0 λ3 −2 −2 1 7) (a) Verdadeira. (b) Verdadeira. (c) Verdadeira. Se¸ c˜ ao 10.7 1) A forma quadr´ atica est´a expressa em coordenadas de um vetor na base espetral β do operador sim´etrico qua a representa. % $ %) ($ 2 2 √1 , √1 √1 , √1 (a) q(x , y  ) = 2x − 2y  . , − . β= 2 2 2 2 1   2 2 β = 45 , 35 , − 53 , 45 . (b) q(x , y  ) = 25x . ($ % $ %) 2 β= − √12 , √12 , √12 , √12 . (c) q(x , y  ) = 2y  . 1   2 2 2 (d) q(x , y  ) = −12x + 13y  . (a) β = 45 , 35 , − 53 , 45 . 1) A forma quadr´ atica est´a expressa em coordenadas de um vetor na base espetral β do operador sim´etrico qua a representa. 2 2 2 (a) q(x , y  , z  ) = x − y  + 2z  . Autovalores: λ1 = −1, λ2 = −1 e λ3 = 2. ) ( β = √12 (1, 1, 0), √12 (−1, 1, 0), √13 (1, 1, 1) . 2 (b) q(x , y  , z  ) = 25x . Autovalores: λ1 = 25, λ2 = 0 e λ3 = 0. 1 2 β = 15 (4, 3, 0), 15 (−3, 4, 0), e3 . 2 2 2 (c) q(x , y  , z  ) = −x + 2y  − 2z  . Autovalores: λ1 = −1, λ2 = 2 e λ3 = −1. ) ( β = e2 , √12 (1, 0, 1), √12 (−1, 0, 1), . ˜ MATRICIAL CAP´ITULO 10. REPRESENTAC ¸ AO 272 2 2 2 (d) q(x , y  , z  ) = x + y  + 4z  . Autovalores: λ1 = 1, λ2 = 1 e λ3 = 4. ) ( β = √12 , (1, −1, 0), √16 (1, 1, −2), √13 (1, 1, 1), . Cap´ıtulo 11 Cˆ onicas e Qu´ adricas Iremos discutir equa¸c˜oes polinomiais de grau dois em duas ou trˆes vari´aveis. O objetivo ´e identificar o lugar geom´etrico do plano Euclidiano ou do espa¸co Euclidiano determinado pela equa¸c˜ao. A ferramenta principal desse estudo ´e o processo de diagonaliza¸c˜ao de uma forma quadr´atica, como feito na Proposi¸c˜ao 10.7.1, (pg.262). 11.1 Cˆ onicas I As curvas cˆonicas come¸caram a ser estudadas pelos gregos antigos, por volta do s´eculo III a.C. Na ´epoca, o interesse estava relacionado com a solu¸c˜ao dos trˆes problemas que dominaram a Matem´atica Grega: trissectar um aˆngulo, quadrar um c´ırculo e duplicar um cubo. Sabe-se que Euclides estudou o assunto, chegando a escrever um livro sobre cˆonicas, que se perdeu. Entretanto, foi Apolˆonio (262a.C. − 190a.C.), outro matem´atico grego, o maior estudioso dessas curvas. Seu tratado, As cˆ onicas, tem quatrocentas proposi¸c˜oes. Devemos a ele, os nomes elipse, hip´erbole e a par´abola. Na Renascen¸ca, as curvas cˆonicas foram a base para a formula¸c˜ao de v´arias teorias F´ısicas. Kepler usou a elipse para descrever as trajet´orias dos planetas e Galileu descobriu que o movimento de um proj´etil descreve uma par´abola, hoje, t´opico usual em qualquer curso introdut´orio de Cinem´atica. Atualmente, a aplica¸c˜ao das propriedades dessas curvas s˜ao corriqueiras. Todos n´os j´a ouvimos falar em antenas e radares parab´olicos, por exemplo, que s˜ao aparelhos constru´ıdos tendo como princ´ıpio as propriedades de uma superf´ıcie parab´olica. Veja a se¸c˜ao Leitura complementar desse cap´ıtulo. 273 274 ˆ ´ CAP´ITULO 11. CONICAS E QUADRICAS Iniciaremos o estudo de equa¸c˜oes quadr´aticas no plano Cartesiano E2 , isso ´e, o estudo de equa¸c˜oes do tipo E : ax2 + bxy + cy 2 + dx + f y + g = 0, onde a, b e c s˜ao n´ umeros reais n˜ao simultaneamente iguais a zero. Estamos interessados em descrever o lugar geom´etrico do plano Cartesiano formado pelos pontos P (x, y) cujas coordenadas x e y satisfazem a uma equa¸c˜ao quadr´atica. Muitas vezes, tamb´em empregaremos o termo gr´ afico da equa¸c˜ao a esse conjunto de pontos. Elipses, par´abolas e hiperb´oles s˜ao curvas planas que podem ser descritas por uma equa¸c˜ao quadr´atica como aquela. O termo cˆonicas empregado para esse conjunto de curvas ´e sugestivo, elas podem ser obtidas pela interse¸c˜ao de um cone circular reto com um plano, embora possam ser definidas de outros modos mais convenientes, como veremos. Nem toda equa¸c˜ao quadr´atica em duas vari´aveis tem como gr´afico uma daquelas trˆes curvas cl´assicas. Quando isso ocorre diremos que a curva ´e uma cˆonica degenerada. Seguem alguns exemplos de cˆonicas degeneradas. 1. A equa¸c˜ao quadr´atica E : x2 + y 2 − 2xy + x − y = 0 pode ser fatorada em E : (x − y)(x − y + 1) = 0. Nessa forma, ´e poss´ıvel identificar o seu gr´afico, ele ´e a uni˜ao de duas retas paralelas. 2. E : x2 − y 2 = 0 ´e uma equa¸c˜ao quadr´atica cujo gr´afico ´e a uni˜ao de duas retas concorrentes na origem do sistema do plano cartesiano, pois E : (x − y)(x + y) = 0. Enquanto a equa¸c˜ao E : (x − 2y)2 = 0 tem como gr´afico uma u ´ nica reta. 3. A equa¸c˜ao quadr´atica E : x2 + y 2 + 1 = 0 define o conjunto vazio e F : x2 + y 2 = 0 tem como gr´afico um ponto, qual seja, a origem do sistema de eixos do plano. ˆ 11.1. CONICAS I 275 Para o estudo das curvas cˆonicas (ou classifca¸c˜ao de equa¸c˜oes quadr´atica), precisamos de equa¸c˜oes reduzidas, ou equa¸c˜oes modelos, uma para cada tipo. Denotemos por d(P, Q) a distˆancia entre dois pontos do plano Euclidiano E. 2 Defini¸ c˜ ao 11.1.1 Uma elipse ´e um conjunto de pontos do plano Euclidiano 2 ancias a dois pontos fixos, F1 e F2 , chamados de E tais que a soma das distˆ focos, ´e uma constante 2a maior que a distˆancia 2c entre os focos. Reescrevamos a defini¸c˜ao, agora, algebricamente. A elipse ´e o conjunto dos pontos P do plano Euclidiano tais que d(P, F1) + d(P, F2 ) = 2a, onde 2a > 2c = d(F1 , F2 ). Para determinar uma equa¸c˜ao reduzida para a elipse, consideramos eixos Cartesianos em E2 tais que F1 (c, 0) e F2 (−c, 0). Feito essa escolha, se P (x, y) ´e um ponto tal que d(P, F1) + d(P, F2 ) = 2a, ent˜ao ! ! (x − c)2 + y 2 + (x + c) + y 2 = 2a ou ! ! (x − c)2 + y 2 = 2a − (x + c)2 + y 2 . Elevando ao quadrado e simplificando termos chegamos a ! a (x + c)2 + y 2 = a2 + cx. Novamente, elevando ao quadrado e simplificando termos obtemos (a2 − c2 )x2 + a2 y 2 = a2 (a2 − c2 ). √ Por defini¸c˜ao de elipse, a > c, portanto, se b = a2 − c2 > 0, quando dividimos au ´ ltima equa¸c˜ao por a2 b2 = a2 (a2 − c2 ) conclu´ımos que Proposi¸c˜ ao 11.1.1 A equa¸c˜ao da elipse no plano Euclidiano com focos F1 (c, 0) e F2 (−c, 0) ´e x2 y 2 + 2 = 1, a2 b (11.1) 276 ˆ ´ CAP´ITULO 11. CONICAS E QUADRICAS em que b2 = a2 − c2 . Ressaltamos que se considerarmos a forma quadr´atica q : R2 → R,    / 0 12 0 x a , q(x, y) = x y 1 0 b2 y a curva de n´ıvel E : q(x, y) = 1 ´e a mesma equa¸c˜ao, agora em R2 . Os autovalores do operador sim´etrico 1 1 2 2 A:R →R , A(x, y) = x, y , a2 b2 s˜ao n˜ao nulos e positivos. Um c´ırculo centrado em F e com (medida de) raio ρ ´e um caso particular de elipse. Nesse caso, os focos coincidem F = F1 = F2 e a = b = ρ. Logo, a equa¸c˜ao de um c´ırculo centrado em F (0, 0) e raio ρ ´e x2 y 2 + = 1. ρ2 ρ2 Por defini¸c˜ao, a excentricidade da elipse ´e c e= . a Observe que 0 ≤ e < 1. Quanto mais pr´oximo de zero for a excentricidade mais pr´oxima de um c´ırculo ´e a elipse. Veja na se¸c˜ao Leitura complementar desse cap´ıtulo, a rela¸c˜ao entre excentricidade e ´orbitas de planetas. A excentricidade do c´ırculo ´e e = 0. Exerc´ıcio 11.1.1 Mostre que a equa¸c˜ao da elipse com focos F1 (0, c) e F2 (0, −c) ´e x2 y 2 + 2 = 1, b2 a em que b2 = a2 − c2 . 2 Defini¸ c˜ ao 11.1.2 Uma hip´erbole ´e um conjunto de pontos do plano Euclidiano E2 tais que o m´odulo da diferen¸ca das distˆ ancias a dois pontos fixos, F1 e ancia 2c entre os F2 , chamados de focos, ´e uma constante 2a menor que a distˆ focos. ˆ 11.1. CONICAS I 277 Portanto, a hip´erbole ´e o conjunto dos pontos do plano Euclidiano tais que |d(P, F1) − d(P, F2 )| = 2a, onde 2a < 2c = d(F1 , F2 ). Para determinar uma equa¸c˜ao reduzida para a hip´erbole, seguimos o mesmo roteiro empregado para calcular a equa¸c˜ao canˆonica de uma elipse. Consideramos eixos Cartesianos em E2 tais que F1 (c, 0) e F2 (−c, 0). Feito isso, escrevemos a defini¸c˜ao da hip´erbole em termos de coordenadas x e y obtendo a equa¸c˜ao #! # ! # # 2 2 2 # (x − c) + y − (x + c) + y # = 2a. Elevando ao quadrado e simplificando termos, duas vezes, consecutivamente, chegamos a Proposi¸c˜ ao 11.1.2 A equa¸c˜ao da hip´erbole no plano Euclidiano com focos F1 (c, 0) e F2 (−c, 0) ´e x2 y 2 − 2 = 1, a2 b (11.2) em que b2 = c2 − a2 . Novamente, se considerarmos a forma quadr´atica q : R2 → R,    / 0 12 0 x a , q(x, y) = x y 1 0 − b2 y a hip´erbole ´e o gr´afico da curva de n´ıvel E : q(x, y) = 1. Os autovalores do operador sim´etrico 1 1 2 2 A(x, y) = x, − 2 y , A:R →R , a2 b s˜ao n˜ao nulos e um positivo e outro negativo. Por defini¸c˜ao, a excentricidade da hip´erbole ´e c e= . a Observe que 1 ≤ e. ˆ ´ CAP´ITULO 11. CONICAS E QUADRICAS 278 Exerc´ıcio 11.1.2 Mostre que a equa¸c˜ao da hip´erbole com focos F1 (0, c) e F2 (0, −c) ´e − x2 y 2 + 2 = 1, a2 b em que b2 = a2 − c2 . 2 Defini¸ c˜ ao 11.1.3 Uma par´ abola ´e o conjunto dos pontos do plano Euclidiano 2 ao E equidistantes de uma reta r, chamado de diretriz, e de um ponto F n˜ pertencente a` reta, chamada de foco. Proposi¸c˜ ao 11.1.3 A equa¸c˜ao da par´ abola no plano Cartesiano com foco F (c, 0) e reta diretriz r : y = −c ´e 4cy − x2 = 0. Prova Por defini¸c˜ao, um ponto P (x, y) pertence `a par´abola se, e somente se, d(P, F ) = d(P, r). Em termos de coordenadas essa equa¸c˜ao fica sendo ! ! x2 + (y − c)2 = (y + c)2 , ou equivalentemente, x2 + y 2 − 2cy + c2 = y 2 + 2cy + c2 . De onde segue a equa¸c˜ao desejada. 2 Exerc´ıcio 11.1.3 Mostre que a equa¸c˜ao da par´abola com foco F (0, c) e reta 2 diretriz r : x = −c ´e y 2 − 2cx = 0. A estrat´egia mais simples que pode ser adotada no estudo de uma equa¸c˜ao qu´adrica em x e y na qual o coeficiente do termo xy ´e igual a zero, estrat´egia explorada no Ensino M´edio, consiste em completar quadrados e transladar eixos. Feito isso, identificamos os elementos da cˆonica comparando-a com as equa¸c˜oes reduzidas. Recordemos a estrat´egia com exemplos. ˆ 11.1. CONICAS I 279 A equa¸c˜ao quadr´atica E : x2 − 3y 2 + 12y + 2x − 20 = 0, pode ser reescrita como E : (x2 + 2x + 1) − 3(y 2 − 4y + 4) − 9 = 0, ou equivalentemente, E : (x + 1)2 − 3(y − 2)2 = 32 . Considerando a mudan¸ca de sistema de coordenadas (obtido por transla¸c˜ao dos eixos)   x =x+1 , y = y − 2 com uma substitui¸c˜ao chegamos a 2 2 E : x − 3y = 3 2 2 ∴ 2 x y √ E: − = 1. (3)2 ( 3)2 Essa ´e a equa¸c˜ao reduzida de uma hip´erbole com focos sobre o eixo ox . As coordenadas dos pontos do plano Cartesiano dependem do sistema de eixos escolhidos, portanto, ao mudarmos os eixos mudamos tamb´em a equa¸c˜ao, mas os pontos que satisfazem ambas equa¸c˜oes s˜ao os mesmos, apenas suas coordenadas s˜ao diferentes. Examinemos a equa¸c˜ao quadr´atica E : 3y 2 − 3y + 2x − 6 = 0. Completando o quadrado da vari´avel y obtemos 2 3 1 1 3 2 3 y − y + 2 + 2x − 3 − 2 = 0 = 0. ∴ 3 y− +2 x− 2 2 2 4 A mudan¸ca de coordenadas pela transla¸c˜ao   x = x − 34 , y  = y − 12 e uma manipula¸c˜ao alg´ebrica nos d´a 2 2 E : y  + x = 0, 3   ou seja, o gr´afico da equa¸c˜ao original ´e uma par´abola com foco F − 13 , 0 sobre o eixo ox e reta diretriz vertical r : x = 13 , Exerc´ıcio 11.1.3, (pg.278). ˆ ´ CAP´ITULO 11. CONICAS E QUADRICAS 280 Exerc´ıcios propostos 11.1.1 1. Classifique as cˆonicas e esboce seus gr´aficos. (a) E : 9x2 + 4y 2 + 18x − 24y + 9 = 0. (b) E : 9x2 + 4y 2 + 18x − 24y + 45 = 0. (c) E : 9x2 + 4y 2 + 18x − 24y + 50 = 0. 2. Classifique as cˆonicas e esboce seus gr´aficos. (a) E : x2 + 2y 2 + 2x − 16y + 1 = 0. (b) E : x2 + 2y 2 + 2x − 16y + 65 = 0. (c) E : x2 + 2y 2 + 2x − 16y + 70 = 0. 3. Classifique as cˆonicas e esboce os seus gr´aficos. (a) E : x2 − y 2 + x − y = 1. (c) E : x2 − y 2 + x − y = 0. (b) E : x2 − y 2 + x − y = −1. 11.2 Cˆ onicas II Passemos a examinar equa¸c˜oes quadr´aticas em duas vari´aveis cujo termo xy tem coeficiente n˜ao nulo. O passo incial para estudarmos um tal tipo de equa¸c˜ao quadr´atica, por exemplo, E : 2x2 − y 2 + 4xy − 1 = 0 ´e escrevˆe-la matricialmente, E: / x y 0  2 2 2 −1  x y  = 1. (11.3) Essa forma de apresenta¸c˜ao nos remete imediatamente a` Se¸c˜ao 10.7, (pg.261), onde estudamos digonaliza¸c˜ao formas quadr´aticas. Considere a foma quadr´atica q : R2 → R, definida matricialmente por q(v) = [v]t [A] [v], ˆ 11.2. CONICAS II 281 em que [A] ´e a matriz na base canˆonica do operador linear sim´etrico A : R2 → R2 , A(x, y) = (2x + 2y, 2x − y). Aquela equa¸c˜ao, considerada como equa¸c˜ao em R2 , ´e precisamente a curva de n´ıvel 1 de q, E : q(v) = 1. Para simplificar a equa¸c˜ao de modo que n˜ao esteja presente o termo xy escolheremos eixos coordenados no plano Cartesiano cujas dire¸c˜oes s˜ao determinadas pelos autovalores de A. Detalhemos a constru¸c˜ao, pois ela se repetir´a em todos os exemplos. O polinˆomio caracter´ıstico de A ´e o polinˆomio p(λ) = (λ − 3)(λ + 2), portanto os autovalores s˜ao λ1 = 3 e λ2 = −2. Se β = {v1 , v2 } ´e uma base espectral com A(v1 ) = 3v1 e A(v2 ) = −2v2 , pela Proposi¸c˜ao 10.7.1, (pg.262), substitu´ındo  [v] = [id]βC [v]β , onde [v]β = x y  , na equa¸c˜ao (11.3) obtemos E: [v]β [A]ββ [v]β = /  x y  0   3 0 0 −2 x y  = 1. Efetuando as multiplica¸c˜oes chegamos a 2 2 2 E : 3x − 2y = 1. ∴ E:$ x √1 3 2 %2 − $ y √1 2 %2 = 1. Portanto, o gr´afico da equa¸c˜ao ´e uma hip´erbole no plano Cartesiano. Completemos o exemplo para esclarecer determinados aspectos geom´etricos envolvidos nessas manipula¸c˜oes alg´ebricas. Os autoespa¸co associado aos autovalores de A s˜ao, respectivamente,  Vλ1 = 2 1 √ ,√ 5 5   e Vλ1 = 1 2 −√ , √ 5 5  . A escolha de geradores unit´arios para os autoespa¸cos foi proposital, entretanto, a ortogonalidade entre v1 e v2 decorre do Teorema espectral. ˆ ´ CAP´ITULO 11. CONICAS E QUADRICAS 282 A equa¸c˜ao ´e reduzida em rela¸c˜ao a`s coordenadas dos pontos nos eixos coordenados perpendiculares definidos por: • o x$ determinado pelos pontos O(0, 0) e % 2 1 P √5 , √5 ; pelos pontos O(0, 0) e • o y$ determinado % Q − √15 , √25 . Exemplo 11.2.1 Examinemos a equa¸c˜ao quadr´atica E : 2x2 − y 2 + 4xy + x − 3y − 1 = 0. Essa equa¸c˜ao foi obtida da equa¸c˜ao descrita no u ´ltimo exemplo por acr´escimo de parcelas de grau 1. Inicialmente devemos escrevˆe-la matricialmente,      / 0 2 / 0 x 2 x E: x y + 1 −3 = 1. (11.4) 2 −1 y y Como antes, o segundo passo ´e aplicar a Proposi¸c˜ao 10.7.1, (pg.262), para representar a forma quadr´atica q(v) = [v]t [A] [v] na base espectral β = {v1 , v2 } do operador linear sim´etrico A : R2 → R2 , A(x, y) = (2x + 2y, 2x − y), base j´a calculada anteriormente. Substitu´ındo  [v] = [id]βC [v]β , onde [v]β =  x y ⎡  e [Id]βC = ⎣ na equa¸c˜ao (11.4) obtemos E : [v]tβ [A]ββ [v]β + / Observando que  [A]ββ = 1 −3 3 0 0 −2 0 [Id]βC [v]β = 1.  , √2 5 − √15 √1 5 √2 5 ⎤ ⎦, ˆ 11.2. CONICAS II 283 efetuando multiplica¸c˜oes e algumas manipula¸c˜oes alg´ebricas, chegamos a 2 7 2 2 E : 3x − 2y  − √ x − √ y  = 1. 5 5 Como nessa nova equa¸c˜ao da curva que estamos procurando identificar, o coeficiente do termo x y  ´e igual a zero, podemos completar quadrados e transladar os eixos coordenados para obter um equa¸c˜ao reduzida. Completando os quadrados, reescrevemos a equa¸c˜ao como 2 2 1 7 19   E:3 x − √ −2 y + √ =− , 120 3 5 4 5 a mudan¸ca de coordenadas pela transla¸c˜ao ⎧  1  ⎨ x = x − 3√5 ⎩ y  = y  + , 7 √ 4 5 nos leva `as equa¸c˜oes 2 E : 3x − 2y 2 19 =− 120 ∴ 2 2 19 360 19 240 y x E : − $" %2 + $" %2 = 1. Pelo Exerc´ıcio 11.1.2, (pg.278), o gr´afico de E ´e uma hip´erbole com focos sobre 2 o eixo oy . √ Exemplo 11.2.2 Consideremos a equa¸c˜ao E : x2 − 2 3xy + 3y 2 − y = 0. Sua apresenta¸c˜ao matricial ´e √      / 0 / 0 x 1 − 3 x √ E: x y + 0 −1 = 1. (11.5) y y 3 − 3 Devemos representar a forma quadr´atica q(v) = [v]t [A] [v] numa base espectral β = {v1 , v2 } do operador linear A : R2 → R2 , √ √ A(x, y) = (x − 3y, − 3x + 3y). ˆ ´ CAP´ITULO 11. CONICAS E QUADRICAS 284 Para isso necessitamos dos autovalores de A, que s˜ao λ1 = 0 e λ2 = 4 e dos autoespa¸cos correspondentes,   √  √  3 1 1 3 Vλ1 = , e Vλ2 = . − , 2 2 2 2 Substitu´ındo  [v] = [id]βC [v]β , onde [v]β = na equa¸c˜ao (11.4) obtemos E : [v]tβ [A]ββ [v]β + Observando que /  x y ⎡  1 −3 e 0 [Id]βC = ⎣ √2 5 − √15 √1 5 √2 5 ⎤ ⎦, [Id]βC [v]β = 1.   0 0 = , 0 4 efetuando multiplica¸c˜oes e algumas manipula¸c˜oes alg´ebricas, chegamos a 1 7 2 E : 4y  + √ x − √ y  = 1. 5 5 Como nessa nova equa¸c˜ao da curva que estamos procurando identificar, o coeficiente do termo x y  ´e igual a zero, podemos completar quadrados dos termos envolvendo y  e transladar os eixos de E2 para obter um equa¸c˜ao reduzida. Completando os quadrados, reescrevemos a equa¸c˜ao como 2 1  7 129  E : √ x +4 y − √ = . 80 5 8 5 a mudan¸ca de coordenadas pela transla¸c˜ao √ ⎧  129 ⎨ x = x − 80 5 , ⎩  y = y  − 8√7 5 [A]ββ nos d´a 1 2 √ x + y  = 0. 4 5 Essa ´e a equa¸c˜ao reduzida de uma par´abola. Proposi¸ c˜ ao 11.2.1 1. Dˆe a equa¸c˜ao reduzida e identifique o gr´ afico. 2 ´ 11.3. QUADRICAS I (a) E : 2xy = 1. 285 (b) E : 2xy = 0. (c) E : 2xy = −1. 2. Dˆe a equa¸c˜ao reduzida e identifique o gr´ afico. (a) E : x2 + y 2 − 2xy = 9. (c) E : x2 + y 2 − 2xy = 0. (b) E : x2 + y 2 − 2xy = −16. 3. Dˆe a equa¸c˜ao reduzida e identifique o gr´ afico. √ (a) E : x2 +y 2 −2xy+2x+2 2y = 9. −16. √ √ (b) E : x2 + y 2 − 2xy + 2x + 2 2y = (c) E : x2 +y 2 −2xy+2x+2 2y = 0. 4. Dˆe a equa¸c˜ao reduzida e identifique o gr´ afico. (a) E : x2 + y 2 − xy = 1. (b) E : 16x2 − 9y 2 − 64x + 72y = 17. √ (c) E : 13x2 + 7y 2 − 6 3xy = 16. (d) E : 4x2 + 6xy − 4y 2 + 20x − 20y − 23 = 0. (e) E : y 2 − 6y + 8x + 1 = 0. (f) E : x2 + 9y 2 + 6xy + 25 = 0. (g) E : 16x2 + 9y 2 − 24xy − 15x − 20y + 50 = 0. (h) E : 3x2 + 3y 2 − 2xy − 2x − 10y = 1. √ √ (i) E : xy + 6 2x + 4 2y + 30 = 0. √ √ (j) E : x2 + 4y 2 + 4xy + 10 5x + 5 5y + 5 = 0. 11.3 Qu´ adricas I Iniciaremos o estudo de equa¸c˜oes polinomiais de grau 2 em trˆes vari´aveis, E : ax2 + bxy + cxz + dy 2 + eyz + f z 2 + gx + hy + iz + j = 0, onde a, b, c, d, e e f s˜ao constantes n˜ao nulas, simultaneamente. Desejamos identificar o lugar geom´etrico do espa¸co Cartesiano determinado pela equa¸c˜ao, ou seja, identificar o conjunto dos pontos P (x, y, z) de E3 cujas coordenadas satisfazem a equa¸c˜ao dada. Tais conjuntos s˜ao chamados de qu´adricas. ˆ ´ CAP´ITULO 11. CONICAS E QUADRICAS 286 O m´etodo para identificar o gr´afico da equa¸c˜ao segue de perto aquele feito para cˆonicas. Estabelecemos modelos de equa¸c˜oes, as equa¸co˜es reduzidas, e as qu´adricas correspondente. Ent˜ao, dada uma equa¸c˜ao quadr´atica, por convenientes mudan¸cas do sistema de coordenadas encontra-se uma equa¸c˜ao que esteja numa listagem previamente conhecida. Novamente, a ferramenta principal desse estudo ´e o processo de diagonaliza¸c˜ao de uma forma quadr´atica. Segue uma tabela b´asica para o estudo de qu´adricas com o esbo¸co do gr´afico correspondente. E: x2 a2 + 2 y2 b2 E : − xa2 − + y2 b2 z2 c2 + = 1. z2 c2 = 1. E: x2 a2 + y2 b2 − z2 c2 = 1. E: x2 a2 + y2 b2 − z2 c2 = 0. ´ 11.3. QUADRICAS I E: x2 a2 + y2 b2 − E: x2 a2 + y2 b2 = 1. z c = 0. 287 2 E : − xa2 + E: x2 a2 − y2 b2 y2 b2 − z c = 0. = 1. 2 E : − xa2 − y = 0. Al´em dessas, existem as qu´ adricas degeneradas que s˜ao planos, retas, pontos e o conjunto vazio. ˆ ´ CAP´ITULO 11. CONICAS E QUADRICAS 288 1. O gr´afico da equa¸c˜ao quadr´atica E : (x + y + z)(x + y + z + 1) = 0 corresponde a dois planos paralelos, enquanto o gr´afico da equa¸c˜ao F : (x−y)(x+ y + z) = 0 s˜ao dois planos que se interceptam. Por outro lado, a equa¸c˜ao quadr´atica G : (x + y + z)2 = 0 determina um u ´ nico plano. 2. O eixo coordenado oz ´e o gr´afico da equa¸c˜ao E : x2 + y 2 = 0. O gr´afico da equa¸c˜ao F : x2 +y 2 +z 2 = 0 reduz-se a um ponto, qual seja, O(0, 0, 0). A equa¸c˜ao quadr´atica G : x2 + y 2 + z 2 + 1 = 0 determina o conjunto vazio. Embora a t´ecnica que apresentaremos na pr´oxima se¸c˜ao seja geral, por economia de tempo, determinadas equa¸c˜oes quadr´aticas podem ser classificadas sem esfor¸cos maiores. Quando os coeficientes dos termos mistos, xy, xz e yz, s˜ao nulos, a t´ecnica de completar quadrados e transladar eixos coordenados permite, muitas vezes, identific´a-las facilmente. Dada a equa¸c˜ao quadr´atica E : x2 − 3y 2 + 2z 2 + 2x − 5z − 2 = 0, ao completarmos os quadrados, 25 5 25 2 E : (x + 2x + 1) − 3y + 2 z − 2 · z + = 0, −2−1−2· 4 16 16 2 2 podemos reescrevˆe-la como 2 5 49 E : (x + 1) − 3y + 2 z − = . 4 8 2 2 A mudan¸ca de coordenadas pela transla¸c˜ao ⎧  ⎨ x =x+1 y = y , ⎩  z = z − 54 nos d´a 2 y E:x −" 2 49 24 2 z +" = 1. 49 16 Pela tabela, essa equa¸c˜ao define um hiperbol´oide de uma folha. ´ 11.4. QUADRICAS II 289 Exerc´ıcios propostos 11.3.1 1. Identifique a qu´ adrica encontrando a equa¸c˜ao reduzida. (a) E : 3x2 − 12x + 6y 2 + 12y + 2z 2 − 12z + 30 = 0. (b) E : z 2 + y 2 = 2(z + y). (c) E : 3x − z 2 + y 2 − 8z = 0. (d) E : 4x2 + 4y 2 + 4z 2 − x − y − z = 27. (e) E : y 2 − 2y + z 2 − 4z + 5 = 0. (f) E : 9x2 + 4y 2 + 16y + 36z + 16 = 0. 11.4 Qu´ adricas II Passemos ao estudo de um equa¸c˜ao quadr´atica em trˆes vari´aveis com termos mistos. Por clareza, ´e conveniente iniciarmos com uma equa¸c˜ao sem termos de grau 1. A equa¸c˜ao quadr´atica E : 2xz − y 2 = 1 pode ser escrita matricialmente como ⎤⎡ ⎤ ⎡ x 0 1 / 0 0 ⎦ ⎣ ⎣ y ⎦ = 1. 0 −1 0 E: x y y z 1 0 0 (11.6) Diagonalizemos a forma quadr´atica q : R3 → R, definida por q(v) = [v]t [A] [v], em que [A] ´e a matriz na base canˆonica do operador linear sim´etrico A : R2 → R2 , A(x, y) = (z, −y, x). Para simplificar a equa¸c˜ao de modo que n˜ao estejam presentes os termos mistos, escolheremos eixos coordenados do espa¸co Cartesiano E3 cujas dire¸c˜oes s˜ao determinadas pelos autovalores de A. Calculando o polinˆomio caracter´ıstico de A obtemos p(λ) = (λ2 − 1)(λ + 1). ˆ ´ CAP´ITULO 11. CONICAS E QUADRICAS 290 Logo, os autovalores de A s˜ao λ1 = 1 e λ2 = −1 e λ3 = −1. Seja β = {v1 , v2 , v3 } uma base espectral tal que A(v1 ) = v1 , A(v2 ) = −v2 e A(v3 ) = −v3 . Pela Proposi¸c˜ao 10.7.1, (pg.262), substitu´ındo ⎡ [v] = [id]βC [v]β , ⎤ x [v]β = ⎣ y  ⎦ , z onde na equa¸c˜ao (11.6) obtemos E : [v]β [A]ββ [v]β = / x y  z  0 ⎤⎡  ⎤ x 1 0 0 ⎦ ⎣ ⎣ 0 −1 0 y  ⎦ = 1. 0 0 −1 z ⎡ Efetuando as multiplica¸c˜oes chegamos a 2 2 2 E : x − y  − z  = 1. Portanto, o gr´afico da equa¸c˜ao ´e um hiperbol´oide de duas folhas. Caso desejemos saber quais os novos eixos coordenados devemos determinar os autovalores de A. Os autoespa¸co associado aos autovalores de A s˜ao, respectivamente,     1 1 1 1 √ , 0, √ Vλ1 = e Vλ1 = (0, 1, 0), √ , 0, − √ . 2 2 2 2 A escolha de geradores unit´arios para os autoespa¸cos foi proposital, entretanto, a ortogonalidade entre v1 e v2 decorre do Teorema espectral. A equa¸c˜ao ´e reduzida em rela¸c˜ao a`s coordenadas dos pontos nos eixos coordenados perpendiculares definidos por: • o x determinado pelos pontos O(0, 0, 0) e P $ √1 , 0, √1 2 2 % ; • o y  determinado pelos pontos O(0, 0, 0) e Q (0, 1, 0); $ % • o y  determinado pelos pontos O(0, 0, 0) e R √12 , 0, − √12 . ´ 11.4. QUADRICAS II 291 Exerc´ıcio 11.4.1 Modificando um pouco a equa¸c˜ao anterior, E : 2xz − y 2 = −1. A classifica¸c˜ao dessa qu´adrica segue os mesmos passos da anterior, a diferen¸ca na resposta reside na equa¸c˜ao reduzida obtida, 2 2 2 E : −x + y  + z  = 1. Essa qu´adrica tem como gr´afico um hiperbol´oide de uma folha. Da mesma forma, a qu´adrica E : 2xz − y 2 = 0, nos leva `a equa¸c˜ao reduzida 2 2 2 E : x − y  − z  = 0. Portanto, seu gr´afico ´e um cone. 2 As trˆes u ´ ltimas qu´adricas podem ser visualizadas em um u ´ nico gr´afico. O cone, o hiperbol´oide de uma folha e o hiperbol´oide de duas folhas, formam uma fam´ılia de qu´adricas dadas pela mesma forma quadr´atica em R3 . Exerc´ıcio 11.4.2 Cassifiquemos a qu´adrica a seguir determinando uma equa¸c˜ao reduzida E : x2 + 2y 2 + z 2 + 2xy + 2yz − y + 2z = 0. Reescrevamos essa equa¸c˜ao em forma matricial, ⎡ ⎤ ⎤⎡ ⎤ ⎡ x 1 1 0 / 0 x / 0 E : x y z ⎣ 1 2 1 ⎦ ⎣ y ⎦ + 0 −1 2 ⎣ y ⎦ = 0. z z 0 1 1 (11.7) O operador linear A(x, y, z) = (x + y, x + 2y + z, y + z) em R3 tem polinˆomio caracter´ıstico p(λ) = λ(λ − 1)(λ − 3). Portanto, os autovalores do operador s˜ao λ1 = 0, λ2 = 1 e λ3 = 3. Resolvendo o sistema, para cada λi , ⎤⎡ ⎤ ⎡ ⎤ ⎡ x 0 −1 0 λi − 1 ⎣ −1 ⎦ ⎣ y ⎦ = ⎣ 0 ⎦ −1 λi − 2 z 0 0 −1 λi − 1 ˆ ´ CAP´ITULO 11. CONICAS E QUADRICAS 292 determinamos os autoespa¸cos do operador, quais sejam:  1 1 1 √ , −√ , √ ; Vλ1 = 3 3 3   1 1 √ , 0, − √ Vλ2 = ; 2 2   2 1 1 √ ,√ ,√ , Vλ3 = 6 6 6  Pela Proposi¸c˜ao 10.7.1, substitu´ındo ⎡  ⎤ x β ⎣ [v] = [id]C [v]β , onde [v]β = y  ⎦ z ⎡ e ⎢ [Id]βC = ⎣ √1 3 − √13 √1 3 √1 2 0 − √12 √1 6 √2 6 √1 6 ⎤ ⎥ ⎦, na equa¸c˜ao (11.7) obtemos E : [v]β [A]ββ [v]β + / 0 −1 2 0 [Id]βC [v]β . Efetuando as multiplica¸c˜oes chegamos a uma equa¸c˜ao sem os termos mistos, 2 2 E : y  + 3z  + √ 3x − √ 2y  − 3 = 0. 2 O restante do exerc´ıcio ´e completar os quadrados e fazer uma transla¸c˜ao de eixos conveniente. Completando o quadrado temos   √ 2 √ √ 2 3 2    =0 + 3z + 3 x − E: y − 2 2 A mudan¸ca de coordenadas pela transla¸c˜ao √ ⎧  3  x = x − ⎨ √2 2 ,   ⎩ y = y − 2 z =z nos d´a 2 2 z  y  E : √ + 1 + x = 0. √ 3 3 Essa ´e uma equa¸c˜ao reduzida de um parabol´oide. 2 11.5. LEITURA COMPLEMENTAR 293 Exerc´ıcios propostos 11.4.1 1. Identifique a qu´ adrica determinando a equa¸c˜ao reduzida. (a) E : 4x2 + 1y 2 + z 2 − 4xy + 4xz − 2yz + 12x + 6z = 3. (b) E : 2xy + 2xz + 2yz = 0. (c) E : x2 − 2yz + 2x + 2z + 1. (d) E : 2x2 + 2y 2 + 2z 2 + 2xy + 2xz + 2yz − 4x + 6y − 2z + 3 = 0. (e) E : z 2 + 2xy + 2x + 2y + 4z + 3 = 0. (f) E : x2 + y 2 − 4z 2 + 2xy − 4x − 2z = 0. (g) E : x2 + 2xy + 2xz + 4x − y + 2z = 1. 2. Identifique a qu´ adrica determinando a equa¸c˜ao reduzida. (a) x2 + y + z = 0. 11.5 Leitura complementar 1. Excentricidade de ´ orbitas Na Renascen¸ca, o alem˜ao Johannes Kepler (1571 − 1630) formulou leis que descrevem as o´rbitas dos planetas. Uma delas, afirma que ”qualquer planeta gira em torno do Sol, descrevendo uma ´orbita el´ıptica, da qual o Sol ocupa um dos focus”. Hoje, as excentricidade das ´orbitas de todos os planetas s˜ao conhecidas. Em valores aproximados, seguem trˆes exemplos. Terra: e = 0, 02. Plut˜ao: e = 0, 29 (planeta com maior excentricidade). Netuno: e = 0, 009 (planeta com menor excentricidade). Cometas peri´odicos s˜ao regidos pela mesma lei e tˆem excentricidades pr´oximas ao valor 1. O mais famoso, o cometa de Halley, tem um per´ıodo de revolu¸c˜ao em torno do Sol de 76 anos com excentricidade e = 0, 967. Um cometa peri´odico descreve uma ´orbita com grande excentricidade, porque, sup˜oe-se, origina-se nos limites externos do sistema solar. Quando ele cai em dire¸c˜ao ao Sol, sem coliz˜ao, pode adquirir uma ˆ ´ CAP´ITULO 11. CONICAS E QUADRICAS 294 o´rbita el´ıptica e se tornar um cometa peri´odico ou adquirir uma o´rbita hiperb´olica e ser lan¸cado para fora do sistema solar. Nesse u ´ltimo caso, a excentricidade ´e maior que 1. 2. F´ ormula de Cardano-Tartaglia Para determinar, por radicais, as ra´ızes de uma equa¸c˜ao de grau 3, λ3 + a1 λ2 + a2 λ + a3 = 0, existe a f´ormula do matem´atico italiano Nicolo Tartaglia (1500 − 1557), divulgada por outro matem´atico italiano, Giordano Cardano (1501 − 1576). Essa f´ormula causou tal impacto entre os algebrista, que o ano de sua publica¸c˜ao, 1545, ´e considerado, por muitos, como o in´ıcio do per´ıodo moderno da Matem´atica. A f´ormula inclue as ra´ızes complexas. Considere os seguintes n´ umeros constru´ıdos com os coeficientes da equa¸c˜ao de grau 3: a) p = a2 − 3 c) P = 3 a21 ; 3 b) q = − q22 + e) w1 = − 12 + " p2 27 + q2 ; 4 √ d) Q = 2a31 27 3 3 − a1 a2 3 − q22 f) w2 = − 12 − 3 ; 2 + a3 ; " 2 − p27 + q2 ; 4 √ 3 . 2 ubicas da unidade. Com essa nota¸c˜ao, Observe que w1 e w2 s˜ao ra´ızes c´ as ra´ızes do polinˆomio s˜ao: i) λ1 = P + Q − a31 ; ii) λ2 = w1 P + w2 Q − iii) λ3 = w2 P + w1 Q − a1 ; 3 a1 . 3 Como referˆencia citamos [08]. 11.6 Respostas e sugest˜ oes Se¸ c˜ ao 10.1 1) Complete o quadrado e fa¸ca mudan¸ca de coordenadas   x = x+1 . y = y − 3 ˜ 11.6. RESPOSTAS E SUGESTOES ⎧ ⎨ Elipse. 2 2 x y (a) ⎩ 1 2 + 1 2 = 36. (3) (2) ⎧ ⎨ Um2 ponto.2 y x (b) ⎩ 1 2 + 1 2 = 0. (3) (2) 295 ⎧ ⎨ Vazio. 2 2 x y (c) ⎩ 1 2 + 1 2 = −5. (3) (2) 2) Complete o quadrado e fa¸ca mudan¸ca de coordenadas   x = x+1 . y = y − 8   Um ponto. C´ırculo. (b) 2 2 2 2 (a) x + y  = 0. x + y  = 64. 3) Complete o quadrado e fa¸ca mudan¸ca de coordenadas   x = x + 12 y  = y + 12   Hip´erbole. Hip´erbole. (b) (a) 2 2 2 2 x − y  = −1. x − y  = 1.  (c)  (c) Vazio. 2 2 x + y  = −5. Duas reta. 2 2 x − y  = 0. Se¸ c˜ ao 10.2 1) As equa¸c˜oes s˜ao da forma [v]t [A][v] = a, onde   0 1 [A] = e a ∈ {1, 0, −1}. 1 0 Os autovalores s˜ ao λ1 = 1 e λ2 = −1 com autoespa¸cos associados Vλ1 = [[ √12 (1, −1)]] 1 e Vλ2 = [[ √2 (1, 1)]]. Com as coordenadas do vetor na base espectral,  *     /  0 1 1 1 0 x x y β = √ (1, −1), √ (1, 1) , temos = a. y 0 −1 2 2    Duas retas. Hip´erbole. Hip´erbole. (b) (c) 2 2 2 2 2 2 (a) x − y  = 0. −x + y  = 1. x − y  = 1. 2) As equa¸c˜oes s˜ao da forma [v]t [A][v] = a, onde   1 −1 [A] = e −1 1 a ∈ {9, 0, −16}. Os autovalores s˜ ao λ1 = 2 e λ2 = 0 com autoespa¸cos associados Vλ1 = [[ √12 (1, −1)]] e 1 Vλ2 = [[ √2 (1, 1)]]. Com as coordenadas do vetor na base espectral,  *     /  0 2 0 1 1 x x y β = √ (1, −1), √ (1, 1) , temos = a. 0 0 y 2 2 ˆ ´ CAP´ITULO 11. CONICAS E QUADRICAS 296  (a)  Duas retas. 2 x = 9. (b)  Uma reta. 2 x = 0. (c) Vazio. 2 x = −16. √ √ 3) As equa¸c˜oes s˜ao da forma [v]t [A][v] + [2 2, 2 2] [v] = a, onde   1 −1 [A] = e a ∈ {9, 0, −16}. −1 1 Os autovalores s˜ ao λ1 = 2 e λ2 = 0 com autoespa¸cos associados Vλ1 = [[ √12 (1, −1)]] e Vλ2 = [[ √12 (1, 1)]]. Com as coordenadas do vetor na base espectral,  β= temos ou seja, / x y 0  2 0 * 1 1 √ (1, −1), √ (1, 1) , 2 2 0 0  2 x y  + / 0 4 0  x y  = a, 2 a x x  + y − = 0 ∴ + y  = 0. 22 22 22 Au ´ ltima equa¸c˜ao foi obtida pela tranla¸c˜ao de eixos   x = x .  y = y  − 2a2 Portanto, (a), (b) e (c) s˜ao par´ abolas. 4) A nota¸c˜ao x e y  indica que foi realizada apenas uma mudan¸ca de coordenadas (rota¸c˜ao ou transla¸c˜ao de eixos), enquanto x e y  indica que foram realizadas as duas mudan¸cas. ⎧  Vazio. ⎨ Elipse. 2 2 (f ) 2 y (a) x y  + 25 = 0. ⎩ “√ 2 ”2 + “√ 1 ”2 = 1. 3 2  ⎧ Par´ abola. (g) 2 ⎨ Hip´erbole.  x − y  = 0. 2 2   (b) y ⎧ ⎩ x1 2 − 1 2 = 1. (4) (3) ⎨ Elipse. 4 2 2 (h) y  x Elipse. √ 2 + √ 2 = 1. ⎩ 2 (c) ( 3) ( 6) x 2 22 + y = 1. 4 4 Hip´erbole. Hip´erbole. (i) 2 2 (d) 2 2 y x − x62 + y62 = 1. − = 1. 2 2 2 2   Par´ abola. Par´ abola. (e) (j)  2 2 8x + y = 0. x − 3y  = 0. ˜ 11.6. RESPOSTAS E SUGESTOES 297 Se¸ c˜ ao 10.3 1) Complete os quadrados. 4 Elips´ oide. 2 2 2 (a) x z √ 2 + y  + √ 2 = 1. ( 2) ( 3)  Cilindro. 2 2 (b) y  + z  = 2. 4 Parabol´ oide hiperb´ olico. 2 (c) x 2 − z  = 0. 1 + y 3 4 (d) Esfera. 2 2 2 x + y  + z  = ⎧ ⎨ Parabol´ oide. (e) ⎩ 2 2 x 1 3 ( ) 2 + y 1 2 2 ( ) + z 62 $√ 387 8 = 0. %2 . Cap´ıtulo 12 Matrizes O leitor familiarizado com os conceitos envolvendo matrizes, se desejar, pode dispensar a leitura desse cap´ıtulo. Aqu´ı est˜ao relacionadas as defini¸c˜oes e propriedades utilizadas no texto. Uma matriz ´e um objeto matem´atico cuja existˆencia ´e independente do conceito de transforma¸c˜ao linear, embora possua uma rela¸c˜ao estreita com elas. Tamb´em s˜ao largamente utilizadas para c´alculos em v´arias a´reas do Conhecimento. 12.1 Matrizes Uma matriz m × n com entradas entradas reais ´e uma sequˆencia de escalares N = [aij ], com aij ∈ R, organizada na forma ⎡ ⎢ ⎢ N =⎢ ⎣ a11 a21 .. . a12 a22 .. . ··· ··· a1n a2n .. . ⎤ ⎥ ⎥ ⎥. ⎦ am1 am2 · · · amn O ´ındice i de aij indica a linha na qual a entrada encontra-se e o ´ındice j indica a coluna. A nota¸c˜ao Ni indicar´a a i−´esima matriz linha de N, ou seja, a matriz 1×n cujas entradas s˜ao as entradas da i-´esima linha de N. Da mesma forma, N j indicar´a a j-´esima matriz coluna de N, a matriz m×1 formada pelas 298 12.1. MATRIZES 299 entradas da j−´esima coluna de N. Mais claramente, Ni = / ai1 ai2 · · · ain 0 e ⎡ ⎤ a1j ⎢ a2j ⎥ ⎥ Nj = ⎢ ⎣ : ⎦. amj Induzimos uma estrutura de espa¸co vetorial no conjunto das matrizes m×n, conjunto este denotado por M(m × n, R), definindo a adi¸c˜ao de matrizes e a multiplica¸c˜ao de uma matriz por um escalar, respectivamente por N + P = [aij + bij ], λN = [λaij ], em que N = [aij ], P = [bij ] ∈ M(m × n, R) e λ ∈ R. O vetor nulo do espa¸co ´e a matriz identicamente nula, isto ´e, a matriz com todas as entradas nulas, e −N = [−aij ]. Com esta estrutura M(m × n, R) torna-se um espa¸co vetorial de dimens˜ao mn. Chamaremos de base canˆonica ao conjunto α = {E11 , E12 , ..., Emn }, onde Eij denota a matriz cuja ij-´esima entrada vale 1 e todas outras entradas s˜ao nulas. A defini¸c˜ao da estrutura linear estabelece uma identifica¸c˜ao natural entre o os reais R como o espa¸co M(1 × 1, R). Defini¸ c˜ ao 12.1.1 0 N = [aij ] ∈ M(m × n, tR). A matriz transposta de N / tSeja t ´e a matriz N = aij ∈ M(n × m, R) tal que aij = aji . Exemplo 12.1.1 Ilustraremos as u ´ ltimas defini¸c˜oes com alguns c´alculos e nenhum coment´ario. Considere as matrizes 2 × 3 com entradas reais     0 1 1 −2 0 4 N= e P = . 1 0 3 0 1 2 Seguindo as defini¸c˜oes temos  N +P = −2 1 5 1 1 5   , 2N = 0 2 2 2 2 6 ⎡  , ⎤ 0 1 Nt = ⎣ 1 0 ⎦ . 1 3 2 Dadas duas matrizes N = [aij ] ∈ M(m × n, R) e P = [bij ] ∈ M(n × r, R), CAP´ITULO 12. MATRIZES 300 utilizamos o fato dos comprimentos das linhas de N ser igual ao comprimento das colunas de P , para construir uma nova matriz NP = [cij ] ∈ M(m × r, R), chamada de produto de N por P , cujas entradas s˜ao definidas pela regra cij = ai1 b1j + ai2 b2j + · · · + ain bnj . Note que a matriz produto tem comprimento m × r. Exemplo 12.1.2 Efetuando o produto das seguintes matrizes 3 × 2 e 2 × 2 ⎤ ⎡   1 2 1 1 N = ⎣ 0 −1 ⎦ e P = 2 0 3 0 obtemos a matriz ⎡ ⎤ ⎡ ⎤ 1×1+2×2 1×1+2×0 5 1 NP = ⎣ 0 × 1 − 1 × 2 0 × 1 − 1 × 0 ⎦ = ⎣ −2 0 ⎦ . 3×1+0×2 3×1+0×0 3 3 Ressaltamos que n˜ao podemos efetuar o produto na ordem P e N. 2 Exerc´ıcio 12.1.1 Quando for poss´ıvel efetuar as opera¸c˜oes, demonstre as seguintes identidades matricias, onde N,P e Q s˜ao matrizes com entradas em R e λ ∈ R. (a) N(P + Q) = NP + NQ (b) (P + Q)N = P N + QN (b) (NP )Q = N(P Q). (c) (λN)P = λ(NP ) = N(λP ). Solu¸ c˜ ao Para ilustrar a t´ecnica de demonstra¸c˜ao provaremos o item (a). Vamos assumir que N = [aij ] ∈ M(m × n, R) e que P = [bij ] , Q = [cij ] ∈ M(n × r, R). Por defini¸c˜ao de soma de matrizes sabemos que N(P + Q) = [dij ] e dij = n  aik (bkj + ckj ). k=1 Desenvolvendo o u ´ ltimo somat´orio temos as igualdades dij = n  k=1 (aik bkj + aik ckj ) = n  k=1 aik bkj + n  k=1 aik ckj . 12.2. MATRIZES QUADRADAS 301 No u ´ ltimo membro da igualdade, o primeiro somat´orio ´e a ij-´esima entrada de NP e o segundo somat´orio ´e a ij-´esima entrada de NP . Portanto, temos N(P + Q) = NP + NQ.  Exemplo 12.1.3 Demonstremos a identidade matricial (NP )t = P t N t em que N = [aij ] e P = [bij ] s˜ao matrizes m × n e n × r, respectivamente. Inicialmente escrevamos o produto N por P , NP = [cij ] com cij = ai1 b1j + ai2 b2j + · · · + ain bnj . Por defini¸c˜ao de transposta, valem as rela¸c˜oe / 0 cji = aj1 b1i + aj2 b2i + · · · + ajn bni . (NP )t = ctij onde ctij = cji e Por outro lado, calculemos as entradas de P t N t = [dij ], dij = bti1 at1j + bti2 at2j + · · · + btin atnj = b1i aj1 + b2i aj2 + · · · + bni ajn = aj1 b1i + aj2 b2i + · · · + ajn bni . Portanto, ctij = dij , como quer´ıamos demonstrar. 2 Recordando, N j a j-´esima matriz coluna e por Ni a i-´esima matriz linha de N ∈ M(m × n, R). O posto das colunas de N ´e definido como sendo a dimens˜ao do subespa¸co de M(m × 1, R) gerado pelas matrizes {N 1 , N 2 , ..., N n }. Em outras palavras, o posto das colunas de N ´e o n´ umero m´aximo de colunas linearmente independentes. Da mesma forma definimos o posto das linhas de N como sendo a dimens˜ao do subespa¸co de M(1 × n, R) gerado pelas matrizes ´ {N1 , N2 , ..., Nm }. Eposs´ ıvel demonstrar uma propriedade, de certa forma, surpreendente: o posto das colunas ´e igual ao posto das linhas. ´ poss´ıvel um produto de matrizes ser igual a matriz nula Exerc´ıcio 12.1.2 E sem que um dos fatores ser a matriz nula? 12.2 Matrizes quadradas Uma matriz quadrada ´e uma matriz cujas linhas tˆem o mesmo comprimento das colunas. Simplificamos a nota¸c˜ao indicando o espa¸co vetorial das matrizes CAP´ITULO 12. MATRIZES 302 n × n por M(n, R). Estes espa¸cos vetorias s˜ao mais ricos em propriedades alg´ebricas do que os espa¸cos de matrizes n˜ao quadradas, a diferen¸ca fica por conta do produto de matrizes. Ao efetuarmos um produto entre dois elementos de M(n, R) obtendo uma outra matriz neste mesmo espa¸co. Observamos que o produto de matrizes ´e n˜ao comutativo. Al´em disso a forma quadrada permite destacar v´arios tipos especiais de matrizes, como veremos na sequˆencia. A diagonal de uma matriz N ∈ M(n, R) ´e a subsequˆencia formada pelas ii-´esimas entradas, (a11 , a22 , ..., ann ). Diremos que N ´e uma matriz diagonal quando toda entrada n˜ao pertencente a` diagonal tem o valor zero. Esquematicamente uma matriz diagonal tem a forma ⎡ ⎤ a11 0 · · · 0 ⎢ 0 a22 · · · 0 ⎥ ⎢ ⎥ N = ⎢ .. .. ⎥ . .. . . ⎣ . . . ⎦ . 0 0 · · · ann Outras vezes indicaremos uma matriz diagonal de modo mais conciso, N = diag{a11 , a22 , ..., ann }. Um tipo particular e importante ´e a ⎡ 1 ⎢ 0 ⎢ I=⎢ ⎣ 0 matriz identidade I, definida como ⎤ 0 0 1 0 ⎥ ⎥ ⎥. .. ⎦ . 0 1 Quando desejarmos enfatizar o tamanho n × n da matriz identidade utilizamos uma indexa¸c˜ao da forma In . Um outro modo pr´atico de indicar a matriz identidade ´e com o uso do delta de Kronecker, In = [δij ]. Exemplo 12.2.1 A matriz identidade In tem uma propriedade especial. Para qualquer matriz quadrada N = [aij ], valem as identidades matriciais NIn = ˙ A demonstra¸c˜ao segue diretamente da defini¸c˜ao de produto de N = In N. matrizes. Provaremos apenas a igualdade NIn = N, a segunda igualdade ´e feita de modo an´alogo. Escrevamos NIn = [cij ] em que cij = ai1 δ1j + ai2 δ2j + · · · + ain δnj . 12.2. MATRIZES QUADRADAS 303 Por defini¸c˜ao de delta de Kronecker, a u ´nica parcela n˜ao nula da soma que descreve cij ´e exatamente quando i = j. Sendo assim, obtemos cij = aij , significando que NIn = N. 2 Defini¸ c˜ ao 12.2.1 Uma matriz N ∈ M(n, R) ´e invert´ıvel, ou n˜ao singular, se existir uma matriz P ∈ M(n, R) tal que P N = In = NP . Quando existe, a matriz P ´e chamada de inversa de N e denotada por N −1 .  Exerc´ıcio 12.2.1 Mostre as seguintes afirma¸c˜oes sobre matrizes invert´ıveis. a) Quando uma matriz quadrada tem inversa, a inversa ´e u ´ nica. b) Se N e P s˜ao invert´ıveis, ent˜ao NP ´e invert´ıvel e (NP )−1 = P −1 N −1 . c) NP = In ⇔ In = P N. As afirma¸c˜oes sobre determinantes contidas neste par´agrafo est˜ao demonstradas no pr´oximo cap´ıtulo. Faremos apenas um breve resumo dos fatos necess´ario para o desenvolvimento do texto, antecipando um algoritmo para invers˜ao de matrizes. Indicamos por Nij a ij-´esima matriz reduzida de N ∈ M(n, R), isto significa que a matriz Nij ´e a matriz (n − 1) × (n − 1) obtida de N por supress˜ao da i−´esima linha e da j-´esima coluna. A matriz dos cofatores de N ´e a matriz n × n definida como CN = [cij ] em que cij = (−1)i+j det Nij . Chamamos de adjunta cl´assica de N a matriz tranposta da matriz dos cofatores, adj(N) = CNt . Um resultado bem conhecido da Teoria dos determinantes afirma que N adj(N) = (det N)In = adj(N)N. Da´ı segue imediatamente a afirma¸c˜ao N ∈ M(n, R) ´e invert´ıvel se, e somente se, Mais ainda, a inversa de N, se existe, ´e N −1 = 1 adj(N). det N det N = 0. 304 CAP´ITULO 12. MATRIZES Exerc´ıcio 12.2.2 Calcule a adjunta cl´assica da matriz   a b N= . c d 2 Para encerrar o cap´ıtulo, deixaremos a seguinte defini¸c˜ao. Defini¸ c˜ ao 12.2.2 Sejam N, P ∈ M(n, R). Diremos que N ´e conjugada a` P quando existe uma matriz invert´ıvel R ∈ M(n, R) tal que P = RNR−1 . Matrizes normais com entradas reais. Uma matriz N ∈ M(n, R) ´e chamada de matriz normal quando ela comuta com a sua transposta, NN t = N t N. Dentre as matrizes normais com entradas reais destacamos trˆes tipos especiais, a saber: a) matriz sim´etrica, se N t = N; b) matriz anti-sim´etrica, se N t = −N; c) matriz ortogonal, se N t N = In = NN t . De fato ´e um exerc´ıcio elementar verificar que os trˆes tipos de matrizes acima definidos s˜ao matrizes normais. Cap´ıtulo 13 Determinantes Este ´e um cap´ıtulo complementar. Novamente, se o leitor est´a familiarizado com a teoria pode dispensar a leitura. A demonstra¸c˜ao da existˆencia do determinante ´e indutiva e a apresenta¸c˜ao escolhida est´a baseada num elegante tratamento dado por Artin [02] e detalhado com muita simplicidade por Lang [10]. 13.1 Defini¸ c˜ ao Recordamos que dada uma matriz N = [aij ] ∈ M(n, R) estamos indicando por N j a j-´esima matriz coluna de N. Ao escrevermos N = (N 1 , N 2 , ..., N n ) ficar´a subentendido a identifica¸c˜ao de N de M(n, R) com um elemento do produto direto M(n × 1, R) × M(n × 1, R) × · · · × M(n × 1, R) .    n vezes Defini¸ c˜ ao 13.1.1 Uma aplica¸c˜ao D : M(n, R) → R ser´a chamada de determinante caso possua as seguintes propriedades. 1. D(In ) = 1. 2. D(N 1 , ..., N j , N j+1 , ..., N n ) = 0 se N j = N j+1 para algum j, 1 ≤ j ≤ n − 1. 3. D(N 1 , ..., N j + λP, ..., N n ) = D(N 1 , ..., N j−1 , N j , N j+1 , ..., N n )+ λD(N 1 , ..., N j−1, P, N j+1 , ..., N n ), 305 CAP´ITULO 13. DETERMINANTES 306 para qualquer matriz coluna P ∈ M(n × 1, R) e qualquer λ ∈ R. Posteriormente demonstraremos que para cada espa¸co M(n, R) existe uma u ´ nica aplica¸c˜ao satisfazendo essas trˆes condi¸c˜oes. Antes vejamos algumas propriedades conhecidadas sobre o c´alculo de determinantes que s˜ao conseq¨ uˆencias da defini¸c˜ao, veja demonstra¸c˜ao em Proposi¸c˜ao 2.1.1. Proposi¸c˜ ao 13.1.1 Assuma que exista uma aplica¸c˜ao D : M(n, R) → R satisfazendo as condi¸c˜oes da Defini¸c˜ao 13.1.1. Seja N ∈ M(n, R). Ent˜ao valem as afirma¸co˜es. a) O determinante troca de sinal quando duas colunas adjacentes s˜ ao permutadas. b) Se uma coluna de N ´e nula ent˜ ao D(N) = 0. c) Quando duas colunas de N s˜ao iguais, o seu determinante ´e nulo. d) Se P ´e uma matriz obtida somando-se a uma coluna de N uma combina¸c˜ao linear de outras colunas, ent˜ ao D(P ) = D(N). e) Se uma coluna de N ´e multiplicada por um escalar o determinante da matriz resultante ´e multiplo do determinanbte de N por esse escalar. 13.2 Existˆ encia Para construir um determinante det : M(n, R) → R necessitaremos de algumas nota¸c˜oes. Indicaremos por Nij a matriz (n − 1) × (n − 1) obtida de N = [aij ] ∈ M(n, R) por supress˜ao da i-´esima linha e da j-´esima coluna. Chamaremos Nij de ij-´esima matriz reduzida de N. Recordando a defini¸c˜ao de determinante de uma matriz N = [aij ] ∈ M(3, R), ´e poss´ıvel reescrever aquela f´ormula utilizando-se as matrizes reduzidas, ⎡ ⎤ a11 a12 a13 det ⎣ a21 a22 a23 ⎦ = a11 det N11 − a12 det N12 + a13 det N13 . a31 a32 a33 Proposi¸c˜ ao 13.2.1 Para cada inteiro n > 0 existe uma aplica¸c˜ao satisfazendo as condi¸c˜oes da Defini¸c˜ao 13.1.1. ˆ 13.2. EXISTENCIA 307 Demonstra¸ c˜ ao Como foi comentado anteriormente a demonstra¸c˜ao da existˆencia de um determinante para cada inteiro positivo n ´e indutiva. J´a sabemos que existem determinantes no espa¸co das matrizes M(1, R), M(2, R) e M(3, R), veja Se¸c˜ao 2.1. Vamos supor por indu¸c˜ao que j´a tenhamos mostrado a existˆencia de um determinante em cada espa¸co vetorial M(r, R), 1 ≤ r ≤ n − 1. Defina uma aplica¸c˜ao det : M(n, R) → R pela regra conhecida como desenvolvimento de Laplace pela primeira linha, det [N] = (−1)1+1 a11 det N11 + (−1)1+2 a12 det N12 + · · · + (−1)1+n a1n det N1n . Mostremos que esta aplica¸c˜ao satisfaz as condi¸c˜oes da Defini¸c˜ao 13.1.1. 1. Se In = [δij ] ´e a matriz identidade n × n, ´e evidente que I11 ´e a matriz identidade (n − 1) × (n − 1). Portanto, det In = (−1)1+1 δ11 det I11 + (−1)1+2 δ12 det I12 + · · · + (−1)1+n δ1n det I1n = det I11 = det In−1 . Logo, det In = 1, desde que por hip´otese de indu¸c˜ao temos que det In−1 = 1. 2. Suponha que as colunas N j0 e N j0 +1 da matriz N = [aij ] ∈ M(n, R) sejam iguais. Sendo assim, se k = j0 as 1k-´esimas matrizes reduzidas de N possuem duas colunas iguais, implicando por hip´otese de indu¸c˜ao que det [N] = (−1)1+1 a11 det N11 + (−1)1+2 a12 det N12 + · · · + (−1)1+n a1n det N1n = (−1)1+j0 a1j0 det N1j0 + (−1)1+j0 +1 a1 j0 +1 det N1 j0 +1 . A igualdades entre as colunas N j0 e N j0 +1 implica na igualdade entre as entradas a1j0 e a1 j0 +1 e na igualdade das matrizes reduzidas N1j0 e N1 j0 +1 . Examinado-se os expoentes (−1)1+j0 e (−1)1+j0 +1 na u ´ ltima equa¸c˜ao conclu´ımos que det N = 0. 3. Mostremos a multilinearidade da aplica¸c˜ao det : M(n, R) → R. Dados um escalar λ ∈ R, uma matriz N = [aij ] ∈ M(n, R) e a matriz coluna P j0 = [bij0 ] ∈ M(n × 1, R), calculemos o determinante de   Q = [cij ] = N 1 , ..., N j0 + λP j0 , ..., N n . CAP´ITULO 13. DETERMINANTES 308 Para isto, identifiquemos as parcelas das matrizes reduzidas de Q utilizando a nota¸c˜ao P = ([0] , ..., [0] , P j0 , [0] , ..., [0]). Sendo assim, temos as matrizes Q1k = N1k + λP1k se k = j0 , Q1j0 = N1j0 . A hip´otese de indu¸c˜ao sobre a multilinearidade do determinante para matrizes (n − 1) × (n − 1) justifica as igualdades det Q = n  (−1)1+k c1k det Q1k k=1 = 4 k=j 0 4 = 5 (−1)1+k a1k det (N1k + λP1k ) k=1,n n  (−1)1+k a1k det N1k 5 + (−1)1+j0 (a1j0 + λb1j0 ) det N1j0   + λ det N 1 , ..., P j0 , ..., N n   = det N + λ det N 1 , ..., P j0 , ..., N n , k=1 2 como quer´ıamos demonstrar. 13.3 Unicidade Para mostrar a unicidade da aplica¸c˜ao determinante nas matrizes quadradas n × n utilizaremos o grupo das permuta¸c˜oes de um conjunto com n elementos. Caso o leitor deseje rever as propriedades deste grupo indicamos qualquer livro ´ de Algebra que estuda Teoria de Grupos, por exemplo, veja o livro [06]. Proposi¸c˜ ao 13.3.1 Um determinante D : M(n, R) → R satisfaz a identidade  sin(σ)aσ(1),1 aσ(2),2 ...aσ(n),n , D(N 1 , N 2 , ..., N n ) = σ orio ´e sobre todas as permuta¸c˜oes dos inteiros onde N = [aij ] e o somat´ {1, 2, ..., n}. Essa express˜ao s´o depende das propriedades d1, d2 e d3 da Defini¸ca˜o 13.1.1. Em conseq¨ uˆencia, existe um, e somente, um determinante definido em cada espa¸co M(n, R). 13.3. UNICIDADE 309 Demonstra¸ c˜ ao Seja E j a matriz coluna cuja u ´nica entrada diferente de zero ´e aj1 . Note que as colunas da matriz N s˜ao combina¸c˜oes lineares dessas matrizes, N 1 = a11 E 1 + a21 E 2 + · · · + an1 E n , N 2 = a12 E 1 + a22 E 2 + · · · + an2 E n , ··· n N = a1n E 1 + a2n E 2 + · · · + ann E n . Utilizando as propriedades d1 e d2 da defini¸c˜ao de determinante, o valor de D(N) pode ser escrito como    D aσ(1),1 E σ(1) , aσ(2),2 E σ(2) , ..., aσ(n),n E σ(n) D(N 1 , N 2 , ..., N n ) = σ =    aσ(1),1 aσ(2),2 ...aσ(n),n D E σ(1) , E σ(2) , ..., E σ(n) σ   Como a matriz E σ = E σ(1) , E σ(2) , ..., E σ(n) ´e obtida da identidade In = (E 1 , ..., E n ) por uma sequˆencia de transposi¸c˜oes de duas colunas adjacentes e cada transposi¸c˜ao de duas colunas adjacentes troca apenas o sinal do determinante mas n˜ao o seu valor absoluto, no final do processo se tivermos k(σ) invers˜oes teremos o valor     D E σ(1) , E σ(2) , ..., E σ(n) = (−1)k(σ) D E 1 , E 2 , ..., E n = (−1)k(σ) D(In ) = sin(σ). Logo, um determinante D : M(n, R) → R ´e descrito pela express˜ao  sin(σ)aσ(1),1 aσ(2),2 ...aσ(n),n . D(N 1 , N 2 , ..., N n ) = σ Como essa express˜ao s´o depende das propriedades de determinante, fica estabelecida a unicidade, pois a existˆencia j´a foi exibida na se¸c˜ao anterior. 2 Exerc´ıcios propostos 13.3.1 1. Demonstre utilizando indu¸c˜ao sobre n que o determinante de uma matriz triangular superiormente ´e o produto das entradas da diagonal. CAP´ITULO 13. DETERMINANTES 310 6 : M (n, R) → R por 2. Defina indutivamente a aplica¸c˜ao det i+2 i+n 6 6 6 6 [N ] = (−1)i+1 ai1 detN ai2 detN ain detN det i1 + (−1) i2 + · · · + (−1) in . (desenvolvimento de Laplace pela i-´esima linha). Prove que essa aplica¸c˜ao ´e 6 . um determinante e conclua que det N = detN 3. Uma aplica¸c˜ao A : M (n, R) → R ´e chamada de n-linear alternada se possui as propriedades, la.1 A(N 1 , ..., N j , N j+1 , ..., N n ) = 0 se N j = N j+1 para algum j. la.2 A(N 1 , ..., N j + λP, ..., N n ) = A(N 1 , ..., N j−1 , N j , N j+1 , ..., N n + . λA(N 1 , ..., N j−1 , P, N j+1 , ..., N n ), para quaisquer P ∈ M (n × 1, R) e λ ∈ R. Mostre que A(N ) = A(In ) det(N ). 13.4 Propriedades Provaremos nessa se¸c˜ao algumas propriedades sobre determinantes bastante conhecidas e utilizadas anteriormente ao longo do texto, inclusive em demonstra¸c˜oes de proposi¸c˜oes. Iniciaremos mostrando que o determinante da transposta de uma matriz N = [aij ] ∈ M(n, R) ´e igual ao determinante de N. Proposi¸ c˜ ao 13.4.1 Vale a igualdade det N = det N t . Demonstra¸ c˜ ao Como sabemos, o determinante da matriz N = [aij ] ´e calculado pela express˜ao det N =  sin(σ)aσ(1),1 aσ(2),2 ...aσ(n),n , σ onde o somat´orio ´e feito sobre todas as permuta¸c˜oes do conjunto {1, 2, ..., n}. Se σ −1 ´e a permuta¸c˜ao inversa de σ e σ(i) = j ent˜ao aσ(i),i = aj,σ−1 (j) . Portanto, valem as igualdades dos produtos aσ(1),1 aσ(2),2 ...aσ(n),n = a1,σ−1 (1) a2,σ−1 (2) ...an,σ−1 (n) . 13.4. PROPRIEDADES 311 Desde que o sinal de uma permuta¸c˜ao ´e igual ao sinal de sua permuta¸c˜ao inversa podemos escrever det N =  sin(σ −1 )a1,σ−1 (1) a2,σ−1 (2) ...an,σ−1 (n) σ−1 =  sin(σ)a1,σ(1) a2,σ(2) ...an,σ(n) σ = det N t , 2 como desej´avamos provar. Proposi¸c˜ ao 13.4.2 det NP = det N det P , para quaisquer matrizes N, P ∈ M(n, R). Demonstra¸ c˜ ao Utilizaremos as nota¸c˜oes N = [aij ], P = [bij ] e Q = NP = [cij ]. A j−´esima matriz coluna da matriz produto Q ´e uma combina¸c˜ao linear das colunas de N cujos coeficientes s˜ao as entradas de P , mais precisamente Qj = b1j N 1 + b2j N 2 + · · · + bnj N n . Calculemos o determinante do produto levando em considera¸c˜ao essa combina¸c˜ao linear,   det NP = det Q1 , Q2 , ..., Qn  n n   k = det bk1 N , ..., bkn N k =  σ =  k=1  det bσ(1),1 N k=1 σ(1) , bσ(2),2 N σ(2) , ..., bσ(n),n N σ(n)    bσ(1),1 bσ(2),2 ...bσ(n),n det N σ(1) , N σ(2) , ..., N σ(n) . σ   A matriz N = N σ(1) , N σ(2) , ..., N σ(n) ´e obtida da matriz N = (N 1 , N 2 , ..., N n ) por uma sequˆencia de transposi¸c˜oes de duas colunas adjacentes. Como cada transposi¸c˜ao de duas colunas adjacentes troca o sinal do determinante, no final do processo se tivermos k(σ) invers˜oes obteremos o resultado     det N σ(1) , N σ(2) , ..., N σ(n) = (−1)k(σ) det N 1 , N 2 , ..., N n . CAP´ITULO 13. DETERMINANTES 312 Finalmente, como sin(σ) = (−1)k(σ) , obtemos    bσ(1),1 bσ(2),2 ...bσ(n),n det N 1 , N 2 , ..., N n = det N det P, det NP = σ 2 como quer´ıamos demonstrar. Exerc´ıcios propostos 13.4.1 1. Demonstre as seguintes afirma¸c˜oes sobre uma matriz N ∈ M (n, R). (a) Se duas linhas de N s˜ao iguais ent˜ ao det N = 0. (b) Se N ´e obtida de M adicionando-se a uma linha de M uma combina¸c˜ao linear de outras linhas ent˜ ao det N = det M . 2. Demonstre que o determinante de uma matriz N = [aij ] ∈ M (n, R) tamb´em pode ser calculado com o desenvolvimento de Laplace pela j-´esima coluna, det [N ] = (−1)1+j a1j det N1j + (−1)2+j a2j det N2j + · · · + (−1)n+j anj det Nnj . 3. Sejam R um corpo e A : Rn → Rn um operador linear. Se {v1 , v2 , ..., vn } ´e ormula, uma cole¸c˜ao de n vetores em Rn demonstre a f´ % $ % $ det [A(v1 )]β , [A(v2 )]β , ..., [A(v2 )]β = det [A]β [v1 ]β , [v2 ]β , ..., [v2 ]β , onde β ´e uma base ordenada de Rn . 13.5 Adjunta cl´ assica Apresentaremos um algoritmo envolvendo as ij-´esimas matrizes reduzidas de uma matriz N = [aij ] ∈ M(n, R) cuja consequˆencia ´e uma f´ormula que explicita quando uma matriz quadrada admite uma inversa e deixa claro como devemos construir a inversa de uma matriz, caso exista. O ij-´esimo cofator da matriz N = [aij ] ´e o elemento de R definido como cij = (−1)i+j det Nij , e a adjunta cl´assica de N ´e a matriz transposta da matriz dos cofatores, ad(N) = [cij ]t . ´ 13.5. ADJUNTA CLASSICA 313 Exemplo 13.5.1 Calculemos a adjunta cl´assica da matriz ⎤ ⎡ 1 t 0 N = ⎣ t − 1 t2 t + 1 ⎦ . −1 0 2 Para isso, calculemos os cofatores e formemos a matriz ⎤ ⎡ ⎤ ⎡ det N31 2t t2 + t det N11 − det N21 2t2 det N22 − det N32 ⎦ = ⎣ 1 − 3t 2 −t − 1 ⎦ . ad(N) = ⎣ − det N12 det N13 − det N23 det N33 t t −t2 Exerc´ıcio 13.5.1 Verifique que ad(N t ) = ad(N)t . Sugest˜ao: Nij = Njit ! 2 A proposi¸c˜ao a seguir descreve rela¸c˜oes matriciais envolvendo uma matriz, sua adjunta cl´assica e seu determinante, com v´arias e importantes consequˆencias. Proposi¸c˜ ao 13.5.1 ad(N)N = (det N)In = Nad(N). Demonstra¸ c˜ ao Escrevamos / t a0 jk-´esima entrada do produto ad(N)N = [dij ] onde N = [aij ] e ad(N) = cij , djk = ctj1 a1k + ctj2 a2k + · · · + ctjn ank . = (−1)1+j a1k c1j + (−1)2+j a2k c2j + · · · + (−1)n+j ank cnj = (−1)1+j a1k N1j + (−1)2+j a2k N2j + · · · + (−1)n+j ank Nnj . Da´ı conclu´ımos que se k = j, temos o valor djj = det N, pois a u ´ ltima linha ´e o desenvolvimento de Laplace do determinante de N pela j-´esima coluna. Denote por P = [bij ] a matriz obtida de N substituindo a coluna N j0 pela coluna N k , para j0 = k. Sendo assim valem as igualdades det P = 0 e Pij0 = Nij0 . Calculemos o determinante de P com o desenvolvimento pela j0 −´esima coluna, 0 = det P = (−1)1+j0 b1j0 det P1j0 + (−1)2+j0 b2j0 det P2j0 + · · · + (−1)n+j0 bnj0 det Pnj0 = (−1)1+j0 a1k det N1j0 + (−1)2+j0 a2k det N2j0 + · · · + (−1)n+j0 ank det Nnj0 = (−1)1+j0 a1k c1j0 + (−1)2+j0 a2k c2j0 + · · · + (−1)n+j0 ank cnj0 = ctj0 1 a1k + ctj0 2 a2k + · · · + ctj0 n ank = dj 0 k , CAP´ITULO 13. DETERMINANTES 314 mostrando que o produto da adjunta cl´assica de N ⎡ det N ⎢ det N ⎢ ad(N)N = ⎢ .. ⎣ . det N com N ´e da forma ⎤ ⎥ ⎥ ⎥ = (det N)In . ⎦ Para finalizar, utilizaremos a identidade ad(N t ) = ad(N)t , Nad(N) = (ad(N)t N t )t = (ad(N t )N t )t = ((det N t )In )t = (det N)In , com isso concluimos a demonstra¸c˜ao da proposi¸c˜ao. 2 Corol´ ario 13.5.1 Uma matriz N ∈ M(n, R) ´e invert´ıvel ⇔ det N = 0. Mais ainda, se N ´e invert´ıvel ent˜ ao a) N −1 = 1 ad(N); det N b) detN −1 = (det N)−1 . ´Indice Remissivo A Abscissa Adjunta cl´ assica, defini¸c˜ao ˆ Angulo entre dois vetores ˆ Angulos diretores Aplica¸c˜ao significado identidade ´ Area de um paralelogramo Autoespa¸co Autovalor Autovetor B Base canˆ onica do Rn do Rn ortogonal Cˆonica degenerada 274 106 4 Conjunto ordenado de geradores 31, 312 80 D 122, 190 82 Delta de Kronecker Desenvolvimento de Laplace 25 77 1 Desigualdade de Cauchy-Schwarz 135 Determinante defini¸c˜ao 24, 306 58 de uma matriz 2 × 2 24 174 de uma matriz 3 × 3 25 173 255 173 Diagonaliza¸c˜ao de operador Dimens˜ao de um subespa¸co 120 Distˆancia, defini¸c˜ao 208 13 E 12 Eixo de rota¸c˜ao 91, 122 Eixos Cartesiano Elipse C Elips´ oide Cilindro Equa¸c˜ao el´ıptico 287 de plano hiperb´ olico 287 de reta parab´ olico 287 quadr´ atica Coeficientes da combina¸c˜ao linear 11 Escalar Cofator 31 Escalonamento Combina¸c˜ao linear 10 Esfera unit´ aria canˆ onica Composi¸c˜ao 153 Espa¸co Composta 153 conceito Comprimento de um segmento 75 Euclidiano Cone el´ıptico 286 m´etrico 315 204 3 275 286 64 62 274 5 48 205 2 4 208 ´INDICE REMISSIVO 316 vetorial, defini¸c˜ao Excentricidade da elipse da hip´erbole F Forma bilinear, defini¸c˜ao bilinear sim´etrica bilinear anti-sim´etrica linear, defini¸c˜ao F´ ormula de Cardano-Tartaglia de Lagrange Fun¸c˜ao homogˆenea Funcional linear, defini¸c˜ao G Gr´ afico de equa¸c˜ao Gram-Schmidt 5 276 277 219 224 226 217 294 89 226 217 62, 64 125 H Hip´erbole Hiperbol´ oide Homotetia 277 286 136 I Identidade c´ıclica Imagem Isomorfismo 91 136 160 L Linearmente dependente independente M Matriz adjunta cl´ assica 108 109 aumentada 49 canˆ onica de A 142 das coordenadas do vetor v 233 de uma transforma¸c˜ao linear142, 236 dos cofatores 31, 312 inversa 30 mudan¸ca de coordenadas 244 quadrada 301 reduzida 25 regular 30 sim´etrica 192 transposta 28 Matrizes conjugadas 250 semelhantes 250 M´etodo Gauss-Jordan 50 N Norma 74 Normaliza¸c˜ao de um vetor 78 N´ ucleo 136 O Operador anti-sim´etrico de Gram diagonaliz´ avel linear, defini¸c˜ao normal ortogonal que representa uma forma sim´etrico defini¸c˜ao positivo negativo transposto Ordenada P abola 31 Par´ 191 191 255 160 189 190 222 190 196 196 185 4 278 ´INDICE REMISSIVO Parabol´ oide Plano Cartesiano conceito em R3 . Polinˆ omio caracter´ıstico Preservar produto interno norma ˆangulo Processo de ortogonaliza¸c˜ao Produto direto escalar interno vetorial vetorial duplo Proje¸c˜ao ortogonal Q Qu´ adrica defini¸c˜ao degenerada R Regra de Cramer Representa¸c˜ao de um vetor matricial de um vetor v de uma forma quadr´ atica de uma transforma¸c˜ao Reta, conceito S Segmento orientado Segunda desigualdade triangular Sistema de equa¸c˜oes lineares Soma de transforma¸c˜oes lineares Subespa¸co 317 287 invariante pr´ oprio trivial vetorial, defini¸c˜ao 203 96 96 95 4 2 64 174 T Teorema do n´ ucleo e da imagem 148 202 espectral 193, 195 202 da representa¸c˜ao de uma forma bilin203 ear 221 125 Tra¸co de uma matriz 176 19 Transforma¸c˜ao linear 132 72 defini¸c˜ao 72 identicamente nula 135 86 injetiva 139 91 sobrejetiva 139 125 invert´ıvel 160 inversa 160 Transla¸c˜ao 208 285 287 V Vetor nulo 6 17 significado 5 unit´ a rio 78 7 Vetores ortogonais 81 Volume de um paralelep´ ıpedo 60 233 227 236 S´ımbolos 20, 142 2 [A] = [aij ] 30 [A]−1 25 [A]ji b α 236 7 [A]β t 78 A 185 41 C 13 152 δij 122 det[A] 24 ´INDICE REMISSIVO 318 det[v1 , v2 , ..., vn ] ei g(u, v) Id [Id]αβ Im(A) M (m × n, R) N uc(A) o q(v) Rn Rnα S2 −→ RS U [v]α [v1 , v2 , ..., vk ] v×w [[v1 , v2 , ..., vn ]] v, w v θ(v, w) Alfabeto grego α β γ, Γ δ, ∆ , ε ζ η θ, Θ, ϑ ι κ λ, Λ µ ν ξ, Ξ ø 24 13 219 135 244 136 20 136 6 226 1 240 205 7 190 233 14 86 100 72 74 80 alfa beta gama delta epsilon zeta eta teta iota capa lambda mu ni qui o π, Π,  ρ,  σ, Σ, ς τ υ, Υ phi, ϕ, Φ ψ, Ψ ω, Ω pi rˆ o sigma tau upsilon fi psi ˆomega Referˆ encias Bibliogr´ aficas [01] ´ Andrade, Pl´ acido; Um curso de Algebra Linear ; pr´e-print UFC (2002). [02] Artin, Emil; Galois theory; Notre Dame Math. Lectures n 2, (1953). [03] ´ Boldrini, Costa, Figueiredo & Wetzler; Algebra Linear ; (4a Ed.), Ed. Habra. [04] Cullen, C.; Matrices and Linear Transformations; Add-Wesley Comp. (1966). [05] dos Santos, N. M.; Vetores e Matrizes; Ao Livro T´ecnico S/A. [06] ´ Garcia, A. & Lequain, Y.; Algebra, um curso de introdu¸c˜ ao; Projeto Euclides. [07] Halmos; Espa¸cos vetoriais de dimens˜ ao finita; Trad. laPenha; Ed. Campos, RJ. [08] ´ Herstein, I. N.; Topicos de Algebra; Editora Pol´ıgono, S˜ ao Paulo, 1970. [09] ´ Hoffman, K. & Kunze, R.; Algebra Linear ; Editora Pol´ıgono, S˜ ao Paulo, 1971. [10] Lang, S.; Linear algebra; Addison-Wesley Publish. Comp. (1966). [11] ´ Lima, Elon Lages; Algebra Linear (2a Ed.) IMPA; 1996. [12] Lima, Elon Lages; Coordenadas no Espa¸co; Cole¸c˜ao Professor de Matem´atica. SBM (1993). [13] Serfati, M.; Exercices de Mathe´ematiques, vol 1; Belin (1980). [14] ´ Steinbruch, A.& Winterle, P.; Algebra Linear ; McGraw-Hill (1987). 319