Preview only show first 10 pages with watermark. For full document please download

Introdução à álgebra Linear (abramo Hefez)

Introdução à Álgebra Linear (Abramo Hefez)

   EMBED

  • Rating

  • Date

    December 2018
  • Size

    3.8MB
  • Views

    2,823
  • Categories


Share

Transcript

1 Livro: Introdução à Álgebra Linear Autores: Abramo Hefez Cecília de Souza Fernandez Capítulo 1: Sistemas Lineares e Matrizes Sumário 1 2 O que é Álgebra Linear? . . . . . . . . . . . . . . . 2 1.1 Corpos . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2 Espaços Vetoriais . . . . . . . . . . . . . . . . . . . 4 1.3 Sistemas de Equações Lineares . . . . . . . . . . . 9 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.1 A Denição de Matriz . . . . . . . . . . . . . . . . 14 2.2 Operações com Matrizes . . . . . . . . . . . . . . . 16 2.3 Matriz Inversa . . . . . . . . . . . . . . . . . . . . 23 1 2 1 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES O que é Álgebra Linear? Rn , com n ≥ 2, isto é, o produto cartesiano de n cópias da reta real R. Para n ≥ 4, este espaço generaliza 2 3 o espaço R dos vetores do plano e o espaço R dos vetores no espaço. A diferença crucial entre os casos n = 2 e n = 3 e os casos em que n ≥ 4 Os espaços em que trabalharemos são os é que, para estes últimos, não se dispõe de uma representação geométrica. O fato não diminui a importância desses espaços, pois basta pensar que o R4 é o espaço-tempo da Física, em que os pontos são quaternos (x, y, z, t), com as três primeiras coordenadas representando a posição no espaço de uma partícula ideal e a última representando o instante ocupa tal posição. pontos de Rn com t em que esta partícula Por não existir uma representação geométrica para os n ≥ 4, seremos obrigados a tratá-los algebricamente, sem o recurso da visualização geométrica, tão fundamental em Rn como vetores, (y1 , y2 , . . . , yn ) é dada por Portanto, trataremos os elementos de dois vetores (x1 , x2 , . . . , xn ) e R2 e R3 . onde a soma de (x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ), e a multiplicação do vetor (x1 , x2 , . . . , xn ) pelo número real a, chamado de escalar, é denida por a(x1 , x2 , . . . , xn ) = (ax1 , ax2 , . . . , axn ). Os espaços Rn são utilizados de modo essencial em quase todos os ramos do conhecimento e, por este motivo, são estudados em Matemática sob os mais variados pontos de vista e com as mais diversas estruturas. Por exemplo, no Cálculo Diferencial, são considerados como espaços normados; em Geometria, como espaços com produto interno. Rn estudada em Álgebra Linear é a induzida pela estrutura de corpo da reta real R. Essa é a estrutura mínima apropriada para se estudar A estrutura de sistemas de equações lineares com várias incógnitas. Além disso, é aquela sobre a qual se constroem o Cálculo Diferencial e a Geometria Diferencial, entre outros. 1. 3 O QUE É ÁLGEBRA LINEAR? Como a estrutura de corpo de R desempenhará papel fundamental, vamos denir formalmente este conceito. 1.1 Corpos Um conjunto de adição K será chamado de corpo se for munido de uma operação (+) e uma operação de multiplicação (×), vericando as condições a seguir. A1 A adição é associativa: (a + b) + c = a + (b + c), para todos a, b, c ∈ K . A2 A adição é comutativa: a + b = b + a, para todos a, b ∈ K . A3 A adição possui elemento neutro: existe 0 ∈ K, tal que a + 0 = a, para todo a ∈ K. A4 A adição possui simétricos: para todo a ∈ K, existe −a ∈ K tal que a + (−a) = 0. M1 A multiplicação é associativa: (a × b) × c = a × (b × c), para todos a, b, c ∈ K . M2 A multiplicação é comutativa: a × b = b × a, para todos a, b ∈ K . M3 A multiplicação possui elemento neutro: existe 1 ∈ K \ {0}, tal que a × 1 = a, para todo a ∈ K. M4 A multiplicação possui inversos: para todo a ∈ K \ {0}, existe a−1 ∈ K tal que a × a−1 = 1. AM A multiplicação é distributiva com relação à adição: a × (b + c) = a × b + a × c, para todos Portanto, são corpos os conjuntos a, b, c ∈ K . Q, R e C, com as suas respectivas adições e multiplicações. A operação de multiplicação em um corpo muitas vezes é denotada por (·), escrevendo a · b, ou mesmo ab, no lugar de a × b, notação que adotaremos ao longo deste livro. 4 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES Existem exemplos de corpos que à primeira vista parecem exóticos, como 1 o corpo de Galois F2 , que consiste dos dois elementos 0 e 1 com as seguintes operações: + 0 1 0 0 1 × 0 1 1 1 0 0 0 0 1 0 1 Note que este é o corpo com o menor número possível de elementos, pois todo corpo deve possuir os dois elementos distintos 0 e 1. Apesar de parecerem apenas curiosidades, os corpos com um número nito de elementos têm as mais variadas aplicações em quase toda a Matemática e são essenciais na tecnologia e na computação. 1.2 Espaços Vetoriais Os espaços Rn , por serem constituídos por vetores que podem ser soma- dos e multiplicados por escalares, como vimos antes, são chamados espaços vetoriais. Como os espaços vetoriais são os objetos principais de estudo da Álgebra Linear, vamos deni-los formalmente a seguir. Um conjunto uma adição (+) V será dito um espaço vetorial sobre um corpo K , se possui com as mesmas propriedades da adição em um corpo; ou seja, A1 A adição é associativa: (u + v) + w = u + (v + w), para todos u, v, w ∈ V . A2 A adição é comutativa: u + v = v + u, para todos u, v ∈ V . A3 A adição possui elemento neutro (elemento zero): existe 0∈V, tal que v + 0 = v, para todo v ∈V. 1 Em homenagem a Évariste Galois (França, 1811-1832), considerado um dos grandes gênios da Matemática. 1. 5 O QUE É ÁLGEBRA LINEAR? A4 A adição possui simétricos: para todo v ∈V, existe −v ∈ V tal que v + (−v) = 0. E além disso, existe uma operação chamada de associa a um elemento a∈K e a um elemento multiplicação por escalar, que v ∈V, um elemento av ∈ V , tal que ME1 a(u + v) = au + av , para todos a ∈ K e u, v ∈ V . ME2 (a1 + a2 )v = a1 v + a2 v , para todos a1 , a2 ∈ K e v ∈ V . ME3 (a1 a2 )v = a1 (a2 v), para todos a1 , a2 ∈ K e v ∈ V . ME4 1v = v , para todo v ∈ V . Os elementos de V serão chamados de escalares. Assim, o elemento 0 de V −v de vetor oposto de v . vetores e os elementos de será chamado de K de vetor nulo e o elemento O primeiro matemático a dar uma denição abstrata para um espaço vetorial foi Giuseppe Peano (Itália, 1858 - 1932) em seu livro Calcolo Geo- metrico, de 1888. No Capítulo IX, Peano dá uma denição do que ele chama de um sistema linear. Para Peano, um sistema linear consistia de quantidades com operações de adição e multiplicação por escalar. A adição deveria satisfazer as leis comutativa e associativa, enquanto a multiplicação por escalar deveria satisfazer duas leis distributivas, uma lei associativa e a lei de que 1·v = v para toda quantidade v. Além disso, Peano incluiu como parte de 0 (zero ) satisfazendo v + (−1)v = 0 para todo v . Peano seu sistema de axiomas a existência de uma quantidade v + 0 = v, para todo também deniu a v, assim como dimensão de um sistema linear como o máximo número de quantidades linearmente independentes do sistema (veja esta noção na Seção 2 do Capítulo 3). Peano vericou que o conjunto das funções polinomiais em uma variável forma um sistema linear, mas não existia um tal número máximo de quantidades linearmente independentes, portanto, a dimensão deste sistema deveria ser innito. O fato a seguir decorre da denição de espaço vetorial. Para a ∈ K e 6 CAPÍTULO 1. v ∈V, SISTEMAS LINEARES E MATRIZES tem-se que ⇐⇒ a = 0 ou v = 0 De fato, sejam a ∈ K e 0 ∈ V. Como av = 0. 0 + 0 = 0, pela propriedade ME1, segue-se que a 0 = a(0 + 0) = a 0 + a 0. Somando o simétrico −a 0 de a0 a ambos os lados da igualdade acima e utilizando as propriedades A4, A1 e A3, temos que 0 = a 0 + (−a 0) = (a 0 + a 0) + (−a 0) = a 0 + [a 0 + (−a 0)] = a 0 + 0 = a 0. De modo semelhante, mostra-se (faça-o) que para 0 v = 0, onde o elemento 0 0 ∈ K da direita é o elemento zero de Reciprocamente, suponhamos que tem-se V. a 6= 0, então, multiplicando −1 escalar a , temos que av = 0 ambos os lados da igualdade acima pelo v ∈ V e e 0 = a−1 0 = a−1 (av) = (a−1 a)v = 1v = v. Dois vetores u e v a em um espaço vetorial V serão ditos colineares, se K tal que v = au. Portanto, são colineares os vetores u e au, para todo a ∈ K . Note que o vetor 0 é colinear com qualquer vetor v , pois 0 = 0v . existir um elemento em É um exercício fácil mostrar que R, Rn é um espaço vetorial sobre o corpo com as operações de adição de vetores e a multiplicação por escalares que denimos anteriormente, onde o elemento zero é o vetor simétrico de (x1 , x2 , . . . , xn ) (0, 0, . . . , 0) e o é o vetor −(x1 , x2 , . . . , xn ) = (−x1 , −x2 , . . . , −xn ). Observe que não há nada de especial sobre os reais, além de sua estrutura de corpo para que Rn seja um espaço vetorial sobre dado um corpo qualquer K, o espaço K n R. Mais geralmente, é um espaço vetorial sobre K, com 1. 7 O QUE É ÁLGEBRA LINEAR? operações semelhantes às de adição de vetores e de multiplicação de vetores por escalares que denimos no caso em que K = R. n Por exemplo, os espaços vetoriais F2 sobre F2 , por mais inócuos que possam parecer, são de extrema utilidade em várias aplicações, dentre elas na construção de códigos corretores de erros (veja a referência [3] para maiores detalhes sobre esta teoria). Outros exemplos importantes de espaços vetoriais são os espaços sobre o corpo Q e o espaço C sobre o corpo R e C R. Como sucede com frequência em Matemática, ao introduzir um conceito para lidar com determinado problema, cria-se um instrumento que muitas vezes transcende o problema inicial e se constitui em um conceito central em vários outros contextos. Isto ocorreu com a noção de espaço vetorial, que inicialmente foi introduzida para tratar de alguns tipos de problemas em Rn , como a resolução de sistemas de equações lineares cuja discussão iniciaremos na próxima subseção, e se desenvolveu em uma teoria com vida própria. Pode-se sinteticamente dizer que a Álgebra Linear é a parte da Matemática que se dedica ao estudo dos espaços vetoriais e de certas funções entre esses espaços, chamadas de transformações lineares. Embora muitas das ferramentas básicas da Álgebra Linear, particularmente as que estão relacionadas com sistemas lineares, datem da antiguidade, o assunto começou a tomar sua forma atual em meados dos século XIX. A partir desta época, muitas noções estudadas em séculos anteriores foram abstraídas e muitos métodos generalizados. A Álgebra Linear tem várias aplicações fora da Matemática. Por exemplo, citamos a teoria da relatividade e a mecânica quântica na Física e a teoria de análise de regressão na Estatística. A seguir, daremos alguns exemplos diferentes de Rn para ilustrar situações onde aparecem os espaços vetoriais e que, muitas vezes, quando tratadas dessa forma ganham clareza. Exemplo 1 O conjunto das funções de um conjunto não vazio forma um espaço vetorial sobre R, A em R onde a soma é a soma usual de funções 8 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES com valores reais (f + g)(x) = f (x) + g(x), e a multiplicação de uma função f para todo por um escalar x ∈ A, a ∈ R é denida como sendo (a f )(x) = a f (x), Em particular, se x ∈ A. para todo I = [a, b] é um intervalo em R, sabe-se do Cálculo Dife- rencial e Integral que o conjunto das funções contínuas, bem como o conjunto das funções integráveis, de Exemplo 2 I em R, são espaços vetoriais sobre S das sequências de N \ {0} em R é um espaço que o conjunto R(a, b) das De acordo com o Exemplo 1, o conjunto números reais, isto é, o conjunto das funções de vetorial sobre sequências R. R. É fácil vericar (leitor, faça-o) (un ) em S que satisfazem a recorrência un+1 = aun + bun−1 , n ≥ 2, onde a e b são dois números reais xados, é um espaço vetorial sobre R. Em 2 R(1, 1), que contém a sequência de Fibonacci (aquela para a qual u1 = u2 = 1), é um espaço vetorial. Veremos no Capítulo 5 como esta informação nos ajudará a achar todas as sequências em R(1, 1), particular, o conjunto determinando suas fórmulas fechadas. Exemplo 3 um corpo K (Peano) O conjunto K[x] dos polinômios com coecientes em forma um espaço vetorial sobre K[x]n = {p(x) ∈ K[x] ; também são espaços vetoriais sobre K. Para grau(p(x)) K. n ∈ N, os conjuntos ≤ n} ∪ {0} Em particular, o conjunto R[x]2 = {a0 + a1 x + a2 x2 ; a0 , a1 , a2 ∈ R} é um espaço vetorial sobre R. 2 Apelido de Leonardo de Pisa (Itália, mático europeu da Idade Média. ∼ 1170 - ∼ 1250). Foi o primeiro grande mate- 1. 9 O QUE É ÁLGEBRA LINEAR? 1.3 Sistemas de Equações Lineares Desde a antiguidade, em diversas áreas do conhecimento, muitos problemas são modelados matematicamente por sistemas de equações lineares. Damos a seguir um exemplo de sistema de equações lineares: ( x + y = 36 x − y = 2, (1) onde se subentende que estamos buscando dois números reais cuja soma vale 36 e cuja diferença vale 2. Portanto, as soluções procuradas podem ser representadas por pares de números reais (a, b) tais que, se substituírmos x a e y por b, nas equações, elas se tornam igualdades de fato. Por exemplo, par (x, y) = (19, 17) é uma solução, pois obtemos as igualdades: ( 19 + 17 = 36 19 − 17 = 2. por o Os sistemas com duas equações lineares, como o acima, já eram considerados pelos babilônios por volta de 1800 a.C. e resolvidos por um método 3 que chamamos hoje de método de eliminação gaussiana . Por exemplo, para resolver o sistema de equações (1), ao somarmos a segunda equação à primeira, o transformamos no sistema equivalente, ( 2x = 38 x − y = 2, que seguimos transformando até obtermos um sistema onde as soluções são trivialmente encontradas: ( 2x = 38 x−y =2 ( ⇔ x = 19 x−y =2 ( ⇔ x = 19 x − y − x = 2 − 19 ( ⇔ x = 19 y = 17. 3 Em homenagem a Carl Friedrich Gauss (Alemanha, 1777 - 1855), considerado um dos maiores matemáticos de todos os tempos. 10 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES Esse método será generalizado e sistematizado para lineares com m equações e n sistemas de equações incógnitas do tipo   a11 x1 + a12 x2 + · · · + a1n xn = b1     a21 x1 + a22 x2 + · · · + a2n xn = b2 . .  .     a x + a x + ··· + a x = b , m1 1 m2 2 mn n m onde os aij 's e os bi 's, para 1≤i≤m ou, mais geralmente, elementos de um 1 ≤ j ≤ n, são corpo K dado. e (2) números reais dados, Seja S = {(c1 , c2 , . . . , cn ) ∈ Rn ; ai1 c1 + ai2 c2 + · · · + ain cn = bi , 1 ≤ i ≤ m}. Esse subconjunto de Rn é chamado de conjunto solução do sistema (2). É precisamente este conjunto que queremos determinar ou descrever o mais explicitamente possível. Note que para resolver o sistema (1), do exemplo acima, o modicamos gradativamente, por meio de uma sequência de transformações elementares, em um sistema mais simples de resolver, onde por transformação elementar de um sistema entendemos uma das seguintes transformações: 1) Trocar a posição relativa de duas equações do sistema; 2) Trocar uma equação pela soma membro a membro da própria equação com um múltiplo de outra; 3) Trocar uma equação dada por um de seus múltiplos (i.e., a equação obtida multiplicando ambos os membros da equação dada por um número real não nulo). Diremos que dois sistemas de equações lineares são sistemas equivalentes, se pudermos obter um sistema do outro a partir de uma sequência nita de transformações elementares. Esta relação entre sistemas é efetivamente uma relação de equivalência. De fato, ela é claramente reexiva, pois basta multiplicar uma das equações 1. 11 O QUE É ÁLGEBRA LINEAR? do sistema por 1; é transitiva, pois basta concatenar uma sequência de trans- formações elementares com uma outra; e é simétrica, pois podemos desfazer uma transformação elementar com outra. Assim, é imediato vericar que: Sistemas de equações lineares equivalentes possuem mesmo conjunto solução. Dentre os sistemas de equações lineares, ocupam lugar de destaque os sistemas homogêneos, bi 's ou seja, aqueles sistemas como em (2), porém com os todos nulos:   a11 x1 + a12 x2 + · · · + a1n xn = 0     a21 x1 + a22 x2 + · · · + a2n xn = 0 . .  .     a x + a x + · · · + a x = 0. m1 1 m2 2 (3) mn n Esses sistemas possuem peculiaridades não compartilhadas pelos sistemas mais gerais. Por exemplo, o vetor soluções do sistema. (0, 0, . . . , 0) Além disso, se os (c01 , c02 , . . . , c0n ) são soluções do sistema, e Sh de 0 vetores u = (c1 , c2 , . . . , cn ) e u = se a ∈ R, então os vetores u + u0 = (c1 + c01 , c2 + c02 , . . . , cn + c0n ) e pertence ao conjunto au = (ac1 , ac2 , . . . , acn ) também são soluções do sistema (3) (leitor, verique). Assim, resulta que o espaço Sh das soluções do sistema (3) é um espaço vetorial sobre R De fato, as propriedades A1 e A2 da denição são satisfeitas n para todos os vetores de R e em particular para os de Sh . Por outro lado, (0, 0, . . . , 0) ∈ Sh e se (c1 , c2 , . . . , cn ) ∈ Sh , então −1(c1 , c2 , . . . , cn ) = (−c1 , −c2 , . . . , −cn ) ∈ Sh , o que mostra que a adição em Sh possui também as propriedades A3 e A4. Além disso, as propriedades ME1ME4 da multiplicação por escalar são facilmente vericadas para Sh . Note que o que há de essencial em um sistema de equações lineares (2) são os coecientes das equações que o formam além dos números que 12 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES compõem os segundos membros das equações. (ai1 , ai2 , . . . , ain , bi ) de Rn+1 Consideremos os vetores que representam os coecientes das equações do sistema (2) acrescidos dos segundos membros e os organizemos como linhas de uma tabela, chamada de matriz ampliada do sistema (2), como segue:  a11 a12 · · · a1n b1   a21 a22 . . . a2n b2  . . . .  . . . . . . .  . am1 am2 · · · amn bm    .   (4) Quando o sistema de equações é homogêneo, a ele associamos a matriz  a11 a12 · · · a1n   a21 a22 . . . a2n  . . .  . . . . .  . am1 am2 · · · amn    ,   eliminando a coluna de zeros da direita na matriz (4). As matrizes surgiram por volta do ano 200 a.C. com os chineses, motivados pelo interesse em calcular soluções de sistemas com mais de quatro equações lineares. De fato, no Capítulo 8 do texto intitulado Jiuzhang suanshu, de autor desconhecido, que signica Nove capítulos sobre a Arte Matemática" , ca claro que o procedimento de resolução de sistemas lineares usado pelos chineses é semelhante ao método de escalonamento, que discutiremos ainda neste capítulo, e é apresentado na forma de matrizes. Cabe observar que os chineses só consideravam sistemas lineares com o mesmo número de equações e incógnitas, não constando em seus escritos o motivo desses sistemas produzirem sempre uma única solução e como o algoritmo chinês funcionava. Problemas 1.1 Verique que o conjunto das funções de um conjunto não vazio reais é um espaço vetorial sobre R, A nos com as operações denidas no Exemplo 1. 13 O QUE É ÁLGEBRA LINEAR? 1. Verique também que, para cada par de números reais R(a, b), das recorrências (a, b), o conjunto denido no Exemplo 2, é um espaço vetorial sobre R. 1.2 Seja v um elemento não nulo de um espaço vetorial V sobre R. Mostre que é injetora a função R → V t 7→ tv. 1.3 Sejam v1 e v2 elementos de um espaço vetorial V sobre R. Mostre que a função R2 → V (a1 , a2 ) 7→ a1 v1 + a2 v2 é injetora se, e somente se, v1 e v2 não são colineares. 1.4 Diga, em cada caso, por que o conjunto com as operações indicadas não satisfaz à denição de espaço vetorial, onde a) R2 , com as operações: (x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 ) b) R2 , R3 , a(x, y) = (3ax, 3ay). a(x, y) = (ax, 0). e com as operações: (x, y, z) + (x0 , y 0 , z 0 ) = (0, 0, 0) 1.5 e com as operações: (x, y) + (x0 , y 0 ) = (xx0 , yy 0 ) c) a ∈ R. Sejam U e W produto cartesiano operações em e a(x, y, z) = (ax, ay, az). dois espaços vetoriais sobre um corpo V = U ×W K. Considere o desses dois conjuntos. Dena as seguintes V: (u1 , w1 ) + (u2 , w2 ) = (u1 + u2 , w1 + w2 ) e a(u1 , w1 ) = (au1 , aw1 ), onde u1 , u2 ∈ U , w1 , w2 ∈ W e a ∈ K. Mostre que V com as operações de adição e de mutiplicação por escalar, acima denidas, é um espaço vetorial sobre K. Este espaço vetorial é chamado de espaço produto de U por W. 14 CAPÍTULO 1. 2 SISTEMAS LINEARES E MATRIZES Matrizes As matrizes são ferramentas básicas da Álgebra Linear, pois além de for- necerem meios para a resolução dos sistemas de equações lineares, elas também representarão as transformações lineares entre espaços vetoriais, como veremos no Capítulo 6. 2.1 A Denição de Matriz Dados m e n em N \ {0}, ou simplesmente uma matriz formada por elementos de elementos de [3] R denimos uma m R são chamados é uma matriz 1 × 1, por 2 × 3. (escreve-se distribuídos em entradas m m × n), como uma tabela linhas e n colunas. Estes 4 da matriz . Por exemplo, a matriz ao passo que " é uma matriz n matriz real de ordem m por n, # 2 1 0 −1 −2 4 As entradas da primeira linha da matriz são dadas pelos números reais 2, 1 e 0 e as entradas da segunda linha da matriz são dadas pelos números reais −1, −2 e 4. É usual indicarmos as entradas de uma matriz arbitrária bolos Aij , ou ainda aij , A pelos sím- onde os índices indicam, nessa ordem, a linha e a coluna onde o elemento se encontra. Assim, uma matriz m × n é usualmente representada por   a11 a12 . . . a1n    a21 a22 . . . a2n    A= . . . , . . . . .   . am1 am2 . . . amn 4 As entradas de uma matriz não precisam ser necessariamente números reais, podem ser números complexos ou, mais geralmente, elementos de um corpo K. 2. 15 MATRIZES ou por A = [aij ]m×n , matriz estiver subentendida. matrizes A = [aij ], quando a ordem da M(m, n) denota o conjunto das ou simplesmente por O símbolo m × n. m e n, uma matriz m × n recebe um nome especial. De fato, toda matriz 1 × n é chamada de uma matriz linha e toda matriz m × 1 é chamada de uma matriz coluna. Uma matriz n × n é chamada de matriz quadrada de ordem n. Por exemplo, a matriz h i 1 −3 1 0 4 Dependendo dos valores de é uma matriz linha de ordem 1 × 5 e a matriz   2 −1 0   1 2 0 3 1 4 é uma matriz quadrada de ordem 3. A = [aij ] é uma matriz quadrada de ordem n, as entradas aii , com 1 ≤ i ≤ n, formam a diagonal principal de A. Uma matriz diagonal de ordem n é uma matriz quadrada de ordem n em Se que os elementos que não pertencem à diagonal principal são iguais a zero:   a11 0 . . . 0    0 a22 . . . 0   .  . . .  . . . . . .   0 0 . . . ann A matriz diagonal de ordem n cujas entradas da diagonal principal são iguais ao número real 1,   1 0 ... 0   0 1 . . . 0 . .  . , . . . . . .   0 0 ... 1 é chamada matriz identidade de ordem n e denotada usualmente por In . alguns casos, representaremos por simplicidade In apenas por I. Em 16 CAPÍTULO 1. Uma ordem n SISTEMAS LINEARES E MATRIZES matriz triangular superior de ordem n é uma matriz quadrada de em que todos os elementos abaixo da diagonal principal são iguais a zero:   a11 a12 . . . a1n    0 a22 . . . a2n   .  . . .  . . . . . .   0 0 . . . ann Portanto, uma matriz quadrada se aij = 0 sempre que de ordem n é triangular superior i > j. Analogamente, uma quadrada de ordem A = [aij ] matriz triangular inferior de ordem n é uma matriz n em que todos os elementos acima da diagonal principal são iguais a zero:  a11 0 . . . 0    a21 a22 . . . 0    . . . .  . . . . . .   an1 an2 . . . ann  Portanto, uma matriz quadrada aij = 0 sempre que Uma matriz uma de ordem n é triangular inferior se i < j. m×n matriz nula. A = [aij ] cujas entradas são todas iguais a zero é chamada de Por exemplo, a matriz " é uma matriz nula de ordem # 0 0 0 0 0 0 2 × 3. 2.2 Operações com Matrizes A = [aij ]m×n e B = [bij ]m×n , de mesma ordem, A = B , quando aij = bij para todo 1 ≤ i ≤ m e para Dizemos que duas matrizes são iguais, todo escrevendo 1 ≤ j ≤ n. 2. 17 MATRIZES Por exemplo, se são iguais quando x e y denotam " # x 0 1 y x = −1 e Denimos a seguir uma números reais, temos que as matrizes " e # −1 0 1 2 y = 2. operação de adição no conjunto M(m, n) das m × n. Se A = [aij ] e B = [bij ] são duas matrizes de mesma ordem m × n, a soma de A e B , denotada A + B , é a matriz C = [cij ] de ordem m × n tal que cij = aij + bij para todo 1 ≤ i ≤ m e para todo 1 ≤ j ≤ n. matrizes Por exemplo, " # " # " # 2 3 −1 −2 −3 1 0 0 0 + = . 0 −2 1 0 2 −1 0 0 0 Dada uma matriz A = [aij ], dene-se a matriz oposta de A, como a matriz −A = [−aij ]. A adição de matrizes tem propriedades semelhantes à adição nos números reais, ou à adição de elementos em espaços vetoriais, como mostra o resultado a seguir. Proposição 1.2.1. Se A, B e C são matrizes de mesma ordem, então : (i) (ii) A + (B + C) = (A + B) + C (associatividade da adição); A + B = B + A (comutatividade da adição); (iii) A + 0 = A, onde 0 denota a matriz nula m × n (elemento neutro); (iv) A + (−A) = 0. Demonstração As propriedades acima decorrem diretamente das deni- ções de igualdade e adição de matrizes. Por esta razão, provaremos apenas o item (i) e deixaremos (ii), (iii) e (iv) como exercício (veja Problema 2.5). (i): Se A = [aij ], B = [bij ] e C = [cij ], então A + (B + C) = [aij ] + [bij + cij ] = [aij + (bij + cij )] = [(aij + bij ) + cij ] = [aij + bij ] + [cij ] = (A + B) + C, 18 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES onde usamos a associatividade da adição de números reais.  multiplicação por esproduto de A pelo número Uma outra operação importante com matrizes é a calar. Dada a matriz A = [aij ]m×n , real a, como aA = [aaij ]m×n . denimos o Por exemplo,     2 0 −6 0     −3 1 1  = −3 −3 . 0 −1 0 3 Tendo denido as operações de adição e multiplicação por escalar em M(m, n), denimos a operação matrizes A e B em M(m, n), de subtração da maneira usual: dada as A − B = A + (−B). Proposição 1.2.2. As seguintes propriedades se vericam para quaisquer A e B ∈ M(m, n), e a, a0 ∈ R: (i) a(A + B) = aA + aB ; (ii) (a + a0 )A = aA + a0 A; (iii) a(a0 A) = (aa0 )A; (iv) 1A = A. Demonstração Provaremos apenas (i) e deixaremos a demonstração das demais propriedades ao leitor (veja Problema 2.5). (i): De fato, sejam de R, A = [aij ], B = [bij ] elementos de M(m, n) e a um elemento então a(A + B) = a[aij + bij ] = [a(aij + bij )] = [aaij + abij ] = [aaij ] + [abij ] = a[aij ] + a[bij ] = aA + aB, onde usamos a distributividade da multiplicação em relação à adição de números reais.  2. 19 MATRIZES Assim, com as Proposições 1.2.1 e 1.2.2, provamos que o conjunto é um espaço vetorial sobre M(m, n) R. O conjunto das matrizes tem uma estrutura muito mais rica do que a de simples espaço vetorial, obtida com a noção de produto de matrizes, noção esta, fundamental para a resolução de sistemas de equações lineares com o uso de matrizes. Nosso próximo objetivo é, portanto, denir a multiplicação de matrizes e mostrar algumas de suas propriedades. A denição de produto de matrizes foi apresentada por Arthur Cayley (Inglaterra, 1821-1895), no trabalho intitulado A Memoir on the Theory of Matrices, publicado em 1858 na revista Philosophical Transactions of the Royal Society of London. Neste trabalho, Cayley notou que a multiplicação de matrizes, como foi denida, simplica em muito o estudo de sistemas de equações lineares. Também observou que esta multiplicação deixava de apresentar propriedades importantes, como a comutatividade e a lei do corte, e que uma matriz não nula não é necessariamente invertível. A = [aij ]m×n e B = [bij ]n×p duas matrizes. Denimos o produto AB de A por B , denotado por AB , como a matriz C = [cij ]m×p tal que Sejam cij = n X aik bkj = ai1 b1j + · · · + ain bnj k=1 para todo 1≤i≤m e para todo 1 ≤ j ≤ p. Vamos explicar esta fórmula para obter o elemento da matriz encontra na i-ésima Na matriz A, linha e j -ésima destaque a i-ésima AB que se coluna: linha, e na matriz B, a j -ésima coluna. Feito isto, multiplique ordenadamente o primeiro elemento da linha com o primeiro elemento da coluna, o segundo elemento da linha com o segundo elemento da coluna, etc., o último elemento da linha com o último elemento da coluna e nalmente some esses números todos. 20 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES Por exemplo,       # 2 4 " 2(−1) + 4(1) 2(1) + 4(−1) 2 −2 1   −1     =  0(−1) + 0(1) 0(1) + 0(−1)  = 0 0 .  0 0 1 −1 −1 3 −1(−1) + 3(1) −1(1) + 3(−1) 4 −4 A Note que para o produto de por B estar denido, o número de colunas A deve ser igual ao número de linhas de B . Assim, se A e B são matrizes 2 × 3 e 3 × 1, respectivamente, o produto AB está denido e é uma matriz 2 × 1. Porém, o produto BA não está denido. Uma condição necessária para que AB = BA é que A e B sejam matrizes quadradas de mesma ordem. de Contudo, esta condição não é suciente. Por exemplo, as matrizes " 0 1 A= 2 0 # " 0 1 B= 1 0 e são matrizes quadradas de ordem 2, mas # AB 6= BA. Assim, vemos que a multiplicação de matrizes não possui a propriedade comutativa. Observe que " 1 1 1 1 # " # 1 1 = 0, −1 −1 sem que nenhuma das duas matrizes seja nula. Portanto, na multiplicação de matrizes, podemos ter AB = 0 sem que necessariamente A ou B seja nula. Lembremos que isto não ocorre com a multiplicação de números reais, pois dados dois números reais x=0 ou x e y tais que xy = 0, tem-se obrigatoriamente que y = 0. Os sistemas lineares como em (2) da Seção 1 se expressam de modo perfeito pela equação matricial AX = B, onde   a11 a12 . . . a1n    a21 a22 . . . a2n    A= . . . , . . . . .   . am1 am2 . . . amn     x1 b1      x2   b2     X=  ..  e B =  ..  . .  .  xn bm 2. 21 MATRIZES As matrizes coecientes dentes. A, X e B matriz das incógnitas do sistema, matriz dos matriz dos termos indepen- são chamadas, respectivamente, de e Na seguinte proposição apresentamos algumas propriedades da multiplicação de matrizes. Proposição 1.2.3. Desde que as operações sejam possíveis, temos: (i) (ii) A(B + C) = AB + AC (distributividade à esquerda da multiplicação em relação à adição); (A + B)C = AC + BC (distributividade à direita da multiplicação em relação à adição); (iii) (AB)C = A(BC) (associatividade); (iv) A I = I A = A (existência de elemento identidade). Demonstração Provaremos a propriedade (iii) e deixaremos a demons- tração das demais propriedades ao leitor (veja Problema 2.5). (iii): Suponhamos que as matrizes s × m, A, B e C sejam de ordens n × r, r × s e respectivamente. Temos que (AB)C Pr l=1 ail  ij = Ps k=1 (AB)ik ckj Ps k=1 blk ckj  = Pr = l=1 Ps k=1 Pr l=1  ail blk ckj = ail (BC)lj = A(BC))ij .  Isto mostra que a propriedade (iii) é válida. Tendo denido a multiplicação de matrizes, denimos a maneira usual: dados A em M(n, n) A0 = In e e potenciação da k ∈ N \ {0}, Ak = A · · · A} . | A{z k fatores A = [aij ]m×n , chamamos matriz [bij ]n×m , onde Dada uma matriz mos por t A, a bij = aji , de transposta de A, e denota- 22 CAPÍTULO 1. para todo 1≤i≤n e para todo Por exemplo, se 1 ≤ j ≤ m. t " 0 −4  2 = 0 3  −4  −1 0 Uma matriz quadrada SISTEMAS LINEARES E MATRIZES A é chamada # 0 . 3 −1 2 simétrica se At = A e antissimétrica t A = −A. Por exemplo, dadas as matrizes  2  A = −1 3 a matriz A  3  0 5 −1 1 0 é simétrica e B  e 0  B = −1 3 1 0 −2  −3  2 , 0 é antissimétrica. Terminamos esta seção apresentando o conceito de matriz em blocos. Uma matriz A é dita ser uma matriz em blocos trizes menores, chamadas blocos. se A está subdividida em ma- Esta subdivisão é, geralmente, apresentada por linhas horizontais e/ou linhas verticais, como mostra o seguinte exemplo: " # " # 2 1 1 0 2 1 | 1 0 = . 6 4 0 1 6 4 | 0 1 Uma matriz pode ser subdividida em blocos de várias maneiras. Por exemplo,       0 | 1 | 0 2 0 1 | 0 2     0 1 0 2 −− −− −− −− −− −− 1 4 | 2 1        . 1 4 2 1 =  = | 4 | 2 1   −− −− −− −− −−  1 0 0 5 3 0 | 0 | 5 3 0 0 | 5 3 Uma propriedade interessante da partição em blocos é que os resultados das operações de adição e multiplicação com matrizes em blocos podem ser obtidos efetuando o cálculo com os blocos, como se eles fossem simplesmente elementos das matrizes. 2. 23 MATRIZES 2.3 Matriz Inversa Dada uma matriz quadrada uma matriz quadrada B A de ordem de ordem n n, chamamos de inversa de A a tal que AB = BA = In . Por exemplo, dada a matriz " # 2 5 A= , 1 3 temos que a matriz " # 3 −5 B= −1 2 é uma inversa de A, já que AB = BA = I2 . Note que uma matriz não possui necessariamente " quadrada # " uma# inversa. Por exemplo, seja que Logo, A 0 0 a b . Dada qualquer matriz B = 0 0 c d " # " # " # 0 0 a b 0 0 AB = = 6= I2 . 0 0 c d 0 0 A= , temos não tem inversa. Mesmo que uma matriz " não # seja nula, ela pode não ter inversa. exemplo, a matriz matriz quadrada B A = 1 1 1 1 não possui inversa, já que não existe uma de ordem 2 tal que Uma matriz quadrada Por AB = I2 A é dita invertível se (verique). A admite uma matriz inversa. A possui uma inversa, então essa inversa é única. De fato, suponhamos que B e C são duas inversas de uma matriz A de ordem n × n. Então AB = In e CA = In . Assim, por (iii) e (iv) da Proposição 1.2.3, Se uma matriz C = C In = C(AB) = (CA)B = In B = B. 24 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES Já que a inversa, no caso de existir, é única, escrevemos inversa de A. Se A−1 para denotar a k ∈ N \ {0} e A é uma matriz invertível, denimos A−k por: −1 −1 −1 A−k = A | A {z· · · A } . k fatores Vejamos algumas propriedades das matrizes inversas. Proposição 1.2.4. Sejam A e B matrizes quadradas de ordem n. (i) (ii) Se A é invertível, então A−1 é também invertível e (A−1 )−1 = A. Se A e B são invertíveis, então AB também é invertível e (AB)−1 = B −1 A−1 . Deixamos a demonstração desta proposição ao leitor (veja Problema 2.12), bem como a generalização do item (ii) para um número arbitrário de fatores. O interesse das matrizes invertíveis reside no fato de que dado um sistema linear de equações com que a matriz A n equações e n incógnitas, AX = B , se soubermos é invertível e soubermos como calcular sua inversa, então o sistema se resolve efetuando apenas a multiplicação da matriz A−1 com B, pois AX = B =⇒ X = (A−1 A)X = A−1 (AX) = A−1 B. Vimos que uma matriz quadrada não nula não possui necessariamente inversa. Uma pergunta natural é se podemos caracterizar as matrizes quadradas invertíveis, ou seja, se podemos apresentar uma condição necessária e suciente para que uma matriz quadrada seja invertível. Também esta- mos interessados em obter um método para o cálculo da inversa de uma matriz invertível. No próximo capítulo, apresentaremos uma caracterização de matrizes invertíveis e um método para inversão de matrizes que utiliza as transformações elementares nas linhas de uma matriz e a forma escalonada. No Capítulo 8, Proposição 8.3.1(iii), veremos um outro modo bem diferente de atacar este problema pelo uso dos determinantes. Problemas 2. 25 MATRIZES " 2.1* 1 −2 3 A= 4 1 0 Sejam Calcule 2A, 3B e # " −1 2 0 B= 1 −2 0 e # . 2A−3B . 2.2 Determine os valores de x, y e z em R para que as matrizes A e B dadas sejam iguais: " x+y 0 A= z x − 2y # " 13 0 B= 1 4 e # . 2.3 Dadas as matrizes " # −1 4 −2 A= , 2 0 −1 " # 0 1 −2 B= , 0 1 −1   1   C = 1 3 D = [−1 1], e determine: (a) A + B; (b) −2C ; (c) AC ; (d) CD; (e) BC ; (f ) DA. 2.4* Considere as matrizes A = [aij ]4×5 com aij = i − j, B = [bij ]5×9 com bij = j C = [cij ] com C = AB. (a) É possível determinar (b) Determine c63 ? e Justique a resposta. c36 . 2.5 Conclua as demonstrações das Proposições 1.2.1, 1.2.2 e 1.2.3. 2.6* Dada uma matriz AX = XA. A, dizemos que uma matriz X comuta com A se Determine todas as matrizes que comutam com " # 1 0 A= . 0 3 2.7 a) Mostre que a matriz M(n, n). c In , onde c ∈ R, comuta com toda matriz X ∈ 26 CAPÍTULO 1. b) Ache todas as matrizes 2.8 Verdadeiro ou falso? A (a) Se e B SISTEMAS LINEARES E MATRIZES " # x y M= z t " que comutam com a matriz # 1 1 . 0 1 Justique. são matrizes quadradas de mesma ordem, então (A − B)(A + B) = A2 − B 2 . (b) Se então 2.9 A, B e C B = C. são matrizes quadradas de mesma ordem tais que Mostre que se A é uma matriz triangular superior, então A2 AB = AC , também é uma matriz triangular superior. " 2.10* (a) Obtenha At , onde 1 2 3 A= 0 −1 4 # . (b) Verique que a transposta de uma matriz triangular superior é uma matriz triangular inferior. (A + B)t = At + B t ordem e k ∈ R. (c) Mostre que de mesma A é uma (AB) = B t At . (d) Se matriz m × n e (kA)t = kAt , e B onde é uma matriz A e B são matrizes n × p, prove que t (e) Mostre que (At )t = A 2.11* Mostre que se B BB t para toda matriz A de ordem m × n. é uma matriz quadrada, então: (a) B + Bt e (b) B − Bt é antissimétrica. (c) Observando que são simétricas; B= B + Bt B − Bt + , 2 2 conclua que toda matriz quadrada se escreve como soma de uma matriz simétrica e de uma matriz antissimétrica. 2. 27 MATRIZES (d) Mostre que a escrita em (c) é o único modo possível de escrever uma matriz quadrada como soma de uma matriz simétrica e de uma matriz antissimétrica. 2.12 Prove a Proposição 1.2.4. 2.13 Demonstre que: (a) se A tem uma linha nula, então AB (b) se B tem uma coluna nula, então tem uma linha nula; AB tem uma coluna nula; (c) qualquer matriz quadrada com uma linha ou uma coluna nula não é invertível. 2.14 Mostre que uma matriz A é invertível se, e somente se, At é invertível. Conclua que as operações de inversão e de transposição comutam; isto é, (At )−1 = (A−1 )t , quando A é invertível. 2.15 Sejam a = (a1 , . . . , an ), b = (b1 , . . . , bn ) ∈ Rn . Denamos   a1 0 · · · 0    0 a2 · · · 0    Diag(a) =  . . . .  . . . .. . .  . . 0 0 · · · an Mostre que: c ∈ R; (a) Diag(a) + cDiag(b) = Diag(a + cb) (b) Diag(a) · Diag(b) = Diag(b) · Diag(a) = Diag(a1 b1 , . . . , an bn ); (c) m Diag(a)m = Diag(am 1 , . . . , an ), (d) Em que condições a matriz onde Diag(a) onde m ∈ N \ {0}; é invertível e qual é a sua inversa? Este problema mostra que somar, multiplicar, calcular potências e inverter matrizes diagonais é muito simples. 2.16 Supondo que as matrizes A, B e C são matrizes quadradas de mesma ordem e invertíveis, resolva as seguintes equações matriciais nas quais incógnita: X é a 28 (a) CAPÍTULO 1. CX + 2B = 3B ; 2.17 Dada uma matriz a) se ad − bc 6= 0, então CAX t = C ; (c) ABX = C . " # a b A= , mostre que : c d (b) A é invertível e A−1 b) se ad − bc = 0, então SISTEMAS LINEARES E MATRIZES A " # d −b 1 = ; ad − bc −c a não é invertível. Bibliograa [1] H. P. Bueno, Álgebra Linear, um segundo curso , Coleção Textos Univer- sitários, SBM, 2006. [2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna, 2001. [3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate- mática e Aplicações, IMPA, 2008. [4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção PROFMAT, SBM, 2012. [5] V. J. Katz, A History of Mathematics - an Introduction , HarperCollins College Publishers, 1993. [6] S. Lang, Introduction to Linear Algebra , 2nd edition, Undergraduate Texts in Mathematics, Springer, 1986. [7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária, IMPA, 1998. [8] E.L. Lima, Geometria Analítica e Álgebra Linear , Matemática Universitária, IMPA, 2010. 300 2 a edição, Coleção 2 Livro: Introdução à Álgebra Linear Autores: Abramo Hefez Cecília de Souza Fernandez Capítulo 2: Transformação de Matrizes e Resolução de Sistemas Sumário 1 2 Transformação de Matrizes . . . . . . . . . . . . . . 30 1.1 Transformações Elementares de Matrizes . . . . . . 30 1.2 Forma Escalonada de uma Matriz . . . . . . . . . . 32 1.3 Matrizes Elementares e Aplicações . . . . . . . . . 35 Resolução de Sistemas Lineares . . . . . . . . . . . 42 29 30CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS O método de eliminação em sistemas de equações lineares consiste em efetuar repetidamente transformações elementares sobre um sistema de equações lineares, de modo a ir obtendo sistemas equivalentes, até reduzir o sistema original a um sistema de fácil resolução. Neste capítulo, reinterpretaremos na matriz ampliada associada a um sistema de equações lineares as transformações que se efetuam nos sistemas de equações ao longo do processo de eliminação, explicitando seu caráter algorítmico, ou seja, de procedimento sistemático e efetivo. Esse método é essencialmente devido a Gauss e foi aperfeiçoado por Camille Jordan (França, 1838 - 1922) e, por este motivo, é chamado de 1 eliminação de Gauss-Jordan. Transformação de Matrizes 1.1 Transformações Elementares de Matrizes Seja i-ésima matriz A uma matriz linha de A A. m × n. Para cada Denimos as denotemos por Li transformações elementares nas linhas a da como se segue: 1) Permutação das linhas Li e 2) Substituição de uma linha vezes uma outra linha Lj , Lj , Li indicada por Li Li ↔ Lj . pela adição desta mesma linha com indicada por 3) Multiplicação de uma linha por 1 ≤ i ≤ m, c Li → Li + cLj . por um número real c não nulo, indicada Li → cLi . Por exemplo, vamos efetuar algumas transformações elementares nas linhas da matriz   2 1 2 3   1 4 0 . 2 0 −1 2 3 1. 31 TRANSFORMAÇÃO DE MATRIZES Temos     2 1 2 3 0 −1 2 3   −→   1 4 0 1 4 0 , 2 2 L1 ↔ L3 0 −1 2 3 2 1 2 3     2 1 2 3 2 1 2 3 −→     1 4 0 2 1 1/2 2 0 L2 → 12 L2 0 −1 2 3 0 −1 2 3 e     2 1 2 3 2 1 2 3 −→     0 2 −3 . 1 4 0 0 2 L2 → L2 − L1 0 −1 2 3 0 −1 2 3 Sejam por linhas AeB matrizes de ordem à matriz B se B m × n. A matriz pode ser obtida de A A é dita ser equivalente pela aplicação sucessiva de um número nito de transformações elementares sobre linhas. Por exemplo, as matrizes  1 0    2 1 −2 3  e   1 0   0 1 0 0 são equivalentes por linhas já que         1 0 1 0 1 0 1 0 −→ −→ −→          2 1 L → L − 2L  0 1 L → L + 2L 0 1 L → L − 3L 0 1 . 2 2 1 3 3 1 3 3 2 −2 3 −2 3 0 3 0 0 Observe que a noção de equivalência de matrizes por linhas corresponde à noção de equivalência de sistemas lineares quando se efetuam as respectivas transformações sobre as equações. De fato, a sistemas equivalentes, correspondem matrizes associadas equivalentes, e vice-versa. 32CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS A é equivalente por linhas a uma matriz B , então B é equivalente por linhas à matriz A, já que toda transformação elementar sobre linhas é reversível. Mais precisamente, se e representa uma das transformações elementares nas linhas de uma matriz A de ordem m×n, denotando por e(A) a matriz obtida de A aplicando-lhe a transformação e, temos o resultado a Note que se seguir. Toda transformação elementar e nas linhas de matrizes em M(m, n) é reversível, no sentido de que existe uma transformação elementar e0 tal que e0 (e(A)) = A e e(e0 (A)) = A, para todo A ∈ M(m, n). Proposição 2.1.1. Demonstração e é uma transformação elementar do tipo Li ↔ Lj , tome e = e. Se e é uma transformação elementar do tipo Li → cLi , tome e0 como 1 L . Finalmente, se e é uma transformação elementar a tranformação Li → c i 0 do tipo Li → Li + cLj , tome e como a tranformação Li → Li − cLj .  Se 0 Não é difícil o leitor se convencer de que, em cada caso na demonstração anterior, 0 e (e(A)) = A Se A e0 é a única transformação elementar com a propriedade que para toda matriz A ∈ M(m, n). B (e, então, B é A e B são matrizes é uma matriz equivalente por linhas a uma matriz equivalente por linhas a A), dizemos simplesmente que equivalentes. 1.2 Forma Escalonada de uma Matriz Nesta subseção mostraremos que toda matriz pode ser transformada por meio de uma sequência de transformações elementares sobre linhas numa matriz em uma forma muito especial, a forma escalonada, que será utilizada na próxima seção para resolver sistemas de equações lineares. Uma matriz m × n será dita estar na forma escalonada se for nula, ou se: 1) o primeiro elemento não nulo de cada linha não nula é 1; 2) cada coluna que contém o primeiro elemento não nulo de alguma linha tem todos os seus outros elementos iguais a zero; 1. 33 TRANSFORMAÇÃO DE MATRIZES 3) toda linha nula ocorre abaixo de todas as linhas não nulas; L1 , . . . , Lp são as linhas não nulas, e se o primeiro elemento não nulo da linha Li ocorre na coluna ki , então k1 < k2 < · · · < kp . 4) se Por exemplo, a matriz   0 1 2 0 1   0 0 0 1 3 0 0 0 0 0 está na forma escalonada, pois todas as condições da denição anterior são satisfeitas, mas as matrizes   1 0 0 0   0 1 −2 0 0 0 1 0 e   0 3 1   1 0 −1 0 0 0 não estão na forma escalonada, pois a primeira não satisfaz a condição 2, enquanto a segunda não satisfaz a condição 1 (observe que ela também não satisfaz a condição 4). Cabe aqui uma observação acerca da terminologia que utilizamos. Usualmente, na literatura, o termo forma escalonada de uma matriz refere-se a uma forma menos especial do que a nossa, a qual vários autores chamam de forma escalonada reduzida. A nossa justicativa para o uso dessa ter- minologia é que não há razão para adjetivarmos a forma escalonada, pois utilizaremos apenas uma dessas noções. O resultado que apresentaremos a seguir nos garantirá que toda matriz é equivalente por linhas a uma matriz na forma escalonada. O interesse desse resultado reside no fato que ao reduzir a matriz ampliada associada a um dado sistema de equações lineares à forma escalonada, encontramos um outro sistema equivalente ao sistema dado que se encontra em sua expressão mais simples. Quando aplicado aos sistemas de equações lineares, este resultado é chamado de processo de eliminação de Gauss-Jordan. 34CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS Vejamos agora um algoritmo que reduz por linhas uma matriz dada não nula qualquer a uma matriz na forma escalonada. O termo reduzir por linhas signica transformar uma matriz usando as transformações elementares sobre linhas. Este processo é também chamado de Passo 1. Seja k1 escalonamento de matrizes. a primeira coluna da matriz dada com algum elemento não nulo. Troque as linhas entre si de modo que esse elemento não nulo apareça na primeira linha, isto é, de modo que na nova matriz Passo 2. Para cada i > 1, a1k1 6= 0. realize a transformação Li → Li − aik1 L1 . a1k1 Repita os Passos 1 e 2 na matriz assim obtida, ignorando a primeira linha. Novamente, repita os Passos 1 e 2 nessa nova matriz, ignorando as duas primeiras linhas etc., até alcançar a última linha não nula. Passo 3. Se L1 , . . . , L p são as linhas não nulas da matriz obtida após termi- nar o processo acima e se não nulo aiki da linha Li , é a coluna na qual aparece o primeiro elemento aplique as transformações 1 Li aiki Li → Passo 4. ki para todo Realize na matriz obtida até então as transformações L` → L` − a`ki Li , para 1 ≤ i ≤ p. i = 2. Depois para i = 3, ` = 1, . . . , i − 1, e assim por diante, até i = p. Dessa forma, obteremos uma matriz na forma escalonada que é equivalente por linhas à matriz dada. Estabelecemos assim o seguinte resultado: Teorema 2.1.2. Toda matriz é equivalente a uma matriz na forma escalo- nada. Por exemplo, a matriz   1 2 −3 0   4 2  0 0 0 0 0 1/2 1. 35 TRANSFORMAÇÃO DE MATRIZES é transformada numa matriz na forma escalonada com a seguinte sequência de transformações sobre suas linhas:       1 2 −3 0 1 2 −3 0 1 2 −3 0   −→   −→   4 2  1 1/2 1 1/2 0 0 0 0 0 0 L2 → 41 L2 L3 → 2L3 0 0 0 1/2 0 0 0 1/2 0 0 0 1     1 2 0 0 1 2 0 3/2 −→ −→     L → 0 0 1 1/2   1 L1 − 32 L3 0 0 1 0 . L1 → L1 + 3L2 1 0 0 0 1 L2 → L2 − 2 L3 0 0 0 1 Pelo algoritmo acima, deduzimos que qualquer matriz é equivalente a pelo menos uma matriz na forma escalonada. Como em cada passo do algoritmo temos certa margem de escolhas de transformações elementares sobre as linhas da matriz, não há aparentemente nenhum motivo para poder armar que a forma escalonada de uma dada matriz seja única. Fato é que, não importando qual a sequência de transformações elementares que efetuemos nas linhas de uma dada matriz, no nal do processo chegamos a uma mesma matriz na forma escalonada que é equivalente à matriz dada. Este resultado será provado na última seção do capítulo 1.3 Matrizes Elementares e Aplicações Uma matriz elementar de ordem n obtida da matriz identidade In é uma matriz quadrada de ordem a parir da aplicação de uma n transformação elementar, isto é, trata-se de uma matriz da forma E = e(In ), onde e é uma transformação elementar. Por exemplo, a matriz identidade é uma matriz elementar e as matrizes " # 0 1 e(I2 ) = , 1 0 onde e : L1 ↔ L2 , 36CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS e   1 1 0   e(I3 ) = 0 1 0 , 0 0 1 onde e : L1 → L1 + L2 , são matrizes elementares de ordem 2 e de ordem 3, respectivamente. Sejam A ∈ M(m, n) e e uma transformação elementar. O próximo re- sultado, cuja demonstração ca como exercício para o leitor (veja Problema e(A) pode ser obtida como o produto matriz A. Por exemplo, consideremos   1 2   A = 0 1 . 2 1 1.3), nos diz que a matriz elementar e(Im ) pela e1 : L1 ↔ L2 , e2 : L1 → 2L1 e e3 : L1 → L1 + 2L2 , nos mostra que e1 (A) = e1 (I3 )A, e2 (A) = e2 (I3 )A Se da matriz uma rápida vericação e e3 (A) = e3 (I3 )A. Seja e uma transformação elementar sobre matrizes de M(m, n). Considere a matriz elementar E = e(Im ). Então Teorema 2.1.3. e(A) = EA, para todo A ∈ M(m, n). Como consequência do Teorema 2.1.3, temos Sejam A e B em M(m, n). Então, A é equivalente a B se, e somente se, existem matrizes elementares E1 , . . . , Es de ordem m tais que Corolário 2.1.4. Es · · · E2 E1 A = B . Demonstração Por denição, formações elementares e1 , . . . , e s A é equivalente a B quando existem trans- tais que es (. . . (e2 (e1 (A))) . . . ) = B. Mas, pelo teorema anterior, a igualdade acima equivale a Es · · · E2 E1 A = B, 1. 37 TRANSFORMAÇÃO DE MATRIZES onde Ei = ei (Im ), para cada 1 ≤ i ≤ s.  Toda matriz elementar é invertível e sua inversa também é uma matriz elementar. Corolário 2.1.5. Demonstração elementar tal que se 0 0 E = e (I), E uma matriz elementar. E = e(I). Se e0 é a transformação Seja Seja e a transformação elementar inversa de e e pelo Teorema 2.1.3 temos I = e0 (e(I)) = e0 (E) = e0 (I)E = E 0 E e I = e(e0 (I)) = e(E 0 ) = e(I)E 0 = E E 0 . Logo, E é invertível e E −1 = E 0 .  Pelo Corolário 2.1.5 sabemos como inverter uma matriz elementar. Por exemplo, se considerarmos as matrizes   0 1 0   A = 1 0 0 0 0 1 e   1 2 0   B = 0 1 0 , 0 0 1 A e B são invertíveis, já que A e B são matrizes elementares. De fato, A = e1 (I3 ) com e1 : L1 ↔ L2 e B = e2 (I3 ) com e2 : L1 → L1 + 2L2 . Pelo Corolário 2.1.5, A−1 = e01 (I3 ), onde e01 é a trans−1 formação elementar inversa de e1 e B = e02 (I3 ), onde e02 é a transformação elementar inversa de e2 . Mais precisamente,     0 1 0 1 −2 0     A−1 = 1 0 0 e B −1 = 0 1 0 . 0 0 1 0 0 1 podemos concluir que A seguir, apresentamos o resultado central desta seção que caracteriza as matrizes invertíveis. Para uma matriz quadrada A de ordem n, são equivalentes as seguintes armações: Teorema 2.1.6. (i) A é invertível; 38CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS Se B é uma matriz na forma escalonada equivalente a A, então B = In ; (ii) A é uma matriz elementar ou um produto de matrizes elementares. (iii) Demonstração Vamos começar provando a implicação (i) B é equivalente a A, E1 , E2 , . . . , Es tais que efeito, como elementares ⇒ (ii). Com pelo Corolário 2.1.4, existem matrizes Es · · · E2 E1 A = B. Como, pelo Corolário 2.1.5, cada tível, temos que B B= é invertível e A, por hipótese, é inver- é invertível (cf. Proposição 1.2.4). Por outro lado, pelo Problema 1.7, temos que A implicação (ii) Ei ⇒ B = In . (iii) é evidente, já que A = E1−1 E2−1 · · · Es−1 B , onde In e cada Ei−1 é uma matriz elementar (cf. Corolário 2.1.5). A implicação (iii) ⇒ (i) é evidente, pois matrizes elementares são invertíveis e produtos de matrizes invertíveis são invertíveis (cf. Proposição 1.2.4).  Observe, como decorrência do resultado acima, que uma matriz quadrada invertível é equivalente a uma única matriz na forma escalonada (a matriz identidade), cando estabelecida, neste caso, a unicidade da forma escalonada. Finalizamos esta seção apresentando um método para inversão de matrizes por meio de transformações elementares. Sejam A uma matriz invertível e e1 , . . . , es uma sequência de transformações elementares tais que es (. . . (e2 (e1 (A))) . . . ) = I, onde I é a matriz identidade. Então essa mesma sequência de transformações elementares aplicada a I produz A−1 ; isto é, es (. . . (e2 (e1 (I))) . . . ) = A−1 . Proposição 2.1.7. Demonstração Para cada pondente à transformação 1 ≤ i ≤ s, ei . seja Ei a matriz elementar corres- Então Es · · · E2 E1 A = I . Assim, (Es · · · E2 E1 I)A A−1 = I A−1 , 1. 39 TRANSFORMAÇÃO DE MATRIZES donde Es · · · E2 E1 I = A−1 .  Para ilustrarmos o uso do Teorema 2.1.6 e da Proposição 2.1.7, consideremos a matriz   1 0 2   A = 2 −1 3 . 4 1 8 A até obterA é invertível Se aplicarmos uma sequência de transformações elementares em B na forma escalonada, pelo Teorema 2.1.6, se, e somente se, B = I3 . Se B = I3 , pela Proposição 2.1.7, essa mesma −1 sequência de transformações elementares aplicada a I3 resultará em A . As  sim, vamos formar a matriz em blocos A | I3 e vamos reduzir esta matriz 3 × 6 a uma matriz na forma escalonada. De fato, mos uma matriz     1 0 2 | 1 0 0 1 0 2 | 1 0 0 −→       A | I3 = 2 −1 3 | 0 1 0 L2 → L2 − 2L1 0 −1 −1 | −2 1 0 1 0 | −4 0 1 4 1 8 | 0 0 1 L3 → L3 − 4L1 0   1 0 2 | 1 0 0 2 | 1 0 0 −→   1 | 2 −1 1 1 | 2 −1 0 0 1 L3 → L3 − L2 0 0 −1 | −6 1 1 0 | −4 0 1   0 2 | 1 0 0 1 0 0 | −11 2 −→   1 1 | 2 −1 0  L1 → L1 − 2L3 0 1 0 | −4 0 L → L − L 2 2 3 0 1 | 6 −1 −1 0 0 1 | 6 −1   obtemos uma matriz na forma I3 | C , temos que A é invertível  1 −→  0 L2 → −L2 0  1 −→  0 L3 → −L3 0 Como C=A −1 . Assim,  A−1  −11 2 2   =  −4 0 1 . 6 −1 −1  0  0 1  2  1 . −1 e 40CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS Consideremos agora a matriz   1 0 1   A = 0 2 1 . 3 0 3 Ao reduzirmos a matriz em blocos   A | I3 a uma matriz na forma esca-  lonada, obtemos a matriz diferente de I3 . Logo, A   B | C , onde  1 0 1   B = 0 1 1/2 0 0 0 e, portanto, não é invertível por ser equivalente a uma matriz com uma linha nula (cf. Problema 1.7). Problemas " 1.1* Seja # 2 1 A= . −1 3 (a) Obtenha a forma escalonada de (b) A (c) Se A. é invertível? Justique. A for invertível, escreva a matriz A−1 como um produto de matrizes elementares. 1.2 Determine a matriz inversa de cada uma das matrizes dadas: " (a) (b) (c) 1.3 # 12 7 A= ; 5 3  −2 3  B =  1 −3 −1 2  −2 −1  3 1  C= −4 −1 3 1  −1  1 ; −1  0 2 −2 −2  . 2 3 −1 −2 Demonstre o Teorema 2.1.3. 1. 1.4 Determine a forma escalonada das matrizes:  (a) (c) 1.5 41 TRANSFORMAÇÃO DE MATRIZES  1 3 −2  1 −4 3 ; 3 2 −1  3 −1 2 11 −5 3  . −5 3 1 0  A = 2 2  1 0  C= 2 4 1 (b)   1 2 −1 2 1   B = 2 4 1 −2 3; 3 6 2 −6 5 1 5 Uma certa sequência de transformações elementares aplicadas a uma matriz A produz uma matriz B . A mesma sequência aplicada a AB produzirá que matriz? Justique sua resposta. 1.6 Descreva todas as possíveis matrizes 2×2 que estão na forma escalonada. 1.7 Seja A uma matriz quadrada na forma escalonada. Mostre que são equivalentes as seguintes asserções: (a) A matriz A não tem linhas nulas. (b) A é a matriz identidade. (c) A é invertível. Sugestão 1.8* Use o Problema 2.13(c), do Capítulo 1. Sejam A e B matrizes quadradas de mesma ordem. AB = I, BA = I. (a) Mostre que, se se, e somente se, (b) Mostre que AB então A é invertível e é invertível se, e somente se A A−1 = B . e B Assim AB = I são invertíveis. Por denição, uma matriz quadrada A é invertível quando existe uma matriz quadrada B tal que AB = I e BA = I. No entanto, pelo problema acima, no contexto das matrizes quadradas, basta encontrar B tal que AB = I ou tal que BA = I para que A seja invertível. Ou seja, se uma das duas igualdades é satisfeita, então a outra é automaticamente satisfeita . 1.9 Sejam E1 , E2 e E3 n obtidas da identiLi ↔ Lj , Li → Li + kLj e Li → cLi , as matrizes elementares de ordem dade pelas transformações elementares 42CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS j 6= i, respectivamente. 0 onde E2 é a matriz elementar ção Lj → Lj + kLi . onde 2 Mostre que E1t = E1 , E2t = E20 e E3t = E3 , obtida da identidade mediante a transforma- Resolução de Sistemas Lineares Finalmente, nesta seção, poremos em funcionamento a maquinária desen- volvida com as matrizes para a resolução de sistemas de equações lineares, culminando com o Teorema do Posto. Trata-se de um resultado central dessa teoria que descreve a resolubidade dos sistemas de equações lineares gerais. Este teorema é também conhecido no Ensino Médio como Teorema de Rouché-Capelli, em homenagem aos matemáticos Eugène Rouché (França, 18321919) e Alfredo Capelli (Itália, 18551910). Quanto a suas soluções, um sistema linear se classica como impossível, ou possível e determinado, ou possível e indeterminado. linear é chamado nado , impossível , possível e determipossível e indeterminado , quando quando não tem solução, quando tem uma única solução e tem mais de uma solução. Um sistema . n incógnitas é sempre possível, pois admite como solução a n-upla (0, 0, . . . , 0), Já foi observado anteriormente que um sistema linear homogêneo com 2. solução trivial . não trivial do sistema. chamada Qualquer outra solução, se existir, é dita Dado um sistema linear de 43 RESOLUÇÃO DE SISTEMAS LINEARES AX = B , o sistema linear sistema linear homogêneo associado . AX = 0 solução é chamado A relação fundamental entre um sistema linear e seu sistema linear homogêneo associado é apresentada na proposição a seguir. Seja AX = B um sistema linear. Suponhamos que X1 seja uma solução do sistema AX = B e que Sh seja o conjunto solução do sistema linear homogêneo associado AX = 0. Então Proposição 2.2.1. S = {X1 + Z ; Z ∈ Sh } (1) é o conjunto solução do sistema AX = B . Demonstração Para demonstrarmos (1), usaremos algumas propriedades já vistas da adição e da multiplicação por escalar de matrizes. X2 ∈ S , De fato, se X1 é uma solução AZ = 0. Logo, X2 = X1 + Z com Z ∈ Sh . Como AX = B e Z ∈ Sh , segue que AX1 = B e podemos escrever particular de AX2 = A(X1 + Z) = AX1 + AZ = B + 0 = B, mostrando que X2 é uma solução do sistema Por outro lado, tomemos uma solução mos Z = X 2 − X1 . X2 AX = B . do sistema AX = B e dena- Temos, então, que AZ = A(X2 − X1 ) = AX2 − AX1 = B − B = 0; logo Z = X2 − X1 ∈ S h . Portanto, X2 = X1 + Z ∈ S .  Observamos que o resultado acima é apenas de interesse teórico, pois não nos ajuda a obter o conjunto solução de um sistema linear. Um método bem ecaz para se resolver um sistema linear é o método do escalonamento . Este consiste em se tomar a matriz ampliada de um sistema linear e aplicar uma sequência de transformações elementares a esta matriz, de modo a obtermos 44CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS uma matriz equivalente que seja a matriz ampliada de um sistema linear fácil de se resolver. Exemplo 1. Resolvamos o sistema linear     x + y − 2z + 3w = 4 2x + 3y + 3z − w = 3    5x + 7y + 4z + w = 5 . (2) Observemos que   1 1 −2 3 | 4 −→   3 −1 | 3 L2 → L2 − 2L1 2 3 5 7 4 1 | 5 L3 → L3 − 5L1     1 1 −2 3 | 4 1 1 −2 3 | 4 −→     7 −7 | −5 7 −7 | −5 , 0 1 0 1 L3 → L3 − 2L2 0 2 14 −14 | −15 0 0 0 0 | −5 (3) sendo que esta última matriz é a matriz ampliada do sistema linear     x + y − 2z + 3w = 4 y + 7z − 7w = −5    0x + 0y + 0z + 0w = −5 . Note que o sistema (4) é impossível. (4) A pergunta que fazemos é: qual a relação do sistema (4) com o originalmente proposto? A resposta é que eles têm o mesmo conjunto solução, já que (2) e (4) têm matrizes ampliadas equivalentes. Mais precisamente, temos o resultado a seguir. Dois sistemas lineares com matrizes ampliadas equivalentes têm o mesmo conjunto solução . Proposição 2.2.2. Demonstração É só lembrar que efetuar transformações elementares sobre as linhas da matriz ampliada do sistema, equivale a efetuar transformações elementares no sistema de equações, obtendo um sistema equivalente.  2. 45 RESOLUÇÃO DE SISTEMAS LINEARES A matriz ampliada do sistema linear (2) poderia ter sido reduzida por linhas a uma matriz na forma escalonada. Porém, a equação 0x + 0y + 0z + 0w = −5 obtida da última linha da matriz nal em (3) já garante, pela Proposição 2.2.2, que o sistema (2) é impossível. De fato, dado um sistema linear nas incógnitas x1 , x2 , . . . , xn , se após uma sequência de transformações elementares ocorrer uma equação da forma 0x1 + 0x2 + · · · + 0xn = b, com b 6= 0, então o sistema é impossível; ou seja, não tem solução. Quando aplicarmos a Proposição 2.2.2 a um sistema homogêneo não é necessário tomar a matriz ampliada, basta considerar a matriz dos coecientes do sistema. Exemplo 2. Determinemos o conjunto solução do sistema linear homogêneo  x + 2y + 3z − 5w = 0     2x + 4y + z + 2w = 0  x + 3y + 4z = 0    3x + 5y + 8z − 10w = 0. Ora, basta considerarmos a matriz dos coecientes do sistema. Assim,  1 2   1 3 2 4 3 5     1 3 −5 1 2 3 −5 −→     1 2  L2 → L2 − 2L1 0 0 −5 12  −→ 0     4 0  L3 → L3 − L1 0 1 1 5  L4 → L4 + L3 0 8 −10 L4 → L4 − 3L1 0 −1 −1 5 0  2 3 −5 0 −5 12   , 1 1 5 0 0 10 sendo esta última matriz, a matriz dos coecientes do sistema linear homogêneo  x + 2y + 3z − 5w = 0     −5z + 12w = 0  y + z + 5w = 0    10w = 0, 46CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS (0, 0, 0, 0). S = {(0, 0, 0, 0)}. que admite apenas a solução originalmente dado é Assim, o conjunto solução do sistema Para apresentarmos o resultado central deste capítulo, necessitaremos de alguns resultados que estabeleceremos a seguir. Seja dada uma matriz A = [A0 | A00 ] na forma escalonada, onde A0 é uma matriz m × (n − 1) e A00 é uma matriz m × 1. Sejam k1 , . . . , kp as posições das colunas de A onde ocorrem os primeiros elementos não nulos das linhas não nulas L1 , . . . , Lp , respectivamente. O sistema A0 X = A00 admite solução se, e somente se, kp 6= n. Lema 2.2.3. Demonstração A0 Observe que como A está na forma escalonada, a matriz também está na forma escalonada. kp = n, então a p-ésima linha da matriz A é (0 0 · · · 0 1). Assim, 0 00 sistema A X = A tem uma equação da forma 0x1 + · · · + 0xn−1 = 1, que Se o não tem solução. Se 00 A kp 6= n, , temos que da matriz A, A0k1 = Ak1 p ≤ kp < n. Assim, se os ai 's são as entradas de = · · · = am = 0. Se denotarmos por Ai a i-ésima coluna temos que ap+1 temos que   1   0 .  ..    =  , 0    ..  . 0 A0k2 = Ak2   0   1 .  ..    =  , 0    ..  . 0 onde cada matriz acima tem as últimas 0 00 AX =A ... m−r , A0kp = Akp entradas nulas.   0   0 .  ..    =  , 1    ..  . 0 O sistema se escreve, em blocos, da seguinte forma: a = [A1 | A2 | . . . | An−1 ]X = A1 x1 + A2 x2 + · · · + An−1 xn−1 . Para achar uma solução do sistema basta tomar para todo i = 1, . . . , p. x k i = ai e xj = 0, se j 6= ki ,  2. 47 RESOLUÇÃO DE SISTEMAS LINEARES A seguir, daremos a prova da unicidade da forma escalonada de uma matriz. Existe uma única matriz na forma escalonada equivalente por linhas a uma dada matriz. Teorema 2.2.4. (Unicidade da forma escalonada) Demonstração Basta mostrar que dadas duas matrizes escalonada e equivalentes por linhas, então será provado por indução sobre o número A=B A e B na forma (justique). O resultado n de colunas da matriz. Para n = 1, as únicas matrizes na forma escalonada são   0   0 . . . 0 e   1   0 . . . . 0 Como qualquer transformação aplicada às linhas da primeira matriz não a altera, as duas matrizes acima não são equivalentes, daí decorre a unicidade, nesse caso. Admitamos o resultado verdadeiro para matrizes com n ≥ 2. n − 1 colunas, onde m × n, ambas na forma escalonada e 0 00 0 0 equivalentes. Escrevamos A = [A | A ] e B = [B | B ], onde A e B são os 00 00 blocos formados com as n − 1 colunas de A e de B , e A e B são as últimas colunas de A e de B , respectivamente. É imediato vericar pela denição 0 0 0 0 que A e B estão na forma escalonada; e que A é equivalente a B , pois as 0 mesmas operações elementares que transformam A em B , transformam A 0 0 0 em B . Portanto, pela hipótese de indução, temos que A = B . Estamos 0 00 0 00 então reduzidos a duas matrizes A = [A | A ] e B = [A | B ] na forma Sejam A e B duas matrizes 0 00 escalonada e equivalentes. Vamos desdobrar a nossa análise em dois casos. Caso 1) A matriz A é tal que kp = n. Assim, a matriz A0 tem as primeiras A00 são 0 00 tais que ai = 0, se i 6= p e Pelo Lema 2.2.3, o sistema A X = A 0 00 0 00 não tem solução. Como as matrizes A = [A | A ] e B = [A | B ] são 0 00 0 00 equivalentes, pela Proposição 2.2.2, os sistemas A X = A e A X = B p−1 linhas não nulas e a p-ésima ap = 1 . linha nula e as entradas ai de 48CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS são também equivalentes, o que implica que o segundo sistema também não admite solução. Aplicando novamente o Lema 2.2.3 ao sistema A0 X = B 00 , bi = 0, se i 6= p, o que nos diz que A00 = B 00 . Caso 2) A matriz A é tal que kp 6= n. Pelo Lema 2.2.3 tem-se que o sistema A0 X = A00 tem uma solução X0 . Como os sistemas são equivalentes, temos 0 00 00 0 00 que X0 é solução do sistema A X = B , logo A = A X0 = B .  temos que bp = 1 e A demonstração do Teorema 2.2.4, acima, foi inspirada em [1], o qual recomendamos para estudos mais avançados de Álgebra Linear. A uma matriz de ordem m × n. Pelo Teorema 2.2.4, A é equivalente ˜, de ordem m×n, na forma escalonada. Dizemos que A˜ a uma única matriz A é a forma escalonada de A. Portanto, faz sentido denir o posto p da matriz A como o número de linhas não nulas de sua forma escalonada A˜. Seja Por exemplo, se  1 2 1 0   A = −1 0 3 5 , 1 −2 1 1  sua forma escalonada é a matriz   1 0 0 −7/8   A˜ = 0 1 0 −1/4 . 0 0 1 11/8 Portanto, o posto A˜ p de A é igual a 3, pois o número de linhas não nulas de é 3. Para matrizes quadradas temos o seguinte resultado: Uma matriz quadrada de ordem n é invertível se, e somente se, ela tem posto n. Corolário 2.2.5. Demonstração Se a matriz é invertível, então pelo Teorema 2.1.6, sua forma escalonada é In , logo tem posto n. Reciprocamente, seja dada uma matriz quadrada de ordem forma escalonada. Se A tem posto n, então A˜ n e seja A˜ sua não tem linhas nulas, logo, 2. 49 RESOLUÇÃO DE SISTEMAS LINEARES pelo Problema 1.7, A˜ = In . Pelo Corolário 2.1.4, temos que A = Es . . . E1 A˜ = Es . . . E1 , onde E1 , . . . , E s 2.1.5). são matrizes elementares, logo invertíveis (cf. Daí decorre que A Corolário é invertível por ser produto de matrizes inver-  tíveis (cf. Proposição 1.2.4(ii)). Observe que o Lema 2.2.3 pode ser reinterpretado com a noção de posto do seguinte modo: Um sistema de equações lineares AX = B admite solução se, e somente se, o posto da matriz aumentada [A | B] do sistema tiver posto igual ao da matriz A do sistema. De fato, o que mostramos foi que o sistema possui solução se, e somente se, a última linha não nula da forma escalonada da matriz ampliada do sistema não for da forma (0 0 . . . 0 1). Isto é parte do Teorema de Rouché-Capelli, resultado central deste capítulo e que apresentamos na íntegra a seguir. Consideremos um sistema linear com m equações e n incógnitas AX = B . Sejam pAB o posto da matriz ampliada do sistema e pA o posto da matriz dos coecientes do sistema. Então Teorema 2.2.6. (Teorema do Posto) (i) (ii) (iii) O sistema é possível se, e somente se, pAB = pA . O sistema é possível e determinado se pAB = pA = n. O sistema é possível e indeterminado se pAB = pA < n. Neste caso, n − pA é o número de incógnitas livres do sistema, ou seja, incógnitas que podem assumir qualquer valor real. Demonstração Seja AX = B C = [A | B] a matriz ampliada do sistema e seja escalonada de C. Denotaremos n incógnitas. Seja ˜ a forma C˜ = [A˜ | B] um sistema linear com A˜ = [˜ aij ] e ˜ = [˜bi ]. B 50CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS Claramente A˜ é a forma escalonada de A e como A˜ é um bloco de C˜ , temos que pA = pA˜ < pC˜ = pAB ou pA = pA˜ = pC˜ = pAB . Vamos considerar os dois casos anteriores separadamente. Caso 1. Se pA < pAB , então C˜ tem uma linha do tipo (0 · · · 0 0 1). Portanto, o sistema AX = B Caso 2. ˜ =B ˜ AX é impossível e, então, pela Proposição 2.2.2, é impossível. Se pA = pAB , então C˜ e A˜ têm o mesmo número de linhas não nulas. Dividiremos este caso em dois subcasos. Subcaso 2.1. pAB = pA = n. Sendo A˜ uma matriz com n colunas, com pA˜ = pA = n, e estando A˜ na forma escalonada, ela é uma matriz em blocos da forma " # In A˜ = . 0 ˜ é tal que bn+1 = · · · = bm = 0. pA = pAB = n, segue que B ˜ =B ˜ é possível e determinado com a única solução x1 = Portanto, AX ˜b1 , . . . , xn = ˜bn . Consequentemente, AX = B também é determinado com Como mesma solução. Subcaso 2.2. pA = pAB < n. p = pA = pAB . Neste caso, A˜ (assim como C˜ ) tem p linhas não nulas L1 , . . . , Lp , tais que o primeiro elemento não nulo de Li está na coluna ki e k1 < · · · < kp . Além disso, temos ˜ bp+1 = · · · = ˜bm = 0. Ponhamos 2. 51 RESOLUÇÃO DE SISTEMAS LINEARES Temos então que a equação ˜ =B ˜ AX se escreve como     ˜b1 xk 1 + a ˜1k1 +1 xk1 +1 + · · · + a ˜1n xn   ˜   xk 2 + a   ˜2k2 +1 xk2 +1 + · · · + a ˜2n xn     b2  .   . .    ..  .     xk + a  = ˜bp  . ˜ x + · · · + a ˜ x pk +1 k +1 pn n p p p         0   0   . .    ..  . .     0 0 A igualdade matricial acima, juntamente com o fato da matriz A˜ estar na forma escalonada, nos fornece o sistema de equações xk1 xk2 xkp−1 xkp P = − j>k1 a ˜1j xj + ˜b1 , P = − j>k2 a ˜2j xj + ˜b2 , ... P = − j>kp−1 a ˜p−1,j xj + ˜bp−1 , P = − j>kp a ˜pj xj + ˜bp . onde a ˜1ki = 0, a ˜2ki = 0, onde a ˜p−1,ki = 0, onde se se i > 1, i > 2, se i = kp , Isto mostra que podemos escolher arbitrariamente valores para as incógnitas no conjunto {x1 , . . . , xn } \ {xk1 , . . . , xkp } xk1 , . . . , xkp . n − p elementos, (5) e com esses determinar valores para Como o conjunto em (5) tem n − p incógnitas AX = B . o sistema ˜ =B ˜ AX tem livres e, consequentemente, o mesmo ocorre para o sistema  Particularizando o Teorema do Posto para os sistemas homogêneos, obtemos o corolário a seguir. Seja dado um sistema linear homogêneo com m equações e n incógnitas AX = 0. Corolário 2.2.7. (i) Se A tem posto n, então o sistema possui apenas a solução nula. Em particular, isto ocorre quando m = n e A é invertível. 52CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS (ii) Se A tem posto p < n, então o sistema possui innitas soluções. Em particular, isto sempre ocorre quando m < n. A seguir, daremos um exemplo da aplicação do Teorema do Posto. Exemplo 3. Com o auxílio do Teorema do Posto, resolvamos o sistema linear     x + 2y − 2z + 3w = 2 2x + 4y − 3z + 4w = 5    5x + 10y − 8z + 11w = 12 . Ora,    1 1 2 −2 3 | 2 −→    5L2 → L2 − 2L1 0 2 4 −3 4 | 5 10 −8 11 | 12 L3 → L3 − 5L1 0  1 −→  L1 → L1 + 2L2 0 L3 → L3 − 2L2 0 Como pAB = pA = 2 < 4 = n, onde n  2 −2 3 | 2  0 1 −2 | 1 0 2 −4 | 2  2 0 −1 | 4  0 1 −2 | 1 . 0 0 0 | 0 é o número de incógnitas do sistema, o sistema linear é possível e indeterminado. Existem então duas incógnitas livres, digamos b, y e w, às quais podemos atribuir quaisquer valores reais a e y = a e w = b. Substituindo w = b na segunda equação obtemos z = 1 + 2b. Pondo y = a, z = 1 + 2b e w = b na primeira equação, segue-se que x = 4 − 2a + b. Portanto, as soluções do respectivamente. Assim, temos sistema são os elementos do conjunto {(4 − 2a + b, a, 1 + 2b, b) ; a, b ∈ R}. Observamos que, pelo Teorema do Posto, o número de incógnitas livres está bem determinado. Porém, as incógnitas livres podem ser escolhidas com alguma liberdade. No exemplo anterior, escolhemos livres, mas, poderíamos ter escolhido x e t y e w como incógnitas como incógnitas livres. 2. 53 RESOLUÇÃO DE SISTEMAS LINEARES Problemas 2.1* Resolva o sistema linear homogêneo   y + 3z − 2t = 0     2x + y − 4z + 3t = 0   2x + 3y + 2z − t = 0     −4x − 3y + 5z − 4t = 0 . 2.2* Que condições devem ser impostas a m, n e p para que o sistema linear   x + 2y − 3z = m   2x + 6y − 11z = n    x − 2y + 7z = p tenha solução? 2.3 2.4 X tal que AX − B = C , onde " # " # 1 3 2 2 −1 A= , B= e 1 4 3 0 1 Determine # 8 4 3 C= . 10 8 2 Resolva o sistema linear  1 2 3 1   4 −3 2 4 2.5 "    2 1   x   −2   1   y  =   . 3 −1 z 2 4 Dadas as matrizes   1 2 1 0   A = −1 0 3 5 , 1 −2 1 1 resolva:   2   B1 = 1 0 e   1   B2 = 2 , 1 54CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS AX = B1 e AX = B2 ; (b) o sistema AX = 3B1 −B2 , utilizando soluções particulares já encontradas (a) os sistemas no item (a). 2.6 A Dada uma matriz de ordem m × n, raciocine com a forma escalonada para mostrar que: ⇔ o sistema linear AX = B solução para qualquer B ⇔ posto de A é m; (b) a equação CA = I pode ser resolvida ⇔ o sistema linear AX = 0 solução única ⇔ posto de A é n. (a) a equação 2.7 Na matriz AC = I A pode ser resolvida de ordem 5×5 tem tem temos a seguinte relação entre as linhas: L1 + L2 − 2L4 + 3L5 = 0. Encontre uma matriz 2.8 de posto 3, tal que CA tenha linhas a, b     ax + by − 3z = −3 −2x − by + cz = −1    ax + 3y − cz = −3 Como devem ser escolhidos os coecientes tenha a solução 2.9 C, x = 1, y = −1 Determine os valores de     x + y + kz = 2 (a) 3x + 4y + 2z = k    2x + 3y − z = 1 , e e c para que o sistema z = 2? k ∈ R para que os sistemas     kx + y + z = 1 (b) L1 , L4 , 0. x + ky + z = 1    x + y + kz = 1 tenham: (i) solução única; (ii) nenhuma solução; (iii) mais de uma solução. Determine a solução do sistema quando esta existir. , abaixo (c)     x + kz = 0 y=0    kx + z = 0 2. 55 RESOLUÇÃO DE SISTEMAS LINEARES 2.10 Que condições devem ser impostas a nas incógnitas x, y e z a, b e c para que o sistema abaixo tenha solução?     x + 2y − 3z = a 2x + 6y − 11z = b    x − 2y + 7z = c . 2.11 tas Determine os valores de x, y e z a, de modo que o seguinte sistema nas incógni- tenha: (a) nenhuma solução, (b) mais de uma solução, (c) uma única solução:     x + y − z = 1 2x + 3y + az = 3    x + ay + 3z = 2 . 2.12 Considere o sistema linear 2×2 nas incógnitas x e y:  ax + by = e cx + dy = f. Mostre que: a b 6= , c d (a) se isto é, se ad − bc 6= 0, x= de − bf ad − bc então o sistema tem solução única e y= af − ce ; ad − bc (b) se a b e = 6= , c d f então o sistema não tem solução; (c) se a b e = = , c d f então o sistema tem mais de uma solução. 2.13 Suponha que, num sistema linear homogêneo, os coecientes de uma das incógnitas são todos iguais a zero. Mostre que o sistema tem solução não nula. 56CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS 2.14 Seja A uma matriz quadrada de ordem n. Prove que as seguintes armações são equivalentes: (a) A é invertível; AX = 0 só admite a solução trivial; ordem n × 1, o sistema linear AX = B é possível (b) O sistema linear homogêneo (c) Para toda matriz e determinado. B de Bibliograa [1] H. P. Bueno, Álgebra Linear, um segundo curso , Coleção Textos Univer- sitários, SBM, 2006. [2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna, 2001. [3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate- mática e Aplicações, IMPA, 2008. [4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção PROFMAT, SBM, 2012. [5] V. J. Katz, A History of Mathematics - an Introduction , HarperCollins College Publishers, 1993. [6] S. Lang, Introduction to Linear Algebra , 2nd edition, Undergraduate Texts in Mathematics, Springer, 1986. [7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária, IMPA, 1998. [8] E.L. Lima, Geometria Analítica e Álgebra Linear , Matemática Universitária, IMPA, 2010. 300 2 a edição, Coleção 3 Livro: Introdução à Álgebra Linear Autores: Abramo Hefez Cecília de Souza Fernandez Capítulo 3: Espaços Vetoriais Sumário 1 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . 58 . . . . . . . . . . . . . 61 . . . . . . . . . . . . . . . . . 63 2 Dependência e Independência Linear . . . . . . . . 69 3 Bases e Dimensão . . . . . . . . . . . . . . . . . . . 75 . . . . . . . . . . . . . . . . . . . . . . . . . 75 4 1.1 Caracterização dos Subespaços Vetoriais 1.2 Operações com Subespaços 1.3 Subespaços Gerados 58 3.1 Bases 3.2 Dimensão . . . . . . . . . . . . . . . . . . . . . . . Espaço Linha de uma Matriz 57 . . . . . . . . . . . . 82 86 58 CAPÍTULO 3. ESPAÇOS VETORIAIS Neste capítulo, desenvolveremos o conceito de espaço vetorial que introduzimos no Capítulo 1. Intimamente associadas à noção de espaço vetorial estão as noções de subespaço vetorial, de base e de dimensão, conceitos esses fundamentais que introduziremos neste capítulo e que nos permitirão entender melhor a estrututa desses espaços. A estrutura de espaço vetorial está presente em espaços importantes da Análise Matemática e da Geometria Diferencial, como os espaços de Banach e os espaços de Hilbert, que possuem muitas aplicações na Física moderna, entre outros. Neste texto enfatizaremos os espaços vetoriais sobre o corpo R dos nú- meros reais. Apesar do fato de muitos dos resultados que obteremos serem válidos no contexto mais geral dos espaços vetoriais sobre corpos abitrários, nos restringiremos aos espaços vetoriais reais. 1 Subespaços Vetoriais Na Subseção 1.3 do Capítulo 1, vimos que o conjunto solução um sistema de equações lineares homogêneo com espaço vetorial contido no espaço n R n Sh de incógnitas forma um . Esta é uma situação típica da noção de subespaço de um espaço vetorial, que deniremos a seguir com maior generalidade. 1.1 Caracterização dos Subespaços Vetoriais V um espaço vetorial e W um subconjunto não vazio de V . Dizemos que W é um subespaço vetorial de V , ou simplesmente um subespaço de V , se W , com as operações de adição em V e de multiplicação de vetores de V por escalares, é um espaço vetorial. Para mostrar que um subconjunto não vazio W de V é um subespaço de V é preciso inicialmente vericar se as operações de adição de vetores e de multiplicação de vetores por escalares em V estão denidas em W . Em Sejam seguida, seria necessário vericar as propriedades A1A4 e ME1ME4 da denição de espaço vetorial que demos na Subseção 1.2 do Capítulo 1. No 1. 59 SUBESPAÇOS VETORIAIS V , que já sabemos ser um espaço vetorial, então algumas das propriedades anteriores não precisam ser testadas em W . Por exemplo, não precisamos testar se a adição em W é associativa nem se é entanto, como W é parte de comutativa, pois essas propriedades são satisfeitas por todos os elementos de V W . Pelo mesmo motivo, as em W . Assim, para mostrar e, consequentemente, por todos os elementos de condições ME1ME4 não precisam ser testadas que um subconjunto não vazio V, W de V é um subespaço de um espaço vetorial precisaremos somente vericar se A3 e A4 são satisfeitas. O resultado a seguir mostra que, de fato, basta mostrar que as operações de denidas em V estão W. Proposição 3.1.1. Sejam V um espaço vetorial e W um subconjunto não vazio de V . Então, W é um subespaço de V se, e somente se, as seguintes condições são satisfeitas: (i) (ii) se u, v ∈ W , então u + v ∈ W ; se a ∈ R e u ∈ W , então au ∈ W . Demonstração Se W é um subespaço de V , então claramente as condições (i) e (ii) são vericadas. Reciprocamente, suponhamos que Para mostrar que W é subespaço de W V, possua as propriedades (i) e (ii). precisamos somente vericar que W possuem as propriedades A3 e A4. Tome um elemento qualquer u de W , o que é possível pois W 6= ∅. Pela condição (ii), au ∈ W para todo a ∈ R. Tomando a = 0, segue-se que 0u = 0 ∈ W e, tomando a = −1, segue-se que (−1)u = −u ∈ W .  os elementos de A Proposição 3.1.1 arma que um subconjunto não vazio de um espaço vetorial V V se, e somente se, a adição e a multiplicação W . A Proposição 3.1.1 pode ser reescrita da é um subespaço de por escalar são fechadas em seguinte forma: Corolário 3.1.2. Sejam V um espaço vetorial e W um subconjunto não vazio de V . Temos que W é um subespaço vetorial de V se, e somente se, u + av ∈ W , para todo a ∈ R e para todos u, v ∈ W . 60 CAPÍTULO 3. ESPAÇOS VETORIAIS A demonstração do resultado anterior é deixada para o leitor (veja Problema 1.1). Vejamos agora alguns exemplos de subespaços vetoriais. Exemplo 1. Seja V um espaço vetorial. Então o conjunto apenas do vetor nulo, e também todo o espaço conjunto {0} Exemplo 2. V {0}, constituído são subespaços de V. O espaço vetorial nulo . é chamado de V = Rn e sejam i1 , i2 , . . . , ir 0 < i1 < i2 < · · · < ir ≤ n. O conjunto Seja números naturais tais que W = {(x1 , x2 , . . . , xn ) ; xi1 = xi2 = · · · = xir = 0} Rn . é um subespaço vetorial de W2 = {(0, y, 0) ; y ∈ R} Exemplo 3. Sh W1 = {(0, y, z) ; y, z ∈ R} 3 vetoriais de R . Em particular, são subespaços e Na Subseção 1.3 do Capítulo 1, vimos que o conjunto solução de um sistema de equações lineares homogêneas em um subespaço vetorial de n R n incógnitas forma . Os subespaços do Exemplo 2 podem ser vistos sob esta ótica, pois o subespaço W, do referido exemplo, pode ser descrito como o espaço solução do sistema de equações lineares homogêneas xi1 = xi2 = · · · = xir = 0. Exemplo 4. No espaço vetorial das matrizes M(n, n), os conjuntos das ma- trizes triangulares superiores, triangulares inferiores e das matrizes diagonais, são subespaços vetoriais. Exemplo 5. ares do tipo No espaço vetorial R(a, b) (cf. S das sequências reais, as recorrências line- Exemplo 2, Seção 1, Capítulo 1) formam subespaços vetoriais. Mais geralmente, o conjunto R(a1 , a2 , . . . , ar ) são soluções da recorrência linear un = a1 un−1 + a2 un−2 + · · · + ar un−r é um subespaço vetorial de S (verique). das sequências que 1. 61 SUBESPAÇOS VETORIAIS 1.2 Operações com Subespaços Como, antes de mais nada, espaços vetoriais são conjuntos, é bastante natural perguntar-se se a união e a interseção de conjuntos preservam a propriedade de espaço vetorial. U = {(x, y) ∈ R2 ; x + y = 0} e W = {(x, y) ∈ R2 ; x − y = 0}, 2 2 subespaços de R , o conjunto U ∪ W não é um subespaço de R . De fato, temos que u = (1, 1) ∈ U ∪ W e w = (1, −1) ∈ U ∪ W , mas u + w = (2, 0) ∈ / U ∪ W. Dados a união de dois subespaços de um espaço vetorial V não é necessariamente um subespaço de V . A próxima proposição mostra Este exemplo mostra que que a interseção de subespaços é sempre um subespaço. Proposição 3.1.3. A interseção de dois subespaços de um espaço vetorial V é um subespaço de V . Demonstração Sejam U e W subespaços de V . Para vericarmos que U ∩W V , vamos fazer uso do Corolário 3.1.2 Para isto, primeiramente note que U ∩ W é um subconjunto não vazio de V , pois 0 ∈ U e 0 ∈ W , já que ambos U e W são subespaços de V . Agora, tomemos a ∈ R e u, v ∈ U ∩ W . Como u, v ∈ U e u, v ∈ W , segue do Corolário 3.1.2 que u + av ∈ U e u + av ∈ W , ou seja, u + av ∈ U ∩ W . Novamente, pelo Corolário 3.1.2, segue que U ∩ W é um subespaço de V . é também um subespaço de Observemos que o principal problema quando consideramos a união de subespaços é que se tomamos um vetor em cada subespaço, a soma deles pode não pertencer à união. Seria, então, natural considerarmos o conjunto soma denido a seguir. Dados U e W, U e W subespaços de um espaço vetorial denotada por U + W, V, denimos a soma de como o conjunto U + W = {u + w ; u ∈ U e w ∈ W }. Com isto, quando somamos um elemento de um subespaço com um elemento do outro, automaticamente, a soma destes elementos está na soma dos subespaços. 62 CAPÍTULO 3. ESPAÇOS VETORIAIS U = {(x, y) ∈ R2 ; x + y = 0} e W = {(x, y) ∈ R2 ; x − y = 0}. Temos que U + W = R2 , e, consequentemente, U + W é um subespaço de R2 . De fato, se (x, y) ∈ R2 então     x+y x+y x−y y−x , + , , (x, y) = 2 2 2 2 Como exemplo, consideremos o que mostra que todo elemento de de U e um elemento de W. R2 se escreve como a soma de um elemento Este exemplo ilustra o resultado a seguir. Proposição 3.1.4. A soma de dois subespaços U e W de um espaço vetorial V é um subespaço de V . Este é o menor subespaço de V que contém cada um dos subespaços, no sentido que se um subespaço vetorial L de V é tal que U ⊂ L e W ⊂ L, então U + W ⊂ L. Demonstração Sejam U e W subespaços de V . Tomemos a ∈ R e v1 , v2 ∈ U + W . Como v1 , v2 ∈ U + W , e w2 elementos de W tais que existem v1 = u1 + w1 e u1 e u2 elementos de U e existem w1 v2 = u2 + w2 . Então, v1 + av2 = (u1 + w1 ) + a(u2 + w2 ) = (u1 + au2 ) + (w1 + aw2 ) ∈ U + W . U + W é um subespaço de V . Para mostrar que U + W é o menor subespaço vetorial de V que contém U e W , seja L um subespaço de V que contém U e W . Para todos u ∈ U e w ∈ W , temos que u, w ∈ L, logo u + w ∈ L. Isto mostra que U + W ⊂ L.  Assim, provamos que Sejam U e W subespaços de um espaço vetorial V é dito ser a soma direta de U V = U + W e U ∩ W = {0}. e W, V. O espaço vetorial e representado por V = U ⊕ W, se Como exemplo de uma soma direta, consideremos novamente os subespa- U = {(x, y) ∈ R2 ; x + y = 0} e W = {(x, y) ∈ R2 ; x − y = 0}. Vimos 2 2 anteriormente que R = U +W . Como U ∩W = {0}, segue que R = U ⊕W . ços O próximo resultado mostra uma importante propriedade das somas diretas. 1. 63 SUBESPAÇOS VETORIAIS Teorema 3.1.5. Sejam U e W subespaços de um espaço vetorial V . Temos que V = U ⊕ W se, e somente se, todo vetor v em V se escreve de modo único como v = u + w, onde u ∈ U e w ∈ W . Demonstração Suponhamos V = U ⊕ W . Tomemos v ∈ V . Como V = U + W, pela denição de soma de subespaços, existem u∈U e w∈W tais que v = u + w. Vejamos que a decomposição acima é única no sentido de que se v = u0 + w0 , u0 ∈ U e w 0 ∈ W , v = u0 + w0 , então com então u = u0 e w = w0 . Ora, como v = u+w e u − u0 = −(w − w0 ). U e o lado direito a W , da igualdade 0 anterior decorre que u − u ∈ U ∩ W e w − w ∈ U ∩ W . Como U ∩ W = {0}, 0 0 segue então que u = u e w = w . Reciprocamente, suponhamos que todo vetor de V se escreve de modo único como a soma de um vetor de U e de um vetor de W . Claramente, então, V = U + W . Se U ∩ W 6= {0}, existiria um vetor não nulo v em U ∩ W . Como v ∈ W e W é um subespaço, então −v ∈ W também. Consequentemente, teríamos 0 = 0 + 0, com 0 ∈ U e 0 ∈ W , e 0 = v + (−v), com v ∈ U e −v ∈ W . Como v 6= 0, teríamos duas escritas distintas para um mesmo vetor de V . Como isto não ocorre, temos de fato que U ∩ W = {0}.  Como o lado esquerdo pertence a 0 1.3 Subespaços Gerados Seja V v de V é uma reais a1 , a2 , . . . , ar tais que um vetor números v1 , v2 , . . . , vr vetores de V . Diremos combinação linear de v1 , v2 , . . . , vr se existirem um espaço vetorial e sejam que v = a1 v1 + a2 v2 + · · · + ar vr . (1) 64 CAPÍTULO 3. (1, 6, 0) v2 = (−1, 2, 0), R3 Por exemplo, o vetor em v1 = (1, 2, 0) já que e ESPAÇOS VETORIAIS é uma combinação linear dos vetores v = 2v1 + 1v2 . De fato, a equação (1, 6, 0) = a1 (1, 2, 0) + a2 (−1, 2, 0) equivale ao sistema de equações lineares  a1 − a2 = 1 2a1 + 2a2 = 6 , a1 = 2 e a2 = 1. Já o vetor w = (2, −2, 6) de v1 e v2 , pois não existem números reais a1 cuja solução é única e dada por não é uma combinação linear e a2 tais que w = a1 v1 + a2 v2 . Com efeito, a equação (2, −2, 6) = a1 (1, 2, 0) + a2 (−1, 2, 0) equivale ao sistema de equações lineares a1 − a2 = 2, 2a1 + 2a2 = −2, 0a1 + 0a2 = 6 , mostrando que o sistema é impossível. Se r=1 em (1), então v = a1 v1 , ou seja, v é uma combinação linear de v1 se for um múltiplo por escalar de v1 . Sejam v1 , v2 , . . . , vr vetores de um espaço vetorial V . Consideremos o conjunto W de todas as combinações lineares de v1 , v2 , . . . , vr . O resultado a seguir mostra que W é um subespaço de V . Este subespaço é chamado o subespaço gerado por v1 , v2 , . . . , vr e dizemos que v1 , v2 , . . . , vr geram W ou que {v1 , v2 , . . . , vr } é um conjunto gerador de W . Para indicarmos que W é o espaço gerado por v1 , v2 , . . . , vr , escrevemos um único vetor W = G(v1 , v2 , . . . , vr ). Por exemplo, G((1, 0, 0), (0, 1, 0), (0, 0, 1)) = R3 . Proposição 3.1.6. Seja W = G(v1 , v2 , . . . , vr ), onde v1 , v2 , . . . , vr são vetores de um espaço vetorial V . Valem as seguintes armações: 1. 65 SUBESPAÇOS VETORIAIS (i) (ii) W é um subespaço de V ; W é o menor subespaço de V contendo v1 , v2 . . . . , vr , no sentido de que qualquer subespaço de V que contém v1 , v2 , . . . , vr também contém W . Demonstração (i): Tomemos a ∈ R e u, v ∈ W . Então existem números reais a1 , a2 , . . . , ar e b1 , b2 , . . . , br tais que u = a1 v1 + a2 v2 + · · · + ar vr , v = b1 v1 + b2 v2 + · · · + br vr . u + av = (a1 + ab1 )v1 + (a2 + ab2 )v2 + · · · + (ar + abr )vr . Assim, u+av é uma combinação linear de v1 , v2 , . . . , vr e consequentemente pertence a W . Pelo Corolário 3.1.2, W é um subespaço de V . (ii): Cada vetor vi é uma combinação linear de v1 , v2 , . . . , vr , pois podemos Portanto, escrever vi = 0v1 + 0v2 + · · · + 1vi + · · · + 0vr . Isto mostra que o subespaço Seja W 0 W contém cada um dos vetores um subespaço qualquer de V contendo v1 , v2 , . . . , vr . v1 , v2 , . . . , vr . Pelo Corolário 3.1.2, esse subespaço contém todas as combinações lineares destes vetores. Assim, W ⊂ W 0. Exemplo 6.  O espaço gerado pelo vetor W = {a(1, 1, 2) ; a ∈ R}, escalar de v . em já que uma combinação linear de w = av é a ≥ 1, 0 ≤ a < 1, Dizemos que um vetor inversão, de v , se v = (1, 1, 2) uma ou Assim, um elemento do subespaço tração ou uma inversão de v W, dilatação, a < 0, uma R3 é o conjunto v é um múltiplo contração, ou uma respectivamente. acima, é uma dilatação, uma con- (veja Figura 1). 66 CAPÍTULO 3. ESPAÇOS VETORIAIS Figura 1 Exemplo 7. R3 v1 = (1, −2, −1) e v2 = (2, 1, 1). Seja W = G(v1 , v2 ). Tomemos v = (x, y, z) ∈ R3 . Temos que v ∈ W se, e somente se, existem números reais a1 e a2 tais que Vamos encontrar o subespaço de gerado pelos vetores v = a1 v1 + a2 v2 , ou, equivalentemente, se, e somente se, o sistema linear     a1 + 2a2 = x −2a1 + a2 = y    −a1 + a2 = z (2) tem solução. A matriz ampliada do sistema (2) é equivalente à matriz   1 2 x   (x + z)/3  . 0 1 0 0 (x + 3y − 5z)/3 Portanto, (2) tem solução se, e somente se, x + 3y − 5z = 0. Assim, 3 W = {(x, y, z) ∈ R ; x + 3y − 5z = 0}. Para gerarmos um mesmo espaço, podemos usar conjuntos geradores distintos. W Por exemplo, se considerarmos um vetor não nulo no Exemplo 6 temos que G(v) = G(w). w qualquer em A seguinte proposição, cuja de- monstração é deixada como exercício ao leitor (ver Problema 1.14), nos dá 1. 67 SUBESPAÇOS VETORIAIS uma condição necessária e suciente para que conjuntos distintos de vetores gerem um mesmo espaço. Proposição 3.1.7. Sejam α = {v1 , v2 , . . . , vr } e β = {w1 , w2 , . . . , wm } dois conjuntos de vetores em um espaço vetorial V . As seguintes armações são equivalentes: (a) G(v1 , v2 , . . . , vr ) = G(w1 , w2 , . . . , wm ); (b) cada vetor em α é uma combinação linear dos vetores de β e cada vetor em β é uma combinação linear dos vetores de α. W um subespaço de um espaço vetorial V . Dar um conjunto de geradores w1 , . . . , wr de W é o mesmo que dar uma parametrização para o espaço W . De fato, considerando a aplicação Seja ϕ: temos que W Rr → V (a1 , . . . , ar ) 7→ a1 w1 + · · · + ar wr coincide com a imagem de ϕ. Problemas 1.1* 1.2 R 2 Demonstre o Corolário 3.1.2. Verique, em cada caso, se o conjunto W é um subespaço vetorial de : W (b) W (c) W (d) W (a) = {(x, y) ; = {(x, y) ; = {(x, y) ; = {(x, y) ; x + y = 0}; x + y = 1}; x2 = y}; −x + 3y = 0}. 1.3 Verique, em cada caso, se o conjunto W W (b) W (c) W (d) W (e) W (a) = {(x, y, z) ; x = 0}; = {(x, y, z) ; x + y + z ≥ 0}; = {(x, y, z) ; z = 3x − 2y}; = {(x, 2x, x) ; x ∈ R}; = {(4x, y, y − x) ; x, y ∈ R}. é um subespaço vetorial de R3 : 68 1.4 CAPÍTULO 3. Verique, em cada caso, se o conjunto W ESPAÇOS VETORIAIS é um subespaço vetorial de M(3, 3): (a) W = {[aij ] ; a11 + a22 + a33 = 0}; (b) W = {[aij ] ; aij = aji para todo 1 ≤ i, j ≤ 3}; (c) W = {[aij ] ; aij = 0 se i 6= j}; 2 (d) W = {A ; A = A}; (e) W = {A ; A é invertível}. 1.5 Verique, em cada caso, se o conjunto R[x]: (a) W (b) W (c) W (d) W = {p(x) = a + bx + cx2 ; = {p(x) = a + bx + cx2 ; = {p(x) = a + bx + cx2 ; = {p(x) = a + bx + cx2 ; W é um subespaço vetorial de a, b, c ∈ Z}; a = c = 0}; c = a + b}; c ≥ 0}. 1.6 Determine, em cada caso, V ∩ W V + W: 3 (a) V = {(x, y, z) ∈ R ; x = y} e W = {(x, y, z) ∈ R ; x = y = z}; (b) V ={[aij ]2×2 ; a11 =a22 e a12 =a21 } e W ={[aij ]2×2 ; a11 =a21 e a12 =a22 }; (c) V = {(x, y, −x − 3y) ; x, y ∈ R} e W = {(0, 0, z) ; z ∈ R}; 4 (d) V = {(x, y, z, w) ∈ R ; x + 2y − w = 0} e W = {(x, x, x, x) ; x ∈ R}; (e) V = {(x, x, x) ; x ∈ R} e W = {(0, 0, z) ; z ∈ R}. e 3 Quais das somas anteriores são somas diretas? 1.7 Seja V = M(3, 3). Sejam U e W os subespaços de V das matrizes V 6= U ⊕W . V = U0 ⊕ W . triangulares superiores e inferiores, respectivamente. Mostre que Construa subespaços 1.8 Sejam U e W U 0 e W 0 de V tais que V =U ⊕W subespaços de um espaço vetorial U e W estão ambos contidos em U + W ; (b) U ∩ W é o maior subespaço contido em U (c) W + W = W . V. 0 e Mostre que: (a) 1.9 Sejam U e W e em V . Prove que: U ⊆ W ou W ⊆ U ; subespaços de um espaço vetorial U ∪ W é subespaço vetorial se, e somente se, (b) U + W = U ∪ W se, e somente se, U = W . (a) W; 2. 69 DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 1.10 U1 , U2 , W1 e W2 subespaços de um espaço vetorial V de modo que V = U1 ⊕ W1 = U2 ⊕ W2 . Se U1 ⊂ U2 e W1 ⊂ W2 , prove que U1 = U2 e W1 = W2 . Sejam 1.11* a, b e c devem satisfazer de modo de u = (2, −6, 4) e v = (2, −1, 1). Determine uma condição que (a, b, c) seja uma combinação linear que 1.12* Considere o conjunto α = {(−1, 3, 1), (1, −2, 4)} e determine: (a) o espaço gerado por (b) o valor de k∈R α; para que v = (5, k, 11) pertença ao espaço gerado por α. 1.13 Encontre um conjunto de geradores para cada espaço abaixo: V = {(x, y, z) ∈ R3 ; x − 2y + 3z = 0}; 4 (b) V = {(x, y, z, t) ∈ R ; x − y = 0 e x + t = 0}; b 2 (c) V = {p(x) = a + bx + cx ∈ R[x]2 ; a − = c}; 2 " #   a b ∈ M(2, 2) ; a + c = d e b = 0 . (d) V = c d (a) 1.14 Prove a Proposição 3.1.7. 1.15 Quais dos seguintes vetores (a) (0, 2, 2, 2), (b) (1, 4, 5, 2), são combinações lineares de (c) (0, 0, 0, 0), u = (0, 0, 2, −2) e (d) (0, 3, 1, 5) v = (0, 1, 3, −1)? 1.16 Expresse os seguintes polinômios (a) 2 + 5x, (b) −x + 2x2 , (c) 3 + 3x + 5x2 como combinação linear de p1 (x) = 2 + x + 4x2 , 2 p2 (x) = 1 − x + 3x2 , p3 (x) = 3 + 2x + 5x2 . Dependência e Independência Linear Vimos na seção anterior, que um conjunto nito de vetores dado espaço vetorial V se cada vetor em binação linear dos vetores de α. V α gera um pode ser escrito como uma com- Em geral, pode haver mais de uma maneira 70 CAPÍTULO 3. de expressar um vetor em conjunto gerador. V ESPAÇOS VETORIAIS como uma combinação linear de vetores de um R3 = G(v1 , v2 , v3 , v4 ), v4 = (1, 0, 1). Note que Por exemplo, v2 = (1, 1, 0), v3 = (0, 1, 1) e onde v1 = (1, 1, 1), (4, 2, 1) = 1v1 + 2v2 − 1v3 + 1v4 e também que (4, 2, 1) = −1v1 + 2v2 + 0v3 + 2v4 . Observamos nesse ponto que é possível trabalhar com conjuntos arbitrários (innitos) de geradores, mas não o faremos aqui, pois necessitaríamos introduzir novas ferramentas mais sosticadas, como o Lema de Zorn, ou o Axioma da Escolha (cf. [1]). Nesta seção, estudaremos condições sob as quais cada vetor de V pode ser escrito de uma única maneira como combinação linear dos elementos de um conjunto gerador. Na próxima seção veremos que conjuntos geradores com esta propriedade desempenham um papel fundamental no estudo dos espaços vetoriais. v1 , v2 , . . . , vr vetores em um espaço vetorial V . Dizemos que os v1 , v2 , . . . , vr são linearmente independentes, ou simplesmente inde- Sejam vetores pendentes, se a equação a1 v1 + a2 v2 + · · · + ar vr = 0 a1 = a2 = · · · = ar = 0. Caso exista algum ai 6= 0, dizemos que os vetores v1 , v2 , . . . , vr são linearmente dependentes, ou simplesmente dependentes. O conjunto {v1 , v2 , . . . , vr } é dito ser independente ou dependente se os vetores v1 , v2 , . . . , vr são independentes ou dependentes, é satisfeita somente quando respectivamente. Observemos que se um dos vetores v1 = 0, v1 , v2 , . . . , vr é o vetor nulo, digamos então os vetores são dependentes, pois 1v1 + 0v2 + · · · + 0vr = 1 · 0 + 0 + · · · + 0 = 0 2. 71 DEPENDÊNCIA E INDEPENDÊNCIA LINEAR e o coeciente de v1 não é 0. Por outro lado, qualquer vetor não nulo por si só, independente, pois se av = 0, então a = 0. v é, A seguir, apresentamos outros exemplos de vetores independentes e dependentes. Exemplo 1. Os vetores e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1) são independentes, pois a equação a1 e1 + a2 e2 + a3 a3 = 0, equivalente à equação a1 (1, 0, 0) + a2 (0, 1, 0) + a3 (0, 0, 1) = (0, 0, 0), é satisfeita somente se a1 = a2 = a3 = 0. Exemplo 2. Vamos vericar se os vetores v3 = (1, −1, 2) são independentes ou dependentes. v1 = (1, −3, 4), v2 = (3, 2, 1) e A equação a1 v1 + a2 v2 + a3 v3 = 0 é dada por a1 (1, −3, 4) + a2 (3, 2, 1) + a3 (1, −1, 2) = (0, 0, 0) ou, equivalentemente, é dada pelo sistema linear homogêneo     a1 + 3a2 + a3 = 0 −3a1 + 2a2 − a3 = 0    4a1 + a2 + 2a3 = 0 . Assim, os vetores v1 , v2 e v3 (1) são independentes, se o sistema em (1) tiver somente a solução trivial; ou são dependentes, se o sistema tiver uma solução não trivial. Mas, o sistema em (1) tem somente a solução trivial se, e somente se, a matriz dos coecientes   1 3 1   A = −3 2 −1 4 1 2 72 CAPÍTULO 3. ESPAÇOS VETORIAIS é invertível (cf. Corolário 2.2.7). Como a matriz é equivalente por linhas à matriz (justique)   1 3 1   −3 2 −1 , 0 0 0 concluímos que v1 , v2 e v3 são linearmente dependentes. A solução do exemplo anterior motiva o próximo resultado, que nos oferece um método para vericar se n vetores de Rn são linearmente indepen- dentes ou dependentes. A demonstração é deixada ao cargo do leitor (veja Problema 2.8). Proposição 3.2.1. Sejam v1 , v2 , . . . , vn vetores em Rn , onde, para cada i, com 1 ≤ i ≤ n, temos vi =(ai1 , ai2 , . . . , ain ). Seja A = [aij ]. Temos que {v1 , v2 , . . . , vn } é linearmente independente se, e somente se, A é invertível. n E caso tenhamos n+1 vetores em R ? O próximo teorema mostra que um conjunto linearmente independente em Rn pode conter no máximo n vetores. Teorema 3.2.2. Sejam v1 , v2 , . . . , vr vetores em Rn . Se r > n, então os vetores v1 , v2 , . . . , vr são linearmente dependentes. Demonstração Suponhamos que, para cada 1 ≤ i ≤ r, vi = (ai1 , . . . , ain ). Consideremos a equação k1 v1 + k2 v2 + · · · + kr vr = 0. Esta equação é equivalente ao sistema linear homogêneo   a11 k1 + a21 k2 + · · · + ar1 kr = 0     a k + a k + · · · + a k = 0 12 1 22 2 r2 r . . . .  . . . .  . . . .     a1n k1 + a2n k2 + · · · + arn kr = 0 . O sistema dado em (2) é um sistema linear homogêneo de incógnitas k1 , k2 , . . . , kr . n equações nas r r > n, segue do Corolário 2.2.7 que o sistema mostra que v1 , v2 , . . . , vr são dependentes.  Como tem soluções não triviais. Isto (2) 2. 73 DEPENDÊNCIA E INDEPENDÊNCIA LINEAR O termo linearmente dependente" sugere que os vetores de alguma maneira dependem uns dos outros. O próximo resultado mostra que isto realmente ocorre. Teorema 3.2.3. Um conjunto nito α com dois ou mais vetores de um espaço vetorial V é linearmente dependente se, e somente se, pelo menos um dos vetores de α pode ser escrito como uma combinação linear dos outros vetores. Demonstração Seja α = {v1 , v2 , . . . , vr } um subconjunto de um espaço V . Se α é linearmente dependente, então existem números reais a1 , a2 , . . . , ar , não todos nulos, tais que a1 v1 + a2 v2 + · · · + ar vr = 0. Suponhamos que aj 6= 0. Então aj−1 aj+1 ar a1 vj−1 − vj+1 − · · · − vr , vj = − v1 − · · · − aj aj aj aj vetorial mostrando que vj nhamos agora que vi , é uma combinação linear dos demais vetores de α α. Supo- tem a propriedade de que um de seus vetores, digamos pode ser escrito como uma combinação linear dos outros vetores de Ou seja, que existem números reais b1 , . . . , bi−1 , bi+1 , . . . , br α. tais que vi = b1 v1 + · · · + bi−1 vi−1 + bi+1 vi+1 + · · · + br vr . A equação anterior equivale a b1 v1 + · · · + bi−1 vi−1 − 1vi + bi+1 vi+1 + · · · + br vr = 0. Como o coeciente de vi na equação (3) não é 0, dependente. segue que α (3) é linearmente  um conjunto nito α com dois ou mais vetores de um espaço vetorial V é linearmente independente se, e somente se, nenhum dos vetores de α pode ser escrito como uma combinação linear dos outros vetores. Do resultado acima, segue imediatamente que Por exemplo, nenhum dos vetores dados no Exemplo 1 pode ser escrito como uma combinação linear dos demais. Já, no Exemplo 2, observemos que v3 = 5 2 v1 + v2 . 11 11 74 CAPÍTULO 3. ESPAÇOS VETORIAIS Problemas 2.1* f (x), g(x), h(x) são linearmente dependentes, onde f (x) = x + 4x − 2x + 3, g(x) = x3 + 6x2 − x + 4 e h(x) = 2x3 + 8x2 − 8x + 7. Considere o espaço vetorial R[x]. Determine se os polinômios 3 2 2.2 Verique, em cada caso, se o conjunto de vetores de R3 indicado é linearmente dependente: (a) {(2, −1, 4), (−4, 10, 2)}; (b) {(−3, 0, 4), (5, −1, 2), (1, 1, 3)}; (c) {(1, 0, 2), (3, 1, 5), (−1, 2, 1), (4, 0, 1)}. 2.3 Quais dos seguintes conjuntos de vetores em R4 são linearmente depen- dentes? (a) {(3, 8, 7, −3), (1, −1/2, 1, 3), (1, 4, 0, 3)}; (b) {(0, 0, 1, 1), (2, 2, 0, 0), (3, 3, 0, −3)}; (c) {(1, 0, −1, 2), (0, 2, 3, 1), (0, 1, 1, 0), (−2, 1, 2, 1)}. 2.4 Para quais valores reais de a os vetores v1 = (a, −1, −1), v2 = (−1, a, −1) e formam um conjunto linearmente dependente em 2.5 Seja V um espaço vetorial e seja mente independente de vetores de vazio de α v3 = (−1, −1, a) R3 ? α = {v1 , v2 , . . . , vn } um conjunto linear- V. Mostre que qualquer subconjunto não é também linearmente independente. 2.6 Mostre que se 2.7 Mostre que se {v1 , v2 , v3 , v4 } é um conjunto linearmente dependente de vetores em um espaço vetorial V e se v5 é um vetor qualquer em V , então {v1 , v2 , v3 , v4 , v5 } também é linearmente dependente. combinação linear {v1 , v2 , v3 , v4 } gera um espaço vetorial V e se v4 de v1 , v2 e v3 , então {v1 , v2 , v3 } ainda gera V . 2.8 Demonstre a Proposição 3.2.1. é uma 3. 75 BASES E DIMENSÃO 2.9 Mostre que se {v1 , v2 , v3 } vetores em um espaço vetorial é um conjunto linearmente independente de V e se v4 ∈ / G(v1 , v2 , v3 ), então {v1 , v2 , v3 , v4 } é linearmente independente. 2.10 Dados os elementos v1 , . . . , v r de um espaço vetorial V, mostre que esses são linearmente independentes se, e somente se, é injetiva a seguinte aplicação: ϕ: 3 Rr → V (a1 , . . . , ar ) 7→ a1 v1 + · · · + ar vr . Bases e Dimensão Nesta seção introduziremos os dois conceitos fundamentais no contexto dos espaços vetoriais: base e dimensão. Esses dois conceitos esclarecem a estrutura desses espaços e ao mesmo tempo simplicam as demonstrações de vários resultados sobre eles. 3.1 Bases Seja vetorial α = {v1 , v2 , . . . , vn } V . Dizemos que α um conjunto ordenado de vetores de um espaço é uma base de V se as seguintes condições são vericadas: α é linearmente (ii) V = G(α). (i) independente; Vimos no Exemplo 1, da seção anterior, que o conjunto α = {e1 , e2 , e3 } R3 , pois qualquer 3 vetor v = (a1 , a2 , a3 ) em R pode ser escrito como v = a1 e1 + a2 e2 + a3 e3 . 3 Assim, α, com a ordenação dada pelos índices, é uma base de R , chamada base canônica de R3 . Este é um caso particular do próximo exemplo. é linearmente independente. Este conjunto também gera Exemplo 1. 1 Leopold Denimos o símbolo de Kronecker 1 , δij , para (i, j) ∈ N2 , como Kronecker (Alemanha, 1823  1891) foi um dos grandes matemáticos do século XIX. Além de sua grande e profunda contribuição à Matemática, cou famoso 76 CAPÍTULO 3. ( δij = Seja n ∈ N \ {0}. Para cada 1, 0, se se ESPAÇOS VETORIAIS i=j i 6= j. 1 ≤ i ≤ n, denotemos por ei o vetor (δi1 , δi2 , . . . , δij , . . . , δin ) = (0, . . . , 0, 1, 0, . . . 0) Rn , onde a componente 1 encontra-se na i-ésima posição. α = {e1 , e2 , . . . , en } é linearmente independente, pois a equação em O conjunto k1 e1 + k2 e2 + · · · + kn en = 0 é satisfeita somente se também gera Rn , pois k1 = k2 = · · · = kn = 0. Além disto, este n qualquer vetor v = (a1 , a2 , . . . , an ) em R conjunto pode ser escrito como v = a1 e1 + a2 e2 + · · · + an en . Assim, α, chamada com a ordenação dada pelo índices dos base canônica de é uma base de Rn , Rn . O próximo exemplo apresenta a Exemplo 2. e0i s base canônica de M(m, n). Sejam " # " # " # " # 1 0 0 1 0 0 0 0 M1 = , M2 = , M3 = e M4 = . 0 0 0 0 1 0 0 1 α = {M1 , M2 , M3 , M4 } é uma base de M(2, 2). Com que α gera M(2, 2), observemos que um vetor qualquer " # a b M= c d O conjunto vermos em M(2, 2) efeito, para pode ser escrito como M = aM1 + bM2 + cM3 + dM4 . pela polêmica envolvendo os trabalhos de Cantor, o criador da Teoria dos Conjuntos, que Kronecker não considerava Matemática. 3. 77 BASES E DIMENSÃO Para vericarmos que α é linearmente independente, suponhamos que a1 M1 + a2 M2 + a3 M3 + a4 M4 = 0, ou seja, " a1 # " # " # " # " # " # 1 0 0 1 0 0 0 0 a1 a2 0 0 + a2 + a3 + a4 = = . 0 0 0 0 1 0 0 1 a3 a4 0 0 a1 = a2 = a3 = a4 = 0 e, portanto, α é linearmente independente. A base α é chamada a base canônica de M(2, 2). Mais geralmente, a base canônica de M(m, n) é formada por mn matrizes distintas, cada uma Segue-se que das quais possuindo uma única entrada igual a 1 e todas as demais entradas iguais a 0, ordenadas de forma semelhante ao que foi feito no caso M(2, 2). A noção de base é uma generalização para espaços vetoriais arbitrários do sistema de coordenadas em base de um espaço vetorial V pode ser escrito de V R2 e R3 já que, como veremos a seguir, uma é um conjunto gerador no qual cada vetor de modo único como combinação linear desses vetores. Teorema 3.3.1. Seja α = {v1 , v2 , . . . , vn } um conjunto ordenado de vetores de um espaço vetorial V . As seguintes armações são equivalentes: (i) (ii) α é uma base de V ; cada vetor v em V pode ser escrito de modo único na forma v = a1 v1 + a2 v2 + · · · + an vn . Demonstração Suponhamos que α é uma base de V . Como α gera V , existem números reais a1 , a2 , . . . , an tais v = a1 v1 + a2 v2 + · · · + an vn . Tomemos v ∈ V. que (1) Para mostrar que a combinação linear em (1) é única, suponhamos que existem b1 , b2 , . . . , bn em R tais que v = b1 v1 + b2 v2 + · · · + bn vn . (2) 78 CAPÍTULO 3. ESPAÇOS VETORIAIS De (1) e (2) segue que (a1 − b1 )v1 + (a2 − b2 )v2 + · · · + (an − bn )vn = 0. Como α aj − b j = 0 todo 1 ≤ j ≤ n. Como Suponhamos agora que α é independente, a equação (3) é satisfeita somente se para todo v∈V (3) 1 ≤ j ≤ n, ou seja, se b j = aj para foi tomado de modo arbitrário, (ii) segue. V pode ser escrito de modo único como combinação linear dos elementos de α. Pela denição de espaço gerado, claramente α gera V . Para mostrarmos que α é independente, consideremos tem a propriedade de que cada vetor v em a equação k1 v1 + k2 v2 + · · · + kn vn = 0. 0 = 0v1 + 0v2 + · · · + 0vn · · · = kn = 0. Como e esta escrita é única, segue que a1 , a2 , . . . , an que aparecem no coordenadas de v na base α. A matriz n × 1   a1    a2   . , . . an Os números reais mados denotada por exemplo, se α [v]α , é chamada a v = (1, 2, 1),   1   [v]α = 2 . 1 é a base canônica de Tomemos agora Teorema 3.3.1 são cha- matriz das coordenadas 3 R e k1 = k2 =  de v na base α. Por então β = {(1, 0, 0), (0, 1, 0), (1, 1, 1)}, que é uma base de R3 .   0   [v]β = 1 . 1 Então 3. 79 BASES E DIMENSÃO Geometricamente, o vetor v se localiza em uma mesma posição no espaço car- tesiano, porém o modo como ele é determinado no espaço depende da base com a qual estamos trabalhando. tivamente 2 R ) especicam um Os vetores de uma base de sistema de coordenadas R3 (respec- no espaço cartesiano (respectivamente no plano cartesiano). Observamos que a matriz das coordenadas de um vetor em relação a uma base α não depende apenas de α, mas também da ordem na qual escrevemos os seus vetores, já que uma mudança na ordem dos vetores da base implica numa mudança correspondente da ordem das entradas da matriz. Dessa uma base de um espaço vetorial será sempre considerada como um conjunto ordenado de vetores. forma, O próximo teorema mostra que um conjunto gerador de um espaço vetorial V sempre contém uma base de V. Teorema 3.3.2. Sejam v1 , v2 , . . . , vn vetores não nulos que geram um espaço vetorial V . Então, dentre estes vetores, podemos extrair uma base de V . Demonstração Consideremos α0 = {v1 , v2 , . . . , vn }. Devemos extrair um conjunto linearmente independente de então α0 V, é uma base de α0 . Se α0 é linearmente independente, e a demonstração termina aqui. Se α0 é linear- mente dependente, segue do Teorema 3.2.3 que existe um vetor de α0 que pode ser escrito como combinação linear dos demais. Sem perda de generali- vn , ou seja, que vn é uma combinação linear de v1 , v2 , . . . , vn−1 . O conjunto α1 = {v1 , v2 , . . . , vn−1 } ainda gera V . (Por quê? Veja Problema 2.7). Se α1 é linearmente independente, então α1 é uma base de V . Se α1 é linearmente dependente, então um dos vetores de α1 , digamos vn−1 , é uma combinação linear dos demais. O conjunto α2 = {v1 , v2 , . . . , vn−2 } ainda gera V . Se α2 é linearmente independente, então α2 é uma base de V . Se α2 é linearmente dependente, prosseguimos dade, suponhamos que este vetor seja como anteriormente. Após uma quantidade nita de passos, obteremos um conjunto αr n−r V. formado por dentes que ainda geram vetores (0 ≤ r ≤ n − 1) linearmente indepen-  80 CAPÍTULO 3. ESPAÇOS VETORIAIS O próximo resultado generaliza o Teorema 3.2.2. Teorema 3.3.3. Seja V um espaço vetorial gerado por um conjunto nito de vetores v1 , v2 , . . . , vn . Então, qualquer conjunto com mais de n vetores de V é linearmente dependente. (Consequentemente, qualquer conjunto de vetores de V linearmente independente tem no máximo n vetores). Demonstração Consideremos α = {v1 , v2 , . . . , vn }. Pelo Teorema 3.3.2, poα uma base de V . Suponhamos sem perda de generalidade que β = {v1 , v2 , . . . , vr } seja esta base (notemos que 1 ≤ r ≤ n). Consideremos agora w1 , w2 , . . . , wm vetores de V , com m > n. Vamos mostrar que estes vetores são linearmente dependentes. De fato, como β é uma base de V , existem números reais aij (1 ≤ i ≤ m, 1 ≤ j ≤ r) tais que  w1 = a11 v1 + a12 v2 + · · · + a1r vr ,       w2 = a21 v1 + a22 v2 + · · · + a2r vr , demos extrair de       Se . . . . . . . . . (4) . . . wm = am1 v1 + am2 v2 + · · · + amr vr . x1 w1 + x2 w2 + · · · + xm wm = 0, segue de (4) que (a11 x1 + a21 x2 + · · · + am1 xm )v1 + · · · + (5) + (a1r x1 + a2r x2 + · · · + amr xm )vr = 0. Como β é linearmente independente, a equação (5) nos fornece o sistema linear homogêneo  a11 x1 + a21 x2 + · · · + am1 xm = 0    . . .    que tem r equações e . . . . . . a1r x1 + a2r x2 + · · · + amr xm = 0 x1 , x2 , . . . , xm como incógnitas. Como r < m, o Coro- lário 2.2.7 garante que o sistema linear em questão admite innitas soluções. Logo, ele admite uma solução não trivial, ou seja, existe uma solução com algum xi não nulo. Portanto, os vetores w1 , w2 , . . . , wm são dependentes.  3. 81 BASES E DIMENSÃO V é chamado de dimensão nita se contém um conjunto nito {v1 , v2 , . . . , vn } de vetores que constitui uma base de V . Se não existir um tal conjunto, dizemos que V é de dimensão innita. Um espaço vetorial não nulo Convencionamos que o espaço vetorial nulo é um espaço de dimensão nita. O próximo resultado, que é uma consequência do Teorema 3.3.3, nos todas as bases de um espaço vetorial de dimensão nita têm o mesmo número de elementos. garante que Teorema 3.3.4. Sejam α = {v1 , v2 , . . . , vr } e β = {w1 , w2 , . . . , ws } duas bases de um espaço vetorial V . Então, r = s. Além disso, se A = (aij ) e B = (bij ) são as matrizes com coecientes reais tais que vi = r X e wj = aij wj j=1 então AB = I. Demonstração bjk vk , k=1 β é um conjunto linearmente independente, segue do Teorema 3.3.3 que s ≤ r . Por outro lado, como β gera V e α é um conjunto linearmente independente, segue do Teorema 3.3.3 que r ≤ s. Portanto, r = s. Sejam A e B tais que Como α r X vi = gera r X V e aij wj e wj = j=1 r X bjk vk . k=1 . Logo vi = Como os Pr j=1 vi , i = 1, . . . , r aij wj = Pr P aij ( rk=1 bjk vk ) = Pn P j=1 k=1 n j=1  aij bjk vk . formam um conjunto linearmente independente, isto acarreta (justique) que r X aij bjk = δik , j=1 logo AB = I, provando a parte que faltava do resultado.  82 CAPÍTULO 3. 3.2 ESPAÇOS VETORIAIS Dimensão O número de elementos de uma base de um espaço vetorial nita é chamado de que se V dimensão de V é o espaço vetorial nulo, então Exemplo 3. Rn e M(m, n) de dimensão Convencionamos dim V = 0. são espaços vetoriais de dimensão nita. A di- n, já que a base canônica de Rn tem n elementos (ver Exemplo n 1). Por esta razão, R é chamado de espaço n-dimensional. Os espaços veto2 3 riais R e R são usualmente chamados de espaços bidimensional e tridimensional, respectivamente. Já a dimensão de M(m, n) é m · n (ver Exemplo 2). O espaço vetorial R[x], introduzido por Peano e que apresentamos no mensão de n dim V . e denotado por V R é Exemplo 3 da Seção 1, Capítulo 1, é um espaço vetorial que tem dimensão innita. De fato, tomemos uma base de R[x]. n ∈ N \ {0} e suponhamos que α = {p1 , . . . , pn } é Observemos que qualquer combinação linear dos elemen- M = max{grau(pi ) ; 1 ≤ i ≤ n}. Assim, o polinômio q(x) = x está em R[x], mas não pode ser escrito como combinação linear dos elementos de α. Portanto, α não forma uma base de R[x]. Como n foi tomado de modo arbitrário, vemos que nenhum conjunto nito de vetores em R[x] constitui uma base para este espaço vetorial. tos de α tem grau no máximo M, onde M +1 V Vimos no Teorema 3.3.2 que em espaços vetoriais um conjunto gerador contém sempre uma base de V. de dimensão nita, A seguir, veremos que um conjunto linearmente independente está contido em alguma base de V. Teorema 3.3.5. Qualquer subconjunto linearmente independente de um espaço vetorial V de dimensão nita pode ser completado de modo a formar uma base de V . Demonstração Suponhamos dim V = n. Seja α = {w1 , w2 , . . . , wr } um conjunto de vetores linearmente independentes de V. r ≤ n. e a demonstração acaba Se α V , então α é r = n). Se α gera aqui (neste caso, uma base de não gera que não pertence ao espaço gerado por O conjunto {w1 , w2 , . . . , wr+1 } α. V, V, Pelo Teorema 3.3.3, então existe um vetor de Chamemos este vetor de V wr+1 . é linearmente independente. (Por quê? Veja 3. 83 BASES E DIMENSÃO Problema 2.9). contém α. Se este conjunto gera V, temos então uma base de V que Caso contrário, prosseguimos usando o argumento acima. Como n vetores independentes em V , após um número obtido uma base de V que contém os vetores de α. não podemos ter mais do que nito de passos teremos  Terminamos esta seção apresentando um resultado que envolve a noção de dimensão para subespaços. Mais precisamente, mostraremos que a dimensão de um subespaço W de um espaço vetorial de dimensão nita exceder a dimensão de de V é sendo igual a V e que a única maneira de W V não pode ter a mesma dimensão V. Teorema 3.3.6. Seja V um espaço vetorial de dimensão nita. Se W é um subespaço de V , então W tem também dimensão nita e dim W ≤ dim V . Além disso, se dim W = dim V , então W = V . Demonstração Se W = {0}, W tem dimensão nita. Se W 6= {0}, tome w1 ∈ W com w1 6= 0. O conjunto α1 = {w1 } é independente. Se α1 gera W , então α1 é uma base de W . Assim, W tem dimensão nita igual a 1. Se α1 não gera W , existe w2 ∈ W com w2 ∈ / G(w1 ). O conjunto α2 = {w1 , w2 } é independente. Se α2 gera W , então W tem dimensão nita igual a 2. Se α2 não gera W , prosseguimos com o raciocínio anterior. Como dim V é nita, digamos n, e qualquer conjunto independente de V tem no máximo n vetores, existe m ∈ N \ {0} com m ≤ n tal que αm = {w1 , w2 , . . . , wm } é uma base de com W. Isto prova que W tem dimensão nita e que dim W = m, m ≤ n. dim W = dim V = n. Seja β = {w1 , w2 , . . . , wn } uma base de W . Suponhamos que W 6= V . Como W ⊂ V , existe então um vetor de V que não está em W . Chamemos este vetor de v . Como v ∈ / W, o conjunto {w1 , w2 , . . . , wn , v} é um conjunto de vetores de V linearmente independente. Como este conjunto tem n + 1 vetores e dim V = n, temos uma contradição. Portanto, de fato, W = V .  Suponhamos agora que 84 CAPÍTULO 3. ESPAÇOS VETORIAIS Observe que a demonstração da primeira parte do Teorema 3.3.6 nos dá um método para acharmos uma base de um subespaço. Em particular, mostramos que todo espaço vetorial não nulo de dimensão nita tem uma base . Problemas 3.1* Seja V um espaço vetorial tal que dim V = n. (a) n vetores linearmente independentes de (b) n vetores que geram V V Prove que: formam uma base de formam uma base de V; V. Em geral, para mostrar que um conjunto de vetores α é uma base de um espaço vetorial V , devemos vericar que os vetores em α são linearmente independentes e que geram V . No entanto, se soubermos que V tem dimensão n e que α tem n elementos, então para que α seja uma base de V , basta vericar que os seus elementos são linearmente independentes ou que geram V , pois uma condição automaticamente implica a outra. Ou seja, o trabalho de vericar se α é uma base ca simplicado ! 3.2* Seja dim V = 3 V o espaço vetorial das matrizes simétricas e W Mostre que V. e exiba uma base de 3.3* Sejam U 2 × 2. os seguintes subespaços de U = {(a, b, c, d) ; b + c + d = 0}, R4 : W = {(a, b, c, d) ; a + b = 0, c = 2d}. Ache uma base e a dimensão de (a) U, (b) W, (c) U ∩ W, (d) U + W. 3.4 Seja α = {v1 , v2 , v3 }, onde v1 = (1, 1, 0), v2 = (0, 1, −1) e v3 = (2, 0, 2). (a) α é linearmente independente ou dependente? Justique a sua resposta. (b) Obtenha β⊂α tal que (c) Qual a dimensão de 3.5 Seja U β é independente e que G(α)? Justique. V de dimensão nita. V = U ⊕ W. um subespaço de um espaço vetorial que existe um subespaço W de G(β) = G(α). V tal que Mostre 3. 85 BASES E DIMENSÃO 3.6 Determine se as matrizes " # 1 1 A= , 0 0 " # 0 1 B= , 1 0 formam uma base de 3.7 " # 0 0 C= −1 −1 " e # 0 0 D= 0 −1 M(2, 2). Determine a dimensão do espaço vetorial de todas as matrizes 3×3 triangulares superiores. 3.8 Seja A uma matriz 3 × 3. Por que o conjunto I , A, A2 , . . . , A9 é linear- mente dependente? 3.9 Determine a dimensão do espaço vetorial de todos os polinômios grau ≤4 tais que 3.10 Seja W p de p(1) = 0. o subespaço vetorial de M(2, 2) (" # a b W = ; a=d c d (a) Qual a dimensão de dado por ) e c=a+b . W? (b) O conjunto (" é uma base de 3.11 W? # " #) 1 −1 2 1 , 0 1 3 4 Por quê? Encontre uma base e a dimensão do conjunto solução dos seguintes sistemas: (a)     x + 2y − 2z − t = 0 x+y+z+t=0    x + 2y + 3z + 2t = 0 ; 3.12 Podemos ter uma base de R[x]n n? Justique a sua resposta. 3.13 Encontre as coordenadas de: (b)  x + y − 2z + t = 0 2x + 2y − 4z + 2t = 0 . formada por n+1 polinômios de grau 86 CAPÍTULO 3. (a) u = (1, −1) em relação à base {(2, −4), (3, 8)} (b) u = (1, −1) em relação à base {(1, 1), (0, 2)} (c) p(x) = 2 + x − x2 3.14 Seja V em relação à base ESPAÇOS VETORIAIS de de R2 ; R2 ; {1 + x, 1 + x2 , x + x2 } um espaço vetorial de dimensão nita e seja α de R[x]2 . uma base de V. Mostre que: (a) [v + w]α = [v]α + [w]α (b) [cv]α = c[v]α 3.15 U Sejam e para quaisquer para todo V v em w e para todo U ×V, em V; c ∈ R. r e s, respectivamente. denido no Problema 1.5, do Capítulo r + s. Sugestão Se {u1 , . . . , ur } é uma base de U mostre que e espaços vetoriais, de dimensões Mostre que o espaço vetorial 1, tem dimensão V v {v1 , . . . , vs } é uma base de V , {(ui , 0); 1 ≤ i ≤ r} ∪ {(0, vj ); 1 ≤ j ≤ s} é uma base de U × V . e 3.16 Sejam 4 Espaço Linha de uma Matriz U e W subespaços de um espaço vetorial V tais que U ∩W = {0}. Sejam {u1 , . . . , ur } e {w1 , . . . , ws }, respectivamente, bases de U e W . Mostre que {ui ; 1 ≤ i ≤ r} ∪ {wj ; 1 ≤ j ≤ s} é uma base de U + W . Conclua que dim(U + W ) = dim U + dim W . Nesta seção vamos apresentar um método para encontrar uma base de subespaços de Rn , usando as transformações elementares nas linhas de uma matriz. Para uma matriz m×n   a11 a12 . . . a1n    a21 a22 . . . a2n    A= . . . , . . . . .   . am1 am2 . . . amn 4. 87 ESPAÇO LINHA DE UMA MATRIZ os vetores v1 = (a11 , a12 , . . . , a1n ) v2 = (a21 , a22 , . . . , a2n ) . . . . . . vm = (am1 , am2 , . . . , amn ) vetores linha de A. O espaço G(v1 , . . . , vm ) gerado pelos vetores linha de A é chamado espaço linha em de Rn A formados pelas linhas de e denotado por L(A). A são chamados os Note que L(A) é um subespaço de Rn . O espaço linha de uma matriz não se altera ao aplicarmos transformações elementares. De fato, se A = [aij ] é uma matriz m × n, é fácil vericar que G(v1 , . . . , vi , . . . , vj , . . . , vm ) = G(v1 , . . . , vj , . . . , vi , . . . , vm ), G(v1 , . . . , vi , . . . , vm ) = G(v1 , . . . , kvi , . . . , vm ) (k 6= 0), G(v1 , . . . , vi , . . . , vj , . . . , vm ) = G(v1 , . . . , vi + kvj , . . . , vj , . . . , vm ) (k ∈ R). Em outras palavras, L(A) = L(B), onde B = e(A), com e : Li ↔ Lj ; L(A) = L(B), onde B = e(A), com e : Li → kLi (k 6= 0); L(A) = L(B), onde B = e(A), com e : Li → Li + kLj (k ∈ R). Disto decorre o seguinte importante fato: Duas matrizes equivalentes geram o mesmo espaço linha. O próximo resultado mostra como obter uma base para o espaço linha de uma matriz. Teorema 3.4.1. As linhas não nulas de uma matriz A˜, na forma escalonada e equivalente a uma matriz A, formam uma base para o espaço linha de A. Demonstração Sejam A uma matriz m × n e A˜ = [˜aij ] uma matriz na forma escalonada equivalente a A. Suponhamos que A˜ tem p linhas não 88 CAPÍTULO 3. ESPAÇOS VETORIAIS nulas e consideremos os vetores v1 = (˜ a11 , . . . , a ˜1n ) v2 = (˜ a21 , . . . , a ˜2n ) . . . . . . vp = (˜ ap1 , . . . , a ˜pn ) A˜. Pelo que vimos anteriormente, L(A) = A˜ é uma matriz equivalente a A. Vamos formados pelas linhas não nulas de ˜ = G(v1 , v2 , . . . , vp ), já que L(A) mostrar que {v1 , v2 , . . . , vp } é linearmente independente. Para cada 1 ≤ i ≤ p, seja ki a coluna na qual aparece o primeiro elemento não nulo da i-ésima linha de A˜, ou seja a ˜iki = 1 e a ˜i,l = 0, se l < ki . Suponhamos que a1 v1 + · · · + ap vp = 0, que reescrevemos como segue: a1 (0, . . . , 0, a ˜1k1 , ?, . . . , ?, 0 , . . . , 0, . . . , ?) + a2 (0, . . . , 0, 0 , 0, . . . , 0, a ˜2k2 , . . . , 0, . . . , ?) . . . + ap (0, . . . , 0, 0 , 0, . . . , 0, 0, . . . , a ˜pkp , . . . , ?) = onde ? (0, . . . , 0, 0 , 0, . . . , 0, 0 , . . . , 0, . . . , 0), representa um número real. Logo, a igualdade de vetores, acima, nos fornece um sistema de equações lineares nas incógnitas a1 , a2 , . . . , ap , o qual contém as equações a1 a ˜1k1 = · · · = ap a ˜pkp = 0. a ˜iki = 1, para todo i = 1, . . . , p, segue que a1 = a2 = · · · = ap = 0. Portanto, {v1 , v2 , . . . , vp } gera L(A) e é linearmente independente, ou seja, {v1 , v2 , . . . , vp } forma uma base de L(A).  Como Corolário 3.4.2. O posto pA de uma matriz A é o número máximo de linhas linearmente independentes da mesma. Mais precisamente, pA = dim L(A). 4. 89 ESPAÇO LINHA DE UMA MATRIZ Demonstração A dimensão do espaço linha de uma matriz é igual ao número máximo de linhas linearmente independentes da mesma. Como o espaço linha de uma matriz é igual ao espaço linha de uma matriz escalonada equivalente a ela, sua dimensão é igual ao número de linhas não nulas dessa  última, que é igual ao posto da matriz. O exemplo a seguir nos mostrará como o Teorema 3.4.1 pode nos ajudar a determinar o espaço gerado por vetores em Exemplo 1. Rn . v1 = (1, −2, 0, 0, 3), v2 = (2, −5, −3, −2, 6), v3 = (0, 5, 15, 10, 0) e v4 = (2, 6, 18, 8, 6). O espaço gerado pelos vetores v1 , v2 , v3 e v4 é o espaço linha da matriz Determine uma base do espaço gerado pelos vetores   1 −2 0 0 3 2 −5 −3 −2 6   A= . 0 5 10 10 0 2 6 18 8 6 Reduzindo esta matriz à forma escalonada obtemos a matriz  1 0  A˜ =  0 0 0 1 0 0  0 −2 3 0 −1 0  . 1 1 0 0 0 0 A˜ são os vetores w1 = (1, 0, 0, −2, 3), w2 = (0, 1, 0, −1, 0) e w3 = (0, 0, 1, 1, 0). Estes vetores formam uma base 5 para o subespaço de R gerado por v1 , v2 , v3 e v4 . Os vetores linha não nulos da matriz Assim, se W = G(v1 , v2 , v3 , v4 ), então W = G(w1 , w2 , w3 ) = {xw1 + yw2 + zw3 ; x, y, z ∈ R} = {(x, y, z, −2x − y + z, 3x) ; x, y, z ∈ R}. Problemas 90 CAPÍTULO 3. 4.1* Seja U o subespaço de u1 = (1, −2, 3, −3), R4 gerado pelos vetores u2 = (2, 3, 1, −4), (a) Ache uma base e a dimensão de (b) Estenda a base de 4.2* Seja U U W o subespaço de o subespaço de R4 U. u2 = (1, 2, 1/2, −1) R4 R4 . gerado pelos vetores e u3 = (3, 6, 3, −7) gerado pelos vetores w1 = (1, 2, −4, 11) Mostre que u3 = (3, 8, −3, −5). a uma base de todo o espaço u1 = (2, 4, −2, 6), e seja ESPAÇOS VETORIAIS e w2 = (2, 4, −5, 14). U = W. 4.3 Determine se (1, 1, 1), (1, 2, 3) e (0, 3, 1) formam uma base de R3 . 4.4 Ache uma base e a dimensão do subespaço W de R4 gerado por w1 = (−1, 4, 2, −1), Estenda a base de 4.5 W w2 = (1, −3, −1, 2) a uma base de todo w3 = (4, −10, −2, 10). e R4 . Encontre os vetores da base canônica que podem ser acrescentados ao conjunto {v1 , v2 , v3 } para formar uma base de v1 = (1, −4, 2, −3, 0), R5 , v2 = (−3, 8, −4, 6, 0) e onde v3 = (0, −1, 2, 5, −4). Bibliograa [1] H. P. Bueno, Álgebra Linear, um segundo curso , Coleção Textos Univer- sitários, SBM, 2006. [2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna, 2001. [3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate- mática e Aplicações, IMPA, 2008. [4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção PROFMAT, SBM, 2012. [5] V. J. Katz, A History of Mathematics - an Introduction , HarperCollins College Publishers, 1993. [6] S. Lang, Introduction to Linear Algebra , 2nd edition, Undergraduate Texts in Mathematics, Springer, 1986. [7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária, IMPA, 1998. [8] E.L. Lima, Geometria Analítica e Álgebra Linear , Matemática Universitária, IMPA, 2010. 300 2 a edição, Coleção 4 Livro: Introdução à Álgebra Linear Autores: Abramo Hefez Cecília de Souza Fernandez Capítulo 4: O Espaço Vetorial R3 Sumário 1 Retas e Planos em R3 1.1 Retas em 1.2 Planos em R3 R3 . . . . . . . . . . . . . . . . . 93 . . . . . . . . . . . . . . . . . . . . . 93 . . . . . . . . . . . . . . . . . . . . . 99 2 Posições Relativas . . . . . . . . . . . . . . . . . . . 107 3 Determinantes e Geometria . . . . . . . . . . . . . 111 3.1 Determinantes . . . . . . . . . . . . . . . . . . . . 111 3.2 O Produto Vetorial . . . . . . . . . . . . . . . . . . 115 91 92 CAPÍTULO 4. O ESPAÇO VETORIAL R3 Neste Capítulo, aplicaremos os conceitos vistos no capítulo anterior à Geometria Analítica em R3 . Mais precisamente, usaremos os conceitos de subespaço vetorial, base e dimensão para estudar as noções de retas e planos em R3 . Uma ferramenta essencial para o estudo da geometria em R3 é a noção de produto escalar que introduziremos em seguida. u = (x1 , x2 , x3 ) e v = (y1 , y2 , y3 ) em R3 , denimos o produto escalar v , denotado por u · v , como o número real Dados de u e u · v = x1 y1 + x2 y2 + x3 y3 . (1, 2, −1) · (0, 2, 1) = 1.0 + 2.2 + (−1)(1) = 3. 3 vericar que, para quaisquer u, v, w ∈ R e a ∈ R, Por exemplo, É fácil tem-se u · v = v · u, (ii) u · (v + w) = u · v + u · w , (iii) (au) · v = u · (av) = a(u · v). (i) u e v em R3 , dizemos que eles são ortogonais , e denotamos u · v = 0. Dados dois vetores u ⊥ v, quando O produto escalar é um caso particular de uma classe de produtos denidos em espaços vetoriais de dimensão qualquer, chamados de produtos internos, que serão estudados no Capítulo 7. A partir do produto escalar, podemos denir a norma de um vetor (x, y, z), como ||v|| = √ v·v = p x2 + y 2 + z 2 . Note que da denição segue-se imediatamente que se, e somente se, de R ||v|| ≥ 0 e que ||v|| = 0 v = 0. Geometricamente, a norma do vetor 3 v= ao ponto de coordenadas (x, y, z), v representa a distância da origem ou seja, é igual ao módulo do vetor v. Mostraremos a seguir como a noção de produto escalar permite também calcular o ângulo entre dois vetores em R3 . 1. RETAS E PLANOS EM R3 93 Lembremos que o ângulo entre dois vetores não nulos ângulo θ formado por eles tal que 0≤θ≤π u e v em R3 é o (Figura 2). Figura 2 Aplicando a lei dos cossenos no triângulo da Figura 2, obtemos ||u − v||2 = ||u||2 + ||v||2 − 2||u|| ||v|| cos θ. (1) Por outro lado, segue das propriedade (i), (ii) e (iii) do produto escalar que ||u − v||2 = (u − v) · (u − v) =u·u−u·v−v·u+v·v = ||u||2 − 2u · v + ||v||2 . De (1) e (2), temos que cos θ = 1 u·v · ||u|| ||v|| (2) (3) Retas e Planos em R3 1.1 Retas em Seja v R3 um vetor não nulo em nações lineares de v, R3 . Seja W o conjunto de todas as combi- ou seja, W = G(v) = {tv ; t ∈ R}. 94 CAPÍTULO 4. Geometricamente, versões de v. W O ESPAÇO VETORIAL R3 é o conjunto de todas as dilatações, contrações e in- (Figura 3). Figura 3 Tomemos direção v, A R3 . um ponto de e denotamos r(A, v), Denimos a reta que contém A e tem como o conjunto r(A, v) = {A + tv ; t ∈ R} = {A} + W. O vetor v é chamado de um vetor diretor da reta Teorema 3.1.7, todo vetor não nulo em G(v) r(A, v) Notemos que, pelo é um vetor diretor de Pela regra do paralelogramo, é fácil determinar fato, a reta r(A, v). r(A, v) geometricamente. (Figura 4), sendo que v, De é determinada pelos vetores dados pela diagonal, que parte da origem, do paralelogramo formado pelos vetores Observamos que r(A, v). vA é o vetor Figura dado 4 pelo ponto G(v), v 6= 0, vA e tv (t ∈ R) A. é a reta que passa pela origem com direção ou seja, G(v) = r(0, v). Portanto, todo subespaço vetorial de R3 de dimensão 1 é, geometricamente, uma reta que passa pela origem. Reciprocamente, uma reta que passa pela origem é o espaço gerado por um de seus vetores diretores e, consequentemente, é um subespaço vetorial de R3 de dimensão 1. Assim, caracterizamos geometricamente todos os subespaços vetoriais de R3 com dimensão 1: os 1. RETAS E PLANOS EM subespaços vetoriais de R3 R3 95 com dimensão 1 são as retas em R3 que passam pela origem. R3 . P ∈ r(A, v) A seguir apresentamos os diversos tipos de equações de uma reta em r(A, v) uma reta em R3 . Tomemos P ∈ R3 . quando P = A + tv para algum t ∈ R. A equação Seja P = A + tv, é chamada equação vetorial da reta A = (x1 , y1 , z1 ) e v = (a, b, c), Temos que t ∈ R, r(A, v). (1) Escrevendo P = (x, y, z), obtemos de (1) que (x, y, z) = (x1 , y1 , z1 ) + t(a, b, c), t ∈ R, o que equivale às equações x = x1 + ta, t ∈ R, t = y1 + tb, t ∈ R, z = z1 + tc, t ∈ R. As equações em (2) são chamadas de equações paramétricas de a 6= 0, b 6= 0 e c 6= 0, r(A, v). Se obtemos de (2) que t= ou seja, (2) x − x1 y − y1 z − z1 = = , a b c y − y1 z − z1 x − x1 = = · a b c (3) 96 CAPÍTULO 4. O ESPAÇO VETORIAL As equações em (3) são chamadas de equações simétricas da reta R3 r(A, v). Podemos apresentar as equações em (3) de uma outra forma, explicitando as variáveis y e z e expressando-as em função de x. De fato, y − y1 x − x1 b = ⇐⇒ y − y1 = (x − x1 ) ⇐⇒ y = mx + n, b a a onde m= e a b e b n = − x1 + y 1 , a z − z1 x − x1 c = ⇐⇒ z − z1 = (x − x1 ) ⇐⇒ z = px + q, c a a onde p= c a e c q = − x1 + z1 . a As equações ( y = mx + n z = px + q, x ∈ R, são chamadas de equações reduzidas da reta (4) r(A, v). Observamos que em (4) a x aparece como variável independente. Se expressarmos as equações forma que a variável independente seja y ou z , as equações obtidas são variável de também chamadas de equações reduzidas. Exemplo 1. Encontremos as equações paramétricas da reta que tem como um vetor diretor v = (1, 0, 2) e que contém o ponto Ora, as equações paramétricas da reta r(A, v) A = (2, 1, −3). são    x=2+t y = 1,   z = −3 + 2t; t ∈ R. Exemplo 2. Determinemos a e b para que o ponto reta de equações    x = −2 + t y = 3 − t,   z = −1 + 2t; t ∈ R. P = (1, a, b) pertença à 1. RETAS E PLANOS EM Para que P R3 97 pertença à reta dada, as componentes de P devem satisfazer as equações acima, ou seja, devemos ter    1 = −2 + t a = 3 − t,   b = −1 + 2t, para algum t ∈ R. Exemplo 3. A solução procurada é então a=0 e b = 5. r = r(A, v) e s = r(B, w), onde A = (0, 1, 0), B = (1, 0, 0), v = (1, −1, 2) e w = (2, 1, 3). Vamos vericar que r ∩ s = ∅. Com efeito, se P = (x0 , y0 , z0 ) ∈ r , então, para algum t1 ∈ R, Consideremos as retas x0 = t1 , E, se P = (x0 , y0 , z0 ) ∈ s, y0 = 1 − t1 , então, para algum x0 = 1 + 2t2 , De (5) segue-se que P (x0 , x02−1 , 3(x02−1) ). Assim, z0 = 2t1 . y0 = t2 , = (x0 , 1 − x0 , 2x0 ). (5) t2 ∈ R, z0 = 3t2 . (6) E, de (6), segue-se que 2 x0 − 1 e 2x0 = (x0 − 1), 2 3 nenhum x0 em R. Logo, não existe P ∈ r ∩ s, P = 1 − x0 = o que não ocorre para ou seja, r ∩ s = ∅. Segue da denição de vetores colineares em um espaço vetorial sobre um corpo K, dada na Seção 1 do Capítulo 1, que dois vetores v1 e v2 em R3 são colineares quando eles pertencem a uma mesma reta que passa pela origem. (Figura 5). Figura 5 v1 e v2 pertençam à reta r(0, v). Então existem t1 e t2 em R tais que v1 = t1 v e v2 = t2 v . Se v2 é o vetor nulo, {v1 , v2 } é dependente. Se v2 não é o vetor nulo, então t2 é um número real não nulo. Assim, Suponhamos que v1 − t1 v2 = 0, t2 98 CAPÍTULO 4. O ESPAÇO VETORIAL R3 {v1 , v2 } é dependente. Reciprocamente, sejam w1 e w2 vetores 3 não nulos em R . Se {w1 , w2 } é um conjunto linearmente dependente, então existe t ∈ R tal que w1 = tw2 . Logo, w1 pertence a reta r(0, w2 ). Portanto, o conceito  v1 e v2 são linearmente dependentes (linguagem algébrica) e o conceito  v1 e v2 são colineares (linguagem geométrica) são equivalentes. mostrando que Ou seja, provamos o seguinte resultado. Proposição 4.1.1. Dois vetores v1 e v2 em R3 são linearmente dependentes se, e somente se, v1 e v2 são colineares . Discutimos acima a noção de vetores colineares. Existe também a noção de pontos colineares. Diremos que três pontos distintos colineares se existir uma reta em 3 R A, B, C ∈ R3 são que contenha os três pontos. Os dois conceitos se relacionam de acordo com o resultado a seguir. Proposição 4.1.2. Três pontos distintos A, B, C ∈ R3 são colineares se, e somente se, os vetores Demonstração v1 = B − A Suponhamos que v2 = C − A são colineares . A, B e C pertençam a uma mesma e reta. Como por dois pontos distintos passa uma e somente uma reta (Problema 1.6), a reta de equação vetorial P = A + v1 t, contém A e B. Como C t∈R pertence à mesma reta, existe C = A + v1 t0 , t0 ∈ R tal que 1. RETAS E PLANOS EM ou seja, v2 = v1 t0 , R3 99 mostrando que v1 Reciprocamente, suponhamos que t0 ∈ R tal que v2 = t0 v1 , v2 são colineares. v1 e v2 sejam colineares. e Então, existe ou seja C − A = t0 (B − A). Considere a reta de equação vetorial P = A + t(B − A), t = 1, temos P = B . Assim, A e B pertencem à reta. Tomando t = t0 , temos P = A+t0 (B −A) = C . Portanto, A, B e C pertencem a uma mesma reta.  Note que tomando Exemplo 4. C = (3, 2, 3) t = 0, temos P = A t ∈ R. e tomando Veriquemos que os pontos A = (2, 3, 1), B = (1, 4, −1) e são colineares. v1 = B −A e v2 = C −A são linearmente dependentes. Temos que v1 = (−1, 1, −2) e v2 = (1, −1, 2). Como v1 + v2 = 0, temos que v1 e v2 são linearmente Pelas Proposições 4.1.1 e 4.1.2, devemos vericar que os vetores dependentes. 1.2 Planos em Sejam v1 e v2 R3 dois vetores linearmente independentes em conjunto de todas as combinações lineares de v1 e v2 , R3 . Seja W o ou seja, W = G(v1 , v2 ) = {sv1 + tv2 ; s, t ∈ R}. Tomemos por v1 e A um ponto de R3 . v2 , Denimos o plano que passa por e o denotamos por π(A, v1 , v2 ), A determinado como o conjunto π(A, v1 , v2 ) = {A + sv1 + tv2 ; s, t ∈ R} = {A} + W. Os vetores v1 (ver Figura 6). e v2 são chamados de vetores base do plano Figura 6 π(A, v1 , v2 ) 100 CAPÍTULO 4. O ESPAÇO VETORIAL R3 Notemos que, pelo Teorema 3.3.6, quaisquer dois vetores independentes w1 , w2 em G(v1 , v2 ) formam uma base de π(A, v1 , v2 ), pois G(w1 , w2 ) ⊂ G(v1 , v2 ) e as dimensões dos dois espaços são iguais. Observemos também que o espaço G(v1 , v2 ) é o plano que passa pela origem determinado por v1 e v2 , ou seja, G(v1 , v2 ) = π(0, v1 , v2 ). Portanto, todo subespaço vetorial de R3 de dimensão 2 é, geometricamente, um plano que passa pela origem. Reciprocamente, um plano que passa pela origem é o espaço gerado por dois de seus vetores base e, consequentemente, é R3 de dimensão 2. Assim, caracterizamos geometri3 camente todos os subespaços vetoriais de R com dimensão 2: os subespaços 3 3 vetoriais de R com dimensão 2 são os planos em R que passam pela origem. 3 Tomemos W um subespaço vetorial de R . Pelo Teorema 3.3.6, segue que dim W ≤ 3. Pelo que acabamos de ver, temos a seguinte classicação dos 3 subespaços W de R : um subespaço vetorial de aspecto algébrico dim W dim W dim W dim W aspecto geométrico ←→ ←→ ←→ ←→ =0 =1 =2 =3 W = {(0, 0, 0)} (origem do espaço) W é uma reta que passa pela origem W é um plano que passa pela origem W = R3 A seguir apresentamos a equação vetorial e as equações paramétricas de um plano em R3 . Seja π(A, v1 , v2 ) um plano em R3 . Tomemos P ∈ R3 . 1. RETAS E PLANOS EM Temos que s, t ∈ R. P ∈ π(A, v1 , v2 ) R3 101 se, e somente se, P = A + sv1 + tv2 para certos A equação P = A + sv1 + tv2 , s∈R e t∈R (1) π(A, v1 , v2 ). Escrevendo P = (x, y, z), v2 = (a2 , b2 , c2 ), obtemos de (1) que é chamada equação vetorial do plano A = (x1 , y1 , z1 ), v1 = (a1 , b1 , c1 ) e (x, y, z) = (x1 , y1 , z1 ) + s(a1 , b1 , c1 ) + t(a2 , b2 , c2 ), s, t ∈ R, o que equivale às equações x = x1 + sa1 + ta2 , s, t ∈ R, y = y1 + sb1 + tb2 , s, t ∈ R, z = z1 + sc1 + tc2 , s, t ∈ R. As equações em (2) são chamadas de equações paramétricas de (2) π(A,v1 ,v2). Vamos apresentar agora a equação cartesiana ou equação geral de um plano. Antes, precisamos apresentar a noção de vetor normal a um plano. Chamamos de vetor normal ao plano π(A, v1 , v2 ) a um vetor não nulo ortogonal aos v1 e v2 (portanto, ortogonal a todo vetor do plano). Seja n um vetor normal ao plano π(A, v1 , v2 ). Seja P = (x, y, z) um ponto de π(A, v1 , v2 ). Denotemos por v o vetor dado por P − A. Então, v = t1 v1 + t2 v2 para certos t1 , t2 ∈ R. Como n ⊥ v1 e n ⊥ v2 , temos que n · v1 = n · v2 = 0. Assim, n · v = 0. Se A = (x1 , y1 , z1 ) e n = (a, b, c), temos que n · v = 0 equivale à equação vetores (a, b, c) · (x − x1 , y − y1 , z − z1 ) = 0, ou seja, ax + by + cz + d = 0, d = −ax1 − by1 − cz1 . A equação cartesiana do plano π(A, v1 , v2 ). onde ou (3) em (3) é chamada de equação geral 102 CAPÍTULO 4. Exemplo 5. xOy , yOz O ESPAÇO VETORIAL R3 Determinemos as equações cartesianas dos planos cartesianos xOz . Os vetores e1 = (1, 0, 0) e e2 = (0, 1, 0) são vetores base para o plano cartesiano xOy e o vetor e3 é um vetor normal ao plano xOy . Como e3 = (0, 0, 1), a equação e z + d = 0x + 0y + 1 · z + d = 0 é uma equação cartesiana do plano xOy , onde determinado. Como a origem pertence ao plano d é um número xOy , temos que real a ser d = 0 + d = 0. Assim, z=0 é a equação cartesiana do plano As equações xOz , x=0 e y=0 xOy . são as equações cartesianas dos planos yOz e respectivamente. Pela denição, vimos que um plano ca determinado por um ponto A em R3 e por dois vetores v1 e v2 em R3 linearmente independentes. Existem outras maneiras de se determinar um plano. No resultado a seguir, vamos apresentar três outras maneiras de se determinar um plano em R3 . 1. RETAS E PLANOS EM R3 103 Teorema 4.1.3. (i) Existe um único plano em não nulo n R3 que passa por um ponto A e tem um vetor como vetor normal. (ii) Existe um único plano em R3 que passa por três pontos A, B C não A fora e colineares. (iii) Existe um único plano que passa por uma reta de r e um ponto r. Demonstração Provaremos apenas o item (i), deixando os demais itens para o leitor (veja Problema 1.12). A um ponto em R3 e seja n um vetor não nulo. Consideremos W = {v ∈ R3 ; v · n = 0}. Como n é não nulo, W é um subespaço vetorial de R3 de dimensão 2. Assim, podemos tomar dois vetores linearmente independentes em W , digamos, v1 e v2 . O plano π(A, v1 , v2 ) contém A e tem n como Seja um vetor normal. Mais ainda, este plano é o único com tais propriedades. π(P, w1 , w2 ) um plano que contém A e tem n como um vetor normal. Vejamos que π(P, w1 , w2 ) = π(A, v1 , v2 ). Tomemos Q em π(P, w1 , w2 ). Então, existem ` e m em R tais que De fato, consideremos Q = P + `w1 + mw2 . Como π(P, w1 , w2 ) contém A, existem p e q em R (4) tais que A = P + pw1 + qw2 . (5) Tomando a diferença (4)-(5), obtemos que Q = A + rw1 + sw2 com r e s em R. Como w1 , w2 ∈ W , existem números reais (6) a, b , c e d tais que ( w1 = av1 + bv2 w2 = cv1 + dv2 . (7) 104 CAPÍTULO 4. O ESPAÇO VETORIAL R3 Finalmente, substituindo (7) em (6), obtemos Q = A + (ra + sc)v1 + (rb + sd)v2 , ou seja, Q ∈ π(A, v1 , v2 ). Deixamos para o leitor vericar a outra Exemplo 6. ponto e r. r; Determinemos a equação cartesiana do plano que contém o A = (1, 1, 1) Como π(P, w1 , w2 ) ⊂ π(A, v1 , v2 ). inclusão.  Mostramos assim que A∈ / r, r de equações paramétricas    x = 2t, y = 3t,   z = 1 + t; t ∈ R. e a reta pelo Teorema 4.1.3, existe um único plano Para determinarmos este plano, tome B∈r que contém A v um vetor diretor da reta w = B − A = (−1, −1, 0). B = (0, 0, 1) e v = (2, 3, 1). Considere π(A, v, w) é o plano procurado. Note que digamos O plano e π aqui estamos dando uma ideia de como resolver parte do Problema 1.12, provando assim o item (iii) do Teorema 4.1.3. Figura 7 O vetor n = (1, −1, 1) é um vetor normal ao plano cartesiana deste plano é dada por x − y + z + d = 0, π, logo uma equação 1. RETAS E PLANOS EM onde d R3 105 é um número real a ser determinado. Como A ∈ π, segue que 1 − 1 + 1 + d = 0, ou seja, d = −1. Portanto, uma equação cartesiana de π é x − y + z − 1 = 0. Exemplo 7. Determinaremos a equação vetorial do plano que contém os A = (1, 2, 3), B = (1, −1, 0) e C = (0, 2, 1). Como os vetores v1 = B − A = (0, −3, −3) e v2 = C − A = (−1, 0, −2) são linearmente independentes, os pontos A, B e C não pertencem a uma pontos mesma reta. Assim, pela parte (ii) do Teorema 4.1.3, existe um único plano π que contém os pontos A, B e C. Este plano é o plano π(A, v1 , v2 ) (aqui estamos dando uma ideia de como resolver a outra parte do Problema 1.12, provando assim o item (ii) do Teorema 4.1.3), cuja equação vetorial é dada por P = A + tv1 + sv2 , t, s ∈ R. Ou seja, (x, y, z) = (1, 2, 3) + t(0, −3, −3) + s(−1, 0, −2), t, s ∈ R. t = s = 0, obtemos (1, 2, 3) na equação acima. Para t = 1 e s = 0, obtemos (1, −1, 0). E, para t = 0 e s = 1, obtemos (0, 2, 1). Assim, π(A, v1 , v2 ) contém os pontos A, B e C . Note que para Problemas 1.1 de Mostre que se w é ortogonal a u e a v, então w é ortogonal a todo vetor G(u, v). 1.2* Mostre que, em R3 , a dependência linear de três vetores pode ser des- crita geometricamente como segue: Três vetores quaisquer u, v e w são dependentes se, e somente se, estão num mesmo plano que passa pela origem, ou seja, se eles são coplanares . 106 CAPÍTULO 4. O ESPAÇO VETORIAL Este exercício é uma versão da Proposição 4.1.1 para três vetores em 1.3* Determine a equação A = (−1, 2, 0), B = (2, −1, 1) 1.4 e do plano que passa pelos (b) a reta R3 . pontos C = (−1, −1, 1). Determine uma base para cada um dos seguintes subespaços de (a) o plano R3 : 3x − 4y − z = 0; x = 2t, y = −t, z = 3t; (c) o plano 1.5 geral R3 x − y = 0. As equações paramétricas de uma reta são x = 2 + 4t, y = t − 4, z = 7 − 8t (t ∈ R). Reduzir estas equações à forma simétrica. 1.6 distintos em R3 . reta que contém 1.7 e e Determine as equações reduzidas, em função da variável A = (−1, 0, 1) 1.9 Qual deve ser o valor de k C = (−2, 10, −4) 1.10 e z, da reta que B = (1, 3, −2). para que os pontos A = (3, k, 1), B = (1, 1, −1) pertençam à mesma reta? Represente gracamente os planos de equações: (a) 1.11 A = B = (0, 1, 2). passa pelos pontos e A Determine as equações simétricas da reta que contém os pontos (2, 3, 0) 1.8 B dois pontos Mostre que a reta r(A, v), onde v é o vetor A − B , é a única A e B. (Determinação de uma reta por dois pontos.) Sejam x + y + z = 0; (b) z − 2 = 0; (c) 2x + y + z − 1 = 0. k para que os pontos A = (k, −1, 5), B = (7, 2, 1), D = (1, 0, 3) estejam no mesmo plano. Determine o valor de C = (−1, −3, −1) e 1.12 Conclua a demonstração do Teorema 4.1.3. 1.13 Determine as equações paramétricas do plano x y z + + = 1. 4 3 2 2. 107 POSIÇÕES RELATIVAS 1.14 Determine a equação do plano que passa pelo ponto (2, −1, 0) e contém a reta  2x − y − z + 4 = 0 x + 2y − z + 3 = 0 . 1.15 Determine os pontos de interseção dos planos coordenados xOz com a reta xOy , yOz e  y = 2x − 3 r: z = −x + 2 . 2 Posições Relativas Vejamos a seguir como os conceitos de base e dimensão podem ser apli- cados no estudo sobre as posições relativas entre retas, retas e planos e R3 . r2 = r(A2 , v2 ) planos em Antes precisamos lembrar que duas retas em R3 r1 = r(A1 , v1 ) e são ditas coplanares quando elas pertencem a um mesmo plano. Na linguagem algébrica, isto equivale a dizer que o conjunto {v, v1 , v2 } é linearmente dependente, onde v denota o vetor A2 −A1 (veja Problema 2.1). As retas r1 e r2 são ditas reversas quando não são coplanares. Se r1 e r2 são retas reversas, então r1 ∩ r2 = ∅, ou seja, elas não se intersectam. No caso de r1 e r2 serem coplanares um e somente um dos de vetores casos abaixo pode ocorrer: 1) r1 ∩ r2 = ∅; 2) r1 ∩ r2 = {P }, 3) r1 ∩ r2 = r1 = r2 . onde Se 1) ocorre, ou seja, se r1 P ∈ R3 ; e r2 não se intersectam, r1 e r2 são ditas retas paralelas. Se 2) ocorre, ou seja, se r1 e r2 se intersectam em um único ponto de R3 , r1 e r2 são ditas retas concorrentes. Se 3) ocorre, ou seja, se a interseção coincide com as retas dadas, r1 uma demonstração destes fatos. e r2 são ditas retas coincidentes. Vejamos 108 CAPÍTULO 4. O ESPAÇO VETORIAL R3 Proposição 4.2.1. (Posições relativas de duas retas coplanares) Se- r2 = r(A2 , v2 ) duas retas coplanares em R3 . Então, r1 e r2 são paralelas ou r1 e r2 são concorrentes ou r1 e r2 são coincidentes. Demonstração Se r1 ∩ r2 = ∅, as retas são paralelas e não temos nada a 3 fazer. Suponhamos que r1 ∩r2 6= ∅. Então existe P ∈ R tal que P ∈ r1 ∩r2 . jam r1 = r(A1 , v1 ) e Logo, r1 = {A1 } + W1 = {P } + W1 e r2 = {A2 } + W2 = {P } + W2 , onde W1 = G(v1 ) e W2 = G(v2 ). Daí, temos que r1 ∩ r2 = {P } + (W1 ∩ W2 ). (1) W1 e W2 são subespaços vetoriais de R3 , temos pela Proposição 3.1.3 que W1 ∩ W2 é um subespaço vetorial de W1 e de W2 . Como dim W1 = dim W2 = 1, segue agora, pelo Teorema 3.3.6, que dim(W1 ∩W2 ) ≤ 1. Temos, Como então, dois casos a considerar: dim(W1 ∩ W2 ) = 0. Neste caso, W1 ∩ W2 = {0}. Caso 1. Caso 2. Logo, por (1), segue que r1 ∩ r2 = {P }. dim(W1 ∩ W2 ) = 1. Pelo Teorema 3.3.6, segue neste caso que (1), segue que W1 ∩ W2 = W1 = W2 r1 ∩ r2 = r1 = r2 . Logo, por  Vejamos a seguir o que ocorre com dois planos em R3 . Proposição 4.2.2. (Posições relativas entre dois planos) Sejam dados dois planos π1 = π(P1 , v1 , v2 ) e π2 = π(P2 , v3 , v4 ) uma das possibilidades a seguir pode ocorrer: 1) 2) 3) π1 ∩ π2 = ∅ ; π1 ∩ π2 = r, onde r π1 ∩ π2 = π1 = π2 . é uma reta em R3 ; em R3 . Uma e somente 2. 109 POSIÇÕES RELATIVAS Se 1) ocorre, os planos são ditos paralelos. Se 2) ocorre, os planos são ditos concorrentes e, se 3) ocorre, os planos são ditos coincidentes. Demonstração π1 = {P1 } + W1 e π2 = {P2 } + W2 , onde W1 = G(v1 , v2 ) e W2 = G(v3 , v4 ). Se π1 ∩ π2 = ∅, nada temos a fazer. Suponhamos π1 ∩ π2 6= ∅. Tomemos P ∈ π1 ∩ π2 . Então Sejam π1 = {P1 } + W1 = {P } + W1 e π2 = {P2 } + W2 = {P } + W2 . Daí, temos que π1 ∩ π2 = {P } + (W1 ∩ W2 ). (2) W1 ∩ W2 é um subespaço vetorial de W1 , segue, pelo Teorema 3.3.6, que dim(W1 ∩ W2 ) ≤ dim W1 = 2. Por outro lado, dim(W1 ∩ W2 ) 6= 0, pois, caso contrário, teríamos, pelo Como Problema 3.16 do Capítulo 3, que 4 = dim W1 + dim W2 = dim(W1 + W2 ) ≤ dim R3 = 3, o que é absurdo. Portanto, Se dim(W1 ∩ W2 ) = 2, 0 < dim(W1 ∩ W2 ) ≤ 2. então W1 ∩ W2 = W1 = W2 . Neste caso, por (2), π1 ∩ π2 = {P } + W1 = {P } + W2 = π1 = π2 . dim(W1 ∩ W2 ) = 1, então existe um vetor v não nulo em R3 W1 ∩ W2 = G(v). Seja r = r(P, v). Temos, então, neste caso que Se tal que π1 ∩ π2 = {P } + G(v) = r. Terminamos esta seção, observando que, no caso de termos uma e um plano abaixo: π em R3 ,  reta r pode ocorrer uma e apenas uma das possibilidades 110 CAPÍTULO 4. r ∩ π = {P }, r ∩ π = ∅; r ∩ π = r. 1) 2) 3) onde Se 1) ocorre, dizemos que paralelos; e, se 3) ocorre, P é um ponto de O ESPAÇO VETORIAL R3 R3 ; r e π são concorrentes; se 2) ocorre, r e π são ditos r está contida no plano π . A demonstração destes fatos segue de argumentos semelhantes aos usados nas Proposições 4.2.1 e 4.2.2 e é, portanto, omitida. Problemas 2.1* dado por (a) r1 = r(A1 , v1 ) e r2 = r(A2 , v2 ) duas retas em R3 . A2 − A1 . As seguintes armações são equivalentes: Sejam r1 r2 e são coplanares, ou seja, (b) o conjunto 2.2* {v, v1 , v2 } e r2 v o vetor pertencem a um mesmo plano; é linearmente dependente. Estude a posição relativa das retas  y = 2x − 3 r1 : z = −x 2.3 r1 Seja r2 : e Dê a posição relativa entre o plano     x = 1 − 36t y = 4 − 6t    z = 3t . 5x + 3y + 13z − 1 = 0 e o plano 3x + 8y − 3z + 8 = 0. 2.4 x−1 y−2 z−4 = = −1 3 2 4x − 2y + 5z − 20 = 0. Verique se a reta equação 2.5 Dados os planos a, b e 2.6 Dados os planos a b e 2.7 c 2ax − y + 4z + 2 = 0 e está contida no plano de 4x + by + 8z + c = 0, determine para que eles sejam coincidentes. 4x − 3ay + 6z − 8 = 0 e 2x − 6y + bz + 10 = 0, determine para que sejam paralelos. Para os dois planos a1 x + b1 y + c1 z + d1 = 0 e a2 x + b2 y + c2 z + d2 = 0, mostre que as seguintes relações são condições necessárias e sucientes para: 3. 111 DETERMINANTES E GEOMETRIA (a) Paralelismo: existe (b) Coincidência: k 6= 0 existe tal que k 6= 0 a1 = ka2 , b1 = kb2 tal que e c1 = kc2 ; a1 = ka2 , b1 = kb2 , c1 = kc2 e d1 = kd2 . 3 Determinantes e Geometria Nesta seção introduziremos os determinantes de matrizes para posteriormente aplicá-los ao estudo da geometria em R 3 2×2 e 3 × 3, . A noção mais geral de determinantes será estudada no Capítulo 8. Determinantes são funções muito especiais denidas nos espaços das matrizes quadradas com valores no corpo onde estão os coecientes da matriz. A utilidade dos determinantes é múltipla. Por exemplo, eles servem, como veremos no Capítulo 8, para dar um critério para invertibilidade de matrizes e um método para o cálculo da matriz inversa, caso a matriz seja invertível. Eles permitem dar fórmulas explícitas para as soluções de sistemas de equações lineares. Por meio deles, dene-se também a importante noção de polinômio característico de uma matriz, noção que desempenhará papel fundamental no Capítulo 9. O conceito de determinante aparece em vários outros contextos da Matemática. Por exemplo, em Geometria, ele aparece como a área de um paralelogramo e o volume de um paralelepípedo e, em Análise, ele está presente em teoremas importantes, como o Teorema da Função Inversa, o Teorema da Função Implícita e o Teorema de Mudança de Variáveis. Nesta seção estaremos interessados nas aplicações dos determinantes à geometria em 3.1 R3 . Determinantes No trabalho Um Tratado sobre Álgebra em Três Partes, de Colin Maclaurin (Escócia, 1698 - 1746), publicado em 1748, foi apresentado o que ele chamou de teorema geral, que era usado para resolver um sistema linear onde n ≤ 4. n×n De fato, em seu trabalho nada foi mencionado sobre o caso em 112 CAPÍTULO 4. que n ≥ 5. O ESPAÇO VETORIAL R3 O método apresentado por Maclaurin é conhecido hoje como Regra de Cramer, após o matemático Gabriel Cramer (Suíça, 1704 - 1752) ter utilizado os métodos de Maclaurin em seu livro sobre curvas algébricas em 1750. Dado um sistema linear 2 × 2 nas incógnitas x  ax + by = e cx + dy = f, sabemos do Problema 2.12 do Capítulo 2 que, se e y, digamos, (1) ad − bc 6= 0, as soluções são dadas pelas fórmulas x= ed − f b , ad − bc y= af − ce . ad − bc Vejamos agora a resolução de um sistema linear de três equações nas incógnitas x, y e z, digamos,     ax + by + cz = m dx + ey + f z = n    gx + hy + kz = p. (2) Este sistema foi tratado por Maclaurin de modo análogo ao caso notando que, se o número real aek − ahf + dhc − dbk + gbf − gec 2 × 2, é diferente de zero, então x= mek − mf h + bf p − bnk + cnh − cep , aek − ahf + dhc − dbk + gbf − gec y= nak − ncg + mf g − mdk + pcd − paf aek − ahf + dhc − dbk + gbf − gec e z= Maclaurin notou aep − ahn + dhm − dbp + gbn − gem · aek − ahf + dhc − dbk + gbf − gec que, tal como no caso 2 × 2, cada uma das expressões acima tem o mesmo denominador, que consiste de somas alternadas de vários 3. DETERMINANTES E GEOMETRIA 113 produtos dos coecientes das incógnitas do sistema. Ele também notou que o numerador da expressão de cada uma das incógnitas consiste de somas alternadas de vários produtos dos coecientes das demais incógnitas e dos termos independentes do sistema. Os numeradores e os denominadores que apareceram nas soluções de Maclaurin são o que conhecemos hoje por determinantes. O termo determinante foi introduzido pela primeira vez por Gauss em 1801. Vamos agora sintetizar as soluções de Maclaurin, introduzindo os determinantes. Se A = [aij ] como Se 2 × 2, é uma matriz denimos o determinante da matriz # a11 a12 det = a11 a22 − a21 a12 . a21 a22 A " A = [aij ] 3 × 3, é uma matriz (3) denimos o determinante da matriz A como   a11 a12 a13   det a21 a22 a23  = a31 a32 a33 a11 a22 a33 − a11 a23 a32 + a13 a21 a32 − a12 a21 a33 + a12 a23 a31 − a13 a22 a31 . (4) Note que a expressão (4) do determinante de uma matriz quadrada A de ordem 3 pode ser escrita como " # " # " # a22 a23 a21 a23 a21 a22 det A = a11 det − a12 det + a13 det . a32 a33 a31 a33 a31 a32 Voltando aos sistemas lineares, temos que, se " # a b det 6 0, = c d (5) 114 CAPÍTULO 4. O ESPAÇO VETORIAL R3 então as soluções do sistema (1) podem ser escritas na forma " x = det e b f d # " det #!−1 a b c d " , y = det a e c f # " det #!−1 a b c d . Por outro lado, se   a b c   det d e f  6= 0, g h k as soluções do sistema (2) podem ser escritas na forma: −1    a b c m b c     x = det  n e f  det d e f  , g h k p h k  a  y = det d g  a  z = det d g   m c a   n f  det d p k g   a b m   e n  det d g h p −1 b c  e f  , h k −1 b c  e f  . h k A expressão do determinante em (3) é muito fácil de lembrar. tomar o produto dos elementos da diagonal principal da matriz A Basta e dele subtrair o produto dos elementos da outra diagonal. A expressão do determinante em (4) pode ser recuperada a partir da regra 1 de Sarrus , muito utilizada no Regra Ensino deMédio. Sarrus  Exemplo 1. 1 Pierre Vamos calcular  1 2 0   det −1 4 1. 2 1 1 Fréderic Sarrus (França, 1768 -1861) cou conhecido na Matemática pela regra prática de resolução de determinantes de matrizes quadradas de ordem 3. 3. DETERMINANTES E GEOMETRIA 115 Pela regra de Sarrus, obtemos que  1 2 0   det −1 4 1 = 4 + 4 + 0 − (−2 + 1 + 0) = 10. 2 1 1  3.2 O Produto Vetorial Um outro produto que possui importantes aplicações geométricas é o produto vetorial em R3 . Trata-se de uma operação que a partir de dois vetores linearmente independentes em R3 , associa de modo natural um vetor ortogonal ao plano gerado por estes vetores. u = (u1 , u2 , u3 ) e v = (v1 , v2 , v3 ) em R3 . Para que um vetor w = (x1 , x2 , x3 ) seja tal que w ⊥ u e w ⊥ v , as suas coordenadas Sejam dados dois vetores devem ser soluções do sistema ( w · u = u1 x1 + u2 x2 + u3 x3 = 0 w · v = v1 x1 + v2 x2 + v3 x3 = 0, (6) que podemos reescrever como ( u e v são linearmente independentes, uma das expressões ui vj −uj vi , i, j = 1, 2, 3, i 6= j , é não nula (cf. Problema 3.7). Podemos, sem perda Como para u1 x1 + u2 x2 = −u3 x3 v1 x1 + v2 x2 = −v3 x3 . 116 CAPÍTULO 4. de generalidade, supor que u1 v2 −u2 v1 6= 0. O ESPAÇO VETORIAL R3 Assim, o sistema acima se resolve pela fórmula do Problema 2.12 do Capítulo 2, como segue: x1 = u2 v3 − u3 v2 x3 , u1 v2 − u2 v1 Portanto, para todo x2 = u3 v1 − u1 v3 x3 . u1 v2 − u2 v1 x3 ∈ R, o vetor   u2 v3 − u3 v2 u3 v1 − u1 v3 x3 , x3 , x3 u1 v2 − u2 v1 u1 v2 − u2 v1 é um vetor ortogonal a u e v. Escolhendo x3 = u1 v2 − u2 v1 , temos que o vetor (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 ) é ortogonal a u e v, independentemente da hipótese u1 v2 − u2 v1 6= 0 que zemos. Isto motiva a seguinte denição: u = (u1 , u2 , u3 ) e v = (v1 , v2 , v3 ) em R3 , v , denotado por u × v , é o vetor de R3 dado por Dados os vetores vetorial de u e o produto u × v = (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 ). Por exemplo, (1, 0, 0) × (0, 1, 2) = (0.2 − 0.1, −1.2 + 0.0, 1.1 − 0.0) = (0, −2, 1). (1, 0, 0) × (0, 1, 0) = (0, 0, 1). (0, 1, 0) × (0, 0, 1) = (1, 0, 0). O produto vetorial possui as propriedades a seguir. Para quaisquer (i) u, v, w ∈ R3 e a ∈ R, u × v = −v × u, (ii) u × (v + w) = (u × v) + (u × w) (iii) (au) × v = a(u × v) = u × (av), (iv) (u × v) ⊥ u e (u × v) ⊥ v . tem-se que 3. 117 DETERMINANTES E GEOMETRIA Estas propriedades são facilmente vericadas e serão deixadas como exercícios para o leitor. Notemos que a expressão que dene o produto vetorial pode ser colocada em uma forma mais compacta com a ajuda dos determinantes. De fato, se considerarmos a  matriz  formal 3×3   e1 e2 e3   A = x1 x2 x3  , y1 y2 y3 onde {e1 , e2 , e3 } é a base canônica de R3 e (x1 , x2 , x3 ), (y1 , y2 , y3 ) ∈ R3 , e cal- cularmos o seu determinante utilizando a fórmula (4), vamos obter que seu determinante é precisamente o produto vetorial de (y1 , y2 , y3 ). u = (x1 , x2 , x3 ) e v= Note que esta expressão é apenas formal, desprovida de qualquer conteúdo, pois, em princípio, não faz sentido considerar o determinante de uma matriz onde os elementos da primeira linha são vetores e os elementos das demais linhas são números reais. Isto é um abuso de notação, que serve apenas para memorizar a denição de u × v. Por exemplo, para calcularmos o produto vetorial de u = (2, −8, 3) e v = (0, 4, 3), escrevemos   " # " # " # e1 e2 e3 −8 3 2 3 2 −8   e1 − det e2 + det e3 u × v = det  2 −8 3  = det 4 3 0 3 0 4 0 4 3 = −36e1 − 6e2 + 8e3 = (−36, −6, 8). A seguir, vamos apresentar duas identidades envolvendo o módulo do produto vetorial de dois vetores em R3 . Proposição 4.3.1. Sejam u e v dois vetores em R3 . Tem-se que : i) ii) ||u × v||2 = ||u||2 ||v||2 − (u · v)2 ; ||u × v|| = ||u|| ||v|| sen θ, nulos. sendo θ o ângulo entre u e v, com u e v não 118 CAPÍTULO 4. Demonstração O ESPAÇO VETORIAL u = (x1 , y1 , z1 ) e v = (x2 , y2 , z2 ). Temos " # " # " # y1 z1 x1 z1 x1 y 1 u × v = det e1 − det e2 + det e3 . y2 z2 x2 z2 x2 y 2 (i): Sejam R3 que Logo, ||u × v||2 = (y1 z2 − z1 y2 )2 + (−x1 z2 + z1 x2 )2 + (x1 y2 − y1 x2 )2 . Por outro lado, ||u||2 ||v||2 = (x21 + y12 + z12 )(x22 + y22 + z22 ) e (u · v)2 = (x1 x2 + y1 y2 + z1 z2 )2 . Assim, ||u × v||2 = ||u||2 ||v||2 − (u · v)2 . (ii): Por (i), segue que ||u × v||2 = ||u||2 ||v||2 − (||u|| ||v|| cos θ)2 , uma vez que u·v . ||u|| ||v|| cos θ = Portanto, ||u × v||2 = ||u||2 ||v||2 − ||u||2 ||v||2 cos2 θ = ||u||2 ||v||2 (1 − cos2 θ) = ||u||2 ||v||2 sen2 θ, mostrando que ||u × v|| = ||u|| ||v||senθ.  A seguir, daremos a interpretação geométrica do módulo do produto vetorial de dois vetores. Sejam uev dois vetores não nulos em ABCD determinado h denota a altura do pelos vetores u Consideremos o paralelogramo v , conforme a Figura 8, abaixo, onde θ é o ângulo entre os vetores u e v . e paralelogramo e R3 . 3. 119 DETERMINANTES E GEOMETRIA Figura 8 Sabemos da Geometria que Área Como h = ||v|| senθ, ABCD = ||u|| · h. segue que Área ABCD = ||u|| senθ. Pela Proposição anterior, item (b), concluímos então que Área ABCD = ||u × v||. Pelo que vimos acima, temos o seguinte resultado: Proposição 4.3.2. O módulo do produto vetorial de dois vetores não nulos u e v em R3 mede a área do paralelogramo determinado por estes vetores. Com um outro produto em R3 , podemos obter o volume do paralele- pípedo determinado por três vetores não nulos. Este é o produto misto que vamos denir a seguir. u = (x1 , y1 , z1 ), v = (x2 , y2 , z2 ) e w = (x3 , y3 , z3 ) três vetores Chama-se produto misto dos vetores u, v e w ao número real Sejam R3 . em (u, v, w) = u · (v × w). Pelas denições de produto escalar e produto vetorial em vericar que   x1 y1 z1   u · (v × w) = det x2 y2 z2  . x3 y3 z3 R3 , podemos 120 CAPÍTULO 4. Consideremos agora P u, v e O ESPAÇO VETORIAL w três vetores não nulos em R3 . R3 Chamemos de o paralelepípedo determinado por estes vetores, conforme a gura abaixo: Figura 9 Na gura, h denota a altura do paralelepípedo e v × w. Como vimos v e w. Assim, anteriormente, v×w θ o ângulo entre u e é um vetor ortogonal aos vetores h = ||u|| cos θ. A área da base do paralelepípedo P é dada por ||v × w||. Portanto, se V denota o volume do paralelepípedo, obtemos V = ||v × w|| ||u|| cos θ = ||u · (v × w)|| = ||(u, v, w)||. Assim, obtivemos o resultado a seguir: Proposição 4.3.3. O módulo do produto misto de três vetores não nulos u, v e w em R3 mede o volume do paralelepípedo determinado por estes vetores. Problemas 3.1 Mostre que os determinantes de matrizes propriedades: 2×2 possuem as seguintes 3. 121 DETERMINANTES E GEOMETRIA a) Para todos a, b, c, c0 , d, d0 , t ∈ R, " # " # " # a b a b a b det = det + t det 0 0 , c + tc0 d + td0 c d c d o mesmo valendo para a primeira linha; b) Para todos a, b ∈ R, " # a b det = 0; a b " c) det 3.2 1 0 = 1. 0 1 Mostre que uma função é tal que 3.3 # F : M(2, 2) → R com as três propriedades acima F = det. Mostre que os determinantes de matrizes 3×3 possuem as seguintes propriedades: a) Para todos a, b, c, d, e, f, g, g 0 , h, h0 , k, k 0 , t ∈ R,      a b c a b c a b c       det  d e f  = det d e f  + t det  d e f  , g h k g 0 h0 k 0 g + tg 0 h + th0 k + tk 0  o mesmo valendo para as outras duas linhas; b) Para todos a, b, c, d, e, f, g, h, k ∈ R,       a b c a b c a b c       det a b c  = det d e f  = det d e f  = 0, g h k a b c d e f c)   1 0 0   det 0 1 0 = 1. 0 0 1 122 3.4 CAPÍTULO 4. Mostre que, para quaisquer a, b, c e d em O ESPAÇO VETORIAL R, R3 tem-se que   sen a cos a sen (a + d)   det  sen b cos b sen (b + d)  = 0 . sen c cos c sen (c + d) 3.5 Determine x∈R para que   x−2 x+3 x−1   det  2 1 3  = 60 . 3 2 1 3.6* e y, Utilize o método de Maclaurin para determinar e y0 em função de x onde ( 3.7 x0 x = x0 cos θ − y 0 sen θ y = x0 sen θ + y 0 cos θ. Mostre que dois vetores u = (u1 , u2 , u3 ) e v = (v1 , v2 , v3 ) em R3 são linearmente independentes se, e somente se, um dos três determinantes abaixo é não nulo: " # u1 u2 det ; v1 v2 Mostre que u×v =0 " # u1 u3 det ; v1 v3 se, e somente se, u e " # u2 u3 det . v2 v3 v são colineares. 3.8 Calcule a área do paralelogramo que tem por lados os vetores u = (1, 3, 5) e v = (2, 1, 4). 3.9 Calcule o volume do paralelepípedo que tem por arestas os vetores (1, 3, 5), v = (2, 1, 4) e w = (−2, 1, −3). u= Bibliograa [1] H. P. Bueno, Álgebra Linear, um segundo curso , Coleção Textos Universitários, SBM, 2006. [2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna, 2001. [3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Matemática e Aplicações, IMPA, 2008. [4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção PROFMAT, SBM, 2012. [5] V. J. Katz, A History of Mathematics - an Introduction , HarperCollins College Publishers, 1993. nd [6] S. Lang, Introduction to Linear Algebra , 2 edition, Undergraduate Texts in Mathematics, Springer, 1986. [7] E.L. Lima, Álgebra Linear , 3 a edição, Coleção Matemática Universitária, IMPA, 1998. [8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2 Matemática Universitária, IMPA, 2010. 300 a edição, Coleção 5 Livro: Introdução à Álgebra Linear Autores: Abramo Hefez Cecília de Souza Fernandez Capítulo 5: Transformações Lineares Sumário 1 O que são as Transformações Lineares? 2 Núcleo e Imagem . . . . . . . . . . . . . . . . . . . . 130 3 . . . . . . 124 2.1 O Núcleo . . . . . . . . . . . . . . . . . . . . . . . 130 2.2 A Imagem . . . . . . . . . . . . . . . . . . . . . . . 132 2.3 O Teorema do Núcleo e da Imagem . . . . . . . . . 134 Operações com Transformações Lineares 123 . . . . . 144 124 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES As funções naturais no contexto dos espaços vetorais, as chamadas de transformações lineares, formam uma classe muito especial de funções que têm muitas aplicações na Física, nas Engenharias e em vários ramos da Matemática. 1 O que são as Transformações Lineares? As funções nas quais se está interessado na Álgebra Linear são as funções cujos domínios e contradomínios são espaços vetoriais e que, além disso, preservam as operações de adição de vetores e de multiplicação de um vetor por um escalar. Isto é o conteúdo da denição a seguir. Sejam V e é uma função (i) (ii) W espaços vetoriais. Uma transformação linear de V em W T : V → W que possui as seguintes propriedades: T (v1 + v2 ) = T (v1 ) + T (v2 ), T (av) = aT (v), para quaisquer para quaisquer v em V e a v1 e em v2 em V; R. As propriedades (i) e (ii) são equivalentes à seguinte propriedade: T (v1 + av2 ) = T (v1 ) + aT (v2 ), para quaisquer v1 e v2 em V e para qualquer a em (1) R. É esta caracterização das transformações lineares que utilizaremos, por ser mais prática, para mostrar que determinada função entre espaços vetoriais é uma transformação linear. T: V →W é uma transformação linear se, e somente se, para todos v1 , . . . , vr ∈ V e todos a1 , . . . , ar ∈ R, tem-se que Mostra-se por indução (veja Problema 1.1) que uma função T (a1 v1 + · · · + ar vr ) = a1 T (v1 ) + · · · + ar T (vr ). (2) Vejamos a seguir alguns exemplos. Exemplo 1. A função transformação linear. T : R2 → R, dada por T (x, y) = x + y , é uma 1. 125 O QUE SÃO AS TRANSFORMAÇÕES LINEARES? v1 = (x1 , y1 ) ∈ R2 , v2 = (x2 , y2 ) ∈ R2 De fato, se e a ∈ R, temos que T (v1 + av2 ) = T (x1 + ax2 , y1 + ay2 ) = x1 + ax2 + y1 + ay2 = (x1 + y1 ) + a(x2 + y2 ) = T (v1 ) + aT (v2 ). Portanto, T é uma transformação linear de Exemplo 2. A função T : R3 → R2 , R2 dada por em R. T (x, y, z) = (x − y, y − z), é uma transformação linear. v1 = (x1 , y1 , z1 ) ∈ R3 , v2 = (x2 , y2 , z2 ) ∈ R3 De fato, se e a ∈ R, então T (v1 + av2 ) = T (x1 + ax2 , y1 + ay2 , z1 + az2 ) = (x1 + ax2 − (y1 + ay2 ), y1 + ay2 − (z1 + az2 )) = ((x1 − y1 ) + a(x2 − y2 ), (y1 − z1 ) + a(y2 − z2 )) = (x1 − y1 , y1 − z1 ) + a(x2 − y2 , y2 − z2 ) = T (v1 ) + aT (v2 ), mostrando que Exemplo 3. T é uma transformação linear de A função R3 em R2 . T : R → R, dada por T (x) = 5x, é uma transformação linear. De fato, se x1 , x2 , a ∈ R, temos que T (x1 + ax2 ) = 5(x1 + ax2 ) = 5x1 + a5x2 = T (x1 ) + aT (x2 ). Portanto, T é uma transformação linear de R Na realidade, toda transformação linear de x ∈ R, onde c Exemplo 4. em R. R em R é da forma T (x) = c·x, é uma constante real; e reciprocamente (veja Problema 1.2). A função T : R2 → R3 , dada por T (x, y) = (0, 0, 0), transformação linear. De fato, dados v1 e v2 em R2 e dado a ∈ R, tem-se que T (v1 + av2 ) = (0, 0, 0) = (0, 0, 0) + a(0, 0, 0) = T (v1 ) + aT (v2 ), é uma 126 CAPÍTULO 5. mostrando que T TRANSFORMAÇÕES LINEARES é uma transformação linear. V e W são espaços vetoriais, a função T : V → W , dada por T (v) = 0, v ∈ V , é uma transformação linear, chamada transformação nula . A transformação nula de V em W será também denotada por 0. Mais geralmente, se Exemplo 5. A função T : R2 → R2 dada por T (x, y) = (x2 , y) não é uma transformação linear. Com efeito, se tomarmos v1 = (1, 0) e v2 = (−1, 0), então T (v1 + v2 ) = (0, 0) 6= (2, 0) = T (v1 ) + T (v2 ). Exemplo 6. função f (x) um polinômio arbitrariamente T : R[x] → R[x], dada por T (p(x)) = p(f (x)), é Seja xado em R[x]. A uma transformação linear. p1 (x), p2 (x) ∈ R[x] De fato, se e a ∈ R, temos que T (p1 (x) + ap2 (x)) = p1 (f (x)) + ap2 (f (x)) = T (p1 (x)) + aT (p2 (x)), mostrando que Exemplo 7. T é uma transformação linear. T : Rn → Rm é uma transformação linear se, e números reais aij , com 1 ≤ i ≤ m e 1 ≤ j ≤ n, tais que Uma função somente se, existem T (x1 , . . . , xn ) = (a11 x1 + · · · + a1n xn , . . . , am1 x1 + · · · + amn xn ), fazendo jus ao adjetivo linear associado à palavra transformação. Para a demonstração deste resultado, veja Problema 1.3. Como a maioria dos resultados a seguir é evidente para espaços vetoriais nulos, vamos sempre considerar o domínio e o contradomínio de uma transformação linear como espaços vetoriais não nulos. Como consequência da propriedade (1), temos que uma transformação T : V → W transforma o vetor nulo de V T (0) = 0. De fato, linear no vetor nulo de W, ou seja, 0 = T (0) − T (0) = T (0) + (−1)T (0) = T (1 · 0 − 1 · 0) = T (0). 1. 127 O QUE SÃO AS TRANSFORMAÇÕES LINEARES? T ter como domínio e contradomínio espaços T (0) = 0 não implica que ela seja uma transformação Porém, o fato de uma função vetoriais e satisfazer linear, como mostra o Exemplo 5. Uma propriedade importante de uma transformação linear é que ela ca totalmente determinada se conhecermos seus valores nos vetores de uma base de seu domínio. Mais precisamente, temos o resultado a seguir. Seja α = {v1 , v2 , . . . , vn } uma base de um espaço vetorial V . Sejam w1 , w2 , . . . , wn vetores de um espaço vetorial W . Então existe uma única transformação linear T : V → W tal que T (vj ) = wj para todo Teorema 5.1.1. 1 ≤ j ≤ n. Demonstração Tomemos v ∈ V. Como α é uma base de de modo único como uma combinação linear dos vetores de Dena T: V →W A função T V , v se escreve α, digamos v = a1 v1 + a2 v2 + · · · + an vn . (3) T (v) = a1 w1 + a2 w2 + · · · + an wn . (4) por a1 , a2 , . . . , an são uniT é uma transformaSuponhamos que w = está bem denida, pois os números reais v. a em R camente determinados a partir de Além disso, ção linear. e De fato, tomemos b1 v1 + b2 v2 + · · · + bn vn . w em V. Como v + aw = (a1 + ab1 )v1 + (a2 + ab2 )v2 + · · · + (an + abn )vn , segue que T (v + aw) = (a1 + ab1 )w1 + (a2 + ab2 )w2 + · · · + (an + abn )wn = (a1 w1 + a2 w2 + · · · + an wn ) + a(b1 w1 + b2 w2 + · · · + bn wn ) = T (v) + aT (w). Para mostrar que T (vj ) = wj , xe j, onde 1 ≤ j ≤ n. vj = 0v1 + · · · + 1vj + · · · + 0vn , Como 128 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES segue de (4) que T (vj ) = 0w1 + · · · + 1wj + · · · + 0wn = wj . Vejamos agora que T é a única função com as propriedades desejadas. Para isto, suponhamos que S(vj ) = wj para todo linearidade de S S : V → W seja uma transformação j , com 1 ≤ j ≤ n. Tomemos v ∈ V . linear tal que Por (3) e pela (propriedade (2)), temos que S(v) = a1 S(v1 ) + a2 S(v2 ) + · · · + an S(vn ). Como S(vj ) = wj para todo 1 ≤ j ≤ n, obtemos S(v) = a1 w1 + a2 w2 + · · · + an wn = T (v). Como v∈V Exemplo 8. foi tomado de modo arbitrário, segue que S = T. Para determinarmos a transformação linear T : R2 → R3  tal T (1, 1) = (0, 2, 1) e T (0, 2) = (1, 0, 1) devemos, pelo Teorema 5.1.1, 2 vericar que α = {(1, 1), (0, 2)} é uma base de R e calcular as coordenadas 2 de um vetor de R na base α. Ora, como α é linearmente independente e dim R2 = 2, temos que α é uma base de R2 . Além disso, se (x, y) ∈ R2 , então que (x, y) = a1 (1, 1) + a2 (0, 2) se, e somente se, a1 = x e a2 = y−x . 2 Portanto,   y−x T (x, y) = xT (1, 1) + T (0, 2) 2   y−x = x(0, 2, 1) + (1, 0, 1) 2   y−x x+y = , 2x, . 2 2 Problemas 1. 1.1 129 O QUE SÃO AS TRANSFORMAÇÕES LINEARES? Sejam V e W dois espaços vetoriais e T: V → W uma função. Prove que as seguintes armações são equivalentes: T (u + v) = T (u) + T (v) qualquer a em R; (a) (b) e T (av) = aT (v), T (u + av) = T (u) + aT (v), para quaisquer para quaisquer u e v em V u e v em e qualquer a V e em R; (c) em 1.2 T (a1 v1 + · · · + ar vr ) = a1 T (v1 ) + · · · + ar T (vr ), V e quaisquer a1 , . . . , ar em R. Mostre que existe c∈R tal T : R → R é uma transformação que T (x) = cx, para todo x ∈ R. 1.3 Seja T : Rn → Rm uma função. Mostre que se, e somente se, existem números reais aij , T com para quaisquer v1 , . . . , vr linear se, e somente se, é uma transformação linear 1≤i≤m e 1 ≤ j ≤ n, tais que T (x1 , . . . , xn ) = (a11 x1 + · · · + a1n xn , . . . , am1 x1 + · · · + amn xn ). Sugestão T é da forma desejada, escreva (x1 , . . . , xn ) = e1 , . . . , en é a base canônica de Rn . Ponha T (ei ) = Para mostrar que x1 e1 + · · · + xn en , onde (a1i , . . . , ami ) e use a igualdade 1.4* por (2). A recíproca é uma vericação fácil. V = M(n, n) e seja B em V . Dena a função T : V → V T (A) = AB + BA para toda matriz A em V . Mostre que T é uma Considere transformação linear. 1.5 Mostre que a função T : M(m, n) → M(n, m), denida por T (A) = At , é uma transformação linear. 1.6 Dada uma transformação linear calcule em função de (a) 1.7 T (u + v); u e (b) T tal que T (u) = 2u T (v) = u + v , v: T (3v); (c) T (−3u); (d) T (u − 5v). Quais das funções abaixo são transformações lineares? Justique as res- postas dadas. (a) e T : R3 → R3 , onde T (x, y, z) = (x + y, x − z, 0). 130 (b) (c) CAPÍTULO 5. T : R2 → R3 , TRANSFORMAÇÕES LINEARES T (x, y) = (x2 , x, y). " # 2x x − y T : R2 → M(2, 2), onde T (x, y) = . x+y 2y onde (d) T : R2 → R, (e) T : R[x]2 → R[x]2 , onde T (ax + b) = ax2 + bx. (f ) T : R[x]d → R[x]d , onde T (x) = x + a, onde T (x, y) = xy . com 1.8 Determine (a) T (1, 2) = (3, 1, 1) (b) T (1, 1, 1) = (2, −1, 4), T (1, 1, 0) = (3, 0, 1) 1.9 Sejam n e m e a transformação linear e 2 tal que: e T (1, 0, 0) = (−1, 5, 1). V e T : V →W T (v1 ) = T (v2 ) = · · · = T (vn ) = 0 se, uma base de um espaço vetorial uma transformação linear. Mostre que T T : Rn → Rm T (1, 1) = (1, −1, 0); {v1 , v2 , . . . , vn } e somente se a ∈ R. é a transformação nula. Núcleo e Imagem O núcleo e a imagem de uma transformação linear são dois subespaços de seu domínio e de seu contradomínio, respectivamente, que nos fornecem informações valiosas sobre a transformação. Há uma relação importante entre as dimensões do domínio, do núcleo e da imagem de uma transformação linear, que apresentaremos nesta seção e que possui muitas aplicações. 2.1 O Núcleo Seja T: V →W Ker T , é o conjunto W , ou seja, uma transformação linear. O de vetores de V núcleo de T , denotado por que são levados por T no vetor nulo de Ker T = {v ∈ V ; T (v) = 0}. Ker T é um subconjunto não vazio de V , já que T (0) = 0. Mais Ker T é um subespaço de V . De fato, se v1 , v2 ∈ Ker T e se a ∈ R, Note que ainda, 2. 131 NÚCLEO E IMAGEM então v1 + av2 ∈ Ker T , pois T (v1 + av2 ) = T (v1 ) + aT (v2 ) = 0 + a · 0 = 0. O seguinte exemplo ilustra o fato de que a determinação do núcleo de uma transformação linear, entre espaços vetoriais de dimensão nita, recai na determinação do conjunto solução de um sistema de equações lineares homogêneo. Exemplo 1. Seja T : R4 → R3 a transformação linear denida por T (x, y, s, t) = (x − y + s + t, x + 2s − t, x + y + 3s − 3t). Para determinarmos em R4 Ker T , devemos obter o conjunto de vetores (x, y, s, t) tais que T (x, y, s, t) = (x − y + s + t, x + 2s − t, x + y + 3s − 3t) = (0, 0, 0). Equivalentemente, Ker T é o conjunto solução do seguinte sistema linear homogêneo:     x − y + s + t = 0 x + 2s − t = 0    x + y + 3s − 3t = 0 . Resolvendo o sistema acima, obtemos Ker T = {(−2s + t, −s + 2t, s, t) ; s, t ∈ R}. Note que Ker T é um subespaço vetorial de R4 de dimensão 2. Inversamente, o conjunto solução de um sistema de equações lineares homogêneo AX = 0, onde A = [aij ], pode ser interpretado como o núcleo de uma transformação linear. Mais precisamente, é o núcleo da transformação linear T : Rn → Rm , T (x1 , . . . , xn ) = (a11 x1 + · · · + a1n xn , . . . , am1 x1 + · · · + amn xn ). 132 CAPÍTULO 5. Se uma transformação linear T TRANSFORMAÇÕES LINEARES T (v) = 0 só T (0) = 0, tem-se é injetiva, então a equação v = 0. De fato, sendo T injetiva e como T (v) = 0 = T (0) implica que v = 0. Fato curioso, é que possui a solução que vale também a recíproca desta propriedade, como mostraremos a seguir. Seja T : V → W uma transformação linear. Temos que T é injetiva se, e somente se, Ker T = {0}. Proposição 5.2.1. Demonstração A implicação direta foi provada no comentário acima. Su- Ker T = {0}. Tomemos u e v vetores em V . Se T (u) = T (v), então T (u) − T (v) = 0. Equivalentemente, T (u − v) = 0. Assim, u − v ∈ Ker T . Como Ker T = {0}, segue-se que u − v = 0, logo u = v , mostrando a injetividade de T .  ponhamos agora que Por exemplo, a transformação linear do Exemplo 1 não é injetiva, pois Ker T 6= {(0, 0, 0, 0)}. Já a transformação linear dada por T (x, y)=(x−y, x+y), (x, y) ∈ R2 , é injetiva, pois Ker T = {(0, 0)}. 2.2 A A Imagem imagem de T Im T = T (V ). Como junto não vazio de de fato, T : V → W é o conjunto 0 ∈ Im T , logo ele é um subcon- de uma transformação linear T (0) = 0, W. temos que Deixaremos como exercício para o leitor vericar que, Im T é um subespaço vetorial de W (veja Problema 2.1). A seguinte proposição mostra como podemos determinar geradores para a imagem de uma transformação linear. Seja T : V →W uma transformação linear. Se {v1 , . . . , vn } é um conjunto de geradores de V , então {T (v1 ), . . . , T (vn )} é um conjunto de geradores de Im T . Em particular, dim Im T ≤ dim V . Proposição 5.2.2. Demonstração {v1 , . . . , vn } gera Seja V, v w ∈ Im T e tomemos v∈V é uma combinação linear de v = a1 v1 + · · · + an vn . T (v) = w. Como v1 , . . . , vn , digamos, tal que 2. 133 NÚCLEO E IMAGEM Pela linearidade de T (cf. (2) da Seção 1), temos que w = T (v) = a1 T (v1 ) + · · · + an T (vn ), w é uma combinação linear de T (v1 ), . . . , T (vn ). Im T , segue que Im T = G(T (v1 ), . . . , T (vn )). ou seja, em Exemplo 2. Como w é arbitrário  Calculemos a imagem da transformação linear apresentada no Exemplo 1. Pela Proposição 5.2.2, devemos determinar o espaço gerado pela imagem de um conjunto de geradores de R4 . Vamos calcular, então, o espaço gerado por T (1, 0, 0, 0) = (1, 1, 1), T (0, 0, 1, 0) = (1, 2, 3) T (0, 1, 0, 0) = (−1, 0, 1), e T (0, 0, 0, 1) = (1, −1, −3). Pelo Teorema 3.4.1, basta reduzir a matriz  1 1 1 −1 0 1      1 2 3 1 −1 −3  à forma escalonada. Ora,      1 1 1 1 1 1 1 −→ −→ −1     0 1  L2 → L2 + L1 0 1 2  0     L3 → L3 − L2   1 2 3  L3 → L3 − L1 0 1 2  L → L + 2L 0 4 4 2 L4 → L4 − L1 1 −1 −3 0 −2 −4 0 Assim, {(1, 1, 1), (0, 1, 2)} é uma base de Im T , ou seja, Im T = {(x, x + y, x + 2y) ; x, y ∈ R}. 1 1 0 0  1 2  . 0 0 134 CAPÍTULO 5. 2.3 O Teorema do Núcleo e da Imagem TRANSFORMAÇÕES LINEARES O seguinte resultado é um teorema importante que relaciona a dimensão do núcleo à dimensão da imagem de uma transformação linear quando V T : V → W, tem dimensão nita. Seja T : V → W uma transformação linear, onde V tem dimensão nita. Então Teorema 5.2.3. (Teorema do Núcleo e da Imagem) dim Ker T + dim Im T = dim V. Demonstração uma base de vetores em V Suponhamos que Ker T . dim V = n. Seja (1) α = {u1 , u2 , . . . , um } Como qualquer conjunto linearmente independente de tem no máximo n vetores (Teorema 3.3.3), segue que m ≤ n. Vamos considerar dois casos: m = n. Neste caso, dim Ker T = dim V e, consequentemente, pelo Teorema 3.3.6, Ker T = V . Isto implica que Im T = {0}, portanto, dim Im T = 0, mostrando Caso 1. que a fórmula (1) é válida. Caso 2. m < n. α de modo a obtermos uma base β de V , digamos β = {u1 , u2 , . . . , um , vm+1 , . . . , vn }. Note que a fórmula (1) é vericada se provarmos que {T (vm+1 ), . . . , T (vn )} é uma base de Im T . Pela Proposição 5.2.2, temos que Im T = G(T (vm+1 ), . . . , T (vn )). Para provarmos Pelo Teorema 3.3.5, podemos completar que esses vetores são linearmente independentes, consideremos a equação bm+1 T (vm+1 ) + · · · + bn T (vn ) = 0, que equivale a termos bm+1 vm+1 + · · · + bn vn ∈ Ker T. Como α é uma base de Ker T , existem b1 , b2 , . . . , bm em R tais que bm+1 vm+1 + · · · + bn vn = b1 u1 + b2 u2 + · · · + bm um , 2. 135 NÚCLEO E IMAGEM ou seja, b1 u1 + b2 u2 + · · · + bm um − bm+1 vm+1 − · · · − bn vn = 0. Sendo β uma base de V, a equação anterior se verica somente se todos os coecientes da combinação linear são iguais a zero. Em particular, · · · = bn = 0. bm+1 =  Em geral, para mostrarmos que uma função é bijetiva, devemos mostrar que ela é injetiva e sobrejetiva. No entanto, se a função é uma transformação linear entre espaços vetoriais de mesma dimensão nita, então, exatamente como no caso de funções entre conjuntos nitos de mesma cardinalidade, basta vericar que ela ou é injetiva ou é sobrejetiva; a outra condição é automaticamente satisfeita. Provaremos este fato a seguir com o auxílio do teorema do núcleo e da imagem. Note que esse resultado não é consequência do resultado para funções entre conjuntos nitos, pois um espaço vetorial sobre R, quando não nulo, é um conjunto innito. Seja T : V → W uma transformação linear entre espaços vetoriais de dimensão nita. Se dim V = dim W , então as seguintes armações são equivalentes: Proposição 5.2.4. (i) T é injetiva; (ii) T é sobrejetiva. Demonstração Pelo Teorema do Núcleo e da Imagem, dim Ker T + dim Im T = dim V. Sendo dim V = dim W , podemos escrever a igualdade acima como dim Ker T + dim Im T = dim W. Suponhamos que T consequentemente, seja injetiva. dim Ker T = 0. Pela Proposição 5.2.1, Segue então, de (2), (2) Ker T = {0} e, que dim Im T = 136 CAPÍTULO 5. dim W , W. mostrando que T TRANSFORMAÇÕES LINEARES é sobrejetiva, já que, pelo Teorema 3.3.6, Im T = W . Esses dois espaços têm mesma dimensão, portanto, de (2) temos que dim Ker T = 0, o que garante que Ker T = {0}. Pela Proposição 5.2.1, segue que T é injetiva. Suponhamos agora que T Im T = seja sobrejetiva, ou seja,  Exemplo 3. Veriquemos que a transformação linear T : M(2, 2) → R4 , dada por " T #! a b c d = (a + b, b + c, c, a + b + d) é uma função bijetiva. dim M(2, 2) = dim R4 , segue, que T é uma função injetiva. Ora, como vericarmos da Proposição 5.2.4, que basta Como a igualdade " T só ocorre quando Proposição 5.2.1, #! a b = (0, 0, 0, 0) c d a = b = c = d = 0, T é injetiva. Observamos que a condição cessária. temos que dim V = dim W , Ker T = {0}. Pela na Proposição 5.2.4, é ne- De fato, consideremos a transformação linear T : R3 → R2 dada T (x, y, z) = (x, y). Temos que T é sobrejetiva, mas não é injetiva. Já a 2 3 transformação linear T : R → R dada por T (x, y) = (x, y, 0) é injetiva, mas por não é sobrejetiva. T : V → W uma transformação linear bijetiva. Logo, existe a função −1 inversa T : W → V de T . A função T −1 é também uma transformação linear . Com efeito, consideremos w1 e w2 em W e a em R. Como T é bijetiva, existem únicos vetores v1 e v2 em V tais que T (v1 ) = w1 e T (v2 ) = w2 . Seja 2. 137 NÚCLEO E IMAGEM Portanto, T −1 (w1 + aw2 ) = T −1 (T (v1 ) + aT (v2 )) = T −1 (T (v1 + av2 )) = v1 + av2 = T −1 (w1 ) + aT −1 (w2 ). isomorsmo . Dois espaços vetoriais que possuem um isomorsmo entre eles serão ditos isomorfos, o que, Uma transformação linear bijetiva é chamada em grego, signica que possuem mesma forma. Os isomorsmos desempe- nham um papel importante na Álgebra Linear. R4 e M(2, 2) T : R4 → M(2, 2) dada por Por exemplo, são espaços vetoriais isomorfos, pois a função " x y T (x, y, z, t) = z t # é um isomorsmo. Pelo Teorema 5.2.3, segue que se dois espaços vetoriais de dimensão nita são isomorfos, então eles têm a mesma dimensão. O próximo resultado mostra que a recíproca desta armação é também verdadeira, ou seja, espaços vetoriais de mesma dimensão nita são isomorfos. Se V e W são espaços vetoriais de dimensão n, então V e Teorema 5.2.5. W são isomorfos . Demonstração Para provarmos que V e W são isomorfos, devemos mostrar que existe uma transformação linear bijetiva de V α = {v1 , . . . , vn } e β = {w1 , . . . , wn } bases de V v ∈ V , podemos escrever de modo único e v = a1 v1 + · · · + an vn , com a1 , . . . , a n ∈ R . em W. Para isto, tomemos W , respectivamente. Dado 138 CAPÍTULO 5. Dena, então, T: V → W monstração do Teorema 5.1.1, por T TRANSFORMAÇÕES LINEARES T (v) = a1 w1 + · · · + an wn . Pela de- está bem denida e, além disso, T é uma transformação linear. T é bijetiva basta provarmos, se v = a1 v1 + · · · + an vn e Para provarmos que que T é injetiva. Ora, pela Proposição 5.2.4, 0 = T (v) = a1 w1 + · · · + an wn , a1 = · · · = an = 0, pois {w1 , . . . , wn } v = 0, mostrando que Ker T = {0}. segue-se que V Dois espaços vetoriais W e é uma base de W. Logo,  isomorfos são essencialmente o mesmo espaço vetorial, exceto que seus elementos e suas operações de adição e de multiplicação por escalar são escritas diferentemente. propriedade de V que dependa apenas de sua estrutura de espaço vetorial W, isomorsmo de V em W , somente se, {v1 , . . . , vn } é permanece válida em Exemplo 4. Seja W e vice-versa. T : V → W é um uma base de W se, e Por exemplo, se {T (v1 ), . . . , T (vn )} é base de V (veja Problema então uma o subespaço de " # " 1 −5 1 M1 = , M2 = −4 2 −1 M(2, 2) " e # 1 −7 M4 = . −5 1 W. Para encontrarmos uma base e a dimensão de de espaço gerado. 2.4). gerado por # " # 1 2 −4 , M3 = 5 −5 7 Vamos encontrar uma base e a dimensão de W não usaremos a denição Em vez disso, usaremos a noção de espaço linha, que nos auxilia a exibir uma base de subespaços de espaços vetoriais Assim, qualquer isomorfos a subespaços de " # n R Rn e, consequentemente, de . x y 4 é um isomorsmo de R em M(2, 2), t z temos que W é isomorfo ao espaço G(v1 , v2 , v3 , v4 ), onde v1 = (1, −5, −4, 2), v2 = (1, 1, −1, 5), v3 = (2, −4, −5, 7) e v4 = (1, −7, −5, 1). Temos que a Ora, como T (x, y, t, z) = 2. 139 NÚCLEO E IMAGEM matriz   1 −5 −4 2 1 1 −1 5     2 −4 −5 7 1 −7 −5 1 se reduz, pelas transformações elementares, à matriz  1 0   0 0 3 2 0 0 0 1 0 0  6 1  . 0 0 α = {(1, 3, 0,(" 6), (0, 2, uma base de G(v1 , v2 , v3 , v4 ) e, conse# 1,"1)} é#) 1 3 0 2 0 quentemente, α = , é uma base de W , mostrando que 0 6 1 1 dim W = 2. Assim, Note que, como consequência do Teorema 5.2.5, temos que vetorial não nulo de dimensão nita n é isomorfo ao R n . todo espaço Dessa forma, o estudo de espaços vetoriais de dimensão nita pode se reduzir ao estudo dos espaços Rn , mediante a escolha de algum isomorsmo. um problema em um espaço vetorial de dimensão nita problema para n R n, Assim, dado reescrevemos o , usando um isomorsmo, e o resolvemos neste contexto. Com o isomorsmo utilizado, voltamos ao contexto original. Essa técnica foi ilustrada no Exemplo 4. Um outro exemplo pode ser visto no Problema 2.6, bem como no exemplo a seguir, em que são aplicados os conceitos de espaço vetorial, base e dimensão, de modo a obter resultados não triviais. Exemplo 5. Consideremos a recorrência R(1, 1), un+1 = un + un−1 , denida por n ≥ 2. Vimos no Exemplo 2 da Seção 1, do Capítulo 1 e no Exemplo 5 da Seção 1, do Capítulo 3, que as sequências reais que satisfazem a esta recorrência formam um espaço vetorial. 140 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES (un ) de R(1, 1) ca totalmente determinado u1 e u2 . Por exemplo, se u1 = u2 = 1, temos que Observe que todo elemento se soubermos os valores de (un ) é a sequência de Fibonacci. Denamos a seguinte função: T : R(1, 1) → R2 (un ) 7→ (u1 , u2 ) . Note que T é uma transformação linear, pois se (un ), (vn ) ∈ R(1, 1) e c ∈ R, então T ((un ) + c(vn )) = = = = Por outro lado, os valores de Logo, 2. T u1 e T u2 T ((un + cvn )) (u1 + cv1 , u2 + cv2 ) (u1 , u2 ) + c(v1 , v2 ) T ((un )) + cT ((vn )). é obviamente sobrejetora. T é também injetora, pois determinam univocamente a sequência (un ) é um isomorsmo de espaços vetoriais e, portanto, Vamos determinar uma base de R(1, 1). dim R(1, 1) = R(1, 1). Procuremos dentre as progressões geométricas que satisfazem à recorrência de R(1, 1). (q n ), com q 6= 0, aquelas Essas devem satisfazer à condição q n+1 = q n + q n−1 . Daí deduz-se que q deve satisfazer a equação q 2 − q − 1 = 0, cujas raízes são √ 1+ 5 q1 = , 2 Portanto, sendo as imagens por R(1, 1). T √ 1− 5 q2 = . 2 (q1n ) e (q2n ) linearmente independentes (basta vericar que são linearmente independentes), eles formam uma base de 2. 141 NÚCLEO E IMAGEM (un ) de R(1, 1) é tal que √ !n √ !n 1+ 5 1− 5 + t2 , 2 2 Assim, todo elemento un = t1 Portanto, dados u1 e u2 , podemos determinar t1 t1 , t2 ∈ R. (3) e t2 resolvendo o sistema de equações: ( Em virtude das igualdades ao sistema ( t1 q1 + t2 q2 = u1 t1 q12 + t2 q22 = u2 . q12 = q1 +1 e q22 = q2 +1, este sistema é equivalente t1 q1 + t2 q2 = u1 t1 (q1 + 1) + t2 (q2 + 1) = u2 , u = u2 = 1, resolvendo √ 1 t2 = −1/ 5, que substituídos em (3) Por exemplo, para a sequência de Fibonacci, onde o sistema acima, obtemos √ t1 = 1/ 5 e nos dão a seguinte fórmula para o termo geral da sequência de Fibonacci:  un = √ n 1+ 5 2  √ n − 1−2 5 √ . 5 Finalizaremos esta seção com mais uma aplicação do Teorema do Núcleo e da Imagem. Exemplo 6. Determinaremos uma fórmula para a dimensão da soma de dois subespaços de um espaco vetorial. Sejam torial V. U e W subespaços vetoriais de dimensão nita de um espaço ve- Considere a transformação linear T: U ×W → V (u, w) 7→ u + w É fácil vericar que a imagem de isomorfo a U ∩W T é o subespaço U +W e que Ker T é (veja Problema 2.5). Logo, pelo Teorema do Núcleo e da Imagem e pelo Problema 3.15, do Capítulo 3, temos que dim U + dim W = dim U × W = dim Ker T + dim Im T = dim(U ∩ W ) + dim(U + W ). 142 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES Assim, temos que dim(U + W ) = dim U + dim W − dim(U ∩ W ). Problemas 2.1* Prove que a imagem de uma transformação linear subespaço vetorial de é um W. 2.2* Dada a transformação linear em 3 R T: V → W T (x, y, z) = (x + 2y − z, y + 2z, x + 3y + z) : (a) Verique que Ker T é uma reta que passa pela origem; (b) Determine as equações paramétricas da reta obtida em (a); (c) Verique que Im T é um plano que passa pela origem; (d) Determine as equações paramétricas do plano obtido em (c). 2.3 Explique por que não existe nenhuma transformação linear sobrejetiva T : V → W, 2.4* de V 2.5 Seja quando dim V < dim W . T: V → W se, e somente se, {v1 , . . . , vn } base de W . um isomorsmo. Prove que {T (v1 ), . . . , T (vn )} for uma é uma base U e W subespaços de um espaço vetorial V . Considere T : U × W → V , denida por T (u, w) = u + w. Mostre que: (a) Sejam T é uma transformação linear; (b) A imagem de (c) T é o subespaço U + W; Ker T = {(u, −u); u ∈ U ∩ W } 2.6* a função é isomorfo a Determine a dimensão do subespaço de U ∩ W. R[x]3 , denido por {p(x) = ax3 + bx2 + cx + d ; p(−1) = 0}. 2.7 Determine o núcleo e a imagem das seguintes transformações lineares: (a) T : R3 → R2 , onde T (x, y, z) = (x − y, x − z); 143 2. NÚCLEO E IMAGEM (b) T : R4 →R3 , onde T (x, y, z, w)=(2x + y − z + w, x + 2y − w, 6x + 2z − 3w); (c) T : R[x] → R[x], T (p(x)) = x · p(x); onde " (d) T : M(2, 2) → M(2, 2), (e) T : R[x]2 → R4 , 2.8 onde onde T (A) = M · A, sendo # 1 −1 M= ; −4 4 T (ax2 + bx + c) = (a + b, 2b + c, a + 2b − c, c). Determine quais das transformações lineares do exercício anterior são injetivas e quais são sobrejetivas. 2.9 Dada uma transformação linear (a) se é sobrejetiva, então (b) se é injetiva, então T : V → W, mostre que: dim W ≤ dim V ; dim V ≤ dim W . 2.10 Encontre uma transformação linear T : R3 → R3 por (1, 2, −1) e (−1, 1, 0). 2.11 Encontre uma transformação linear T : R4 → R3 por (1, 2, 3, 4) 2.12 (1, 2, 3) e (1, 3, −1, 2) 2.14 Seja T : R3 → V V T : R3 → R3 cuja imagem seja T : R3 → R4 cuja imagem seja (0, 1, −1). Encontre uma transformação linear gerada por cujo núcleo seja gerado (0, 1, 1, 1). Encontre uma transformação linear gerada por 2.13 e cujo núcleo seja gerado e (1, 0, 1, −1). R3 em um espaço vetorial R3 , um plano pela origem, uma transformação linear de qualquer. Mostre que o núcleo de T é todo o uma reta pela origem, ou só a origem. 2.15 Seja 2.16 Dê, quando possível, exemplos de transformações lineares T : V → R3 uma transformação linear de um espaço vetorial V 3 qualquer em R . Mostre que a imagem de T é só a origem, uma reta pela 3 origem, um plano pela origem, ou todo o R . zendo: (a) T : R3 → R2 sobrejetiva; (b) T : R4 → R2 com Ker T = {(0, 0, 0, 0)}; T satisfa- 144 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES (c) T : R3 → R3 com Im T = {(0, 0, 0)}; (d) T : R3 → R4 com Ker T = {(x, y, −x) ; x ∈ R}. 2.17 Seja 2.18 Sejam 2.19 Considere a transformação linear T : V → R uma transformação linear não nula. Prove que existe um vetor v ∈ V tal que T (v) = 1. Seja W o subespaço de V gerado pelo vetor v . Prove que V = W ⊕ Ker T . W1 e W2 subespaços de um espaço vetorial V tais que dim W1 + dim W2 = dim V . Mostre que existe uma transformação linear T : V → V tal que Ker T = V1 e Im T = W2 . T : R3 → R3 dada por T (x, y, z) = (3x + y, −2x − 4y + 3z, 5x + 4y − 2z). Determine se 2.20 Seja T é invertível. Em caso armativo, encontre T : Rn → Rn T −1 . a transformação linear dada por T (x1 , x2 , . . . , xn ) = (a1 x1 , a2 x2 , . . . , an xn ). (a) Sob quais condições sobre a1 , a2 , . . . , an , a função T é invertível? (b) Supondo satisfeitas as condições determinadas em (a), encontre 2.21 Seja T : R2 → R2 T −1 . a transformação linear dada por T (x, y) = (x + ky, −y). Prove que 2.22 é injetiva e que T −1 = T , para cada valor real de Ache um isomorsmo entre o espaço vetorial n×n 3 T e o espaço vetorial W V k. das matrizes simétricas das matrizes triangulares inferiores n × n. Operações com Transformações Lineares Nesta seção, apresentaremos as operações usuais com as transformações lineares, obtendo novas transformações lineares a partir de transformações lineares dadas. 3. 145 OPERAÇÕES COM TRANSFORMAÇÕES LINEARES T : V → W e S : V → W transformações lineares. Denimos a T e S , denotada por T + S , como a função T + S : V → W dada Sejam soma de por (T + S)(v) = T (v) + S(v), para todo kT , v ∈ V. como a função k ∈ R, denimos o produto kT : V → W dada por Se (1) de k por T, denotando-o (kT )(v) = kT (v), para todo v ∈V. As funções pois para qualquer a em R T +S e kT (2) são, de fato, transformações lineares, e para quaisquer v1 e v2 em V temos que (T + S)(v1 + av2 ) = T (v1 + av2 ) + S(v1 + av2 ) = T (v1 ) + aT (v2 ) + S(v1 ) + aS(v2 ) = [T (v1 ) + S(v1 )] + a[T (v2 + S(v2 )] = (T + S)(v1 ) + a(T + S)(v2 ) e (kT )(v1 + av2 ) = kT (v1 + av2 ) = k[T (v1 ) + aT (v2 )] = kT (v1 ) + akT (v2 ) = (kT )(v1 ) + a(kT )(v2 ). Denotemos por V em W. (V, W ) o conjunto de todas as transformações lineares de As operações descritas em (1) e (2) denem uma adição e uma multiplicação por escalar em Problema 3.4). Se W = R, seus elementos chamados de (V, W ), o espaço tornando-o um espaço vetorial (veja (V, R) é chamado funcionais lineares em A composição de duas transformações lineares de V e V. T: V →W é a composição usual de funções: (S ◦ T )(v) = S(T (v)), espaço dual v ∈ V. e S: W → U 146 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES S ◦T é também uma transformação linear. a ∈ R, então A função e se Com efeito, se v1 , v2 ∈ V (S ◦ T )(v1 + av2 ) = S(T (v1 + av2 )) = S(T (v1 ) + aT (v2 )) = S(T (v1 )) + aS(T (V2 )) = (S ◦ T )(v1 ) + a(S ◦ T )(v2 ). Exemplo 1. Sejam T : R3 → R3 e S : R3 → R3 transformações lineares dadas por T (x, y, z) = (2x, x − y, y + z) Determinaremos T + S , 2S e e S(x, y, z) = (x + 2z, y, −z). T ◦ S. Temos (T + S)(x, y, z) = T (x, y, z) + S((x, y, z)) = (2x, x − y, y + z) + (x + 2z, y, −z) = (3x + 2z, x, y), (2S)(x, y, z) = 2S(x, y, z) = 2(x + 2z, y, −z) = (2x + 4z, 2y, −2z) e (T ◦S)(x, y, z) = T (S(x, y, z)) = T (x+2z, y, −z) = (2x+4z, x−y +2z, y −z). Sejam a T: V → V n-ésima potência de n ∈ N \ {0}. Denimos n como a função T : V → V uma transformação linear e T, denotando-a por T n , dada por T n = |T ◦ ·{z · · ◦ T} . n vezes Pelo que vimos anteriormente, como a função identidade em T n V, é uma transformação linear. Denimos T0 ou seja, T 0 = IV . Se T: V → V é um isomorsmo, a transformação linear denida por −1 T −n = T · · ◦ T −1} . | ◦ ·{z n vezes T −n : V → V é 3. OPERAÇÕES COM TRANSFORMAÇÕES LINEARES 147 O próximo resultado, cuja demonstração é deixada como exercício (veja Problema 3.9), relaciona a composição com a adição e a multiplicação por escalar de transformações lineares. Sejam T e T 0 transformações lineares de V em W e sejam S e S 0 transformações lineares de W em U . Então: Proposição 5.3.1. (a) (b) (c) S ◦ (T + T 0 ) = S ◦ T + S ◦ T 0 ; (S + S 0 ) ◦ T = S ◦ T + S 0 ◦ T ; k(S ◦ T ) = (kS) ◦ T = S ◦ (kT ), onde k ∈ R. Problemas 3.1* T : R3 → R4 dada por T (x, y, z) = (T ◦ S)(x, y), onde S : R2 → R3 é dada por Considere a transformação linear (x + y, z, x − y, y + z). Calcule S(x, y) = (2x + y, x − y, x − 3y). 3.2 Sejam 3.3 Sejam (a) T + S; (b) 5T − 4S ; (c) S ◦ T; (d) T ◦ S; (e) T 3; (f ) S −3 . 3.4 Prove que T: V → W S : V → W transformações lineares entre espaços −1 vetoriais de mesma dimensão. Se S ◦T = IV , prove que T ◦S = IW e S = T . e T : R2 → R2 e S : R2 → R2 transformações lineares dadas por T (x, y) = (x + y, 0) e S(x, y) = (−y, x). Encontre expressões para denir: (V, W ), com as operações dadas em (1) e (2), é um espaço vetorial. 3.5 Mostre que as seguintes transformações lineares T, S e Q são linearmente independentes: T, S, Q ∈ (R3 , R2 ), denidas por T (x, y, z) = (x+y +z, x+y), S(x, y, z) = (2x + z, x + y) e Q(x, y, z) = (2y, x); (a) T, S, Q ∈ (R3 , R), Q(x, y, z) = x − z . (b) e denidas por T (x, y, z) = x + y + z , S(x, y, z) = y + z 148 3.6 CAPÍTULO 5. Seja somente 3.7 T : V → V uma se, Im T ⊂ Ker T . T2 = 0 Prove que T : V → V e S : V → V são transformações T ◦ S = 0, então T não é injetiva. Dada a transformação linear mostre que 3.9 transformação linear. Prove que se nulas tais que 3.8 TRANSFORMAÇÕES LINEARES T (x, y, z) = (ay + bz, cz, 0) se, e lineares não de R3 em R3 , de R2 em R2 , T 3 = 0. Prove a Proposição 5.3.1. 3.10 Dada a transformação linear T (x, y) = (ac + by, cx + dy) mostre que: (a) T 2 − (a + d)T = (bc − ad) IR2 ; ad − bc 6= 0, então existe uma transformação linear S S ◦ T = T ◦ S = IR2 . (b) Se que de R2 em R2 tal 3.11 Seja T : W → U uma transformação linear injetiva. Prove que S1 , S2 ∈ (V, W ) satisfazem a igualdade T ◦ S1 = T ◦ S2 , então S1 = S2 . se 3.12 Seja se 3.13 Prove que se T : V → W uma transformação linear sobrejetiva. Prove que S1 , S2 ∈ (W, U ) satisfazem a igualdade S1 ◦ T = S2 ◦ T , então S1 = S2 . então a 3.14 T : V → V é uma transformação transformação IV −T é invertível. Seja V wi + · · · + ws , (a) T com é uma transformação linear; A transformação T T 2 = 0, V = W1 ⊕ · · · ⊕ Ws . T : V → V denida por T (v) = wi , onde v = w1 + · · · + wi ∈ Wi , para cada 1 ≤ i ≤ s. Mostre que: um espaço vetorial. Considere a função linear tal que é chamada de Suponhamos que (b) T2 = T. projeção de V em seu subespaço vetorial Wi . 3.15 Seja T : V →V (a) T (v) = v (b) V = Ker T ⊕ (c) T uma transformação linear tal que para todo Im é a projeção de v∈ Im T; T; V em sua imagem. T 2 =T . Mostre que: 3. 149 OPERAÇÕES COM TRANSFORMAÇÕES LINEARES 3.16 Seja T: V →V ção se, e somente se, 3.17 Sejam T e dimensão nita S V uma transformação linear. Mostre que Se (b) Se T ◦ T2 . é uma proje- T2 = T. duas transformações lineares entre os espaços vetoriais de e W. Ker T = Ker S , S = T1 ◦ T ; (a) T Im T = Im S , Mostre que: então existe um isomorsmo então existe um isomorsmo T1 : W → W T2 : V → V tal que tal que S= Bibliograa [1] H. P. Bueno, Álgebra Linear, um segundo curso , Coleção Textos Univer- sitários, SBM, 2006. [2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna, 2001. [3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate- mática e Aplicações, IMPA, 2008. [4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção PROFMAT, SBM, 2012. [5] V. J. Katz, A History of Mathematics - an Introduction , HarperCollins College Publishers, 1993. [6] S. Lang, Introduction to Linear Algebra , 2nd edition, Undergraduate Texts in Mathematics, Springer, 1986. [7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária, IMPA, 1998. [8] E.L. Lima, Geometria Analítica e Álgebra Linear , Matemática Universitária, IMPA, 2010. 300 2 a edição, Coleção 6 Livro: Introdução à Álgebra Linear Autores: Abramo Hefez Cecília de Souza Fernandez Capítulo 6: Transformações Lineares e Matrizes Sumário 1 Matriz de uma Transformação Linear . . . . . . . 151 2 Operações com Transformações Lineares e Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 R2 Operadores Lineares em 4 Mudança de Base e Matrizes Semelhantes 150 e em R3 3 . . . . . . . . 163 . . . . 171 1. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR 151 Neste capítulo, mostramos como associar matrizes a transformações lineares, reduzindo as operações com transformações lineares a operações com matrizes, o que permite ganhar computabilidade. 1 Matriz de uma Transformação Linear Nesta seção, veremos que se V e W são espaços vetoriais de dimensão nita, com bases xadas, então uma transformação linear T : V → W pode ser representada por uma matriz. A vantagem de uma tal representação é que muitos problemas associados às transformações lineares entre espaços de dimensão nita podem ser resolvidos com a teoria das matrizes, como veremos na próxima seção e nos capítulos a seguir. Seja T : V →W uma transformação linear, em que dim V =n e dim W =m. Sejam α = {v1 , v2 , . . . , vn } e β = {w1 , w2 , . . . , wm } bases de V e W , respectivamente. Como β é uma base de W , podemos determinar de modo único números reais aij , com 1 ≤ i ≤ n, 1 ≤ j ≤ m, tais que T (vi ) = a1i w1 + · · · + aji wj + · · · + ami wm . (1) Tomemos agora v em V . Temos que v = k1 v1 + · · · + kn vn , em que ki ∈ R para 1 ≤ i ≤ n. Pela linearidade de T e por (1), segue que T (v) = k1 T (v1 ) + · · · + kn T (vn ) = k1 (a11 w1 + · · · + am1 wm ) + · · · + kn (a1n w1 + · · · + amn wm ) = (a11 k1 + · · · + a1n kn )w1 + · · · + (am1 k1 + · · · + amn kn )wm . Logo,   [T (v)]β =  a11 k1 + · · · + a1n kn .. .    am1 k1 + · · · + amn kn    a11 · · · a1n k1  ..   . α ..   ...  = .  = [T ]β · [v]α , am1 · · · amn kn (2) 152 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES onde denimos  a11  . [T ]αβ =  .. · · · a1n  ..  . .  am1 · · · amn A matriz [T ]αβ , que representa T em relação às bases α e β , é chamada a matriz de T nas bases α e β . Por (2), temos a expressão [T (v)]β = [T ]αβ · [v]α para todo v em V . (3) Observemos que [T ]αβ é uma matriz de ordem m × n tal que, para cada 1 ≤ i ≤ n, a i-ésima coluna de [T ]αβ é dada pelas coordenadas de T (vi ) na base β . Exemplo 1. Sejam α = {(1, 1), (0, 2)} e β = {(1, 0, 1), (0, 1, 0), (1, 2, 0)}, bases de R2 e R3 , respectivamente. Calculemos [T ]αβ , onde T : R2 → R3 é dada por T (x, y) = (2x, x − y, 2y). Como T é uma transformação linear de R2 em R3 , [T ]αβ é uma matriz 3 × 2, digamos   [T ]αβ a11 a12   = a21 a22  . a31 a32 Pelo que vimos, a11 , a21 e a31 são as coordenadas de T (1, 1) na base β e a12 , a22 e a32 são as coordenadas de T (0, 2) na base β . Ou seja, T (1, 1) = (2, 0, 2) = a11 (1, 0, 1) + a21 (0, 1, 0) + a31 (1, 2, 0) e T (0, 2) = (0, −2, 4) = a12 (1, 0, 1) + a22 (0, 1, 0) + a32 (1, 2, 0). Equivalentemente,     a11 + a31 = 2 a21 + 2a31 = 0    a11 = 2 e     a12 + a32 = 0 a22 + 2a32 = −2    a12 = 4 . 1. 153 MATRIZ DE UMA TRANSFORMAÇÃO LINEAR Resolvendo os sistemas lineares acima, obtemos a11 = 2, a21 = 0, Portanto, a31 = 0, a12 = 4, a22 = 6 e a32 = −4.   2 4   [T ]αβ = 0 6 . 0 −4 No exemplo anterior, determinamos [T ]αβ a partir da transformação linear T . No próximo exemplo, vamos considerar o problema inverso: dada a matriz [T ]αβ , determinar T a partir desta matriz. Exemplo 2. Sejam α e β as bases dadas no Exemplo 1. Determine a transformação linear T : R2 → R3 tal que   1 0   [T ]αβ = 1 2 . 0 1 Para determinar T usaremos a expressão (3). Assim, computemos inicialmente [v]α . Ora, se (x, y) ∈ R2 , então  (x, y) = x(1, 1) + o que nos dá Portanto, y−x 2  (0, 2),  x [(x, y)]α =  y − x  . 2       x 1 0 x     y  [T (x, y)]β = 1 2  y − x  =  y − x 2 0 1 2 e, consequentemente, 154 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES  T (x, y) = x(1, 0, 1) + y(0, 1, 0) +   y+x = , 2y − x, x . 2 y−x 2  (1, 2, 0) O Exemplo 2 pode ser resolvido por um outro método. De fato, sabemos que, na base β , a primeira coluna de [T ]αβ nos dá as coordenadas de T (1, 1) e a segunda coluna nos dá as coordenadas de T (0, 2). Assim, T (1, 1) = 1(1, 0, 1) + 1(0, 1, 0) + 0 · (1, 2, 0) = (1, 1, 1) e T (0, 2) = 0 · (1, 0, 1) + 2(0, 1, 0) + 1(1, 2, 0) = (1, 4, 0). Para (x, y) ∈ R2 arbitrário, temos  (x, y) = x(1, 1) + y−x 2  (0, 2). Agora, pela linearidade de T , segue que   y−x T (x, y) = x(1, 1, 1) + (1, 4, 0) 2   y+x , 2y − x, x , = 2 como encontrado anteriormente. Quando a transformação linear for de um espaço vetorial V nele mesmo, ela será chamada de operador em V . Exemplo 3. Consideremos o operador identidade em um espaço vetorial V ; isto é, o operador denido por IV (v) = v para todo v ∈ V . Tem-se que [IV ]αα é a matriz identidade de ordem n. De fato, para cada 1 ≤ j ≤ n, a j -ésima coluna de [IV ]αα é dada pelas coordenadas de IV (vj ) na base α. Mas, para cada 1 ≤ j ≤ n, IV (vj ) = vj = 0v1 + · · · + 0vj−1 + 1vj + 0vj+1 + · · · + 0vn , 1. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR 155 o que implica que [IV ]αα é a matriz identidade de ordem n:  1  0 .  ..  α [IV ]α =  0   .. . 0 ↑ ··· 0 0 ··· ··· 1 ··· ··· 0 ··· .. . .. . ↑  0  0 ..  .  . 0  ..  . 1 ↑ coordenadas coordenadas coordenadas de IV (v1 ) de IV (vj ) de IV (vn ) na base α na base α na base α Seja T : V → W uma transformação linear entre espaços vetoriais de dimensão nita. Vimos que, uma vez xadas bases α e β de V e W , respectivamente, existe uma única matriz [T ]αβ que representa T nessas bases. Uma pergunta natural é o que ocorre com a matriz [T ]αβ se diferentes bases são escolhidas. Consideremos a transformação linear dada no Exemplo 1. Se α e β são as bases canônicas de R2 e R3 , respectivamente, então   2 0   [T ]αβ = 1 −1 . 0 2 Assim, podemos ter matrizes diferentes representando uma mesma transformação linear. Isto deixa bastante claro que, embora uma transformação linear T : V → W não dependa de bases particulares escolhidas para V e W , a matriz associada depende dessas bases. Terminamos esta seção observando que escolhidas bases quaisquer α e β de Rn e Rm , respectivamente, uma matriz A ∈ M(m, n) dene uma transformação linear T : Rn → Rm como segue: [T (v)]β = A · [v]α , v ∈ Rn . 156 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES Mais ainda, tem-se que [T ]αβ = A (veja Problema 1.2). Em particular, se α e β são as bases canônicas de Rn e Rm , respectivamente, então a transformação linear T é chamada transformação multiplicação por A, sendo representada por TA . Exemplo 4. Seja A = [aij ] uma matriz de ordem m × n. Temos que     a11 a12 . . . a1n x1      a21 a22 . . . a2n   x2    TA (x1 , . . . , xn ) =  .. ..   ..   ..  . .  .  . am1 am2 . . . amn xn   a11 x1 + a12 x2 + · · · + a1n xn    a21 x1 + a22 x2 + · · · + a2n xn   =  ..   .   am1 x1 + am2 x2 + · · · + amn xn = x1 w 1 + x2 w 2 + · · · + xn w n , onde w1 , . . . , wn são os vetores colunas da matriz A. Assim, temos que Im TA é o subespaço de Rm gerado pelas colunas da matriz A, chamado espaço coluna de A e denotado por C(A). Por outro lado, o núcleo Ker TA de TA é o conjunto solução Sh (A) do sistema linear homogêneo AX = 0. Problemas 1.1 Dadas duas transformações lineares T, T 0 : V → W e bases α e β de V e W , respectivamente, mostre que se [T ]αβ = [T 0 ]αβ , então T = T 0 . 1.2* Sejam dados dois espaços vetoriais V e W de dimensões n e m, respec- tivamente. Seja α uma base de V e β uma base de W . Dada uma matriz A ∈ M(m, n), considere a função T : V → W denida por [T (v)]β = A[v]α , v ∈ V. 1. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR 157 Mostre que: (a) T é uma transformação linear; (b) [T ]αβ = A. 1.3 Sejam A e B matrizes em M(m, n) e β uma base de um espaço vetorial V . Mostre que se A[v]β = B[v]β para todo v ∈ V , então A = B . 1.4* Sejam T : Rn → Rm uma transformação linear e α e β bases de Rn e de Rm , respectivamente. Se r é o posto da matriz [T ]αβ , mostre que dim Im T = r e dim Ker T = n − r. 1.5 Dadas as bases α = {(1, 1, 1), (0, 1, 0), (0, 1, 1)} de R3 e β = {(1, 2), (0, 1)} de R2 , ache a transformação linear T : R3 → R2 tal que " # 1 0 2 [T ]αβ = . −1 −1 1 1.6 Dado o operador linear T : R3 → R3 , T (x, y, z) = (x − y, y − x, x − z), encontre [T ]αβ , onde α é a base canônica de R3 e β = {(1, 0, 1), (0, 1, 1), (1, 1, 0)}. 1.7 Seja T : R3 → R3 a multiplicação pela matriz   1 3 4    3 4 7 . −2 2 0 (a) Mostre que Ker T é uma reta que passa pela origem e encontre as equações paramétricas desta reta. (b) Mostre que Im T é um plano que passa pela origem e encontre a equação cartesiana deste plano. 1.8 Dado o operador linear T (x, y, z) = (x − 2y + z, −x + 4y − 2z, x) em R3 , com base α = {(1, 0, −1), (0, 1, 2), (1, 2, 0)}, encontre uma base β de R3 tal 158 CAPÍTULO 6. que TRANSFORMAÇÕES LINEARES E MATRIZES   1 0 0   [T ]αβ = 0 0 0 . 0 0 1 1.9 Seja T : R[x]2 → R[x]2 a transformação linear T (p(x)) = p(2x + 1) (veja Exemplo 6, Seção 1, Capítulo 5). Encontre [T ]ββ em relação à base β = {1, x, x2 }. 1.10 Suponha que V e W tenham dimensão nita. Mostre a matriz, em quaisquer bases de V e de W , da transformação nula 0 : V → W é a matriz nula. 1.11 Seja α = {v1 , v2 , v3 , v4 } uma base de um espaço vetorial V . Encontre a matriz [T ]αα da transformação linear T : V → V denida por T (v1 ) = v2 , T (v2 ) = v3 , T (v3 ) = v4 e T (v4 ) = v1 . 1.12 Seja T : R2 → M(2, 2) a transformação linear denida por  1 −2 −1 0   α [T ]β =  ,  2 1 1 −1  onde α e β são as bases canônicas de R2 e M(2, 2), respectivamente. (a) Determine os vetores v ∈ R2 tais que T (v) = I2 ; (b) Determine T (3, −1). 2 Operações com Transformações Lineares e Matrizes Sejam T e T 0 transformações lineares de V em W . Sejam α = {v1 , . . . , vn } e β = {w1 , . . . , wm } bases de V em W , respectivamente. Estamos interessados em vericar se existe alguma relação entre as matrizes [T + T 0 ]αβ , [T ]αβ e 2. OPERAÇÕES COM TRANSFORMAÇÕES LINEARES E MATRIZES 159 [T 0 ]αβ . Notemos que se 1 ≤ j ≤ n, então [(T + T 0 )(vj )]β = [T (vj ) + T 0 (vj )]β = [T (vj )]β + [T 0 (vj )]β , mostrando que a j -ésima coluna de [T + T 0 ]αβ é a soma da j -ésima coluna de [T ]αβ com a j -ésima coluna de [T ]αβ . Demonstramos assim o seguinte resultado: Proposição 6.2.1. Sejam T e T 0 transformações lineares de V em W , onde V e W são espaços vetoriais de dimensão nita. Se α e β são bases de V e W , respectivamente, então [T + T 0 ]αβ = [T ]αβ + [T 0 ]αβ . Deixamos como exercício para o leitor (veja Problema 2.3) demonstrar a próxima proposição, que é um resultado análogo ao anterior para a multiplicação por escalar de transformações lineares. Proposição 6.2.2. Seja T : V → W uma transformação linear, onde V e W são espaços vetoriais de dimensão nita. Se α e β são bases de V e W , respectivamente, então [kT ]αβ = k[T ]αβ , onde k é um número real arbitrário . Decorre, das duas proposições acima, que [T +kT 0 ]αβ = [T ]αβ +k[T 0 ]αβ , o que mostra, em virtude dos Problemas 1.1 e 1.2, da Seção 1, que dados espaços vetoriais V e W , de dimensões respectivamente, n e m, e xadas bases α de V e β de W , a aplicação L(V, W ) → M(m, n) T 7→ [T ]αβ é um isomorsmo de espaços vetoriais. Portanto, temos que dim L(V, W ) = dim M(m, n) = nm. No próximo resultado veremos que a composta de duas transformações lineares pode ser representada por um produto de matrizes. Esta é uma das principais razões da importância do estudo de matrizes. 160 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES Proposição 6.2.3. Sejam T : V → W e S : W → U transformações lineares, em que V, W e U são espaços vetoriais de dimensão nita. Se α, β e γ são bases de V, W e U , respectivamente, então [S ◦ T ]αγ = [S]βγ · [T ]αβ . (1) Demonstração Consideremos α = {v1 , . . . , vn }. Denotemos por Cj (M ) a j -ésima coluna de uma matriz M arbitrária. Se A e B são matrizes para as quais a matriz AB está denida, segue da denição de produto que Cj (AB) = A · Cj (B). (2) Para demonstrar (1) basta provar que, para cada j , com 1 ≤ j ≤ n, tem-se que Cj ([S ◦ T ]αγ ) = Cj ([S]βγ · [T ]αβ ). Ora, xe um índice j . De (2), segue que Cj ([S]βγ · [T ]αβ ) = [S]βγ · Cj ([T ]αβ ) = [S]βγ · [T (vj )]β . Por outro lado, de (3), da Seção 1, segue que Cj ([S ◦ T ]αγ ) = [(S ◦ T )(vj )]γ = [S(T (vj ))]γ = [S]βγ · [T (vj )]β , o que prova o desejado.  Exemplo 1. Sejam T : R2 → R3 e S : R3 → R2 transformações lineares cujas matrizes são  1 0   [T ]αβ =  2 1 −1 1  " e # 1 0 1 [S]βγ = , 0 0 1 sendo α = {(1, 0), (1, 1)}, β = {(1, 1, 1), (1, 0, 1), (0, 0, 1)} e γ = {(1, 0), (0, 2)}. Vamos encontrar a transformação linear S ◦ T . Para determinarmos S ◦ T , vamos primeiramente determinar [S ◦ T ]αγ . Pela Proposição 6.2.3,   # " # 1 0 1 0 1 0 1   [S ◦ T ]αγ = .  2 1 = 0 0 1 −1 1 −1 1 " 2. OPERAÇÕES COM TRANSFORMAÇÕES LINEARES E MATRIZES 161 Agora por (3), da Seção 1, temos que, para qualquer (x, y) ∈ R2 , " # 0 1 [(S ◦ T )(x, y)]γ = [(x, y)]α −1 1 " #" # 0 1 x−y = −1 1 y " # y = 2y − x e, consequentemente, (S ◦ T )(x, y) = y(1, 0) + (2y − x)(0, 2) = (y, 4y − 2x). Vimos que se T é uma transformação linear bijetiva, T −1 é também uma transformação linear. O resultado a seguir, que é uma consequência da Proposição 6.2.3, nos apresenta uma relação entre as matrizes que representam T e T −1 , quando xadas bases do domínio e do contradomínio de T . Teorema 6.2.4. Seja T : V → W um isomorsmo, onde V e W são espaços vetoriais de dimensão nita. Se α é uma base de V e β é uma base de W , então [T −1 ]βα = ([T ]αβ )−1 . Demonstração Como T −1 é a inversa de T , temos que T −1 ◦ T é a função identidade em V , ou seja, T −1 ◦ T = IV . Pela Proposição 6.2.3, [IV ]αα = [T −1 ◦ T ]αα = [T −1 ]βα · [T ]αβ . (3) Se dim V = n, pelo Exemplo 3, da Seção 1, temos que [IV ]αα é a matriz identidade de ordem n. Assim, de (3), segue-se que [T ]αβ é invertível e sua inversa é a matriz [T −1 ]βα .  Corolário 6.2.5. Seja T : V → W uma transformação linear, onde V e W são espaços vetoriais de mesma dimensão nita. Sejam α e β bases de V 162 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES e W , respectivamente. Temos que T é invertível se, e somente se, a matriz [T ]αβ é invertível. Demonstração Uma implicação resulta de (3). A outra, do fato que a transformação linear L(V, W ) → M(n, n), onde n = dim V = dim W , é sobrejetora e transforma composição de transformações lineares em produtos de matrizes.  Exemplo 2. Seja T : R2 → R2 a transformação linear dada por T (x, y) = (4x − 3y, −2x + 2y). Vamos vericar que T é invertível e vamos encontrar T −1 . Para vericarmos que T é invertível, podemos calcular Ker T e usar a Proposição 5.2.4, ou, ainda, podemos calcular [T ]αα , onde α é uma base qualquer de R2 , e usar o Corolário 6.2.5. Vamos aqui optar pelo segundo método. Ora, se α é a base canônica de R2 , então " # 4 −3 α [T ]α = . −2 2 Utilizando a técnica exposta logo após a Proposição 2.1.7, podemos vericar que a matriz acima é invertível e a sua inversa é a matriz " # 1 3/2 . 1 2 Portanto, devido ao Teorema 6.2.4, temos que " [T −1 ]αα = ([T ]αα )−1 # 1 3/2 = . 1 2 A transformação linear T −1 é, então, determinada usando a fórmula (3) da Seção 1, como segue: " #" # " # 3 1 3/2 x x + y 2 [T −1 (x, y)]α = [T −1 ]αα [(x, y)]α = = , 1 2 y x + 2y 3. OPERADORES LINEARES EM o que fornece Problemas 2.1 Sejam R2 E EM 163 R3 3 T −1 (x, y) = (x + y, x + 2y). 2   1 0 1   A = 0 2 −1 0 0 1  e  1 1 −1   B= 0 0 1 . −1 2 0 Determine a transformação linear T : R3 → R3 tal que TA = TB ◦ T . 2.2 Considere as matrizes   1 2   A = 0 1 1 −1  1 1 1   B = −1 0 0 . 1 2 1  e Determine: (a) Ker TA ; (b) Im TA ; (c) Ker TB ; (d) Im TB ; (e) Ker(TB ◦ TA ); (f) Im(TB ◦ TA ). 2.3 Prove a Proposição 6.2.2. 3 Operadores Lineares em R2 e em R3 Dentre os operadores lineares mais importantes em R2 e em R3 estão os que produzem reexões, projeções e rotações. A seguir, passamos a estudar alguns destes operadores. Reexões Consideremos o operador linear T : R2 → R2 , chamado de ree- xão em torno do eixo Ox, que transforma cada vetor v = (x, y) ∈ R2 em sua imagem simétrica em relação ao eixo Ox10 . Figura Se escrevermos w = T (v) = (w1 , w2 ), obtemos as equações w1 = x = 1x + 0y, w2 = −y = 0x − 1y. 164 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES Assim, se α denota a base canônica de R2 , segue que " # 1 0 [T (v)]α = [v]α . 0 −1 Em geral, os operadores lineares de R2 ou de R3 que levam cada vetor em seu simétrico em relação a alguma reta ou plano são chamados de reexões . Abaixo, apresentamos algumas das reexões mais comuns em R2 e R3 . Fixamos a notação α para denotar a base canônica de R2 ou de R3 . 3. R2 OPERADORES LINEARES EM Operador E EM 165 R3 Equações Matriz [T ]αα Reexão em torno do eixo Oy ( w1 = −x w2 = y " Reexão em torno da reta y = x ( " 0 1 w1 = y w2 = x # −1 0 0 1 1 0 # Reexão em torno do plano xOy    w1 = x w2 = y   w3 = −z   1 0 0   0 0 1 0 0 −1 Reexão em torno do plano yOz   w1 = −x w2 = y   w3 = z   −1 0 0    0 1 0 0 0 1 Reexão em torno do plano xOz    w1 = x w2 = −y   w3 = z   1 0 0   0 −1 0 0 0 1 Projeções Consideremos o operador linear T : R2 → R2 que transforma cada vetor v = (x, y) ∈ R2 em sua projeção ortogonal sobre o eixo Ox (Figura 11). Se escrevermos w = T (v) = (w1 , w2 ), obteremos as equações w1 = x = 1x + 0y, w2 = 0 = 0x + 0y. Assim, se α denota a base canônica de R2 , temos " # 1 0 [T (v)]α = [v]α . 0 0 Figura 11 Em geral, uma projeção (ou, mais precisamente, uma projeção ortogonal ) de R2 ou R3 é um operador linear que transforma cada vetor em sua projeção 166 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES ortogonal sobre alguma reta ou algum plano que passa pela origem. A seguir, apresentamos algumas das projeções mais comuns. Operador Equações Matriz [T ]αα Projeção sobre o eixo Oy ( " w1 = 0 w2 = y Projeção sobre o plano xOy   w 1 = x w2 = y   w3 = 0  Projeção sobre o plano yOz    w1 = 0 w2 = y   w3 = z  Projeção sobre o plano xOz   w 1 = x w2 = 0   w3 = z  0 0 0 1 #  1 0 0   0 1 0 0 0 0  0 0 0   0 1 0 0 0 1  1 0 0   0 0 0 0 0 1 Rotações Consideremos o operador linear T : R2 → R2 que gira cada vetor v = (x, y) ∈ R2 de um ângulo xado θ (Figura 12). T é chamado de rotação por θ em R2 . Figura 12 3. OPERADORES LINEARES EM R2 E EM R3 167 Se escrevermos w = T (v) = (w1 , w2 ), segue da trigonometria que x = r cos φ, y = r sen φ (1) w2 = r sen(θ + φ), (2) e w1 = r cos(θ + φ), onde r denota o comprimento de v e φ denota o ângulo entre v e o eixo Ox positivo no sentido anti-horário. Aplicando identidades trigonométricas em (2), temos ( w1 = r cos θ cos φ − r sen θ sen φ w2 = r sen θ cos φ + r cos θ sen φ. Substituindo (1) nas expressões acima, obtemos as equações ( w1 = x cos θ − y sen θ w2 = x sen θ + y cos θ. (3) Assim, se α denota a base canônica de R2 , obtemos " # cos θ − sen θ [T (v)]α = [v]α . sen θ cos θ Em geral, uma rotação de vetores em R3 é feita em relação a uma reta partindo da origem, chamada eixo de rotação . À medida que um vetor gira em torno do eixo de rotação, ele varre uma porção de um cone (Figura 13). 168 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES O ângulo de rotação , que é medido na base do cone, é descrito no sentido horário ou anti-horário em relação a um ponto de vista ao longo do eixo de rotação olhando para a origem. Por exemplo, na Figura 13, o vetor T (v) resulta da rotação no sentido anti-horário do vetor v em torno do eixo Ox por um ângulo θ. Assim como em R2 , os ângulos são positivos se gerados por rotações no sentido anti-horário e negativos se gerados por rotações no sentido horário. Figura 13 Na tabela a seguir, apresentamos as rotações em R3 cujos eixos de rotação são os eixos coordenados. 3. OPERADORES LINEARES EM Operador Rotação anti-horária em torno do eixo Ox por um ângulo θ R2 E EM 169 R3 Equações Matriz [T ]αα w1 = x w = y cos θ − z sen θ  2  w3 = y sen θ + z cos θ   1 0 0   0 cos θ − sen θ 0 sen θ cos θ    Rotação anti-horária em torno do eixo Oy por um ângulo θ    w1 = x cos θ + z sen θ w2 = y   w3 = −x sen θ + z cos θ  Rotação anti-horária em torno do eixo Oz por um ângulo θ   w1 = x cos θ − y sen θ w2 = x sen θ + y cos θ   w3 = z   cos θ 0 sen θ   1 0   0 − sen θ 0 cos θ  cos θ − sen θ 0   sen θ cos θ 0 0 0 1 Para cada uma das rotações na tabela acima, uma das componentes do vetor permanece inalterada durante a rotação e a relação entre as duas outras componentes pode ser deduzida da mesma forma que deduzimos (3). Sabemos que a multiplicação por escalar de um vetor em R2 e em R3 , dependendo do valor do escalar, produz no vetor uma dilatação, contração ou inversão. Podemos representar estes efeitos geométricos por meio de operadores lineares. De fato, o operador linear Ta : R2 → R2 , dado por Ta (v) = av , em que a ∈ R e v ∈ R2 , dilata v , se a ≥ 1; contrai v , se 0 ≤ a < 1; inverte o sentido de v , se a < 0. No caso particular de a = −1, o operador Ta é chamado reexão em torno da origem . O que acabamos de ver vale também para R3 (Figura 14). Figura 14 Exemplo 1. Determinemos se T1 ◦ T2 = T2 ◦ T1 , onde T1 : R2 → R2 é a projeção ortogonal sobre o eixo Ox e T2 : R2 → R2 é a projeção ortogonal sobre o eixo Oy . Como vimos na Seção 2, compor transformações lineares é equivalente a multiplicar as matrizes que representam estas transformações. Seja α a base 170 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES canônica de R2 . Como " 1 0 [T1 ]αα = 0 0 # " e # 0 0 [T2 ]αα = , 0 1 segue que T1 ◦ T2 é dada pelo produto " 1 0 0 0 #" # " # 0 0 0 0 = 0 1 0 0 (4) e que T2 ◦ T1 é dada pelo produto " 0 0 0 1 #" # " # 1 0 0 0 = . 0 0 0 0 (5) De (4) e (5), obtemos que T1 ◦ T2 e T2 ◦ T1 são o operador nulo em R2 . Portanto, T1 ◦ T2 = T2 ◦ T1 . Problemas 3.1* Encontre a matriz na base canônica para a composição de uma rotação de 90◦ seguida de uma reexão em torno da reta y = x, em R2 . 3.2* Determine a inversa do operador linear em R3 dado por uma reexão em torno do plano xOy . 3.3 Sejam T : R2 → R2 a reexão em torno do eixo Oy e S : R2 → R2 a reexão em torno do eixo Ox. Mostre que S ◦ T = T ◦ S . 4. MUDANÇA DE BASE E MATRIZES SEMELHANTES 171 3.4 Sejam T : R2 → R2 a reexão em torno da reta y = x e S : R2 → R2 a projeção ortogonal sobre o eixo Oy . Mostre que S ◦ T 6= T ◦ S . 3.5 Mostre que se T : R3 → R3 é uma projeção ortogonal sobre um dos eixos coordenados, então os vetores T (v) e v − T (v) são ortogonais, para cada v em R3 . 3.6 Seja T : R3 → R3 a projeção ortogonal sobre o plano xOy. Mostre que uma reta ortogonal ao plano xOy é levada por T a um mesmo ponto deste plano. 3.7 Determine a matriz na base canônica de T : R2 → R2 , em que (a) T dilata os vetores de R2 por 3, em seguida reete estes vetores em torno da reta y = x e depois projeta estes vetores ortogonalmente sobre o eixo Oy ; 1 , em seguida gira estes vetores pelo 2 π ângulo e depois reete estes vetores em torno do eixo Ox. 4 (b) T contrai os vetores de R2 por 4 Mudança de Base e Matrizes Semelhantes Um problema comum no estudo de espaços vetoriais de dimensão nita é conhecer as relações entre as coordenadas de um vetor em diferentes bases. Como a noção de base é a generalização para espaços vetoriais arbitrários da noção de sistemas de coordenadas em R2 e R3 , mudar de base é análogo a mudar de eixos coordenados em R2 ou R3 . Dado um espaço vetorial V arbitrário de dimensão nita e duas bases α e β de V , podemos obter uma relação entre as matrizes [v]α e [v]β de um vetor v em V , usando, para isto, o operador identidade em V . Com efeito, pela expressão (3) da Seção 1, para todo v ∈ V , temos que [v]β = [IV ]αβ · [v]α . (1) A matriz [IV ]αβ é chamada matriz mudança de base de α para β , pois, pela igualdade (1), ela nos permite obter as coordenadas de um vetor v em V em relação à base β uma vez conhecidas suas coordenadas na base α. 172 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES Exemplo 1. Considerando a base canônica α de R2 e a outra base β = {(1, 1), (1, 2)}, temos que " # a b 1 1 [IR2 ]αβ = , a2 b 2 onde a1 , a2 , b1 , b2 são números reais satisfazendo o sistema de equações    (1, 0) = a1 (1, 1) + a2 (1, 2)   (0, 1) = b1 (1, 1) + b2 (1, 2). Resolvendo as equações acima, obtemos a1 = 2, a2 = −1, b1 = −1 e b2 = 1. Portanto, " # [IR2 ]αβ = 2 −1 . −1 1 Seja agora v = (x, y) em R2 . Se " # x0 [v]β = 0 , y então " # " #" # x0 2 −1 x = , y0 −1 1 y o que garante que x0 = 2x − y e y 0 = −x + y são as coordenadas de v na base β . Ou seja, (x, y) = (2x − y)(1, 1) + (−x + y)(1, 2). A Figura 15 ilustra como a determinação do par (2,3) em R2 depende da base com a qual estamos trabalhando. 4. MUDANÇA DE BASE E MATRIZES SEMELHANTES 173 Figura 15 O próximo resultado mostra que uma matriz mudança de base é invertível e que sua inversa também é uma matriz mudança de base. Teorema 6.4.1. Sejam α e β duas bases de um espaço de dimensão nita V . Temos que a matriz [IV ]αβ é invertível e sua inversa é a matriz [IV ]βα . Ou seja, ([IV ]αβ )−1 = [IV ]βα . Demonstração Como IV é um isomorsmo e I−1 V = IV , o resultado segue do Teorema 6.2.4.  Sejam α e β duas bases de um espaço vetorial de dimensão nita V e T um operador linear em V . Com as matrizes mudança de base podemos obter uma relação entre as matrizes [T ]αα e [T ]ββ . De fato, como T = IV ◦T ◦ IV , segue, da Proposição 6.2.3, que [T ]αα = [IV ◦T ◦ TV ]αα = [IV ]βα · [T ]ββ · [IV ]αβ , ou seja [T ]αα = [IV ]βα · [T ]ββ · [IV ]αβ . (2) No entanto, pelo Teorema 6.4.1, temos que [IV ]βα é a inversa de [IV ]αβ . Assim, se denotarmos [IV ]αβ por P , a equação (2) pode ser reescrita como [T ]αα = P −1 [T ]ββ P . 174 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES Com isto, demonstramos o seguinte resultado: Teorema 6.4.2. Sejam α e β duas bases de um espaço vetorial de dimensão nita V . Se T é um operador linear em V , então (3) [T ]αα = P −1 · [T ]ββ · P, onde P = [IV ]αβ . A relação dada na expressão (3) é de tal importância que existe uma terminologia associada a ela. Sejam A e B matrizes quadradas de mesma ordem. Dizemos que B é semelhante a A, quando existir uma matriz invertível P tal que B = P −1 A P . É fácil vericar que se uma matriz B é semelhante a uma matriz A, então A também é semelhante a B . Assim, dizemos simplesmente que A e B são semelhantes . Por (3), temos que [T ]αα e [T ]ββ são semelhantes. Exemplo 2. Para vericar se as matrizes " # 5 2 A= −8 −3 " e 1 2 B= 0 1 # são semelhantes, devemos encontrar uma matriz invertível P tal que P A = BP. Se tal matriz P existir, ela necessariamente é uma matriz quadrada de ordem 2; digamos " # P = Assim, " x y z t x y . z t #" # " #" # 5 2 1 2 x y = , −8 −3 0 1 z t o que é equivalente ao sistema linear homogêneo    4x − 8y − 2z = 0 2x − 4y − 2t = 0   4z − 8t = 0, 4. MUDANÇA DE BASE E MATRIZES SEMELHANTES 175 que admite a solução não trivial (3, 1, 2, 1). Portanto, obtemos a matriz invertível " # P = 3 1 , 2 1 que satisfaz A = P −1 BP . Problemas 4.1 Sejam dadas as bases de R2 α = {(1, 1), (0, 2)}, β = {(1, 2), (2, 1)} e γ = {(1, 0), (0, 1)}.  α  α  γ (a) Determine IR2 β , IR2 γ , IR2 β . (b) Se v = (4, −1), encontre [v]β usando uma matriz mudança de base. 4.2 4.3 " # −1 2 Se IR2 β = e β = {(3, 5), (1, 2)}, encontre a base α. 4 −11  β Determine IR3 α , sabendo que  α  0 1 0  α   IR3 β = 1 1 0 . 1 1 1  4.4 Encontre três matrizes semelhantes à matriz " # 1 1 . −1 2 4.5 Mostre que não são semelhantes as matrizes " # 3 1 −6 −2 " e −1 1 # 2 . 0 4.6 Sejam A e B matrizes semelhantes. Prove que: (a) At e B t são semelhantes; (b) Se A e B são invertíveis, então A−1 e B −1 são semelhantes. 176 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES 4.7 Mostre que a semelhança de matrizes é uma relação de equivalência, ou seja: (i) A é semelhante a A; (ii) se A é semelhante a B , então B é semelhante a A; (iii) se A é semelhante a B e B a C , então A é semelhante a C . 4.8* Seja A = (aij ) uma matriz quadrada de ordem n. Dene-se o traço de A como tr A = a11 + · · · + ann . a) Mostre que tr : M(n, n) → R é um funcional linear. b) Se A, B ∈ M(n, n), mostre que tr AB = tr BA. c) Seja T : V → V um operador linear, onde V é um espaço n-dimensional, e seja α uma base de V . Dena tr T = tr[T ]αα . Mostre que esta denição independe da base de V escolhida; ou seja, se β é uma outra base de V , então tr[T ]αα = tr[T ]ββ . Conclua que assim temos bem denido um funcional linear tr : L(V, V ) → R, denido por T 7→ tr T . Bibliograa [1] H. P. Bueno, Álgebra Linear, um segundo curso , Coleção Textos Universitários, SBM, 2006. [2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna, 2001. [3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Matemática e Aplicações, IMPA, 2008. [4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção PROFMAT, SBM, 2012. [5] V. J. Katz, A History of Mathematics - an Introduction , HarperCollins College Publishers, 1993. [6] S. Lang, Introduction to Linear Algebra , 2nd edition, Undergraduate Texts in Mathematics, Springer, 1986. [7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária, IMPA, 1998. [8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2a edição, Coleção Matemática Universitária, IMPA, 2010. 300 7 Livro: Introdução à Álgebra Linear Autores: Abramo Hefez Cecília de Souza Fernandez Capítulo 7: Espaços com Produto Interno Sumário 1 Produto Interno 2 Ângulos entre Vetores e Ortogonalidade . . . . . . 181 3 Bases Ortonormais . . . . . . . . . . . . . . . . . . . 188 4 . . . . . . . . . . . . . . . . . . . . 178 3.1 Conjuntos Ortogonais . . . . . . . . . . . . . . . . 188 3.2 Ortogonalização de Gram-Schmidt . . . . . . . . . 192 Operadores em Espaços com Produto Interno . . 198 4.1 O Operador Adjunto . . . . . . . . . . . . . . . . . 199 4.2 Operadores Ortogonais . . . . . . . . . . . . . . . . 202 177 178 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO Neste capítulo, apresentaremos a noção de produto interno em espaços vetoriais. Esta noção, como veremos, generaliza a noção de produto escalar em R2 e em R3 e enriquece a estrutura de um espaço vetorial, permitindo denir vários conceitos de caráter geométrico previamente estudados em R2 e R3 . 1 Produto Interno Seja V um espaço vetorial. Um produto interno em V é uma função que a cada par de vetores u e v em V associa um número real, denotado por hu, vi, que satisfaz as seguintes condições: Para quaisquer vetores u, v e w de V e qualquer número real k , PI 1 hv, vi ≥ 0; PI 2 hv, vi = 0 se, e somente se, v = 0; PI 3 hu, vi = hv, ui; PI 4 hu + v, wi = hu, wi + hv, wi; PI 5 hku, vi = khu, vi. Um espaço vetorial com um produto interno é chamado, abreviadamente, de espaço com produto interno. Exemplo 1. Sejam u = (x1 , x2 , . . . , xn ) e v = (y1 , y2 , . . . , yn ) vetores em Rn . Denimos hu, vi = x1 y1 + x2 y2 + · · · + xn yn . (1) Note que hu, ui = x21 + · · · + x2n ≥ 0, e que hu, vi = x1 y1 + x2 y2 + · · · + xn yn = y1 x1 + y2 x2 + · · · + yn xn = hv, ui, mostrando que as condições 1 e 3 da denição de produto interno são satisfeitas. A condição 2 também é satisfeita já que hu, ui = x21 + · · · + x2n = 0 ⇐⇒ x1 = · · · = xn = 0 ⇐⇒ u = 0. 1. PRODUTO INTERNO 179 Se w = (z1 , z2 , . . . , zn ), então hu + v, wi = (x1 + y1 )z1 + (x2 + y2 )z2 + · · · + (xn + yn )zn = (x1 z1 + x2 z2 + · · · + xn zn ) + (y1 z1 + y2 z2 + · · · + yn zn ) = hu, wi + hv, wi, mostrando que a condição 4 é satisfeita. A condição 5 também é satisfeita, pois se k ∈ R, então hku, vi = (kx1 )y1 +(kx2 )y2 +· · ·+(kxn )yn = k(x1 y1 +x2 y2 +· · ·+xn yn ) = khu, vi. Assim, (1) dene um produto interno em Rn , chamado de produto interno usual de Rn ou produto escalar de Rn , generalizando a noção de produto escalar de R2 e de R3 . Sejam p(x) = a0 + a1 x + a2 x2 e q(x) = b0 + b1 x + b2 x2 vetores em R[x]2 . Dena Exemplo 2. hp(x), q(x)i = a0 b0 + a1 b1 + a2 b2 . (2) Temos que (2) dene um produto interno em R[x]2 . De fato, por meio do isomorsmo de espaços vetoriais, T: R[x]2 → R3 a0 + a1 x + a2 x2 7→ (a0 , a1 , a2 ) o produto hp(x), q(x)i não é outro que o produto interno usual de R3 . O próximo resultado apresenta algumas propriedades básicas dos produtos internos. Proposição 7.1.1. Seja V um espaço com produto interno. Se u, v, w ∈ V e se k ∈ R, então (i) h0, ui = hu, 0i = 0; (ii) hu, v + wi = hu, vi + hu, wi; (iii) hu, kvi = khu, vi; 180 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO (iv) hu, v − wi = hu, vi − hu, wi. Provaremos apenas (ii) e deixaremos os demais itens como exercício (ver Problema 1.3). De fato, pela condições PI 3 e PI 4 da denição de produto interno temos que Demonstração hu, v + wi = hv + w, ui = hv, ui + hw, ui = hu, vi + hu, wi.  Seja V um espaço com produto interno. Denimos a norma do vetor v de V , ou comprimento de v , denotado por ||v||, como o número real ||v|| = hv, vi1/2 . Se ||v|| = 1, dizemos que v é um vetor unitário . A distância d(u, v) entre dois vetores u e v de V é denida como d(u, v) = ||u − v|| = p hu − v, u − vi. Por exemplo, se u = (x1 , x2 , . . . , xn ) e v = (y1 , y2 , . . . , yn ) são vetores de R com o produto interno usual, então n 1/2 ||u|| = hu, ui q = x21 + x22 + · · · + x2n e d(u, v) = ||u − v|| = hu − v, u − vi1/2 p = (x1 − y1 )2 + (x2 − y2 )2 + · · · + (xn − yn )2 . Observe que, no caso de R2 e R3 , ||u|| e d(u, v) são precisamente a norma e a distância usuais de R2 e de R3 . Problemas 1.1* Sejam u = (x1 , x2 ) e v = (y1 , y2 ) vetores em R2 . 2. ÂNGULOS ENTRE VETORES E ORTOGONALIDADE (a) Mostre que hu, vi = 181 1 1 x1 y1 + x2 y2 9 4 dene um produto interno em R2 . (b) Esboce o círculo unitário no sistema de coordenadas xy em R2 , usando a distância obtida a partir do produto interno em (a). (c) Esboce o círculo unitário no sistema de coordenadas xy em R2 , usando a distância obtida a partir do produto interno usual. (d) Você nota alguma diferença entre os círculos obtidos em (a) e em (b)? 1.2 Sejam u = (x1 , x2 ) e v = (y1 , y2 ) vetores em R2 . Mostre que as expressões a seguir denem produtos internos em R . 2 (a) hu, vi = 3x1 y1 + 5x2 y2 . (b) hu, vi = 4x1 y1 + x2 y1 x1 y2 + 4x2 y2 . 1.3 Conclua a demonstração da Proposição 7.1.1. 1.4 Suponha que u, v e w sejam vetores tais que hu, vi = 2, hu, wi = −3, hv, wi = 5, ||u|| = 1, ||v|| = 2 e ||w|| = 1. Calcule o valor de cada uma das seguintes expressões: (a) hu + v, v + wi; 2 (b) h2v + w, 2u − vi; (c) ||u + v + w||. Ângulos entre Vetores e Ortogonalidade Recordemos que no Capítulo 4 vimos que o ângulo θ, com 0 ≤ θ ≤ π , entre dois vetores não nulos u e v em R3 , dotado do produto escalar, satisfaz a igualdade u·v cos θ = · (1) ||u|| ||v|| Nosso primeiro objetivo nesta seção será o de denir o conceito de ângulo entre dois vetores não nulos de um espaço com produto interno, utilizando 182 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO (1), onde o produto escalar é substituído pelo produto interno. Para que uma tal denição faça sentido, devemos assegurar que |hu, vi| ≤1 ||u|| ||v|| para quaisquer dois vetores não nulos u e v de V . Veremos, no próximo resultado, que isto sempre ocorre. Teorema 7.2.1. (Desigualdade de Cauchy-Schwarz) Se u e v são ve- tores de um espaço com produto interno V , então |hu, vi| ≤ ||u|| ||v||, (2) com igualdade valendo se, e somente se, u e v são linearmente dependentes. Demonstração A desigualdade é clara se u é o vetor nulo de V . Suponhamos, então, u diferente do vetor nulo. Para qualquer t ∈ R, temos que htu + v, tu + vi ≥ 0, ou seja, para qualquer t ∈ R, hu, uit2 + 2hu, vit + hv, vi ≥ 0. (3) Denamos p(t) = hu, uit2 + 2hu, vit + hv, vi, t ∈ R. Por (3), p é uma função polinomial não negativa. Além disso, como o coeciente do termo quadrático é não negativo, segue que o discriminante ∆ de p(t) é um número real não positivo. Portanto, ∆ = 4hu, vi2 − 4hu, uihv, vi = 4hu, vi2 − 4||u||2 ||v||2 ≤ 0, o que equivale a hu, vi2 ≤ ||u||2 ||v||2 . Extraindo a raiz quadrada em ambos os lados da desigualdade acima, obtemos (2). Deixaremos a parte que trata da igualdade em (2) como exercício (cf. Problema 2.3)  2. ÂNGULOS ENTRE VETORES E ORTOGONALIDADE 183 Cabe observar que o Teorema 7.2.1 foi provado, em 1821, por Augustin Cauchy (França, 1789 - 1857) para V = Rn , com o produto interno usual. O resultado geral, para um espaço com produto interno arbitrário, foi provado em 1885, por Hermann Schwarz (Alemanha, 1843 - 1921). Vamos agora denir a noção de ângulo em espaços com produto interno arbitrários. Suponhamos que u e v são vetores não nulos de um espaço com produto interno V . Dividindo ambos os lados da desigualdade (2) por ||u|| ||v||, obtemos |hu, vi| ≤1 ||u|| ||v|| ou, equivalentemente, −1 ≤ hu, vi ≤ 1. ||u|| ||v|| (4) Como cos θ assume, uma única vez, cada valor no intervalo [−1, 1] quando θ varia no intervalo [0, π], segue de (4) que existe um único θ ∈ [0, π] tal que cos θ = hu, vi · ||u|| ||v|| (5) Denimos o ângulo entre u e v como o número real θ acima mencionado. Parece estranho denir a norma de um vetor e o ângulo entre dois vetores em um espaço vetorial abstrato com produto interno, já que em geral não temos uma representação geométrica associada a estes espaços. Contudo, muitas denições e teoremas básicos da Geometria continuam valendo neste grau de generalidade. Por exemplo, sabemos da Geometria de R2 que o comprimento de um lado de um triângulo não excede a soma dos comprimentos dos outros dois (Figura 16(a)). Veremos a seguir que este resultado vale em todos os espaços com produto interno (veja Proposição 7.2.2(iv)). Um outro resultado da Geometria arma que a soma dos quadrados das diagonais de um paralelogramo coincide com a soma dos quadrados dos quatro lados (Figura 16(b)). Este resultado também vale em qualquer espaço com produto interno (veja Problema 2.2). Figura 16(a) Figura 16(b) 184 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO Assim, o produto interno é uma noção que enriquece a estrutura de um espaço vetorial, permitindo generalizar várias noções de caráter geométrico em R2 e em R3 para espaços vetoriais mais gerais. Se u e v são vetores em um espaço V com produto interno e se k ∈ R, então: Proposição 7.2.2. (Propriedades da norma) (i) ||u|| ≥ 0; (ii) ||u|| = 0 se, e somente se, u = 0; (iii) ||ku|| = |k| ||u||; (iv) ||u + v|| ≤ ||u|| + ||v|| (desigualdade triangular). Provaremos o item (iv) e deixaremos os demais itens como exercícios (veja Problema 2.4). Temos Demonstração ||u + v||2 = hu + v, u + vi = hu, ui + hu, vi + hv, ui + hv, vi = ||u||2 + 2hu, vi + ||v||2 ≤ ||u||2 + 2|hu, vi| + ||v||2 , (6) pois x ≤ |x| para todo x ∈ R. Por (2), ||u||2 + 2|hu, vi| + ||v||2 ≤ ||u||2 + 2||u|| ||v|| + ||v||2 = (||u|| + ||v||)2 . (7) De (6) e (7), segue que ||u + v||2 ≤ (||u|| + ||v||)2 . Extraindo as raízes quadradas em ambos os lados da desigualdade acima obtemos a desigualdade desejada.  2. ÂNGULOS ENTRE VETORES E ORTOGONALIDADE 185 No próximo resultado apresentamos algumas propriedades da noção de distância entre dois vetores de um espaço com produto interno. A vericação dessas propriedades é simples e usa a Proposição 7.2.2. Portanto, deixaremos a sua demonstração como exercício para o leitor (veja Problema 2.5). Proposição 7.2.3. (Propriedades da distância) Se u, v e w são vetores em um espaço com produto interno V , então: (i) d(u, v) ≥ 0; (ii) d(u, v) = 0 se, e somente se, u = v ; (iii) d(u, v) = d(v, u); (iv) d(u, v) ≤ d(u, w) + d(w, v) (desigualdade triangular). O próximo objetivo desta seção é denir a noção de ortogonalidade em um espaço com produto interno. Comecemos com a noção de ortogonalidade entre dois vetores. Sejam u e v dois vetores não nulos de um espaço com produto interno V e seja θ o ângulo entre eles. Segue de (5) que cos θ = 0 se, e somente se, hu, vi = 0. Equivalentemente, temos θ = π/2 se, e somente se hu, vi = 0. Convencionamos que se u ou v é o vetor nulo, o ângulo entre eles é π/2. Assim, dizemos que dois vetores quaisquer u e v em V são ortogonais quando hu, vi = 0. A seguir, introduziremos a noção de ortogonalidade entre um vetor e um subespaço. Sejam v um vetor de V e W um subespaço de V . Dizemos que v é ortogonal a W se v é ortogonal a cada vetor de W . O conjunto de todos os vetores de V que são ortogonais a W é chamado complemento ortogonal de W e é denotado por W ⊥ . Seja R3 com o produto interno usual e seja W o plano de equação cartesiana x + y + z = 0. O vetor v = (1, 1, 1) é ortogonal a W , pois v é um vetor normal a este plano. Para determinarmos W ⊥ , devemos Exemplo 1. 186 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO encontrar um vetor (a, b, c) em R3 que seja ortogonal a todo vetor de W . Como um vetor de W é da forma (−y − z, y, z), para y, z ∈ R, devemos encontrar (a, b, c) tal que (−y − z, y, z) · (a, b, c) = 0 Fazendo, na igualdade acima, y = 0 e z = 1, obtemos a = c; e, fazendo y = 1 e z = 0, obtemos a = b. Portanto, W ⊥ = {(a, a, a); a ∈ R}, ou seja, W ⊥ é a reta que passa pela origem que tem v como um vetor diretor. Terminamos esta seção apresentando algumas propriedades do complemento ortogonal. Proposição 7.2.4. Seja W um subespaço de um espaço com produto interno V . Então: (i) W ⊥ é um subespaço de V ; (ii) W ∩ W ⊥ = {0}; (iii) (W ⊥ )⊥ = W . Provaremos apenas (i), deixando as demonstrações das demais propriedades para o leitor (veja Problema 2.10). Primeiramente, é claro que 0 ∈ W ⊥ . Tomemos u e v em W ⊥ e a em R. Se w ∈ W , então Demonstração hu + av, wi = hu, wi + ahv, wi = 0 + a0 = 0, mostrando que u + av é ortogonal a w. Como w ∈ W foi tomado de modo arbitrário, temos que u + av é ortogonal a cada vetor de W , ou seja u + av está em W ⊥ . Pelo Corolário 3.1.2, segue que W ⊥ é um subespaço de V .  No Capítulo 1 tivemos a oportunidade de mostrar que dois sistemas lineares homogêneos com matrizes associadas equivalentes possuem conjuntos de 2. ÂNGULOS ENTRE VETORES E ORTOGONALIDADE 187 soluções iguais. Vamos, no exemplo a seguir, mostrar que vale uma recíproca dessa propriedade. Seja dado um sistema linear homogêneo AX = 0, com m equações e n incógnitas cujo espaço solução é denotado por Sh (A). Chamemos de TA a transformação linear de Rn para Rm determinada por A e pelas bases canônicas dos dois espaços vetoriais (cf. Exemplo 4, Seção 1 do Capítulo 6). Como as soluções do sistema são os vetores de Rn que são ortogonais aos vetores linhas de A, temos, pelo Problema 2.11, que Sh (A) = (L(A))⊥ . Exemplo 2. Problemas 2.1 Suponha que R3 e R4 têm o produto interno usual. Em cada item abaixo, encontre o cosseno do ângulo entre u e v : (a) u = (−1, 5, 2) e v = (2, 4, −9); (b) u = (1, 0, 1, 0) e v = (1, 1, 1, 1); (c) u = (2, 1, 0, −1) e v = (4, 0, 0, 0). Mostre que a seguinte identidade vale para quaisquer vetores u e v de um espaço com produto interno: 2.2* ||u + v||2 + ||u − v||2 = 2||u||2 + 2||v||2 . Mostre que vale a igualdade na desigualdade de Cauchy-Schwarz se, e somente se, u e v são linearmente dependentes. 2.3 2.4 Conclua a demonstração da Proposição 7.2.2. 2.5 Prove a Proposição 7.2.3. Use a desigualdade de Cauchy-Schwarz para mostrar, para quaisquer valores reais de a, b e θ, que 2.6 (a cos θ + b sen θ)2 ≤ a2 + b2 . Seja {v1 , v2 , . . . , vn } uma base de um espaço com produto interno V . Mostre que o vetor nulo de V é o único vetor de V que é ortogonal a todos os vetores da base. 2.7 188 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO Seja V um espaço com produto interno. Mostre que se u e v são vetores √ ortogonais de V tais que ||u|| = ||v|| = 1, então ||u − v|| = 2. 2.8 (Uma generalização do Teorema de Pitágoras) Seja {v1 , v2 , . . . , vn } um conjunto ortogonal de vetores de um espaço com produto interno. Então 2.9* ||v1 + v2 + · · · + vn ||2 = ||v1 ||2 + ||v2 ||2 + · · · + ||vn ||2 . 2.10 Conclua a demonstração da Proposição 7.2.4. Seja β um conjunto de geradores de W , onde W é um subespaço de um espaço com produto interno V . Mostre que W ⊥ consiste de todos os vetores de V que são ortogonais a cada vetor do conjunto β . 2.11 Seja W o subespaço de R5 gerado pelos vetores u = (1, 2, 3, −1, 2) e v = (2, 1, 3, 2, −1). Determine uma base de W ⊥ . 2.12* Suponha que R4 tem o produto interno usual e seja v = (1, −1, 0, −2). Determine se v é ortogonal ao subespaço de R4 gerado pelos vetores v1 = (−1, 1, 3, 0) e v2 = (4, 0, 2, 2). 2.13 Seja W o plano de equação cartesiana x − 2y − 3z − 1 = 0. Obtenha as equações paramétricas para W ⊥ . 2.14 3 Bases Ortonormais Veremos nesta seção que um espaço vetorial, com produto interno, possui bases que se destacam das demais, chamadas de bases ortonormais. Trabalhar com este tipo de base torna V geometricamente muito parecido com o espaço Rn , onde n = dim V . Ao longo desta seção, V será sempre um espaço com produto interno h , i, de dimensão nita n > 0. 3.1 Conjuntos Ortogonais Um conjunto de vetores em V é chamado conjunto ortogonal se quaisquer dois vetores distintos do conjunto são ortogonais. 3. 189 BASES ORTONORMAIS Por exemplo, o conjunto {(1, 2, 1), (2, 1, −4), (3, −2, 1)} é um conjunto ortogonal em R3 com seu produto interno usual. Um conjunto ortogonal no qual cada vetor tem norma 1 é chamado conjunto ortonormal . Se v é um vetor não nulo em um espaço com produto interno, segue da Proposição 7.2.2(iii) que o vetor ||v||−1 v tem norma 1. O processo de multiplicar um vetor não nulo pelo inverso de sua norma para obter um vetor de norma 1 é chamado de normalização . Assim, um conjunto ortogonal de vetores não nulos pode ser sempre transformado em um conjunto ortonormal, normalizando-se cada um de seus vetores. O próximo resultado relaciona a noção de ortogonalidade com a noção de independência linear. Todo conjunto ortogonal de vetores não nulos de V é linearmente independente. Demonstração Seja {v1 , . . . , vr } um conjunto de vetores ortogonais de V com produto interno. Consideremos a equação Proposição 7.3.1. a1 v1 + a2 v2 + · · · + ar vr = 0. Vamos mostrar que ai = 0, para todo 1 ≤ i ≤ r. Fixe 1 ≤ i ≤ r. Então, ha1 v1 + · · · + ar vr , vi i = a1 hv1 , vi i + · · · + ai hvi , vi i + ai+1 hvi+1 , vi i + · · · + ar hvr , vi i = ai hvi , vi i, (1) já que hvj , vi i = 0 sempre que j 6= i. Por outro lado ha1 v1 + a2 v2 + · · · + ar vr , vi i = h0, vi i = 0. (2) De (1) e (2), segue que ai hvi , vi i = 0 e como vi é um vetor não nulo, temos necessariamente que ai = 0. Como i foi tomado de modo arbitrário em seu intervalo de variação, o resultado segue.  A recíproca do resultado acima é obviamente falsa, pois, por exemplo, o conjunto {(1, 1), (1, 0)} de vetores em R2 com o produto interno usual é linearmente independente, mas não é um conjunto ortogonal. 190 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO Se α={v1 , . . . , vn } é um conjunto ortogonal de vetores não nulos de V , segue da proposição anterior que α é uma base de V . Uma base consistindo de vetores ortogonais é chamada base ortogonal e uma base consistindo de vetores ortonormais é chamada base ortonormal. Por exemplo, a base canônica de Rn com o produto interno usual é uma base ortonormal. Vimos que se V é um espaço vetorial e α é uma base de V então, em geral, é necessário resolver um sistema linear a m de escrever um vetor de V em termos da base α. O próximo resultado mostra que quando V é um espaço com produto interno e α é uma base ortonormal de V , então é bastante simples encontrar as coordenadas de um vetor de V em relação a base α. Se α={v1 , v2 , . . ., vn } é uma base ortonormal de V , então, para todo v ∈ V , podemos escrever Teorema 7.3.2. v = hv, v1 iv1 + hv, v2 iv2 + · · · + hv, vn ivn . Seja v = a1 v1 + a2 v2 + · · · + an vn a escrita de v na base α. Fixe i, com 1 ≤ i ≤ n. Temos Demonstração hv, vi i = ha1 v1 + a2 v2 + · · · + an vn , vi i = a1 hv1 , vi i + · · · + ai hvi , vi i + · · · + an hvn , vi i = ai , já que hvj , vi i = 0 se j 6= i e hvi , vi i = ||vi ||2 = 1. Como i foi tomado de modo arbitrário, a demonstração está completa.  Se β = {v1 , v2 , . . . , vn } é uma base ortogonal de V , normalizando cada um dos vetores de β , obtemos a base ortonormal α de V , onde  α= v2 vn v1 , ,..., ||v1 || ||v2 || ||vn ||  . Pelo Teorema 7.3.2, para cada vetor v em V , temos que v1 v1 vn vn i + · · · + hv, i ||v1 || ||v1 || ||vn || ||vn || hv, v1 i hv, vn i = v1 + · · · + vn . 2 ||v1 || ||vn ||2 v = hv, 3. 191 BASES ORTONORMAIS O número real ai = hv, vi i ||vi ||2 é chamado de coeciente de Fourier1 de v em relação ao vetor vi . Este escalar admite uma interpretação geométrica relacionada com a noção de projeção. Para apresentarmos esta interpretação geométrica, vamos precisar do seguinte resultado. Proposição 7.3.3. Seja w um vetor não nulo de V . Se v ∈ V , então k= hv, wi hv, wi = hw, wi ||w||2 (3) é o único número real tal que v 0 = v − kw é ortogonal a w. Demonstração Para que v 0 seja ortogonal a w devemos ter hv−kw, wi=0, ou seja, hv, wi = khw, wi, mostrando que k = ponhamos que k = hv, wi · Reciprocamente, suhw, wi hv, wi · Então, hw, wi hv − kw, wi = hv, wi − khw, wi = hv, wi − hv, wi hw, wi = 0, hw, wi o que mostra que v − kw é ortogonal a w.  O escalar k em (3) é o coeciente de Fourier de v em relação ao vetor w. A projeção de v ao longo de w (Figura 17) é denotada por projw (v) e é denida por projw (v) = kw = Figura 17 hv, wi w. hw, wi O próximo resultado, cuja demonstração é deixada como exercício (veja Problema 3.2), generaliza a Proposição 7.3.3. 1 Em homenagem a Jean-Baptiste Fourier (França, 1768 - 1830), conhecido na Matemática por iniciar a investigação sobre o desenvolvimento de funções periódicas em séries trigonométricas convergentes, chamadas séries de Fourier, e sua aplicação aos problemas de condução de calor. 192 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO Suponhamos que {w1 , w2 , . . . , wr } seja um conjunto ortogonal de vetores não nulos de V . Se v ∈ V , então Proposição 7.3.4. ki = hv, wi i , ||wi ||2 1 ≤ i ≤ r, são os únicos números reais tais que o vetor v 0 = v − k1 w1 − k2 w2 − · · · − kr wr é ortogonal aos vetores w1 , w2 , . . . , wr . 3.2 Ortogonalização de Gram-Schmidt Vimos na seção anterior que trabalhar com bases ortonormais é bastante conveniente. Veremos a seguir que todo espaço com produto interno, não nulo, de dimensão nita tem uma base ortonormal. A construção dada na prova do resultado abaixo é chamada de processo de ortogonalização de Gram-Schmidt, pois leva os nomes de Jorgen Pedersen Gram (Dinamarca, 1850 - 1916) e de Erhard Schmidt (Alemanha, 1876 - 1959). Cabe observar que a construção de Gram-Schmidt pode ser encontrada, de modo implícito, em trabalhos de Pierre Simon Laplace2 e de Cauchy. 2 Pierre Simon Laplace (França 1749  1827) foi um importante matemático, físico e astrônomo, conhecido por suas contribuições à mecânica celeste à teoria de probabilidades, bem como por suas aplicações da matemática à física. 3. 193 BASES ORTONORMAIS Teorema 7.3.5. Demonstração O espaço V possui uma base ortogonal. Seja {v1 , v2 , . . . , vn } uma base de V . Tomemos (veja Figura 18) w 1 = v1 , hv2 , w1 i w1 , ||w1 ||2 hv3 , w1 i hv3 , w2 i w 3 = v3 − w1 − w2 , 2 ||w1 || ||w2 ||2 w 2 = v2 − .. . w n = vn − hvn , wn−1 i hvn , w1 i w1 − · · · − wn−1 . 2 ||w1 || ||wn−1 ||2 Pela Proposição 7.3.4, o conjunto {w1 , w2 , . . . , wn } é um conjunto ortogonal. Além disso, como o conjunto {v1 , v2 , . . . , vn } é linearmente independente, cada vetor wi é não nulo. Assim, o conjunto {w1 , w2 , . . . , wn } é um conjunto ortogonal de vetores não nulos de V . Como, por denição, n = dim V , segue pela Proposição 7.3.1 que {w1 , w2 , . . . , wn } é uma base ortogonal de V .  Figura 18 Decorre da proposição acima que se V tem uma base ortogonal, ele tem uma base ortonormal, pois os vetores de uma base ortogonal podem ser normalizados para produzir uma base ortonormal de V . 194 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO Considere R3 com o produto interno usual. Apliquemos o processo de Gram-Schmidt ao conjunto {(1, 0, 0), (1, 1, 1), (0, 0, 1)} para obtermos uma base ortogonal {w1 , w2 , w3 } de R3 . Façamos Exemplo 1. w1 = (1, 0, 0), w2 = (1, 1, 1) − h(1, 1, 1), (1, 0, 0)i (1, 0, 0) = (0, 1, 1), ||(1, 0, 0)||2 w3 = (0, 0, 1) − h(0, 0, 1), (1, 0, 0)i (1, 0, 0) ||(0, 1, 1)||2 h(0, 0, 1), (0, 1, 1)i − (0, 1, 1) = ||(0, 1, 1)||2   1 1 0, − , . 2 2 Assim, {(1, 0, 0), (0, 1, 1), (0, − 21 , 21 )} é uma base ortogonal de R3 . Uma consequência importante do Teorema 7.3.5, que demonstraremos a seguir, é o fato de que V =W ⊕W ⊥ , onde W é um subespaço de V . Em outras palavras, cada vetor v de V pode ser escrito de modo único como v = w1 + w2 , (4) onde w1 ∈ W e w2 ∈ W ⊥ . O vetor w1 é chamado projeção ortogonal de v em W e é denotado por projW (v). O vetor w2 é chamado componente de v ortogonal a W e é denotado por projW ⊥ (v) (Figura 19). Por (4), temos então Figura 19 que v = projW (v) + projW ⊥ (v). Teorema 7.3.6. Se W é um subespaço de V , então V = W ⊕ W ⊥. Pela Proposição 7.2.4(ii), W ∩ W ⊥ = {0}. Vejamos que V = W + W ⊥ . Pelo processo de ortogonalização de Gram-Schmidt, existe Demonstração 3. BASES ORTONORMAIS 195 uma base ortonormal {v1 , v2 , . . . , vn } de W . Tomemos v ∈ V . Dena w1 = hv, v1 iv1 + hv, v2 iv2 + · · · + hv, vn ivn , w2 = v − w1 . Note que w1 + w2 = w1 + (v − w1 ) = v . Além disso, w1 ∈ W , pois w1 é uma combinação linear dos vetores da base de W . Portanto, resta mostrar que w2 ∈ W ⊥ , ou seja, w2 é ortogonal a W . Para isto, seja w ∈ W . Pelo Teorema 7.3.2, w = hw, v1 iv1 + hw, v2 iv2 + · · · + hw, vn ivn . Assim, hw2 , wi = hv − w1 , wi = hv, wi − hw1 , wi = hw, v1 ihv, v1 i + · · · + hw, vn ihv, vn i  − hv, v1 ihv1 , wi + · · · + hv, vn ihvn , wi = 0. Como w ∈ W foi tomado de modo arbitrário, segue que w2 é ortogonal a W .  Retomemos o Exemplo 1 da Seção 2, onde V = R3 e onde W = {(x, y, z); x + y + z = 0} e W ⊥ = {(x, y, z); x = y = z}. Note que W ∩ W ⊥ = {0}. Exemplo 2. 196 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO Como dim(W + W ⊥ ) = dim W + dim W ⊥ − dim(W ∩ W ⊥ ), segue que dim(W + W ⊥ ) = 3, já que temos dim W = 2, dim W ⊥ = 1 e dim(W ∩ W ⊥ ) = 0. Portanto, W + W ⊥ = R3 . Consequentemente, temos que R3 = W ⊕ W ⊥ , como aliás deveria ser pelo Teorema 7.3.6. Para cada (x, y, z) ∈ R3 , temos que (x, y, z) = 2x−y−z −x+2y−z −x−y+2z , , 3 3 3 + x+y+z x+y+z x+y+z , 3 , 3 3   ∈ W + W ⊥. Mais ainda, a escrita acima é única. Em outras palavras, todo vetor de R3 se expressa, de forma única, como a soma de um elemento e W com um elemento de W ⊥ . A gura abaixo mostra a decomposição do vetor (0, 3, 0). Figura 20 Seja AX = 0 um sistema m×n de equações lineares homogêneo, cujo conjunto solução denotamos por Sh (A). Seja TA a transformação linear associada à matriz A. Sabemos (cf. Exemplo 2, Seção 2) que Exemplo 3. Ker TA = Sh (A) = (L(A))⊥ . Por outro lado, pelo Exemplo 4, Seção 1, Capítulo 6, temos que Im TA = C(A). 3. 197 BASES ORTONORMAIS Pelo Teorema do Núcleo e da Imagem, temos que n = dim Ker TA + dim Im TA = dim(L(A))⊥ + dim C(A). Pelo Teorema 7.3.6, temos que n = dim L(A) + dim(L(A))⊥ = pA + dim Sh (A). Daí decorre que dim Sh (A) = n − pA , e que dim C(A) = dim L(A). Assim, o posto por linhas de uma matriz A, que por denição é igual à dimensão do espaço linha L(A) de A, coincide com o posto de A por colunas, ou seja com a dimensão do espaço coluna C(A) da matriz A. Problemas Seja V um espaço com produto interno de dimensão nita n. Se α é uma base ortonormal de V e se 3.1*   a1    a2   [v]α =   ..  . an e   b1    b2   [w]α =   ..  , . bn então: p a21 + a22 + · · · + a2n ; p (b) d(v, w) = (a1 − b1 )2 + (a2 − b2 )2 + · · · + (an − bn )2 ; (a) ||v|| = (c) hv, wi = a1 b1 + a2 b2 + · · · + an bn . O exercício anterior mostra que trabalhando com bases ortonormais, o cálculo de normas e produtos internos arbitrários se reduz ao cálculo de normas e produtos internos das matrizes das coordenadas, como em Rn com sua norma e produto interno usuais . 198 CAPÍTULO 7. 3.2 Prove a Proposição 7.3.4. 3.3 Mostre que os vetores  v1 =  4 3 , ,0 , 5 5 ESPAÇOS COM PRODUTO INTERNO  v2 =  3 4 − , , 0 e v3 = (0, 0, 1) 5 5 formam uma base ortonormal para R3 com o produto interno usual. Em seguida, expresse o vetor v = (1, −1, 2) nesta base. Seja W um subespaço de dimensão nita de um espaço com produto interno V . Prove que: (a) Se {w1 , w2 , . . . , wn } é uma base ortonormal de W e v é um vetor qualquer de V , então projW (v) = hv, w1 iw1 + hv, w2 iw2 + · · · + hv, wn iwn ; (b) Se {w1 , w2 , . . . , wn } é uma base ortogonal de W e v é um vetor qualquer de V , então 3.4* projW (v) = hv, w2 i hv, wn i hv, w1 i w1 + w2 + · · · + wn . 2 2 ||w1 || ||w2 || ||wn ||2 Considere R4 com o produto interno usual. Use o processo de GramSchmidt para transformar a base {v1 , v2 , v3 , v4 } em uma base ortogonal, onde 3.5 v1 = (0, 2, 1, 0), v2 = (1, −1, 0, 0), v3 = (1, 2, 0, −1) e v4 = (1, 0, 0, 1). 3.6 Seja W o subespaço de R4 gerado pelos vetores v1 = (1, 1, 1, 1), v2 = (1, −1, 2, −2) e v3 = (−1, −5, 1, −7). Ache a projeção ortogonal de v = (1, 2, −3, 4) em W . Construa, a partir do vetor v = (2, 1, 0), uma base ortonormal de R3 com o produto interno usual. 3.7 4 Operadores em Espaços com Produto Interno Nesta seção, vamos denir importantes operadores em espaços com produto interno. Mais precisamente, mostraremos a existência do operador adjunto de um operador linear e, a partir deste, introduzir as noções de operadores simétricos e operadores ortogonais. Estes operadores estão relacionados 4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 199 com o Teorema Espectral, um dos teoremas mais importantes da Álgebra Linear, conforme veremos no Capítulo 9. Nesta seção, continuaremos supondo que V é um espaço com produto interno de dimensão nita n > 0. 4.1 O Operador Adjunto Dado um vetor v ∈ V , a ele associamos de modo natural um funcional linear em V , como segue: φv : V → R u 7→ hu, vi . De fato, φv é um funcional linear, pois, para todos u1 , u2 ∈ V e todo a ∈ R, temos φv (u1 + au2 ) = hu1 + au2 , vi = hu1 , vi + ahu2 , vi = φv (u1 ) + aφv (u2 ). Assim, cada v em V dene um funcional linear φv em V , ou seja, um elemento de (V, R). A recíproca deste fato é também verdadeira, como mostra o seguinte resultado. Dado um funcional linear φ em V , existe um único vetor v ∈ V tal que φ = φv . Demonstração Seja φ ∈ (V, R) e xe uma base ortonormal {v1 , v2 , . . . , vn } de V . Pelo Teorema 7.3.2, todo elemento u ∈ V se escreve como Teorema 7.4.1. u = hu, v1 iv1 + hu, v2 iv2 + · · · + hu, vn ivn . Tomemos v = φ(v1 )v1 + φ(v2 )v2 + · · · + φ(vn )vn . Por um lado, temos Existência:  φ(u) = φ hu, v1 iv1 + hu, v2 iv2 + · · · + hu, vn ivn = hu, v1 i φ(v1 ) + hu, v2 i φ(v2 ) + · · · + hu, vn i φ(vn ). (1) 200 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO Por outro lado, hu, vi = hu, φ(v1 )v1 + φ(v2 )v2 + · · · + φ(vn )vn i = φ(v1 )hu, v1 i + φ(v2 )hu, v2 i + · · · + φ(vn )hu, vn i. (2) Juntando (1) e (2) obtemos que φ(u) = hu, vi = φv (u), para todo u ∈ V . Suponhamos que v 0 tenha a propriedade hu, v 0 i = hu, vi, para todo u ∈ V . Logo hu, v − v 0 i = 0, para todo u ∈ V . Portanto, v − v 0 é ortogonal a todos os vetores de V , o que, em virtude do Problema 2.7, acarreta que v = v 0 .  Unicidade: Observe que o Teorema 7.4.1 garante que a função v 7→ φv , onde φv (u) = hu, vi (u ∈ V ), é um isomorsmo entre V e (V, R) (cf. Problema 4.4). Dado um operador linear T em V , existe um único operador linear T em V tal que Teorema 7.4.2. ∗ hT (v), wi = hv, T ∗ (w)i, para quaisquer v, w ∈ V. Tome w ∈ V . Como a função denida por v 7→ hT (v), wi é um funcional linear em V (verique), segue, do Teorema 7.4.1, que existe um único vetor w0 ∈ V tal que Demonstração hT (v), wi = hv, w0 i, para todo v ∈ V. Basta denir T ∗ (w) = w0 . A demonstração do Teorema 7.4.1 também nos mostra que se {v1 , . . . , vn } é uma base ortonormal de V , então T ∗ (w) = w0 = hT (v1 ), wiv1 + · · · + hT (vn ), wivn . Daí, vê-se claramente que T ∗ é linear.  O operador T ∗ é chamado de operador adjunto de T . Assim, o Teorema 7.4.2 arma que todo operador linear T , em um espaço com produto interno de dimensão nita, possui um operador adjunto T ∗ . O próximo resultado mostra como podemos obter T ∗ a partir de uma representação matricial de T . 4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 201 Para toda base ortonormal α de V e para todo operador linear T em V , temos que Proposição 7.4.3. [T ∗ ]αα = ([T ]αα )t . Para demonstrarmos a proposição acima, vamos precisar do seguinte resultado, cuja demonstração ca como exercício para o leitor (veja Problema 4.5). Seja α = {v1 , . . . , vn } uma base ortonormal de V . Se A = [aij ]n×n é a matriz que representa um oprerador T em V , com relação à base α (ou seja, A = [T ]αα ), então Lema 7.4.4. aij = hT (vj ), vi i, para todos i, j, 1 ≤ i, j ≤ n. Demonstração da Proposição 7.4.3. Considere as matrizes [T ]αα = [aij ]n×n e [T ∗ ]αα = [bij ]n×n . Pelo Lema 7.4.4, aij = hT (vj ), vi i e bij = hT ∗ (vj ), vi i, para todos i, j, 1 ≤ i, j ≤ n. Logo, bij = hT ∗ (vj ), vi i = hvi , T ∗ (vj )i = hT (vi ), vj i = aji , para todos i, j , com 1 ≤ i, j ≤ n, provando o resultado.  Um operador linear T : V → V é dito ser um operador simétrico quando T = T. Pela Proposição 7.4.3, observamos que se T é um operador simétrico em V , então para toda base ortonormal α de V temos ∗ [T ]αα = ([T ]αα )t . Assim, T : V → V é simétrico se, e somente se, [T ]αα é uma matriz simétrica . Observemos que o fato de um operador ser simétrico não depende da base ortonormal escolhida. Portanto, se [T ]αα for uma matriz simétrica em 202 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO uma determinada base ortonormal α, então [T ]ββ será também simétrica para qualquer outra base ortonormal β . Seja T : R3 → R3 o operador linear denido por T (x, y, z) = (2x − y + z, −x + y + 3z, x + 3y). Se α é a base canônica de R3 , então Exemplo 1.   1 −1 1   [T ]αα = −1 1 3 1 3 0 é uma matriz simétrica e, portanto, T é um operador simétrico. 4.2 Operadores Ortogonais Um operador linear T : V → V é dito ser um operador ortogonal quando T ∗ T = T T ∗ = IV . Em outras palavras, T é um operador ortogonal quando T é invertível e T = T −1 . ∗ Diremos que um operador T em V preserva norma, preserva distância, ou preserva produto interno, quando, para todos u, v ∈ V , se tenha ||T (v)|| = ||v||, d(T (u), T (v)) = d(u, v), ou hT (u), T (v)i = hu, vi, respectivamente. O resultado a seguir caracteriza os operadores ortogonais. Seja T : V → V um operador linear. As seguintes armações são equivalentes: Teorema 7.4.5. (i) T é ortogonal; (ii) T preserva a norma; (iii) T preserva a distância; (iv) T preserva o produto interno; (v) T transforma toda base ortonormal de V numa base ortonormal de V ; 4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 203 (vi) T transforma alguma base ortonormal de V numa base ortonormal de V . Demonstração (i) ⇒ (ii) Se v ∈ V , então pelo Teorema 7.4.2. ||T (v)||2 = hT (v), T (v)i = hv, T ∗ (T (v))i = hv, IV (v)i = hv, vi = ||v||2 . (ii) ⇒ (iii) Se v, u ∈ V , então d(T (v), T (u)) = ||T (v) − T (u)|| = ||T (v − u)|| = ||v − u|| = d(v, u). (iii) ⇒ (iv) Se v, u ∈ V , então d(T (v + u), 0) = d(v + u, 0). Ou seja, ||T (v + u)||2 = ||v + u||2 . (3) Note que ||T (v + u)||2 = hT (v), T (v)i + 2hT (v), T (u)i + hT (u), T (u)i e ||v + u||2 = hv, vi + 2hv, ui + hu, ui . (4) Como hv, vi = (d(v, 0))2 = (d(T (v), 0))2 = hT (v), T (v)i, o mesmo valendo para u, temos de (3) e (4) que hT (v), T (u)i = hv, ui, como desejado. (iv) ⇒ (i) Se v, u ∈ V , então pelo Teorema 7.4.2 hv, ui = hT (v), T (u)i = hv, T ∗ (T (u))i, mostrando que, para todos u, v ∈ V , hv, (T ∗ T − IV )(u)i = 0. Pelo Problema 2.8, temos que (T ∗ T − IV )(u) = 0, para todo u ∈ V , o que acarreta que T ∗ T = IV , logo T é ortogonal. 204 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO (i) ⇒ (v) Seja {v1 , v2 , . . . , vn } uma base ortonormal de V . Então hT (vi ), T (vj )i = hvi , vj i =  0 se i 6= j 1 se i = j. Logo, o conjunto {T (v1 ), T (v2 ), . . . , T (vn )} é ortonormal e, consequentemente, linearmente independente (Proposição 7.3.1). Como dim V =n, concluímos que esse conjunto é uma base de V . (v) ⇒ (vi) Esta implicação é óbvia. (vi) ⇒ (iv) Seja {v1 , v2 , . . . , vn } uma base ortonormal de V tal que {T (v1 ), T (v2 ), . . . , T (vn )} também é uma base ortonormal de V . Sejam v e u em V . Se v = a1 v1 + a2 v2 + · · · + an vn então hv, ui = n X n X i=1 j=1 e u = b1 v1 + b2 b2 + · · · + bn vn , ai bj hvi , vj i = n X n X (5) ai b j . i=1 j=1 Por outro lado, temos T (v) = a1 T (v1 ) + a2 T (v2 ) + · · · + an T (vn ) e T (u) = b1 T (v1 ) + b2 T (v2 ) + · · · + bn T (vn ), donde hT (v), T (u)i = n n X X i=1 j=1 ai bj hT (vi ), T (vj )i = n n X X ai b j . (6) i=1 j=1 Assim, de (5) e (6), concluímos que hT (v), T (u)i = hv, ui, como desejado.  Consideremos o operador linear T : R2 → R2 dado por T (x, y) = (x cos θ −y sen θ, x sen θ +y cos θ). Lembremos da Seção 3, do Capítulo 6, que T é o operador rotação por um ângulo θ em R2 . Note que se α é a base canônica de R2 , o conjunto {T (1, 0), T (0, 1)} = {(cos θ, sen θ), (− sen θ, cos θ)} é Exemplo 2. 4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 205 uma base ortonormal em R2 . Assim, pelo Teorema 7.4.5, T é um operador ortogonal em R2 . Para relacionarmos a propriedade de um operador ser ortogonal com propriedades de suas matrizes associadas, estabelecemos a denição a seguir. Uma matriz A ∈ M(n, n) é dita ser ortogonal quando A At = At A = In . Em outras palavras, A é uma matriz ortogonal se A é invertível e At = A−1 . Segue imediatamente da denição que uma matriz A é ortogonal se, e somente se, a matriz At é ortogonal. Por exemplo, a matriz de rotação em R3 dada por  cos θ − sen θ 0   A = sen θ cos θ 0 0 0 1  é uma matriz ortogonal. Com o resultado a seguir podemos vericar mais facilmente se uma matriz é ortogonal ou não. Proposição 7.4.6. Para uma matriz A = aij  são equivalentes:  n×n , as seguintes armações (i) A é ortogonal; (ii) As colunas de A formam um conjunto ortonormal em Rn ; (iii) As linhas de A formam um conjunto ortonormal em Rn . (i) ⇔ (ii) Chamemos At A = bij produto de matrizes, o elemento bij é dado por Demonstração   n×n . Pela denição de bij = a1i a1j + a2i a2j + · · · + ani anj = h(a1i , a2i , . . . , ani ), (a1j , a2j , . . . , anj )i. 206 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO Portanto, daí segue-se que At A = In se, e somente se,  0 se i 6= j h(a1i , a2i , . . . , ani ), (a1j , a2j , . . . , anj )i = 1 se i = j, provando o desejado. (i) ⇔ (iii) Basta utilizar o fato que A é ortogonal se, e somente se, At é ortogonal, que as linhas de At são as colunas de A e aplicar o que foi provado acima.  Se α e β são bases ortonormais de V , então a matriz  α mudança de base IV β é uma matriz ortogonal. Demonstração Sejam α = {v1 , v2 , . . . , vn } e β = {w1 , w2 , . . . , wn }. Suponhamos [IV ]αβ = [aij ]. Para cada i, com 1 ≤ i ≤ n, temos que Teorema 7.4.7. vi = a1i w1 + a2i w2 + · · · + ani wn . Ora, como vi e vj são ortogonais, quando i 6= j , então 0 = hvi , vj i = a1i a1j + a2i a2j + · · · + ani anj = h(a1i , a2i , . . . , ani ), (a1j , a2j , . . . , anj )i, (7) pois β é ortonormal. De (7) concluímos que as colunas de [IV ]αβ formam vetores ortogonais em Rn . Vejamos agora que cada coluna de [IV ]αβ forma um vetor unitário em Rn . De fato, se 1 ≤ i ≤ n, então 1 = hvi , vi i = a21i + a22i + · · · + a2ni , já que β é ortonormal. Assim, as colunas de [IV ]αβ formam vetores unitários em Rn . Pela Proposição 7.4.6, [IV ]αβ é uma matriz ortogonal.  Terminaremos a seção mostrando a relação entre os operadores ortogonais e as matrizes ortogonais. Sejam dados um espaço vetorial, com uma base α = {v1 , . . . , vn }, e uma matriz quadrada A = [aij ] de ordem n. Podemos, como feito na Seção 1 4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 207 do Capítulo 6 para Rn e a base canônica, associar à matriz A um operador linear TA , denido como segue: TA (v) = (a11 x1 + · · · + a1n xn , . . . , an1 x1 + · · · + ann xn ), onde x1 , . . . , xn são as coordenadas de v relativamente à base α, ou seja v = x1 v1 + · · · + xn vn . Sejam α uma base ortonormal de V e T um operador linear em V . Seja A ∈ M(n, n). Proposição 7.4.8. (i) T é ortogonal se, e somente se, [T ]αα é ortogonal. (ii) A é ortogonal se, e somente se, TA é ortogonal. Provaremos apenas o item (i), deixando a demonstração do item (ii) para o leitor (veja Problema 4.10). De fato, se α = {v1 , v2 , . . . , vn } é uma base ortonormal de V e se T é um operador ortogonal em V então, pelo Teorema 7.4.5, β = {T (v1 ), T (v2 ), . . . , T (vn )} é uma base ortonormal de V . Se [T ]αα = [aij ], então, para todo i, com 1 ≤ i ≤ n, temos Demonstração T (vi ) = a1i v1 + a2i v2 + · · · + ani vn . Como β é ortonormal, segue que hT (vi ), T (vj )i = 0 se i6=j e hT (vi ), T (vi )i=1. Por outro lado, sendo α é ortogonal, temos que a1i a1j + a2i a2j + · · · + ani anj = ha1i v1 + a2i v2 + · · · + ani vn , a1j v1 + a2j v2 + · · · + anj vn i =   0 se i 6= j hT (vi ), T (vj )i =  1 se i = j, (8) mostrando assim que as colunas de [T ]αα formam um conjunto ortonormal em Rn . Pela Proposição 7.4.6, [T ]αα é uma matriz ortogonal. 208 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO Suponhamos agora que [T ]αα = [aij ] é uma matriz ortogonal. Para mostrarmos que T é ortogonal basta provarmos, pelo Teorema 7.4.5, que o conjunto {T (v1 ), T (v2 ), . . . , T (vn )} é ortonormal em V . Mas isto pode ser facilmente vericado a partir de (8).  Problemas Sejam S e T operadores lineares num espaço com produto interno de dimensão nita e seja k ∈ R. Prove que: 4.1* (a) (S + T )∗ = S ∗ + T ∗ ; (b) (kT )∗ = kT ∗ ; (c) (ST )∗ = T ∗ S ∗ ; (d) (T ∗ )∗ = T . Considere o funcional linear φ : R3 → R denido por φ(x, y, z) = x + 4y − 5z . Encontre o vetor v em R3 tal que φ = φv . 4.2 Seja T : R3 → R3 dado por T (x, y, z) = (2x + 2y, 3x − 4z, y). Encontre T ∗ (x, y, z). 4.3 4.4 Mostre que a função V v → (V, R) 7 → φv onde φv (u) = hu, vi, para todo u ∈ V , é um isomorsmo de espaços vetoriais. Mostre com isto que podemos transportar o produto interno de V para (V, R), do seguinte modo: hφu , φv i = hu, vi. 4.5 Demonstre o Lema 7.4.4. 4.6 Dentre os seguintes operadores lineares, vericar quais são ortogonais: (a) T : R2 → R2 , T (x, y) = (−y, −x); (b) T : R2 → R2 , T (x, y) = (x + y, x − y); (c) T : R3 → R3 , T (x, y, z) = (z, x, −y); (d) T : R3 → R3 , T (x, y, z) = (x, y cos θ + z sen θ, −y sen θ + z cos θ). 4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 209 Encontre uma matriz ortogonal [aij ] de ordem 3 cuja primeira linha é dada por 2 2 1 a11 = , a12 = , e a13 = · 4.7* 3 3 3 4.8 Mostre que o produto de matrizes ortogonais é uma matriz ortogonal. 4.9 Construa uma matriz ortogonal A = [aij ] cuja primeira coluna seja: 2 5 1 = , 3 (a) a11 = √ , (b) a11 4.10 −1 a21 = √ ; 5 −2 a21 = e 3 a31 = −2 · 3 Conclua a demonstração da Proposição 7.4.8. Bibliograa [1] H. P. Bueno, Álgebra Linear, um segundo curso , Coleção Textos Universitários, SBM, 2006. [2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna, 2001. [3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Matemática e Aplicações, IMPA, 2008. [4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção PROFMAT, SBM, 2012. [5] V. J. Katz, A History of Mathematics - an Introduction , HarperCollins College Publishers, 1993. [6] S. Lang, Introduction to Linear Algebra , 2nd edition, Undergraduate Texts in Mathematics, Springer, 1986. [7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária, IMPA, 1998. [8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2a edição, Coleção Matemática Universitária, IMPA, 2010. 300 8 Livro: Introdução à Álgebra Linear Autores: Abramo Hefez Cecília de Souza Fernandez Capítulo 8: Determinantes Sumário 1 Propriedades dos Determinantes . . . . . . . . . . 211 1.1 Propriedades Características . . . . . . . . . . . . . 211 1.2 Propriedades Adicionais das Funções 1.3 Propriedade Multiplicativa . . . . . . . . . . . . . . 215 D . . . . . . 212 2 Existência de Determinantes . . . . . . . . . . . . . 218 3 Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . 220 4 Regra de Cramer . . . . . . . . . . . . . . . . . . . . 224 210 1. PROPRIEDADES DOS DETERMINANTES 1 211 Propriedades dos Determinantes Estudaremos nesta seção as propriedades dos determinantes de matrizes quadradas, dividindo-as em três categorias, a saber: 1) Propriedades características, aquelas que bastam para determinar as funções determinantes; 2) Propriedades adicionais, aquelas que seguem de modo quase direto das propriedades características; 3) Propriedade multiplicativa, que relaciona determinantes de produtos de matrizes com os determinantes dos fatores. Essa propriedade é consequência das propriedades características e de propriedades das matrizes anteriormente estudadas. 1.1 Propriedades Características Seja K um corpo1 e seja n um número natural, com n ≥ 2. Denotaremos por MK (n), ou simplesmente por M(n), o espaço das matrizes quadradas de ordem n com entradas no corpo K . Nosso objetivo, neste capítulo, é estender a n > 3 a noção de determinante de uma matriz em M(n) que introduzimos no Capítulo 4 nos casos n = 2 e n = 3. Dada uma matriz A ∈ M(n), denotaremos por A1 , . . . , An ∈ K n os seus vetores linhas e escrevemos  A1   .  A =  ..  . An Queremos xar a nossa atenção sobre as funções D : M(n) → K que possuem as seguintes propriedades: (D1) D é linear como função de cada linha separadamente. 1O leitor pode xar sua atenção nos casos K = R ou K = C, se com isto se sentir mais confortável. 212 CAPÍTULO 8. DETERMINANTES Isto signica que se Aj = A0j + tA00j , onde A0j , A00j ∈ K n e t ∈ K , então      D  A0j    A1 .. .           + tA00j  = D    ..   .   An A1  ..  .   A0j .. . An        + tD        A1  ..  .    A00j  . ..  .   An (D2) Se duas linhas adjacentes Aj e Aj+1 de A são iguais, então D(A) = 0. (D3) Se In representa a matriz identidade de M(n), então D(In ) = 1. Estas propriedades são satisfeitas, por exemplo, pelas funções determinantes det : M(2) → K e det : M(3) → K introduzidas na Seção 3 do Capítulo 4 (veja Problemas 3.1 e 3.3 do Capítulo 4.) As Propriedades (D1) e (D2) de uma função D acarretam várias outras propriedades, como veremos a seguir. Essas propriedades, juntamente com a Propriedade (D3), determinam uma única função que chamaremos de função determinante, ou simplesmente, determinante, conforme veremos na Seção 2. Nas próximas subseções estudaremos mais propriedades de tais funções D. 1.2 Propriedades Adicionais das Funções D Nesta seção estudaremos as propriedades das funções D que decorrem das Propriedades (D1) e (D2) da seção anterior. Seja j um número natural com 1 ≤ j ≤ n − 1. Se A0 é a matriz obtida de A por meio de uma transformação elementar Lj ↔ Lj+1 , então D(A0 ) = −D(A). Demonstração Considere a matriz B tal que Bj = Bj+1 = Aj + Aj+1 e Bi = Ai , se i 6= j e i 6= j + 1. Da Propriedade (D2) temos que D(B) = 0. Da Propriedade (D1) (utiliProposição 8.1.1. 1. 213 PROPRIEDADES DOS DETERMINANTES zada duas vezes), obtemos a igualdade       0 = D(B) = D      A1   ..  .   Aj Aj .. . An A1   ..  .    A   j +D   Aj+1     ..   . An  A1   ..   .     A   j+1 +D   Aj     ..   . An   A1   ..   .     A   j+1 +D   Aj+1     ..   . An       ,     da qual segue-se o resultado, pois sabemos, por (D2), que       D     A1  ..  .   Aj Aj .. . An  A1  ..  .    A   j+1  = D   Aj+1     ..   . An        = 0.      Corolário 8.1.2. Se A é uma matriz com duas linhas iguais, então D(A) = 0. Com uma troca de linhas, podemos transformar a matriz A em uma matriz A0 com duas linhas adjacentes iguais. Logo, pela proposição anterior e pela Propriedade (D2), temos que Demonstração D(A) = ±D(A0 ) = 0.  Se A0 é uma matriz obtida de A por uma transformação elementar Li ↔ Lj , i, j = 1, . . . , n, com i 6= j , então D(A0 ) = −D(A). Demonstração Usando a mesma ideia da prova da Proposição 8.1.1, considerando neste caso a matriz B tal que Bi = Bj = Ai + Aj e Bk = Ak , se k 6= i, j , obtemos o resultado com auxílio do Corolário 8.1.2.  Corolário 8.1.3. 214 CAPÍTULO 8. DETERMINANTES Se uma matriz A0 é obtida de uma matriz A na qual somamos a uma linha um múltiplo de outra, mantendo as demais inalteradas, então D(A0 ) = D(A). Demonstração Para i < j , sejam Corolário 8.1.4.  A1   .   ..       Ai   .  .  A=  . ,    Aj   .   .   .  An  A1    ..   .     A + tA  i j   .. . A0 =  .      Aj    ..   .   An Temos da propriedade (D1) que D(A0 ) = D(A) + tD(A00 ), onde  A1 (1)   .   ..       Aj   .  .  A00 =   . .    Aj   .   .   .  An Pelo Corolário 8.1.2, temos que D(A00 ) = 0, logo o resultado segue da igualdade (1), acima.  Se uma matriz A0 é obtida de uma matriz A na qual somamos a uma linha uma combinação linear de outras, mantendo as demais inalteradas, então D(A0 ) = D(A). Demonstração Use repetidamente o Corolário 8.1.4.  Corolário 8.1.5. 1. PROPRIEDADES DOS DETERMINANTES 215 Se os vetores linhas de uma matriz A são linearmente dependentes, então D(A) = 0. Demonstração Se os vetores linhas da matriz são linearmente dependentes, então uma das linhas é combinação linear das demais, seguindo-se o resultado do Corolário 8.1.5. Corolário 8.1.6. 1.3 Propriedade Multiplicativa Nesta subseção, mostraremos como funções D possuindo as Propriedades (D1), (D2) e (D3) da Seção 1 se comportam em relação à multiplicação de matrizes. Sejam A e B elementos de M(n) e seja D : M(n) → K uma função possuindo as Propriedades (D1), (D2) e (D3). Proposição 8.1.7. (i) Se E é uma matriz elementar, então D(EA) = D(E)D(A). (ii) Se A e B são matrizes equivalentes por linhas, então D(A) 6= 0 ⇐⇒ D(B) 6= 0. (iii) A é invertível se, e somente se, D(A) 6= 0. (iv) D(AB) = D(A)D(B). (i) Seja E1 a matriz elementar obtida operando sobre In com Li ↔ Lj . Temos que E1 A é a matriz obtida de A mediante a operação Li ↔ Lj , logo, pelo Corolário 8.1.3, temos que D(E1 A) = −D(A). Por outro lado, do Problema 1.3(a), temos que D(E1 ) = −1, o que acarreta o resultado neste caso. Seja E2 a matriz elementar obtida de In mediante a operação Li → Li + tLj . Temos, pelo Corolário 8.1.4, que D(E2 A) = D(A) e pelo Problema 1.3(a) temos que D(E2 ) = 1, daí obtendo o resultado neste caso também. Finalmente, se E3 é a matriz elementar correspondente a Li → cLi , temos de (D1) que D(E3 A) = cD(A) e, pelo Problema 1.3(a), D(E3 ) = c. Logo, D(E3 A) = D(E3 )D(A). Demonstração 216 CAPÍTULO 8. DETERMINANTES ii) A e B são equivalentes se, e somente se, B = Er · · · E1 A, onde E1 , . . . , Er são matrizes elementares. De (i), por indução, temos que D(B) = D(Er ) · · · D(E1 )D(A). Como D(E) 6= 0, para toda matriz elementar E , vale o resultado. iii) Se A é invertível, do Teorema 2.1.6, temos que A é equivalente a In , logo por (ii) segue-se que D(A) 6= 0, já que D(In ) = 1 6= 0. Reciprocamente, se D(A) 6= 0, seja B a matriz equivalente a A na forma escalonada. Como por (ii) temos que D(B) 6= 0, segue-se que B = In . Daí, A é equivalente a In , logo, pelo Teorema 2.1.6, tem-se que A é invertível. iv) Se A não é invertível, então AB é não invertível. Logo, por (iii), temos que D(AB) = 0 e D(A) = 0, seguindo-se o resultado neste caso. Se A é invertível, então, pelo Teorema 2.1.6, A = E1 · · · Er onde os Ei 's são matrizes elementares. Portanto, por indução utilizando (i), temos que D(AB) = D(E1 ) · · · D(Er )D(B) = D(E1 · · · Er )D(B) = D(A)D(B).  Se existirem duas funções D : M(n) → K e D0 : M(n) → K satisfazendo as condições (D1), (D2) e (D3), então D = D0 . Demonstração Seja A ∈ M(n). Se A não é invertível, então da Proposição 8.1.7(iii) temos que D(A) = 0 = D0 (A). Se A é invertível, logo, A = E1 · · · Er , onde os Ei 's são matrizes elementares. Pela Proposição 8.1.7(iv), temos que D(A) = D(E1 ) · · · D(Er ) e D0 (A) = D0 (E1 ) · · · D0 (Er ). Pelo Problema 1.3(b), temos que D(Ei ) = D0 (Ei ), para todo i = 1, . . . , r, logo D(A) = D0 (A).  Teorema 8.1.8. Assim, temos assegurada a unicidade de uma função D : M(n) → K , possuindo as Propriedades (D1), (D2) e (D3), caso tal função exista. Vamos, na próxima seção, mostrar que tal função existe, a qual passaremos a denotar por det e a chamar de função determinante . Para n = 2 e n = 3, as funções det : M(2) → K e det : M(3) → K , que introduzimos no Capítulo 4, são as 1. 217 PROPRIEDADES DOS DETERMINANTES únicas funções que possuem as Propriedades (D1), (D2) e (D3), com domínios M(2) e M(3), respectivamente. Problemas 1.1 Mostre que se a matriz A ∈ M(n) possui uma linha nula, então D(A) = 0. 1.2 Seja D : M(n) → K uma função que possui as Propriedades (D1) e (D2). Mostre que se A é a matriz diagonal Diag(a11 , . . . , ann ) (com a notação do Problema 2.15, Capítulo 1), então D(Diag(a11 , . . . , ann )) = a11 . . . ann D(In ). Em particular, conclua que D(c In ) = cn D(In ), onde c ∈ K . Seja D : M(n) → K , possuindo as Propriedades (D1) e (D2), e sejam E1 , E2 e E3 matrizes elementares obtidas da matriz identidade In mediante, respectivamente, uma operação do tipo Li ↔ Lj , Li → Li + tLj , Li → cLi , para i 6= j . 1.3 a) Mostre que D(E1 ) = −D(In ), D(E2 ) = D(In ) e D(E3 ) = cD(In ). b) Se D, D0 : M(n) → K possuem as propriedades (D1), (D2) e (D3), então D(E1 ) = D0 (E1 ) = −1, D(E2 ) = D0 (E2 ) = 1 e D(E3 ) = D0 (E3 ) = c. Seja A uma matriz invertível de ordem n e suponha que exista a função det : M(n) → K . Mostre que 1.4 det(A−1 ) = 1 . det A Seja E ∈ M(n) uma matriz elementar. Com a mesma hipótese do problema anterior, mostre que det(E t ) = det(E). 1.5 Sugestão Utilize o Problema 2.1.9. 218 2 CAPÍTULO 8. DETERMINANTES Existência de Determinantes Nesta seção, estabeleceremos a existência das funções determinantes para valores de n maiores do que 3, que já sabemos existirem para n = 2 e n = 3. A demonstração de tal existência será feita por indução sobre n. Mostraremos que se existe uma função D0 : M(n − 1) → K que possui as Propriedades (D1), (D2) e (D3), então existe uma função D : M(n) → K que possui as mesmas propriedades. Na realidade, mostraremos que a função D pode ser obtida de vários modos possíveis a partir de D0 , o que permitirá certa exibilidade no cálculo de D(A), onde A é uma matriz quadrada de ordem n. Sejam n ≥ 2 e A ∈ M(n). Para cada par (i, j) ∈ N2 , com 1 ≤ i, j ≤ n, dene-se a matriz A(i|j) como a matriz (n − 1) × (n − 1) obtida de A suprimindo-se a i-ésima linha e a j -ésima coluna. Nosso resultado está contido no próximo teorema. Sejam n ≥ 3 e D0 : M(n − 1) → K satisfazendo as condições (D1), (D2) e (D3). Dado j com 1 ≤ j ≤ n, a função Dj : M(n) → K denida por Teorema 8.2.1. Dj (A) = n X (−1)i+j aij D0 (A(i|j)), i=1 onde A = [aij ] ∈ M(n), também satisfaz as condições (D1), (D2) e (D3). Demonstração Fixemos j . Para cada i, temos que D 0 (A(i|j)) é independente da linha i, ou seja, dos elementos aik , k = 1, . . . , n, e é separadamente linear em cada uma das n−1 linhas restantes de A. Por outro lado, (−1)i+j aij é independente das entradas de A(i|j) e é linear na linha i de A. É, portanto, fácil vericar que (−1)i+j aij D0 (A(i|j)) é separadamente linear nas linhas de A. Logo, Dj é uma soma de funções de A que são separadamente lineares na linhas de A, donde se conclui que Dj possui a Propriedade (D1). Para provar que Dj possui a Propriedade (D2), suponhamos que A ∈ M(n) tenha as linhas Ak e Ak+1 iguais. Se i 6= k e i 6= k + 1, a matriz A(i|j) tem duas linhas iguais, logo 2. EXISTÊNCIA DE DETERMINANTES 219 D0 (A(i|j)) = 0. Daí temos Dj (A) = (−1)k+j akj D0 (A(k|j)) + (−1)k+j+1 ak+1,j D0 (A(k + 1|j)). Mas, akj = ak+1,j e A(k|j) = A(k + 1|j), logo Dj (A) = 0, já que as duas parcelas que compõem Dj (A) são uma simétrica da outra. Finalmente, sendo δij as entradas da matriz In , temos que Dj (In ) = n X (−1)i+j δij D0 (In (i|j)) = δjj D0 (In (j|j)) = D0 (In−1 ) = 1, i=1 já que In (j|j) = In−1 e D0 (In−1 ) = 1, mostrando que Dj possui a Propriedade (D3).  Esse teorema nos mostra que para calcular o determinante de uma matriz A, escolhe-se uma coluna j qualquer de A, obtendo n X det(A) = (−1)i+j aij det(A(i|j)), i=1 que é usualmente chamado de desenvolvimento de Laplace de det(A) segundo os elementos da coluna j . Exemplo 1. Calculemos det(A), onde  2 3 1 0 0 1 3 2   A= . 0 5 −1 0 1 −2 1 1  Temos do Teorema 8.2.1, desenvolvendo segundo os elementos da primeira coluna, que     1 3 2 3 1 0     det(A) = 2 det  5 −1 0 − det 1 3 2 . −2 1 1 5 −1 0 Calculando os determinantes 3 × 3, acima, pela Regra de Sarrus, obtemos que det(A) = −36. 220 CAPÍTULO 8. DETERMINANTES Problemas 2.1 Mostre que se uma matriz A possui uma coluna nula, então det(A) = 0. Prove que o determinante de uma matriz triangular superior (resp. inferior) é o produto dos elementos de sua diagonal principal. Mostre que uma tal matriz é invertível se, e somente se, suas entradas na diagonal principal são todas não nulas. 2.2* 2.3* Seja a ∈ R. Prove que   1 1 1 1 1 a a2 a3    det   = 0. 1 a2 a3 a4  1 a3 a4 a5 2.4 Considere a matriz de Vandermonde 2  1 a1 a21 . . . an−1 1  n−1 2 1 a2 a2 . . . a2 A= .. ..  .. .. . . . . 2 n−1 1 an an . . . an    .   Mostre que det(A) = Y (aj − ai ). i i, segue que aji = 0, já que A é uma matriz triangular superior. Portanto, bij = 0 sempre que i < j , ou seja, At é uma matriz triangular inferior. (c) Sejam A = [aij ]m×n e B = [bij ]m×n . Seja k ∈ R. Então, (A + B)t = [aji + bji ]n×m = [aji ]n×m + [bji ]n×m = At + B t e (kA)t = [kaji ]n×m = k[aji ]n×m = kAt . (d) Sejam A = [aij ]m×n e B = [bij ]n×p . Então, AB = [cij ]m×p , com cij = n X k=1 aik · bkj , 266 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS para todo 1 ≤ i ≤ m e 1 ≤ j ≤ p, e B t At = [dij ]p×m , com dij = n X bki · ajk , k=1 para todo 1 ≤ i ≤ p e 1 ≤ j ≤ m. Como (AB)t = [eij ]p×m onde, para todo 1 ≤ i ≤ p e 1 ≤ j ≤ m, eij = cji , segue que eij = n X ajk · bki = n X bki · ajk = dij , k=1 k=1 para todo 1 ≤ i ≤ p e 1 ≤ j ≤ m. Portanto, (AB)t = B t At . (e) Seja A = [aij ]m×n . Então At = [aji ]n×m , portanto, (At )t = [aij ]n×m = A. 2.11* (a) Pelo Problema 2.10, itens (c) e (e), temos (B +B t )t = B t +(B t )t = B t + B = B + B t , onde na última igualdade usamos o fato que a adição de matrizes é comutativa. Agora pelo itens (d) e (e) do problema 2.10, temos (B · B t )t = (B t )t · B t = B · B t . (b) Pelo Problema 2.10, item (c), segue que (B − B t )t = B t + (−B t )t = B t − B = −(B − B t ). (c) Segue imediatamente de (a) e (b). (d) Seja B uma matriz quadrada que se escreve com B = B1 + B2 , onde B1 é simétrica e B2 é antissimétrica. Então, B1t = B1 e B2t = −B2 . Como B t = B1t + B2t , segue que B t = B1 − B2 . Assim, B = B1 + B2 e B t = B1 − B2 implicam que B1 = 2.16 (a) X = C −1 B . B + Bt 2 e B2 = B − Bt . 2 (b) X = (A−1 )t . (c) X = B −1 A−1 C . 267 Capítulo 2 1.1* (a) " " " " # # # −1 3 1 −3 2 1 −→ −→ −→ 2 1 e2 : L1 →−L1 2 1 e3 : L2 →L2 −2L1 −1 3 e1 : L1 ↔L2 # " " # # 1 −3 1 0 1 −3 −→ −→ . 0 7 e4 : L2 → 71 L2 0 1 e5 : L1 →L1 +3L2 0 1 (b) Sim. Porque a forma escalonada de A é a matriz identidade de ordem 2. (c) Temos A−1 = E5 · E4 · E3 · E2 · E1 , onde E1 = e1 (I), E2 = e2 (I), E3 = e3 (I), E4 = e4 (I) e E5 = e5 (I). Assim, " A−1 1 3 = 0 1 #" #" #" #" # 1 0 1 0 −1 0 0 1 . 0 1/7 −2 1 0 1 1 0 Computando o produto acima, obtemos " A−1 # 3 −7 1.2 (a) A−1 = . −5 12  1 −1 0 −1 2 2  (c) C −1 =   0 −1 0 1 0 1   1 0 −7/2 5/2  1.4 (a)  3 −2 . 0 1 0 0 0 0 # 3/7 −1/7 = . 1/7 2/7 " (b) B −1   −1 −1 0   =  0 −1 −1. 1 −1 −3  2 0  . 1 2   1 2 0 0 4/3   (b) 0 0 1 0 0 . 0 0 0 1 −1/6 268 CAPÍTULO 10.  1 0  (c)  0 0 SOLUÇÕES E RESPOSTAS  0 4/11 13/11 1 −5/11 3/11   . 0 0 0  0 0 0 1.8* (a) Sejam A e B matrizes quadradas de mesma ordem n tais que AB = I . Suponhamos que A não é invertível. Então, pelo Corolário 2.1.7, A não tem posto n, logo A é equivalente por linhas a uma matriz com uma linha nula, ou seja, existem matrizes elementares E1 , . . . , Es tais que Es . . . E2 E1 A tem uma linha nula. Portanto, temos Es · · · E2 E1 AB = C , onde C também é uma matriz com uma linha nula (cf. Problema 2.13(a), Capítulo 1). Dessa forma, AB = (E1−1 . . . E1−1 )C e, portanto, também AB é uma matriz com uma linha nula. Mas isso contradiz o fato de que AB = I . Portanto, A é invertível. Consequentemente, A−1 = A−1 I = A−1 (AB) = (A−1 A)B = IB = B. Assim AB = I se, e somente se, BA = I , pois se AB = I , pelo o que vimos acima B = A−1 e, então, BA = A−1 A = I . E reciprocamente, se BA = I , pelo o que vimos acima A = B −1 e, então, AB = B −1 B = I . (b) Se A e B são invertíveis, temos da Proposição 1.2.4(b) que AB é invertível. Reciprocamente, se AB é invertível, então existe C tal (AB)C = C(AB) = I. Logo, como A(BC) = (AB)C = I, pelo item (a), temos que A é invertível. Por outro lado, como (CA)B = C(AB) = I, pelo item (a), tem-se que B é invertível. 2.1* Como os termos independentes do sistema são todos iguais a zero, estes não se alteram por transformações elementares. Por isso, para resolvermos um sistema linear homogêneo pelo método de escalonamento, basta considerarmos a matriz dos coecientes. Ora,   0 1 3 −2  2 1 −4 3     −→  2 3 2 −1 L1 ↔L3 −4 −3 5 −4   2 3 2 −1 −→  2 1 −4 3     L2 → L2 − L1  0 1 3 −2 L4 → L4 + 2L1 −4 −3 5 −4 269  2 0   0 0  1 0   0 0    3 2 −1 2 0 −7 5 −→    −2 −6 4 −→ 4  L1 → 1/2L2 0 −2 −6    1 3 −2 L1 → L1 − L4 0 1 3 −2 L2 → L2 + 2L3 3 9 −6 0 3 9 −6 L4 → L4 − 3L3    0 −7/2 5/2 1 0 −7/2 5/2  0 0 0 3 −2   −→ 0 1    , 1 3 −2  L2 ↔ L3 0 0 0 0 0 0 0 0 0 0 0 donde concluímos que x = 7/2z − 5/2t e que y = −3z + 2t. Fazendo z = a e t = b, onde a e b ∈ R, obtemos que o conjunto solução do sistema dado é 5 7 S = {( a − b, −3a + 2b, a, b) ; a, b ∈ R}. 2 2 2.2* Note que     1 2 −3 m −→ 1 2 −3 m     2 −5 n − 2m 6 −11 n  L2 → L2 − 2L1 0 2 1 −2 7 p L3 → L3 − L1 0 −4 10 p − m   1 2 −3 m −→   n − 2m  , 0 2 −5 L3 → L3 + 2L2 0 0 0 p + 2n − 5m o que implica que o sistema dado é possível se, e somente se, p+2n−5m = 0. Assim, por exemplo, para m = 1, n = 2 e p = 1 o sistema tem solução. Note que se p + 2n − 5m = 0 o sistema terá, de fato, mais de uma solução. Em outras palavras, o sistema não pode ter solução única. 2.3 2.4 " # 1 0 −1 X= . 3 2 1   1   0 . 1 270 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS 2.5 (a) Sejam S1 e S2 os conjuntos soluções de AX = B1 e AX = B2 , respectivamente. Então S1 = {(1/2 + 7/8t, 1/2 + 1/4t, 1/2 − 11/8t) t ∈ R} e S2 = {(1/4 + 7/8t, 1/4t, 3/4 − 11/8t) ; t ∈ R}. (b) {(5/4 + 7/8t, 3/2 + 1/4t, 3/4 − 11/8t) ; t ∈ R}. 2.8 a = 2, b = −1, c = 1. 2.9 (a) (i) k 6= 3; {(3k + 6, −2k − 4, −1)}. (ii) Não existe k ∈ R. (iii) k = 3; {(5 − 10z, −3 + 7z, z) z ∈ R}. (b) (i) k 6= 1 e k 6= −2; {(1/(k + 2), 1/(k + 2), 1/(k + 2) )}. (ii) k = −2. (iii) k = 1; {(1 − y − z, y, z) y, z ∈ R}. (c) (i) k 6= 1 e k 6= −1; {(0, 0, 0)}. (ii) Não existe k ∈ R. (iii) k = ±1; {(−z, 0, z) : z ∈ R} para k = 1 e {(z, 0, z) : z ∈ R} para k = −1. 2.10 2.11 −5a + 2b + c = 0. (a) a = −3. (b) a = 2. (c) a 6= −3 e a 6= 2. 271 Capítulo 3 1.1* Seja W um subconjunto não vazio de um espaço vetorial V . Queremos mostrar que W é um subespaço vetorial se, e somente se, au + bv ∈ W para quaisquer a, b ∈ R e para quaisquer u, v ∈ W . (⇒) Como W é um espaço vetorial, temos au, bv ∈ W . Logo a soma au + bv é um elemento de W . (⇐) Temos que tanto a adição como a multiplicação por escalar denidas em V quando restritas a W são fechadas, ou seja, se u, v ∈ W e a ∈ R então u + v = 1u + 1v ∈ W e au = au + 0v ∈ W . Como a adição e a multiplicação por escalar satisfazem as condições (ii), (iii), (vii), (viii), (ix) e (x) para quaisquer a, b ∈ R e para quaisquer u, v ∈ V , elas continuam satisfazendo estas propriedades para quaisquer a, b ∈ R e para quaisquer u, v ∈ W . Resta só vericar as condições (iv) e (v). Seja w ∈ W . Então temos o = 0w + 0w ∈ W e −w = (−1)w + 0w ∈ W . 1.2 (a) É. (b) Não é. Note que (0, 0) ∈/ W . (c) Não é. Temos (1, 1) ∈ W , mas 2(1, 1) ∈ / W. (d) É. 1.3 (a) É. (b) Não é. Note que (1, 0, 0) ∈ W , mas −1(1, 0, 0) ∈/ W . (c), (d), (e) É. 1.4 (a), (b), (c) É. (d) Não é. Temos I3 ∈ W , mas 2I3 ∈/ W . (e) Não é. A matriz nula não pertence a W . 1.5 (a) Não é. Temos p(x) = 1 + x + x2 ∈ W , mas 21 p(x) ∈/ W . (b), (c) É. (d) Não é. Temos p(x) = x2 ∈ W , mas −1p(x) ∈ / W. 1.6 (a) V ∩ W = W e V + W = V . (b) V ∩ W = {[aij ]2×2 ; a11 = a12 = a21 = a22 }; V + W = {[aij ]2×2 ; a11 = −a12 + a21 + a22 }. (c) V ∩ W = {(0, 0, 0)} e V + W = R3 . (d) V ∩ W = {(0, 0, 0, 0)} e V + W = R4 . (e) V ∩ W = {(0, 0, 0)} e V + W = {(x, x, y) ; x, y ∈ R}. As somas dadas em (c) e (d) são somas diretas. 272 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS 1.11* Queremos determinar a, b, c ∈ R de modo que o vetor w = (a, b, c) seja combinação linear de u = (2, −6, 4) e v = (2, −1, 1). Para w ser uma combinação linear de u e v devem existir dois números reais x e y tais que (a, b, c) = xu + yv = (2x + 2y, −6x − y, 4x + y). Equivalentemente, (x, y) deve ser uma solução do sistema linear     2x + 2y = a −6x − y = b    4x + y = c . Somando as três equações, obtemos 2y = a+b+c e somando as duas últimas, temos b + c = −2x. Assim as coordenadas a, b, c devem satisfazer a equação a = 3b + 5c. 1.12* (a) Dado α = {(−1, 3, 1), (1, −2, 4)}, o espaço gerado por α, G(α), é por denição o conjunto de todas as combinações lineares de (−1, 3, 1) e (1, −2, 4). Assim G(α) = {a(−1, 3, 1) + b(1, −2, 4) ; a, b ∈ R} = {(−a + b, 3a − 2b, a + 4b) ; a, b ∈ R}. Geometricamente, G(α) é um plano que passa pela origem. Se (x, y, z) ∈ R3 é um elemento de G(α), então x = −a + b, y = 3a − 2b, (1) z = a + 4b, onde a, b ∈ R. As equações em (1) são as equações paramétricas de G(α). (b) O vetor (5, k, 11) ∈ G(α), se 5 = −a + b k = 3a − 2b 11 = a + 4b, 273 para certos a e b em R. Resolvendo o sistema  −a + b = 5 a + 4b = 11, obtemos a = − a5 e b = 16 5 . Portanto, k = 3a − 2b = − 595 . 1.13 (a) {(2, 1, 0), (−3, 0, 1)}. (b) {(1, 1, 0, −1), (0, 0, 1, 0)}. (" (c) {1 + x2 , x − 12 x2 }. (d) # " #) 1 0 0 0 , . −1 0 1 1 1.15 (a), (c) e (d). 1.16 (a) −1p1 (x) − 2p2 (x) + 2p3 (x). (b) 3p1 (x) + 0p2 (x) − 2p3 (x). (c) 2p1 (x) − 1p2 (x) + 0p3 (x). 2.1* Sejam f (x) = x3 + 4x2 − 2x + 3, g(x) = x3 + 6x2 − x + 4 e h(x) = 2x3 + 8x2 − 8x + 7 e sejam a, b, c ∈ R tais que af (x) + bg(x) + ch(x) = 0. Temos   a + b + 2c = 0      4a + 6b + 8c = 0   2a + b + 8c = 0     3a + 4b + 7c = 0 . Resolvendo o sitema, obtemos a = b = c = 0, Assim, os três polinômios são linearmente independentes. 2.2 (a) e (b) independentes, (c) dependente. 2.3 (a), (b) e (c) independentes. 2.4 a = −1 ou a = 2. 3.1* Seja V um espaço vetorial de dimensão n. Queremos mostrar que qualquer conjunto linearmente independente com n vetores forma uma base de 274 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS V . Sejam v1 , v2 , . . . , vn vetores linearmente independentes. Se estes vetores não geram V , então existe um vetor w ∈ V que não pode ser escrito como combinação linear deles. Sejam α1 , . . . , αn , β ∈ R tais que α1 v1 + · · · + αn vn + βw = 0. Observemos que se β = 0, então αi = 0 para todo i = 1, . . . , n, pois os vetores v1 , v2 , . . . , vn são linearmente independentes. Se β 6= 0, então 1 − (α1 v1 + · · · + αn vn ) = w, β o que contradiz a escolha de w. Assim, β = α1 = · · · = αn = 0. Como temos que o conjunto com n + 1 vetores formado por v1 , v2 , . . . , vn , w é linearmente independente, então a dimensão de V é pelo menos n + 1. Absurdo. Agora vamos provar que todo conjunto formado por n geradores não nulos é linearmente independente. Sejam v1 , v2 , . . . , vn vetores não nulos que geram o espaço V . Sabemos que sempre é possível extrair dentre eles um subconjunto linearmente independente, digamos v1 , . . . , vk . Armamos que estes k vetores ainda geram V . De fato, como v1 , . . . , vk , vk+1 é linearmente dependente, devemos ter que α1 v1 + · · · + αk vk + βvk+1 = 0, onde os escalares não são todos nulos. Mais ainda, note que β 6= 0. Assim, vk+1 pode ser escrito como uma combinação linear dos vetores v1 , . . . , vk . Analogamente, mostramos que cada vk+j , com 1 ≤ j ≤ n − k , também pode ser escrito como uma combinação linear dos vetores v1 , . . . , vk . Desta forma, pela Proposição 3.1.7, concluímos a prova da armação. Portanto, os vetores v1 , . . . , vk formam uma base de V . Como dim V = n, segue que k = n, ou seja, o conjunto original já era linearmente independente. 3.2* Seja V o espaço das matrizes simétricas 2 × 2, ou seja, (" # ) a b V = a, b, c ∈ R . b c 275 Vejamos que o conjunto β é uma base de V , onde (" # " # " #) 1 0 0 1 0 0 β= , , . 0 0 1 0 0 1 De fato, β gera V , uma vez que todo elemento de V é da forma " # " # " # " # a b 1 0 0 1 0 0 =a +b +c . b c 0 0 1 0 0 1 Sejam a, b, c ∈ R tais que " # " # " # " # 1 0 0 1 0 0 0 0 a +b +c = . 0 0 1 0 0 1 0 0 Temos que a = b = c = 0, o que mostra que β é linearmente independente. 3.3* (a) Temos que U = {(a, b, c, d) ; b + c + d = 0)} = {(a, b, c, −(b + c)) ; a, b, c ∈ R}. Armamos que BU = {(1, 0, 0, 0), (0, 1, 0, −1), (0, 0, 1, −1)} é uma base de U . De fato, se (a, b, c, d) ∈ U , então (a, b, c, d) = a(1, 0, 0, 0) + b(0, 1, 0, −1) + c(0, 0, 1, −1) e se α, β, γ ∈ R são tais que α(1, 0, 0, 0) + β(0, 1, 0, −1) + γ(0, 0, 1, −1) = 0, segue que α = β = γ = 0. Portanto, BU é uma base de U e a dimensão de U é três. (b) Temos que W = {(a, b, c, d) ; a + b = 0, c = 2d} = {(a, −a, 2d, d) ; a, d ∈ R}. Armamos que BW = {(1, −1, 0, 0), (0, 0, 0, 2, 1)} é uma base de W . Seja (a, b, c, d) ∈ W . Então (a, b, c, d) = a(1, −1, 0, 0) + d(0, 0, 2, 1) 276 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS e se α, β ∈ R são tais que α(1, −1, 0, 0) + β(0, 0, 2, 1) = (α, −α, 2β, β) = 0, segue que α = β = 0. Portanto, BW é uma base de W e a dimensão de W é dois. (c) Temos que U ∩W = {(a, b, c, d) ; b+c+d = 0, a+b = 0, c = 2d} = {(3d, −3d, 2d, d) ; d ∈ R}. Armamos que B = {(3, −3, 2, 1)} é uma base de U ∩ W . De fato, se (a, b, c, d) ∈ U ∩ W , então (a, b, c, d) = (3d, −3d, 2d, d) = d(3, −3, 2, 1). Portanto, B é uma base de U ∩ W e a dimensão de U ∩ W é um. (d) Observe que dim(U + W ) = dim U + dim W − dim(U ∩ W ) = 4. Logo, U + W = R4 . Assim, podemos escolher como base de U + W qualquer base de R4 . Por exemplo, a base canônica {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)}. 3.4 (a) dependente, já que v3 = 2v1 − 2v2 . (b) β = {(1, 1, 0), (0, 1, −1)}. (c) dim(G(α)) = 2, porque β é uma base para G(α). 3.6 Os vetores formam uma base para M(2, 2). 3.9 4. " 3.10 (a) 2. # 2 1 (b) Não. Porque ∈ / W. 3 4 3.11 (a) {(−3, 1, −3, 5)}, 1. (b) {(−1, 1, , 0, 0), (2, 0, 1, 0), (−1, 0, 0, 1)}, 3. 277 3.13 (a) 11/28, 1/14. (b) 1, −1. (c) 2, 0, −1. 4.1* Seja U ⊆ R4 gerado pelos vetores (1, −2, 3, −3), (2, 3, 1, −4), (3, 8, −3, −5). (a) Sejam a, b, c ∈ R tais que a(1, −2, 3, −3) + b(2, 3, 1, −4) + c(3, 8, −3, −5) = 0. Temos que a, b, c devem satisfazer o sistema linear   a + 2b + 3c = 0     −2a + 3b + 8c = 0   3a + b − 3c = 0     −3a − 4b − 5c = 0 . Somando as duas últimas equações obtemos 3b = −8c e substituindo na segunda equação obtemos 2a = 0. Assim, a = b = c = 0. Logo, (1, −2, 3, −3), (2, 3, 1, −4), (3, 8, −3, −5) é uma base de U e sua dimensão é três. (b) Chamemos u1 = (1, −2, 3, −3), u2 = (2, 3, 1, −4) e u3 = (3, 8, −3, −5). Devemos achar um vetor v ∈ R4 de modo que o conjunto B = {u1 , u2 , u3 , v} seja linearmente independente, ou seja, devemos achar um vetor v que não seja combinação linear dos vetores u1 , u2 e u3 . Ora, U é o espaço gerado por u1 , u2 e u3 . Equivalentemente, U é o espaço linha da matriz   1 −2 3 −3   A = 2 3 1 −4 . 3 8 −3 −5 Reduzindo a matriz A a sua forma escalonada obtemos a matriz   1 0 0 −3   R = 0 1 0 0 . 0 0 1 0 278 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS Os vetores linha não nulos da matriz R são w1 = (1, 0, 0, −3), w2 = (0, 1, 0, 0) e w3 = (0, 0, 1, 0). Assim, U = G(u1 , u2 , u3 ) = G(w1 , w2 , w3 ) = {a(1, 0, 0, −3) + b(0, 1, 0, 0) + c(0, 0, 1, 0) ; a, b, c ∈ R} = {(a, b, c, −3a) ; a, b, c ∈ R}. Portanto, para um vetor v ∈ R4 não ser combinação linear dos vetores u1 , u2 e u3 , basta v não ser da forma (a, b, c, −3a), onde a, b, c ∈ R. Desse modo, tomemos v = (1, 0, 0, 0). O conjunto B = {u1 , u2 , u3 , v} é linearmente independente e, portanto, é uma base de R4 . 4.2* Seja U ⊆ R4 gerado pelos vetores u1 = (2, 4, −2, 6), u2 = (1, 2, 1/2, −1) e u3 = (3, 6, 3, −5) e seja W ⊆ R4 gerado pelos vetores w1 = (1, 2, −4, 11) e w2 = (2, 4, −5, 14). Para mostrarmos que U = W , basta mostrar, pela Proposição 3.1.7, que cada vetor ui é combinação linear dos vetores w1 e w2 para i = 1, 2, 3 e que, para j = 1, 2, cada vetor wj é combinação linear dos vetores u1 , u2 e u3 . Vamos mostrar que u1 é combinação linear dos vetores w1 e w2 . Para isto, temos que achar a, b, ∈ R tais que u1 = aw1 + bw2 . Como u1 = −2w1 + 2w2 , mostramos o que queríamos. Analogamente podemos ver que u2 = −2w1 + (3/2)w2 , u3 = −7w1 − (5/7)w2 , w1 = (5/4)u1 + 0u2 − (1/2)u3 , w2 = (13/8)u1 + 1u2 − (3/4)u3 . 4.3 Os vetores formam uma base para R3 . 4.4 {w1 , w2 } é uma base para W , pois {w1 , w2 } é independente e w3 ∈ G(w1 , w2 ) já que w3 = 2w1 + 6w2 . Portanto, dim W = 2. 279 O conjunto {w1 , w2 , (0, 0, 1, 0), (0, 0, 0, 1)} estende {w1 , w2 } a uma base de R4 . 4.5 (0, 0, 0, 1, 0) e (0, 0, 0, 0, 1). Capítulo 4 1.2* Sejam u, v e w três vetores quaisquer em R3 . Podemos supor que u e v são não nulos. (⇒) Se u, v e w são dependentes, existem a, b, c ∈ R não simultaneamente nulos tais que au + bv + cw = 0. Se a 6= 0, temos que u = −(b/a)v − (c/a)w, o que mostra que u, v e w pertencem ao plano que passa pela origem que tem v e w como vetores base. (⇐) Suponhamos que u, v e w pertencem a um plano π que passa pela origem. Sabemos que π é um subespaço de R3 de dimensão dois. Assim, qualquer conjunto com mais de dois elementos de π será dependente, em particular, {u, v, w} é dependente. 1.3* Consideremos v1 = B − A = (3, −3, 1) e v2 = C − A = (0, −3, 1). Seja π o plano que passa pelos pontos A, B e C . Um vetor normal n ao plano π é dado pelo produto vetorial de v1 e v2 . Logo, n = v1 × v2 = (0, 3, 6) é um tal vetor. Assim, 3y + 6z + d = 0 é uma equação geral do plano π , onde d é um número real a se determinar. Como A ∈ π , segue que 3(2) + 6(0) + d = 0, o que nos dá que d = −6. Assim, 3y + 6y − 6 = 0 é a equação geral do plano π. 1.4 (a) {(1, 0, 3), (0, 1, −4)}. (b) {(2, −1, 3)}. (c) {(1, 1, 0), (0, 0, 1)}. 1.5 x−2 4 =y+4= z−7 −8 . 1.7 x − 2 = y − 3 = −z . 1.8 x = 2z+1 −3 1.9 k = −5. , y = 1 − z. 280 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS 1.11 k = −21/7. 1.13 x = −4/3t−2s, y = t, z = 2+s, sendo t e s números reais quaisquer. 1.14 x = 2 − 7t + 3s, y = −1 + t + s, reais quaisquer. z = −5t + 2s, sendo t e s números 1.15 (2, 1, 0), (0, −3, 2), (3/2, 0, 1/2), respectivamente. 2.1* (a) ⇒ (b): Suponhamos que r1 e r2 estejam num mesmo plano, digamos π(Q, u1 , u2 ). Ora, como r1 ⊂ π e r2 ⊂ π , segue que A1 ∈ π e A2 ∈ π . Assim, existem m, n, t, s ∈ R tais que A1 = Q + mu1 + nu2 (1) A2 = Q + tu1 + su2 . (2) e Consequentemente, v ∈ G(u1 , u2 ). Como A1 + v1 ∈ r1 e A2 + v2 ∈ r2 , segue que existem a, b, c, d ∈ R tais que A1 + v1 = Q + au1 + bu2 (3) A2 + v2 = Q + cu1 + du2 , (4) e já que A1 + v1 , A2 + v2 ∈ π . Substituindo (1) em (3) e substituindo (2) em (4), concluímos que v1 ∈ G(u1 , u2 ) e v2 ∈ G(u1 , u2 ). Mostramos, então, que {v, v1 , v2 } ⊂ G(u1 , u2 ). Como dim(G(u1 , u2 )) = 2, qualquer conjunto com mais de dois vetores é dependente. Portanto, {v, v1 , v2 } é dependente. (b) ⇒ (a): Os vetores v, v1 e v2 pertencem a um mesmo plano que passa pela origem, digamos π = π(0, w1 , w2 ). Assim, existem a, b, c, d, e, f ∈ R tais que v = aw1 + bw2 , v1 = cw1 + dw2 , v2 = ew1 + f w2 . 281 Tome P ∈ r1 . Então, existe t ∈ R tal que P = A1 + tv1 = A1 + (tc)w1 + (td)w2 , mostrando que r1 ⊂π(A1 , w1 , w2 ). Armamos que r2 ⊂π(A1 , w1 , w2 ) também. Ora, se P ∈ r2 , então existe t ∈ R tal que P = A2 + tv2 = A1 + aw1 + bw2 + (te)w1 + (tf )w2 = A1 + (a + te)w1 + (b + tf )w2 , mostrando que P ∈ π(A1 , w1 , w2 ). Portanto, ambas as retas r1 e r2 pertencem ao plano π(A1 , w1 , w2 ). 2.2* Note que r1 = {(0, −3, 0) + t(1, 2, −1) ; t ∈ R} e r2 = {(1, 4, 0) + t(−36, −6, 3) ; t ∈ R}. Devemos vericar se o conjunto {(1, 2, −1), (−36, −6, 3), v}, em que v = (1, 7, 0), é linearmente independente ou não. É fácil vericar que é linearmente independente. Assim, as retas são reversas. 2.3 Concorrentes. 2.5 a = 1, b = −2, c = 4. 2.6 a = 4, b = 3. 3.5 x = 10. 3.6* Devemos resolver pela regra de Cramer o sistema linear AX = B , onde " # cos θ − sen θ A= , sen θ cos θ " # x0 X= 0 y " # x eB= . y Como det A = 1, segue pela regra de Cramer que x0 = em que det A1 = det A1 det A " x − sen θ A1 = y cos θ e y0 = # det A2 = det A2 , det A " e # cos θ x A2 = . sen θ y Portanto, x0 = x cos θ + y sen θ e y 0 = −x sen θ + y cos θ. 282 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS Capítulo 5 1.4* Sejam A, C ∈ V e sejam a, c ∈ R. Temos T (aA + cC) = (aA + cC)B + B(aA + cC) = aAB + cCB + aBA + cBC = a(AB + BA) + c(CB + BC) = aT (A) + cT (C), mostrando que T é uma transformação linear. 1.6 (a) T (u + v) = 3u + v . (c) T (−3u) = −6u. (b) T (3v) = 3u + 3v . (d) T (u − 5v) = −3u − 5v . 1.7 (a), (c) e (e) são transformações lineares. (b) Não, pois T (2(1, 1)) 6= 2T (1, 1). (d) Não, pois T (−1(1, 1)) 6= −1T (1, 1). (f) É linear somente se a = 0. 1.8 (a) n = 2, m = 3 e T (x, y) = (−x + 2y, −3x + 2y, y − x). (b) n = m = 3 e T (x, y, z) = (−x + 4y − z, 5x − 5y − z, x + 3z). 2.1* Para mostrarmos que a imagem de T é um subespaço vetorial de W , devemos mostrar que se w1 , w2 ∈ Im T e a ∈ R, então w1 + w2 , aw1 ∈ Im T . Ora, como w1 , w2 ∈ Im T , existem v1 , v2 ∈ V tais que T (v1 ) = w1 e T (v2 ) = w2 . Assim w1 + w2 = T (v1 ) + T (v2 ) = T (v1 + v2 ) e, portanto, w1 + w2 ∈ Im T . Como aw1 = aT (v1 ) = T (av1 ), temos que aw1 ∈ Im T . 2.2* (a) Pela denição, (x, y, z) ∈ Ker T quando (x, y, z) é solução do sistema linear     x + 2y − z = 0 y + 2z = 0    x + 3y + z = 0. Resolvendo o sistema acima, obtemos x = 5z e y = −2z , com z ∈ R. Assim, Ker T = {(5z, −2z, z) ; z ∈ R}. Como Ker T é um subespaço de R3 e sua dimensão é 1, Ker T é uma reta que passa pela origem. 283 (b)     x = 5t y = −2t,    z = t t∈R . (c) Como dim Ker T = 1, segue do teorema do núcleo e da imagem que dim Im T = 2. Portanto, Im T é um plano que passa pela origem. (d) Ora, Im T = G(T (1, 0, 0), T (0, 1, 0), T (0, 0, 1)) = G(((1, 0, 1), (2, 1, 3), (−1, 2, 1)) = G((1, 0, 1), (2, 1, 3)), já que (−1, 2, 1) = −5(1, 0, 1) + 2(2, 1, 3). Portanto, Im T = π(0, v1 , v2 ), onde v1 = (1, 0, 1) e v2 = (2, 1, 3). Assim,     x = m + 2n y = n,    z = m + 3n m, n ∈ R são as equações paramétricas procuradas. 2.4* Se {v1 , . . . , vn } é uma base de V , então {T (v1 ), . . . , T (vn )} gera Im T . Como dim Im T = n, segue que {T (v1 ), . . . , T (vn )} é uma base de Im T e, consequentemente, uma base de W , já que Im T = W . Suponhamos agora que {T (v1 ), . . . , T (vn )} é uma base de W . Para provarmos que {v1 , . . . , vn } é uma base de V , basta mostrar que este conjunto é independente. Sejam a1 , . . . , an ∈ R tais que a1 v1 +· · ·+an vn = 0. Temos a1 T (v1 )+· · ·+an T (vn ) = 0, portanto, ai = 0 para todo 1 ≤ i ≤ n. 2.6* Vamos resolver este exercício de dois modos: 284 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS 1o ) Usando R[x]3 : se p(x)=ax3 + bx2 + cx + d∈W , então a − b + c − d=0. Assim, p(x) = (b − c + d)x3 + bx2 + cx + d = b(x3 + x2 ) + c(−x3 + x) + d(x3 + 1). (1) Chamando q1 (x) = x3 + x2 , q2 (x) = −x3 e q3 (x) = x3 + 1 temos, por (1), que W = G(q1 (x), q2 (x), q3 (x)). Como {q1 (x), q2 (x), q3 (x)} é independente, segue que este conjunto é uma base de W . Portanto, dim W = 3. 2o ) Usando o fato que R[x]3 é isomorfo ao R4 : a função T : R[x]3 → R4 dada por T (ax3 + bx2 + cx + d) = (a, b, c, d) é um isomorsmo. Como T (W ) = {(b − c + d, b, c, d) ; b, c, d ∈ R}, para determinarmos a dimensão de W , basta determinarmos a dimensão de T (W ). Consideremos v1 = (1, 1, 0, 0), v2 = (−1, 0, 1, 0) v3 = (1, 0, 0, 1). Como {v1 , v2 , v3 } é independente e gera T (W ), já que (b − c, d, b, c, d) = bv1 + cv2 + dv3 , segue que {v1 , v2 , v3 } é uma base para T (W ). Portanto, dim T (W ) = 3 e, consequentemente, dim W = 3. 2.7 (a) Ker T = {(x, x, x) ; x ∈ R}, Im T = R2 . (b) Ker T = {(0, 1/2w, 3/2w, w) ; w ∈ R}, Im T = R3 . (c) Ker T = {0}, Im T = {p(x) = ax3 + bx2 + cx ; a, b, c ∈ R}. (" (d) Ker T = # ) (" # ) a b a b ; a, b ∈ R , Im T = ; a, b ∈ R . a b −4a −4b (e) Ker T = {0}, Im T = {(a + b, 2b + c, a + 2b − c, c) ; a, b, c ∈ R}. 2.8 injetivas: (c) e (e); sobrejetivas: (a) e (b). 2.10 T (x, y, z) = (0, 0, x+y+3z ). 3 2.11 T (x, y, z, t) = (−x − y + z, t − 2x − y, 0). 2.12 T (x, y, z) = (x, 2x + y, 3x − y). 2.13 T (x, y, z) = (y + z, 3y, −y + z, 2y − z). 2.16 (a) T (x, y, z) = (x, y). (b) Não é possível. 285 (c) T (x, y, z) = (0, 0, 0). (d) T (x, y, z) = (x + z, 0, 0, 0). 2.19 É invertível; T −1 (x, y, z) = (4x − 2y − 3z, −11x + 6y + 9z, −12x + 7y + 10z). 2.20 (a) ai 6= 0 para todo 1 ≤ i ≤ n. −1 −1 (b) T −1 (x1 , x2 , . . . , xn ) = (a−1 1 x1 , a2 x2 , . . . , an xn ). 2.22 T : V → W dada por T ([aij ]) = [bij ], com bij = aij se i > j e bij = 0 se i < j. 3.1* Como T : R3 → R4 está dada por T (x, y, z) = (x + y, z, x − y, y + z) e S : R2 → R3 está dada por S(x, y) = (2x + y, x − y, x − 3y), obtemos (T ◦ S)(x, y) = T (2x + y, x − y, x − 3y) = ((2x + y) + (x − y), x − 3y, (2x + y) − (x − y), (x − y) + (x − 3y)) = (3x, x − 3y, x + 2y, 2x − 4y). 3.3 (a) (T + S)(x, y) = (x, x). (b) (5T − 4S)(x, y) = (5x + 9y, −4x). (c) (S ◦ T )(x, y) = (0, x + y). (d) (T ◦ S)(x, y) = (x − y, 0). (e) T 3 (x, y) = T (x, y). (f) S −3 (x, y) = (−y, x). Capítulo 6 1.2* (a) Sejam α = {v1 , . . . , vn } uma base de Rn e β = {w1 , . . . , wm } uma base de Rm . Sejam u, v ∈ Rn e a ∈ R. Digamos que u = x1 v1 + · · · + xn vn e v = y1 v1 + · · · + yn vn . Logo, u + av = (x1 + ay1 )v1 + · · · + (xn + ayn )vn . Pela denição de T , [T (u + av)]β = A[u + av]α = A[u]α + aA[v]α = [T (u)]β + a[T (v)]β , 286 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS onde a segunda igualdade segue das propriedades do produto de matrizes. Logo, T é uma transformação linear. (b) Pela denição da matriz [T ]αβ , sabemos que a primeira coluna desta matriz é [T (v1 )]β e usando a denição de T vemos que [T (v1 )]β é precisamente a primeira coluna de A. Procedemos de maneira análoga para as outras colunas. 1.4* Basta mostrar que dim Im T = r, pois dim Ker T = dim V − dim Im T . O posto da matriz nos diz que temos r colunas linearmente independentes e que qualquer conjunto com mais de r colunas será linearmente dependente. Por outro lado, sabemos que as colunas da matriz geram a imagem e que podemos obter a partir delas uma base para Im T escolhendo um subconjunto linearmente independente maximal. Assim pelo visto acima, este conjunto conterá exatamente r colunas. 1.5 T (x, y, z) = (−x + 2z, −4x − y + 6z). 1.6 1.8 1.9 1.11  3/2 −1 −1/2   [T ]αβ = −1/2 1 −1/2 . −1/2 0 1/2  β = {(0, 1, 1), (1, 0, 0), (−3, 7, 1)}.   1 1 1   [T ]ββ = 0 2 4 . 0 0 4  0 1  [T ]αα =  0 0 0 0 1 0 0 0 0 1  1 0  . 0 0 287 1.12 a) Não existe v ∈ R2 tal que T (v) = I2 . " # 5 −3 (b) T (3, −1) = . 5 4 2.1 T (x, y, z) = ( 23 x + 43 y − 31 z, 13 x + 23 y + 13 z, 2y − z)}. 2.2 (a) Ker TA = {0}. (c) Ker TB = {0}. (e) Ker(TB ◦ TA ) = {0}. (b) Im TA = G((1, 0, 1), (2, 1, −1)). (d) Im TB = R3 . (f) Im (TB ◦ TA ) = G((2, −1, 2), (2, −2, 3)). 3.1* Vejamos qual é a imagem de cada vetor da base canônica de R2 . O vetor (1, 0) se transforma no vetor (0, 1) pela rotação e depois no vetor (0, 1) pela reexão. Já o vetor (0, 1) se transforma no vetor (−1, 0) pela rotação e depois no vetor (0, −1). Assim, a matriz desta transformação na base canônica é " # 1 0 . A= 0 −1 3.2* Vamos determinar a matriz da transformação na base canônica, pois sabemos que a inversa desta matriz é a matriz da transformação inversa. Temos   1 0 0   A = 0 1 0 . 0 0 −1 Neste caso, a matriz inversa é igual à matriz. Assim a transformação inversa é a própria transformação. " 3.7 (a) " 4.1 (a) 4.2 4.3 # 0 0 . 3 0 1 3 1 3 4 3 − 23 " (b) # " √ − 2 4√ 2 4 √ # − 42 √ . − 42 # # " 1 0 1 0 , , . 1 2 − 12 12 α = {(1, 3), (−5, −12)}.   −1 1 0   0 0.  1 0 −1 1 (b) " # −2 [v]β = . 3 288 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS 4.8* A demonstração de (a) não apresenta diculdade. Vamos provar (b). P Escrevamos A = (aij ) e B = (blk ). Temos que (AB)ii = nj=1 aij bji e P (BA)jj = ni=1 bji aij . Assim, P P P P tr AB = ni=1 nj=1 aij bji = nj=1 ni=1 aij bji P P = nj=1 ni=1 bji aij = tr BA. Vamos provar (c). De fato, existe uma matriz invertível P tal que [T ]αα = P −1 [T ]ββ P , logo tr[T ]αα = tr P −1 [T ]ββ P = tr[T ]ββ P −1 P = tr[T ]ββ . Capítulo 7 1.1* (a) Sejam u = (x1 , x2 ), v = (y1 , y2 ) e w = (z1 , z2 ) em R2 e seja c em R. Temos: 1. hu, ui = 91 x21 + 14 x22 ≥ 0; 2. hu, ui = 91 x21 + 14 x22 = 0 se, e somente se x1 = x2 = 0, ou equivalentemente u = 0; 3. hu, vi = 91 x1 y1 + 14 x2 y2 = 91 y1 x1 + 14 y2 x2 = hv, ui; 4. hu + v, wi = 91 (x1 + y1 )z1 + 41 (x2 + y2 )z2 = ( 91 x1 z1 + 14 x2 z2 ) + ( 91 y1 z1 + 1 y z ) = hu, wi + hv, wi; 4 2 2 5. hcu, vi = 19 (cx1 )y1 + 14 (cx2 )y2 = c( 91 x1 y1 + 14 x2 y2 ) = chu, vi. Portanto, a expressão dada dene um produto interno em R2 . (b) Se V é um espaço com produto interno, então o conjunto dos vetores v de V que satisfazem ||v|| = 1 é chamado de círculo unitário de V . Assim, o círculo unitário de R2 usando o produto interno em (a) é dado pelo conjunto dos vetores v = (x, y) em R2 tais que r ||v|| = hv, vi1/2 = 1 2 1 2 x + y = 1, 9 4 289 ou equivalentemente, x2 y 2 + = 1. 9 4 A equação acima representa uma elipse de centro na origem e eixos maior e menor paralelos aos eixos coordenados (Figura 24). (c) Se v = (x, y) ∈ R2 , então ||v|| = hv, vi1/2 = p x2 + y 2 = 1, se, e somente se x2 + y 2 = 1. A equação acima representa um círculo de centro na origem e raio 1 (Figura 24). (d) Sim. O círculo unitário com a norma dada pelo produto interno em (a) tem um formato elíptico. Figura 24 1.4 (a) 8. (b) −11. 2.1 (a) 0. (b) √ 2 2 . (c) 14. (c) √ 6 3 . 290 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS 2.2* Sejam u e v dois vetores de um espaço com produto interno. Então ||u + v||2 + ||u − v||2 = hu + v, u + vi + hu − v, u − vi = hu, ui + 2hu, vi + hv, vi + hu, ui − 2hu, vi + hv, vi = 2hu, ui + 2hv, vi = 2||u||2 + 2||v||2 . 2.9* Faremos a prova por indução sobre n. Se n = 2, então ||v1 + v2 ||2 = hv1 + v2 , v1 + v2 i = hv1 , v1 i + 2hv1 , v2 i + hv2 , v2 i = ||v1 ||2 + ||v2 ||2 , já que hv1 , v2 i = 0. Suponhamos agora o resultado válido para n = k − 1. Vamos mostrar que ele é válido para n = k . De fato, pelo caso n = 2 e pela hipótese de indução, segue que ||v1 + · · · + vk−1 + vk ||2 = ||v1 + · · · + vk−1 ||2 + ||vk ||2 = ||v1 ||2 + · · · + ||vk−1 ||2 + ||vk ||2 , pois hv1 + · · · + vk−1 , vk i = hv1 , vk i + · · · + hvk−1 , vk i = 0. Por indução, o resultado vale para todo n ∈ N \ {0}. 2.12* O conjunto {u, v} é uma base de W . Para mostrar que um vetor v˜ em R5 ∈ W ⊥ , ou seja, que h˜v , wi = 0 para todo w ∈ W , basta mostrar que h˜v , ui = h˜v , vi = 0. Tomemos v˜ = (x, y, z, w, t) ∈ R5 . Temos que h˜ v , ui = h˜ v , vi = 0 se, e somente se,  x + 2y + 3z − w + 2t = 0 2x + y + 3z − 2w − t = 0. 291 Equivalentemente, 4 x = 5z + w + t 3 e 5 y = −z − t, 3 onde z, w, t ∈ R. Portanto, 4 5 W ⊥ = {(5z + w + t, −z − t, z, w, t) ; z, w, t ∈ R}. 3 3 Assim, α = {(5, −1, 1, 0, 0), (1, 0, 0, 1, 0), (4/3, −5/3, 0, 0, 1)} é uma base para W ⊥ . 2.13 Basta vericar que hv, v1 i = 0 e hv, v2 i = 0, pois hv, av1 + bv2 i = ahv, v1 i + bhv, v2 i = 0, para quaisquer a e b em R. 2.14 x = 1 + t, y = −2t, z = −3t, sendo t ∈ R. 3.1 (a) Suponhamos que α = {v1 , v2 , . . . , vn }. Então v = a1 v1 + a2 v2 + · · · + an vn , já que a1 , a2 , . . . , an são as coordenadas de v na base α. Como α é um conjunto ortogonal, segue pelo Problema 2.9 que ||v||2 = ||a1 v1 + a2 v2 + · · · + an vn ||2 = ||a1 v1 ||2 + ||a2 v2 ||2 + · · · + ||an vn ||2 . Pela Proposição 7.2.2(c), temos ||a1 v1 ||2 + ||a2 v2 ||2 + · · · + ||an vn ||2 = |a1 |2 ||v1 ||2 + |a2 |2 ||v2 ||2 + · · · + |a2n ||vn ||2 = a21 + a22 + · · · + a2n , pois ||v1 || = ||v2 || = · · · = ||vn || = 1. Portanto, ||v||2 = a21 + a22 + · · · + a2n . 292 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS Extraindo as raízes quadradas de ambos os lados da igualdade acima obtemos q ||v|| = a21 + a22 + · · · + a2n . (b) Por denição, d(v, w) = ||v − w||. Como v − w = (a1 − b1 )v1 + (a2 − b2 )v2 + · · · + (an − bn )vn , segue do item (a) que d(v, w) = p (a1 − b1 )2 + (a2 − b2 )2 + · · · + (an − bn )2 . (c) Ora, hv, wi = ha1 v1 + a2 v2 + · · · + an vn , b1 v1 + b2 v2 + · · · + bn vn i = a1 b1 hv1 , v1 i + a1 b2 hv1 , v2 i + · · · + a1 bn hv1 , vn i + a2 b1 hv2 , v1 i + a2 b2 hv2 , v2 i + · · · + a2 bn h2 , vn i + · · · + an b1 hvn , v1 i + an b2 hvn , v2 i + · · · + an bn hvn , vn i = a1 b1 + a2 b2 + · · · + an bn , já que hvi , vj i = 0 sempre que i 6= j e hvi , vi i = 1 para todo i. 3.4* (a) Pelo Teorema 14, v = v1 + v2 onde v1 = projW v ∈ W e v2 = v − v1 ∈ W ⊥ . Como v1 ∈ W e {w1 , w2 , . . . , wn } é uma base de W , v1 se escreve de modo único como combinação linear dos vetores w1 , w2 , . . . , wn , digamos v1 = a1 w1 + a2 w2 + · · · + an wn . (1) Vamos mostrar que, para cada 1 ≤ i ≤ n, ai = hv, wi i. Ora como v − v1 ∈ W ⊥ , segue que hv − v1 , wi = 0 para todo w ∈ W . Em particular, hv − v1 , wi i = 0 para todo 1 ≤ i ≤ n. Consequentemente, hv, wi i = hv1 , wi i para todo 1 ≤ i ≤ n. Fixemos agora 1 ≤ i ≤ n. Temos hv, wi i = hv1 , wi i = ha1 w1 + a2 w2 + · · · + an wn , wi i = ai , (2) 293 pois {w1 , w2 , . . . , wn } é um conjunto ortonormal. Substituindo (2) em (1), obtemos projW v = hv, w1 iw1 + hv, w2 iw2 + · · · + hv, wn iwn . (b) A demonstração é análoga à prova acima, sendo que, neste caso, para cada 1 ≤ i ≤ n hv, wi i = ai hwi , wi i = ai ||wi ||2 e, consequentemente, ai = hv, wi i . ||wi ||2 3.5 {w1 , w2 , w3 , w4 }, sendo w1 = (0, 2, 1, 0), 4 4 8 4 w3 = (1/2, 1/2, −1, −1) e w4 = ( 15 , 15 , − 15 , 5 ). 3.6 (−1/2, 5/2, −2, 4). √ √ √ w2 = (1, −1/5, 2/5, 0), √ 3.7 {(2/ 5, 1/ 5, 0), (−1/ 5, 2/ 5, 0), (0, 0, 1)}. 4.1* Sejam S e T operadores lineares num espaço com produto interno de dimensão nita V e seja k ∈ R. Sejam u, v ∈ V quaisquer. (a) h(S + T )(u), vi = hS(u), vi + hT (u), vi = hu, S ∗ (v)i + hu, T ∗ (u)i = hu, (S ∗ + T ∗ )(v)i; Assim, (T + S)∗ = T ∗ + S ∗ . (b) h(kT )(u), vi = khT (u), vi = hu, T ∗ (v)i = hu, kT ∗ (v)i; Logo, (kT )∗ = kT ∗ . (c) h(ST )(u), vi = hT (u), S ∗ (v)i = hu, T ∗ (S ∗ (v))i; Assim, (ST )∗ = T ∗ S ∗ . (d) hT ∗ (u), vi = hv, T ∗ (u)i = hT (v), ui = hu, T (v)i. Logo, (T ∗ )∗ = T . 4.2 u = (1, 4, −5). 4.3 T ∗ (x, y, z) = (2x + 3y, 2x + z, −4y). 294 4.6 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS (a), (c) e (d) são operadores ortogonais. 4.7* A segunda linha (a, b, c) deve satisfazer duas condições: a2 +b2 +c2 = 1√e a+2b+2c = 0. Assim, 5b2 +5c2 +8bc = 1. Escolhendo c = 0, obtemos b = 55 √ e a = − 2 5 5 . Para a terceira linha (d, e, f ), queremos que d2 + e2 + f 2 =√1, d + 2e + 2f = 0 e que −2e + f = 0, ou seja, devemos ter que d = −215 5 , √ √ e = −415 5 e f = 5155 . " 4.9 (a)  (b) √2 5 − √15 1 3  2 −  3 − 23 √1 5 √2 5 # .  2 − 23 3  − 23 − 31 . 1 3 2 3 Capítulo 8 2.2* Por indução sobre n. Para n = 2, o resultado é óbvio. Suponhamos o resultado válido para n − 1 e seja A = [aij ] uma matriz triangular superior de ordem n. Então aij = 0 para todo j < i. Pelo Teorema 8.2.1, det A = a11 det(A(1|1)), já que ai1 = 0 para todo 2 ≤ i ≤ n. Como a matriz A(1|1) é uma matriz triangular superior de ordem n − 1, com a22 , . . . , ann como elementos da diagonal principal, temos, pela hipótese de indução, que det A(1|1) = a22 . . . ann , o que termina a prova o resultado. 2.3* Seja a ∈ R. Fazendo o desenvolvimento de Laplace pela primeira linha 295 obtemos  a  2 det A = det a a3  1  + det 1 1  a  2 = a det a a3  1  2 +a det 1 1   a 2 a3 1 3 4  − det  a a 1 a4 a5 1   a a3 1  2 4 a a  − det 1 a3 a5 1   1 a a3 2 4  − a det  a a 1 1 a3 a5   1 a a  2 2 − det 1 a a 1 a3 a3  a2 a3  a3 a4  a4 a5  a a2  a2 a3  a3 a4  a2 a2  a3 a3  a4 a4  a a  a2 a2  . a3 a3 Note que cada uma das matrizes anteriores tem duas colunas iguais e, portanto, cada uma delas tem determinante nulo. Consequentemente, det A = 0. 4.1 (a) {(0, 0, 0)}. (b) {(−1, 3, 1, −1)}. Capítulo 9 1.1* A(c) = {v ∈ V ; T (v) = cv}. Tomemos v e w em A(c) e tomemos a e b em R. Pela linearidade de T , T (av + bw) = aT (v) + bT (w). Como T (v) = cv e T (w) = cw, segue que T (av + bw) = a(cv) + b(cw) = c(av + bw), mostrando que av + bw ∈ A(c). Portanto, A(c) é um subespaço vetorial de V . 1.2 (a) Não tem autovalores e autovetores. (b) 1, {(x, −x, −x) ; x6=0}; −1, {(0, −3x, x) ; x6=0}; 2, {(0, 0, x) ; x6=0}. (c) 1, {ax2 + bx + b ; a 6= 0 ou b 6= 0}; −1, {ax − a ; a 6= 0}. 296 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS (" # ) 0 0 (d) 1, ; a 6= 0 ; 0 a (" # ) −2a a −1, ; a 6= 0 ; a 0 (" # ) a 0 −2, ; a 6= 0 . −a 0 1.3 (a) c = 0, {(x, −x) ; x 6= 0}; c = 4, {(x, x) ; x 6= 0}. (b) c = 1, {(−y − 2z, y, z) ; y 6= 0 ou z 6= 0}; c = 2, {(0, y, −y) ; y 6= 0}. (c) c = 0, {(0, 0, 0, x) ; x 6= 0}; c = 2, {(−x, −2y, x, y) ; x 6= 0 ou y 6= 0}; c = 4, {(x, 0, 0, 0) ; x 6= 0}. 1.5 T (x, y, z) = (x, 2x − y + 2z, 4x − 4y + 5z). 1.6* Seja (x, y, z) em R3 . Então, (x, y, z) = (x + y − z)(1, 1, 1) + (−x − y + 2z)(0, 1, 1) + (y − z)(−1, 1, 0), o que pela linearidade de T nos dá que T (x, y, z) = (x + y − z)T (1, 1, 1) + (−x − y + 2z)T (0, 1, 1) + (y − z)T (−1, 1, 0). Como T (1, 1, 1) = (1, 1, 1), T (0, 1, 1) = (0, 2, 2) e T (−1, 1, 0) = (1, −1, 0), segue que T (x, y, z) = (x + y − z)(1, 1, 1) + (−x − y + 2z)(0, 2, 2) + (y − z)(1, −1, 0) = (x + 2y − 2z), −x − 2y + 4z, −x − y + 3z). 1.8   1 0 0   −1 − 12 − 21  . 1 − 12 − 21 297 2.1* Calcular os autovalores e os autovetores de uma matriz A nada mais é do que calcular os autovalores e os autovetores de TA . Assim, " # c−2 3 det = c2 − 6c + 5, 1 c−4 nos dando que c = 1 e c = 5 são os autovalores de A. O conjunto solução do sistema linear " #" # " # −1 3 1 −3 x 0 = y 0 é dado por {(3x, x) ; x ∈ R} e o conjunto solução do sistema linear " 3 3 1 1 #" # " # x 0 = y 0 é dado por {(x, −x) ; x ∈ R}. Assim, os autovetores associados a c = 1 são os vetores da forma (3x, x), x 6= 0 e os autovetores associados a c = 4 são os vetores da forma (x, −x), x 6= 0. 2.2* Seja A ∈ M(n). A matriz A é invertível se, e somente se, Ker TA = {0}. Agora, Ker TA = {0} se, e somente se, não existe v ∈ Rn , não nulo, tal que TA (v) = 0 = 0 · v . Portanto, A é invertível se, e somente se, c = 0 não é um autovalor de A. 3.1* Sabemos que o cálculo dos autovalores de T independe da base considerada em R3 . Assim,   t − 1 −2 0 √ √   det  −1 t + 1 0  = (t − 2)(t − 3)(t + 3). 1 0 t−2 Portanto, T tem três autovalores distintos. Como dim R3 = 3, existe uma base de R3 formada de autovetores de T e, assim, T é diagonalizável. 3.2 (a) verdadeiro (b) verdadeiro 3.3 (a) Não é diagonalizável. (c) falso (d) falso 298 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS   0 1 −1   (c) P =  1 0 0 . −1 0 1 " # 1 4 (b) P = . −1 3 3.4 (a) c 6= 1. (b) c = 0. 3.5 (a) I3 . (b) A. (c) I3 . 3.6* Seja α a base canônica de R2 . Então, " # t−2 2 P[T ]αα (t) = det = t2 − 5t + 4, 1 t−3 o que nos dá que c1 = 1 e c2 = 4 são os autovalores de T . O conjunto solução do sistema linear " #" # " # −1 2 1 −2 x 0 = y 0 e o conjunto solução do sistema linear " 2 2 1 1 #" # " # x 0 = y 0 é o autoespaço associado a c1 = 1 e o autoespaço associado a c2 = 4, respectivamente. Assim, (2, 1) é um autovetor associado a c1 = 1 e (1, −1) é um autovetor associado a c2 = 4. Portanto, β = {(2, 1), (1, −1)} é uma base de R2 tal que [T ]ββ é uma matriz diagonal. 5.1* (a) Temos que 1 x2 − 4x − 2y + 4 = 0 ⇐⇒ (x − 2)2 = 2y ⇐⇒ y = (x − 2)2 . 2 Portanto, a equação representa uma parábola. (b) A equação 4x2 − 3y 2 + 24xy − 156 = 0 equivale a equação matricial " #" # h i 4 12 x + [−156] = [0]. x y 12 −3 y (1) 299 A matriz " # 4 12 A= 12 −3 é simétrica. Logo, pelo Teorema Espectral, A é ortogonalmente diagonalizável. De fato, c1 = 13 e c2 = −12 são os autovalores de A. O vetor v1 = (4/5, 3/5) é um autovetor associado a c1 = 13 e o vetor v2 = (−3/5, 4/5) é um autovetor associado a c2 = −12. Logo, a base β = {v1 , v2 } é uma base ortonormal de R2 formada por autovetores. Seja P = [IR2 ]βα , onde α é a base canônica de R2 . Chame D = P −1 AP . Temos " P = 4 5 3 5 − 35 4 5 # " # 13 0 e D= . 0 −12 (2) " # x0 Chamando [v]β de 0 , onde v = (x, y) ∈ R2 , de (1) e (2) obtemos a equação y matricial " #" # i 13 0 h x0 0 0 + [−156] = [0], x y 0 −12 y 0 que equivale a equação 13x02 − 12y 02 − 156 = 0, ou seja, x02 y 02 − = 1. 12 13 Portanto, a equação 4x2 − 3y 2 + 24xy − 156 = 0 representa uma hipérbole. 5.2 (a) ∅. (d) uma reta. (g) parábola. (b) elipse. (e) hipérbole. (h) elipse. (c) duas retas paralelas. (f) elipse. (i) hipérbole.