Preview only show first 10 pages with watermark. For full document please download

Sistemas Lineares

Apostila sobre Sistemas Lineares utilizada em Algelin I

   EMBED


Share

Transcript

´ ´ TOPICOS DE ALGEBRA LINEAR: SISTEMAS LINEARES Paulo Agozzini Martin & Maria Lu´cia Singer Sum´ ario Cap´ıtulo 1. SISTEMAS LINEARES 1. Sistemas lineares 2. Sistemas equivalentes. 5 5 6 ´ Cap´ıtulo 2. O METODO DE GAUSS 1. Escalonamento 2. Sistemas homogˆeneos e sistemas n˜ao-homogˆeneos 13 13 16 Cap´ıtulo 3. MATRIZES 1. Opera¸c˜oes com sistemas lineares 2. Matrizes Invers´ıveis 19 19 24 Cap´ıtulo 4. DETERMINANTES 1. Motiva¸c˜ao 2. Defini¸c˜ao e propriedades 3. Determinantes e matrizes invers´ıveis 29 29 33 43 Cap´ıtulo 5. MATRIZES ELEMENTARES 1. Escalonamento revisitado 2. Matrizes elementares e determinantes 49 49 53 Cap´ıtulo 6. EXERC´ICIOS 1. Exerc´ıcios Propostos. 2. Respostas aos exerc´ıcios 55 55 65 3 CAP´ıTULO 1 SISTEMAS LINEARES 1. Sistemas lineares Neste cap´ıtulo vamos estudar os sistemas lineares, ou seja, sistemas de m equa¸c˜oes em n inc´ognitas, da forma a11 x1 + · · · + a1n xn = b1 a21 x1 + · · · + a2n xn = b2 ............................... am1 x1 + · · · + amn xn = bm onde os coeficientes aij e os bj s˜ao n´ umeros reais. Se algum dos bi for diferente de zero dizemos que o sistema ´e um sistema n˜ ao-homogˆeneo; caso contr´ario, dizemos que ´e um sistema homogˆeneo. Uma solu¸ca˜o do sistema acima ´e um conjunto ordenado de n n´ umeros reais u1 , . . . , un , que, quando colocados respectivamente no lugar das inc´ognitas, verificam as m identidades: n  1 ≤ i ≤ m. aij uj = bi , j=1 Denotaremos um conjunto ordenado de n n´ umeros reais por (u1 , u2 , . . . , un ), e o chamaremos de uma n-upla de n´ umeros reais. O conjunto de todas as poss´ıveis n-uplas de n´ umeros reais ser´a denotado por Rn . Assim: Rn = {(u1 , . . . , un ) : u1 , . . . , un ∈ R}. Nosso problema inicial consiste em saber se um dado sistema possui alguma solu¸c˜ao e em encontr´a-las todas, caso existam. Como n˜ao fizemos nenhuma restri¸c˜ao aos inteiros m e n, temos sistemas com mais equa¸c˜oes do que inc´ognitas, com menos equa¸c˜oes do que inc´ognitas ou sistemas onde o n´ umeros de equa¸c˜oes ´e igual ao n´ umero de inc´ognitas. 5 6 1. SISTEMAS LINEARES Intuitivamente, um sistema com mais inc´ognitas do que equa¸c˜oes, como por exemplo: 2x1 + x2 − x3 = 5, tem uma infinidade de solu¸c˜oes. Nesse exemplo, podemos deixar livres x2 e x3 , e determinar x1 : x1 = 5 − x2 + x 3 , 2 de modo que as 3-uplas 5 − u2 + u3 u2 , u3 ∈ R , u2 , u3 ), 2 s˜ao todas as solu¸c˜oes. Podemos tamb´em deixar livres as vari´aveis x1 e x3 , de modo que as solu¸c˜oes sejam representadas pelas 3-uplas: ( (x1 , 5 + x3 − 2x1 , x3 ). Tamb´em intuitivamente percebemos que um sistema com mais equa¸c˜oes do que inc´ognitas n˜ao tem muita chance de ter solu¸c˜ao, por exemplo: 2x1 + x2 = 2 3x1 = 1 3x2 = 1 Note que se a primeira equa¸c˜ao do sistema acima fosse 2x1 +x2 = 1, ent˜ao a 2-upla (1/3, 1/3) seria solu¸c˜ao! Assim como a rela¸c˜ao entre o n´ umero de equa¸c˜oes e o n´ umero de inc´ognitas influencia na existˆencia de solu¸c˜oes, destacamos tamb´em um caso digno de considera¸c˜ao: todo sistema homogˆeneo possui pelo menos uma solu¸c˜ao, a saber (0, 0, . . . , 0), chamada de solu¸c˜ ao trivial. Vimos acima exemplos de sistemas com uma infinidade de solu¸c˜oes, com uma u ´nica solu¸c˜ao e com nenhuma solu¸c˜ao. Veremos adiante que n˜ao existem outras possibilidades! 2. Sistemas equivalentes. Uma primeira observa¸c˜ao importante, embora muito simples, ´e a seguinte: dado um sistema linear, o seu conjunto solu¸c˜ao pode ser igualmente determinado (ou descrito) por in´ umeros outros sistemas de equa¸c˜oes. Por exemplo o sistema: 2. SISTEMAS EQUIVALENTES. 7 x 1 − x2 = 0 x1 + x2 = 2 determina o conjunto solu¸c˜ao S = {(1, 1)}. Esse mesmo conjunto solu¸c˜ao ´e determinado pelo sistema: x 1 − x2 = 0 3x1 + x2 = 4 ou pelo sistema 7x1 + x2 = 8 3x1 + x2 = 4. Assim, podemos nos fazer uma pegunta: fixado um sistema, existem transforma¸c˜oes que podemos realizar nele de modo a simplificar as suas equa¸c˜oes e, ao mesmo tempo, n˜ao alterar o seu conjunto solu¸c˜ao? Vamos come¸car a responder essa quest˜ao por meio de um sistema simples x1 + x2 − 2x3 = 1 3x1 − x2 + x3 = 2 x1 − x2 + 3x3 = 4, composto de trˆes equa¸c˜oes a trˆes inc´ognitas. Denotaremos cada equa¸c˜ao acima por Ei (x1 , x2 , x3 ) = bi , (i = 1, 2, 3) ou, mais abreviadamente, Ei = bi . Apresentaremos a seguir trˆes opera¸c˜oes muito simples que n˜ao alteram o conjunto solu¸c˜ao do sistema: 1. Permuta¸ c˜ ao. Trocar de lugar duas equa¸c˜oes do sistema: E1 = 1 E3 = 4 E2 = 2 ⇐⇒ E2 = 2 E3 = 4 E1 = 1 2. Multiplica¸ c˜ ao. Substituir uma das equa¸c˜oes por um m´ ultiplo n˜ao nulo dela mesma: 8 1. SISTEMAS LINEARES E1 = 1 E2 = 2 E3 = 4 ⇐⇒ λ · E1 = λ · 1 E2 = 2 E3 = 4 onde λ = 0. 3. Adi¸ c˜ ao. Substituir a equa¸c˜ao Ei = bi pela sua soma com um m´ ultiplo de uma outra equa¸c˜ao, ou seja Ei + µ · Ej = bi + µbj (onde j = i) tamb´em n˜ao alteramos o conjunto solu¸c˜ao: E1 = b1 E2 = b2 E3 = b3 ⇐⇒ E1 + µ · E3 = b1 + µ · b3 E2 = b2 E3 = b3 Cada uma das trˆes opera¸c˜oes acima ´e chamada de opera¸ca˜o elementar. Veremos que, aplicadas em sequˆencia, elas s˜ao extremamente u ´teis para simplificar as equa¸c˜oes que descrevem um dado conjunto solu¸c˜ao. Dado um sistema linear, todo sistema obtido a partir dele, por meio de uma sequˆencia finita de opera¸c˜oes elementares, ´e dito um sistema equivalente ao sistema dado. Vimos acima que sistemas equivalentes possuem o mesmo conjunto solu¸c˜ao. Usualmente escrevemos Ei = bi ∼ Ei = bi para denotar que os sistemas s˜ao equivalentes. ´ muito f´acil de se perceber que se o sistema E  = b pode ser E i i obtido do sistema Ei = bi por meio de uma sequˆencia de opera¸c˜oes elementares, ent˜ao Ei = bi tamb´em pode ser obtido do sistema Ei = bi por meio de uma sequˆencia de opera¸c˜oes elementares. Isso porque cada opera¸c˜ao elementar pode ser desfeita ou invertida por outra opera¸c˜ao elementar. De fato: consideremos o sistema S de equa¸c˜oes E1 (x1 , . . . , xn ) = b1 E2 (x1 , . . . , xn ) = b2 E3 (x1 , . . . , xn ) = b3 ........................ Em (x1 , . . . , xn ) = bm onde Ei (x1 , . . . , xn ) = bj representa a i-´esima equa¸c˜ao ai1 x1 + · · · + ain xn = bi do sistema S. Se S1 ´e o sistema obtido a partir de S 2. SISTEMAS EQUIVALENTES. 9 permutando-se as linhas i e j, com i = j, ent˜ao ´e claro que se permutarmos novamente as mesmas linhas i e j do sistema S1 , obteremos o sistema original S. Se S2 ´e obtido de S multiplicando-se a i-´esima equa¸c˜ao de S por λ = 0 ent˜ao obteremos S multiplicando a i-´esima equa¸c˜ao de S2 por µ = 1/λ. Se S3 ´e obtido de S substituindo-se a i-´esima equa¸c˜ao de S, Ei = bi , por Ei = bi , onde Ei = Ei + λEj (com j = i) e bi = bi + λbj , ent˜ao S3 fica: E1 (x1 , . . . , xn ) = b1 E2 (x1 , . . . , xn ) = b2 ........................ Ei (x1 , . . . , xn ) = bi ........................... Em (x1 , . . . , xn ) = bm e substituindo-se a i-´esima linha de S3 pela diferen¸ca entre ela e λ vezes a j-´esima linha (que n˜ao se alterou) obteremos o sistema S. Al´em disso, se o sistema S ´e obtido do sistema S  e o sistema S  ´e obtido do sistema S  ent˜ao S ´e obtido de S  . Isso mostra que se definirmos S ∼ S  como: S  ´e obtido de S por meio de opera¸c˜oes elementares, ent˜ao: 1) S ∼ S 2) S ∼ S  =⇒ S  ∼ S 3) S ∼ S  & S  ∼ S  =⇒ S ∼ S  As trˆes propriedades acima caracterizam as chamadas rela¸co˜es de equivalˆencia. Essa rela¸c˜ao ∼ definida acima entre sistemas lineares particiona o conjunto de todos os sistemas lineares em classes de sistemas equivalentes de tal modo que se S ∼ S  ent˜ao o conjunto solu¸c˜ao de S e o conjunto solu¸c˜ao de S  s˜ao iguais. Vamos aplicar algumas opera¸c˜oes elementares no exemplo acima para simplificar as suas equa¸c˜oes, produzindo coeficientes nulos: x1 + x2 − 2x3 = 1 x1 + x2 − 2x3 = 1 3x1 − x2 + x3 = 2 ∼ −4x2 + 7x3 = −1 x1 − x2 + 3x3 = 4 x1 − x2 + 3x3 = 4 10 1. SISTEMAS LINEARES Acima trocamos a segunda equa¸c˜ao E2 = 2 por E2 − 3E1 = 2 − 3 · 1. Podemos tamb´em trocar E3 = 4 por E3 − E1 = 4 − 1: x1 + x2 − 2x3 = 1 x1 + x2 − 2x3 = 1 −4x2 + 7x3 = −1 ∼ −4x2 + 7x3 = −1 x1 − x2 + 3x3 = 4 −2x2 + 5x3 = 3 Finalmente, trocamos E3 = 3 por 2 · E3 − E2 = 2 · 3 − (−1): x1 + x2 − 2x3 = 1 x1 + x2 − 2x3 = 1 −4x2 + 7x3 = −1 ∼ −4x2 + 7x3 = −1 −2x2 + 5x3 = 3 3x3 = 7 e agora resolvemos recursivamente, de baixo para cima. O u ´ltimo sistema tem uma forma particularmente simples e vamos cham´a-lo de sistema escalonado, pela sua forma de escada x1 + x2 − 2x3 = 1 −4x2 + 7x3 = −1 3x3 = 7. Embora essa forma j´a nos permita resolver o sistema, podemos continuar simplificando as equa¸c˜oes, se assim o desejarmos: substituimos E3 = 7 por (1/3)E3 = (7/3) e obtemos x1 + x2 − 2x3 = 1 −4x2 + 7x3 = −1 x3 = 7/3. No lugar da segunda equa¸c˜ao E2 = −1 colocamos E2 − 7E3 = −1 − 7(7/3) e no lugar da primeira equa¸c˜ao E1 = 1 colocamos E1 + 2E3 = 1 + 2(7/3): x1 + x 2 −4x2 = 17/3 = −52/3 x3 = 7/3. Multiplicando a segunda equa¸c˜ao por −1/4 e trocando a primeira equa¸c˜ao pela diferen¸ca das duas primeiras: 2. SISTEMAS EQUIVALENTES. x1 11 = 4/3 = 13/3 x2 x3 = 7/3. Esse processo de escalonamento ´e chamado de escalonamento completo. Esse exemplo sugere que todo sistema linear pode ser reduzido, por meio de uma sequˆencia de opera¸c˜oes elementares, a um sistema na forma escalonada. CAP´ıTULO 2 ´ O METODO DE GAUSS 1. Escalonamento Um sistema linear de m equa¸c˜oes e n inc´ognitas ´e dito um sistema escalonado se estiver na seguinte forma: a1k1 xk1 + a1(k1 +1) xk1 +1 + a1(k1 +2) xk1 +2 + · · · + a1n xn = b1 a2k2 xk2 + a2(k2 +1) xk2 +1 + · · · + a2n xn = b2 ........................................................... atkt xkt + · · · + atn xn = bt 0 · x1 + · · · 0 · xn = bt+1 ................................... 0 · x1 + · · · 0 · x n = bm onde 1 ≤ k1 < k2 < · · · < kt ≤ n e aiki = 0 para todo 1 ≤ i ≤ t. A aparˆencia terr´ıvel desse sistema desaparece se o olharmos com boa vontade: o escalonamento se traduz no simples fato de que o segmento inicial de coeficientes nulos vai aumentando, da primeira equa¸c˜ao at´e a u ´ltima. As equa¸c˜oes com todos os coeficientes nulos – precisamente, da (t+1)-´esima equa¸c˜ao at´e a m-´esima equa¸c˜ao – acarretam a inexistˆencia de solu¸c˜oes caso algum bj = 0 onde t + 1 ≤ j ≤ m. A raz˜ao pela qual essas u ´ltimas equa¸c˜oes est˜ao presentes na defini¸c˜ao ´e que elas podem aparecer no processo de escalonamento, como o exemplo abaixo ilustra: x 1 + x2 = 2 x1 + x2 = 2 x1 + x2 = 2 x1 + x2 = 2 x1 + 2x2 = 1 ∼ −x2 = 1 ∼ x2 = −1 ∼ x2 = −1 3x1 + 7x2 = 5 4x2 = −1 x2 = −1/4 0x1 + 0x2 = −3/4 Vejamos trˆes exemplos significativos de sistemas escalonados: o primeiro ´e um sistema com mais inc´ognitas do que equa¸c˜oes: 13 14 ´ 2. O METODO DE GAUSS x1 − x2 + x3 − x4 = 1 x2 − x3 + x 4 = 1 x3 − x4 = 2. Deixamos x4 livre e pomos x3 = 2 + x4 . Substituindo na segunda equa¸c˜ao obtemos x2 = 1 + (2 + x4 ) − x4 = 3. Substituindo na primeira equa¸c˜ao x1 = 1 + (3) − (2 + x4 ) + x4 = 2 ou seja, o conjunto solu¸c˜ao ´e um conjunto infinito: S = {(2, 3, 2 + a, a) ∈ R3 : a ∈ R}. No segundo exemplo temos o mesmo n´ umero de inc´ognitas e de equa¸c˜oes: x1 − x2 + x3 − x4 x2 − x3 + x 4 x3 − x4 x4 =1 =1 = 2. =1 Nesse caso temos x4 = 1, x3 = 3, x2 = 3 e x1 = 2. O conjunto solu¸c˜ao ´e um conjunto unit´ario: S = {(2, 3, 3, 1)}. No terceiro exemplo temos mais equa¸c˜oes do que inc´ognitas: x 1 − x2 + x 3 x 2 − x3 x3 0 · x3 =1 =1 = 2. =2 ´ claro que esse sistema n˜ao possui solu¸c˜ao. E Os exemplos acima mostram que ´e f´acil decidir se um sistema escalonado possui solu¸c˜oes e que ´e igualmente f´acil encontr´a-las. Podemos resumir a an´alise do caso escalonado no lema abaixo, cuja demosntra¸c˜ao ´e evidente: 1. ESCALONAMENTO 15 Lema 1.1. Consideremos um sistema linear escalonado de m equac¸˜ oes e n inc´ognitas. Ent˜ao, com a mesma nota¸ca˜o do in´ıcio da se¸ca˜o, podemos concluir: 1) Se bj = 0 para algum t + 1 ≤ j ≤ m, o sistema n˜ao possui solu¸c˜ ao. 2) Se bj = 0 para todo t + 1 ≤ j ≤ m e se kt = n, o sistema possui uma u ´nica solu¸c˜ ao. 3) Se bj = 0 para todo t + 1 ≤ j ≤ m e se kt < n, o sistema possui uma infinidade de solu¸c˜ oes. Para compreender os sistemas lineares, precisamos provar que dado um sistema linear, ele ´e equivalente a um sistema escalonado. Esse ´e o objetivo do pr´oximo Teorema 1.2. Dado um sistema linear de m equa¸c˜ oes e n inc´ognitas a11 x1 + · · · + a1n xn = b1 a21 x1 + · · · + a2n xn = b2 ............................... am1 x1 + · · · + amn xn = bm onde nenhuma equa¸c˜ ao ´e do tipo 0 = 0, podemos reduz´ı-lo a um sistema escalonado por meio de um n´ umero finito de opera¸co˜es elementares. Prova: Reordenando as equa¸c˜oes (se necess´ario), reescrevemos o sistema de modo que o segmento inicial de coeficientes nulos seja n˜ao decrescente, isto ´e: a1k1 xk1 + · · · + a1n xn = b1 a2k2 xk2 + · · · + a2n xn = b2 ...................................... atkt xkt + · · · + atn xn = bt 0x1 + · · · + 0xn = bt+1 ......................... 0x1 + · · · + 0xn = bm 16 ´ 2. O METODO DE GAUSS onde 1 ≤ k1 ≤ k2 ≤ · · · ≤ km ≤ n e aiki = 0. Como a1k1 = 0, para cada i = 2, 3, . . . , m subtra´ımos (aiki /a1k1 ) vezes a primeira equa¸c˜ao da i-´esima equa¸c˜ao, chegando ao sistema equivalente: a1k1 xk1 + a1(k1 +1) xk1 +1 · · · + a1n xn = b1 a2l2 xl2 + · · · + a2n xn = b2 ......................................... atlt xlt + · · · + atn xn = bt 0x1 + · · · + 0xn = bt+1 ......................... 0x1 + · · · + 0xn = bm onde 1 ≤ k1 < l2 ≤ l3 ≤ · · · ≤ lm ≤ n. Observe-se que k1 < l2 , de modo que demos o primeiro passo para o escalonamento. As (m − 1) u ´ltimas equa¸c˜oes n˜ao dependem mais da vari´avel x1k1 e portanto podemos retomar a an´alise inicial: reordenando as (m − 1) u ´ltimas equa¸c˜oes (se necess´ario), colocamos o sistema de modo a poder eliminar a dependˆencia de uma outra vari´avel e continuamos o processo do mesmo modo. Como em cada passo criamos um degrau, o resultado final ser´a um sistema escalonado. Isso termina a prova do teorema. 2 2. Sistemas homogˆ eneos e sistemas n˜ ao-homogˆ eneos Consideremos o sistema linear n˜ao-homogˆeneo (algum bj = 0) a11 x1 + · · · + a1n xn = b1 a21 x1 + · · · + a2n xn = b2 ............................... am1 x1 + · · · + amn xn = bm O sistema linear homogˆeneo que possui os mesmos coeficientes do sistema anterior: ˆ ˜ ˆ 2. SISTEMAS HOMOGENEOS E SISTEMAS NAO-HOMOG ENEOS 17 a11 x1 + · · · + a1n xn = 0 a21 x1 + · · · + a2n xn = 0 ............................... am1 x1 + · · · + amn xn = 0 ser´a chamado de sistema homogˆeneo associado ao sistema n˜ao homogˆeneo dado. A quest˜ao que nos propomos tratar nesta se¸c˜ao ´e a seguinte: existe alguma rela¸c˜ao entre as solu¸c˜oes desses dois sistemas? Uma primeira observa¸c˜ao se imp˜oe: suponhamos que (u1 , . . . , un ) ∈ n R seja uma solu¸c˜ao do sistema n˜ao-homogˆeneo (estamos supondo que existam solu¸c˜oes e que escolhemos uma delas ao acaso). Fixada essa solu¸c˜ao, podemos fabricar outras solu¸c˜oes de modo bem simples, utilizando as solu¸c˜oes do sistema homogˆeneo associado: seja (h1 , . . . , hn ) ∈ Rn uma solu¸c˜ao qualquer do sistema homogˆeno associado; ent˜ao (u1 + h1 , . . . , un + hn ) ∈ Rn tamb´em ´e solu¸c˜ao do sistema n˜ao-homogˆeneo dado. A verifica¸c˜ao desse fato ´e imediata, e ´e consequˆencia da propriedade distributiva da multiplica¸c˜ao dos n´ umeros reais: n  j=1 aij (uj + hj ) =  aij uj + j=1 n  aij hj = bi + 0 = bi , j=1 para todo 1 ≤ i ≤ m. Na verdade, um pouco mais ´e verdadeiro: Teorema 2.1. Se (u1 , . . . , un ) ∈ Rn ´e uma solu¸ca˜o fixada de um sistema linear n˜ ao-homogˆeneo, ent˜ ao todas as solu¸c˜ oes desse sistema n˜ao-homogˆeneo s˜ao da forma (u1 + h1 , . . . , un + hn ) ∈ Rn onde (h1 , . . . , hn ) ∈ Rn percorre as solu¸c˜ oes do sistema homogˆeneo associado. Prova: Falta provar apenas que toda solu¸c˜ao tem a forma enunciada no teorema. Suponhamos que (z1 , . . . , zn ) seja uma solu¸c˜ao do sistema n˜ao-homogˆeneo. Ent˜ao para cada 1 ≤ i ≤ m temos n  j=1 aij zj = bi . 18 ´ 2. O METODO DE GAUSS  Mas por hip´otese sabemos que nj=1 aij uj = bi , para todo 1 ≤ i ≤ m. Subtraindo essas duas equa¸c˜oes obtemos n  aij (uj − zj ) = 0, j=1 ou seja, a n-upla (u1 − z1 , . . . , un − zn ) ∈ Rn ´e solu¸c˜ao do sistema homogˆeneo associado. Se definirmos hj = zj −uj ent˜ao temos o teorema demonstrado. 2 O resultado acima ´e interessante tamb´em porque sugere que podemos definir uma adi¸c˜ ao em Rn da seguinte maneira: (u1 , . . . , un ) + (h1 , . . . , hn ) := (u1 + h1 , . . . , un + hn ). ´ claro que essa adi¸c˜ao de n-uplas ´e associativa, comutativa, tem E (0, . . . , 0) como elemento neutro, e cada n-upla (u1 , . . . , un ) tem um oposto, a saber (−u1 , . . . , −un ). Essa soma ´e uma generaliza¸c˜ao natural da soma dos n´ umeros reais (que ´e o conjunto das 1-uplas, ou R1 ). Um conjunto G munido com uma opera¸c˜ao de adi¸c˜ao que satisfaz as quatro ´ muito propriedades mencionadas acima ´e chamado de grupo abeliano. E f´acil de ver que o conjunto solu¸c˜ao de um sistema linear homogˆeneo ´e um grupo abeliano, com a adi¸c˜ao em Rn definida acima! CAP´ıTULO 3 MATRIZES 1. Opera¸ c˜ oes com sistemas lineares Dados dois sistemas lineares com m equa¸c˜oes e n inc´ognitas, n  n  aij xj = bi , j=1 aij xj = bi , j=1 com 1 ≤ i ≤ m, podemos realizar diversas opera¸c˜oes com esses sistemas, de modo a obter outros sistemas lineares. Por exemplo, podemos som´ a-los da seguinte maneira: n  (aij + aij )xj = bi + bi , 1≤i≤m j=1 obtendo um outro sistema. Podemos tamb´em multiplic´a-los por n´ umeros reais α, β da seguinte maneira: n  αaij xj = αbi , n  j=1 βaij xj = βbi , 1 ≤ i ≤ m. j=1 Podemos tamb´em compor sistemas lineares, como por exemplo os sistemas n  p  aij xj = bi , j=1 aij yj = xi , j=1 onde o sistema do lado esquerdo possui m equa¸c˜oes e n inc´ognitas, e o do lado direito possui n equa¸c˜oes e p inc´ogitas. Se substituirmos o sistema do lado direito no sistema do lado esquerdo, obteremos um sistema com m equa¸c˜oes e p inc´ognitas (mais adiante faremos essas contas). Cada sistema resultante dessas opera¸c˜oes tem os seus coeficientes determinados de maneira precisa, em fun¸c˜ao da opera¸c˜ao realizada, e 19 20 3. MATRIZES podemos visualizar esses processos com extrema clareza se introduzirmos uma nota¸c˜ao mais f´acil de manejar. Vamos representar um sistema linear a11 x1 + · · · + a1n xn = b1 a21 x1 + · · · + a2n xn = b2 ............................... am1 x1 + · · · + amn xn = bm na chamada forma matricial: introduzimos a matriz m × n (dizemos que a matriz possui m linhas e n colunas) dos coeficientes   a11 a12 · · · a1n  a21 a22 · · · a2n   A=  · · · ·  am1 am2 · · · amn e escrevemos a n-upla das vari´aveis como uma matriz n × 1, isto ´e, uma n-upla vertical (vamos cham´a-la de transposta da n-upla usual). Assim, se x = (x1 , . . . , xn )t e b = (b1 , . . . , bm )t , o sistema inicial pode ser escrito como Ax = b, ou, mais explicitamente,  a11 a12 · · ·  a21 a22 · · ·   · · · am1 am2 · · ·     x1 b1 a1n  x2   b2      a2n  · · = ·      ·   ·   ·  amn xn bm a multiplica¸c˜ao que definiremos a seguir  onde a multiplica¸c˜ao A · x ´e (para matrizes em geral). Se A = (aij ) ´e uma matriz m × n e A = (akl ) ´e uma matriz n × p ent˜ao a matriz AA = (cij ) ´e uma matriz m × p cujos coeficientes s˜ao dados por cij = n  aik akj . k=1 Essa multiplica¸c˜ao aparentemente complicada nasceu da composi¸c˜ao de sistemas que mencionamos acima; de fato, se ˜ 1. OPERAC ¸ OES COM SISTEMAS LINEARES n  21 1≤i≤m aij xj = bi , j=1 ´e o sistema com m equa¸c˜oes e n inc´ognitas e se p  ajk yk = xj , 1≤j≤n k=1 ´e o sistema com n equa¸c˜oes e p inc´ognitas, a composi¸c˜ao fornece p n   aij ajk yk = bi , 1≤i≤m j=1 k=1 ou seja, n p   k=1 aij ajk yk = bi , j=1 de modo que dentro dos parˆenteses apareceram os novos coeficientes, que s˜ao exatamente os obtidos pela multiplica¸c˜ao matricial acima definida. Vamos denotar por Mm,n (R) o conjunto de todas as matrizes com m linhas e n colunas. Aqui m e n s˜ao n´ umeros inteiros com m, n ≥ 1. Denotaremos os elementos de Mm,n (R) por (aij ), subentendendo que 1 ≤ i ≤ m e 1 ≤ j ≤ n. ` soma de sistemas lineares corresponde uma soma de matrizes: se A A = (aij ) e A = (aij ) s˜ao duas matrizes de Mm,n (R), definimos a sua soma como sendo a matriz C = (cij ) de Mm,n (R) onde cij = aij + aij , ou seja, somamos coeficiente a coeficiente. Podemos tamb´em definir uma multiplica¸c˜ao de matriz por n´ umero real: se α ∈ R e A = (aij ) ∈ Mm,n (R), definimos a matriz αA por αA = (αaij ) . Para o produto de matrizes (que traduz a id´eia de composi¸c˜ao de sistemas lineares e tamb´em a id´eia de mudan¸ca de vari´aveis) temos que multiplicar uma A = (aij ) ∈ Mm,n (R) por uma A = (aij ) ∈ Mn,p (R) do modo anteriormente definido:  AA = (cij ) ∈ Mm,p (R), cij = n  k=1 aik akj . 22 3. MATRIZES O leitor deve observar que quando m = n o produto de matrizes acima fornece outra matriz de Mm,m (R), de modo que esse caso merece uma aten¸c˜ao especial. Doravante vamos representar o conjunto Mm,m (R) simplesmente por Mm (R). Uma matriz de Mm (R) ser´a chamada de matriz quadrada de ordem m. Os teoremas abaixo, cuja demonstra¸c˜ao ´e elementar, apresentam as principais propriedades das opera¸c˜oes introduzidas: Teorema 1.1. As opera¸c˜ oes de adi¸c˜ ao e multiplica¸c˜ ao por n´ umero real que foram definidas para Mm,n (R) tˆem as seguintes propriedades: A1) (Associatividade) A + (B + C) = (A + B) + C, ∀A, B, C ∈ Mm,n (R). A2) (Comutatividade) A + B = B + A, ∀A, B ∈ Mm,n (R). ∀A ∈ A3) (Elemento neutro) ∃0 ∈ Mm (R) tal que A + 0 = A Mm,n (R). A4)(Existˆencia de oposto) Dada uma A ∈ Mm,n (R) existe B ∈ Mm,n (R) tal que A + B = 0. M1) M2) M3) M4) (α + β)A = αA + βA, ∀A ∈ Mm,n (R) e ∀α, β ∈ R. α(A + B) = αA + αB, ∀A, B ∈ Mm,n (R) e ∀α ∈ R. α (βA) = (αβ)A, ∀A ∈ Mm,n (R) e ∀α, β ∈ R. 1 · A = A, ∀A ∈ Mm,n (R). Teorema 1.2. A opera¸c˜ ao de produto de matrizes em Mn (R) possui as seguintes propriedades: AL1) AL2) AL3) AL4) AL5) A(BC) = (AB)C, ∀A, B, C ∈ Mn (R). A(B + C) = AB + AC, ∀A, B, C ∈ Mn (R). (B + C)A = BA + CA, ∀A, B, C ∈ Mn (R). α(AB) = A(αB), ∀A, B ∈ Mn (R) e ∀α ∈ R. ∃I ∈ Mn (R) tal que IA = AI = A ∀A ∈ Mn (R). A matriz 0 da propriedade A3) ´e chamada de matriz nula, e ´e a matriz 0 = (aij ) com aij = 0. A matriz I da propriedade AL5) ´e chamada de matriz identidade e por vezes ´e denotada In , para explicitar que ´e um elemento de Mn (R). Temos que In = (aij ) com aii = 1 e aij = 0 se i = j:   1 0 ··· 0  0 1 ··· 0   In =   · · · ·  0 ··· 0 1 ˜ 1. OPERAC ¸ OES COM SISTEMAS LINEARES 23 onde As propriedades acima nos dizem que Mm,n (R) ´e um conjunto muito rico do ponto de vista estrutural: por ter as propriedades A1)- A4) Mm,n (R) ´e um grupo abeliano; esse fato, juntamente com as propriedades M1) - M4), fazem com que Mm,n (R) seja um espa¸co vetorial, e, al´em disso, como valem tamb´em AL1) - AL5), Mn (R) ´e uma a´lgebra associativa com unidade. O leitor interessado em saber mais sobre essas estruturas alg´ebricas pode consultar, por exemplo, Basic Algebra volumes I e II de N. Jacobson. Vimos acima a defini¸c˜ao da transposta de uma matriz 1 × n. A generaliza¸c˜ao dessa no¸c˜ao nos ser´a muito u ´til: dada uma matriz A = (aij ) ∈ Mm,n (R) definimos a sua transposta At ∈ Mn,m (R) por At = (cij ) ∈ Mn,m (R), onde cij = aji . Observe que as linhas de A se transformam nas colunas de At , por exemplo:  a11 a12 a13 se A =  a21 a22 a23  , a31 a32 a33  a11 a21 a31 At =  a12 a22 a32  . a13 a23 a33   ent˜ao Identificamos Rn com M1,n (R). A transposta ut de uma n-upla u ∈ Rn ´e um elemento de Mn,1 (R), que tamb´em continuaremos a chamar de n-upla. Se A, B ∈ Mm,n (R) e α ∈ R, o leitor pode verificar como exerc´ıcio que a transposi¸c˜ao possui as seguintes propriedades: dadas A, B ∈ Mm,n (R), 1) (A + B)t = At + B t 2) (αA)t = αAt 3) (At )t = A 4) (AB)t = B t At Assim, de um modo bem formal, podemos reescrever os nossos objetivos iniciais: dada uma matrix A com m linhas e n colunas e coeficientes reais e dada uma n-upla de n´ umeros reais b = (b1 , . . . , bm )t , decidir se o sistema de m equa¸c˜oes e n inc´ognitas Ax = b 24 3. MATRIZES possui solu¸c˜oes e, em caso afirmativo, encontr´a-las. O conjunto de todas as solu¸c˜oes desse sistema ´e um subconjunto do Rn S = {ut = (u1 , . . . , un ) ∈ Rn : Au = b}. 2. Matrizes Invers´ıveis Consideremos o sistema linear Ax = b, onde A ∈ Mm,n (R), x = (x1 , . . . , xn )t e b = (b1 , . . . , bm )t . J´a vimos que o seu conjunto solu¸c˜ao S ´e um subconjunto do Rn que pode ser igualmente descrito por in´ umeros outros sistemas equivalentes. Suponhamos que S seja um conjunto unit´ario, isto ´e, um conjunto com uma u ´nica n-upla. O que podemos dizer de m e n? Uma primeira observa¸c˜ao: necessariamente m ≥ n, pois caso contr´ario, um sistema com mais inc´ognitas do que equa¸c˜oes continuar´a com essa propriedade na forma escalonada, e ent˜ao S teria que ser um conjunto infinito. Se m > n a forma escalonada do sistema tem que ser a seguinte: c11 x1 + c12 x2 + · · · + c1n xn = d1 c22 x2 + · · · + c2n xn = d2 .............................. cnn xn = dn 0x1 + · · · + 0xn = 0 ..................... 0x1 + · · · + 0xn = 0 onde necessariamente cjj = 0. Isso nos mostra que embora tenhamos m equa¸c˜oes, com m > n, apenas n equa¸c˜oes s˜ao realmente independentes; as demais foram eliminadas no processo de escalonamento, fornecendo equa¸c˜oes do tipo 0 = 0. Assim, quando S ´e um conjunto unit´ario, n˜ao h´a perda de generalidade em considerarmos sistemas com tantas equa¸c˜oes quantas forem as inc´ognitas. Portanto, vamos supor que a nossa matriz A do sistema inicial ´e uma matriz de Mn (R), isto ´e, uma matriz n × n (´e claro que tamb´em b ser´a uma matriz n × 1). Como o produto de duas matrizes n × n fornece tamb´em uma matriz n × n, a equa¸c˜ao 2. MATRIZES INVERS´IVEIS (1) 25 Ax = b sugere uma abordagem formal: se existir B ∈ Mn (R) tal que BA = In , ent˜ao, multiplicando a equa¸c˜ao (1) por B pela esquerda obtemos B(Ax) = Bb, de onde (BA)x = In x = x = Bb, ´ como se estiv´essemos pensando e conseguimos o valor da solu¸c˜ao x. E numa equa¸c˜ao do tipo ax = b onde a, b ∈ R e quando a = 0 busc´assemos dividir por a: x = b/a. ˜ o 2.1. Dizemos que uma matriz A ∈ Mn (R) ´e invert´ıvel Defini¸ ca se existir uma matriz B ∈ Mn (R) tal que BA = I. Uma consequˆencia simples da defini¸c˜ao: Lema 2.2. Seja A ∈ Mn (R) uma matriz invert´ıvel. Ent˜ao o sistema Ax = b tem solu¸ca˜o u ´nica. Prova: Seja B ∈ Mn (R) uma matriz tal que BA = I. Vamos mostrar que o sistema homogˆeneo Ax = 0 tem solu¸c˜ao u ´nica. De fato, se x1 for outra solu¸c˜ao ent˜ao Ax1 = A0 = 0, multiplicamos por B `a esquerda e obtemos x1 = 0. A forma escalonada desse sistema ´e: a11 x1 + a12 x2 + · · · + a1n xn = 0 a22 x2 + · · · + a2n xn = 0 ........................... ann xn = 0 onde necessariamente aii = 0, pela unicidade da solu¸c˜ao. Mas isso implica que o sistema n˜ao-homogˆeneo Ax = b tamb´em tem solu¸c˜ao u ´nica! Isso prova o lema. 2 26 3. MATRIZES ˜ o 2.3. A prova acima fornece uma observa¸c˜ao imporObserva¸ ca ao tante: se um dado sistema Ax = b (com A ∈ Mn (R)) tem solu¸c˜ a solu¸c˜ao u ´nica, qualquer que seja b . Ou u ´nica, ent˜ ao Ax = b ter´ seja, a propriedade de ter solu¸c˜ ao u ´nica depende apenas da matriz A. ´nica, ent˜ ao Lema 2.4. Se A ∈ Mn (R) e Ax = b tem solu¸c˜ao u existe uma matriz C ∈ Mn (R) tal que AC = I. Prova: Pela observa¸c˜ao acima, Ax = b ter´a solu¸c˜ao u ´nica para todo b. Escolhemos       1 0 0  0   1   0         , b2 =  ·  , · · · , bn =  ·  · b1 =         ·   ·   ·  0 0 1 com as respectivas solu¸c˜oes    x1 =    c11 c21 · · cn1    ,      x2 =    c12 c22 · · cn2    ,    ··· ,   xn =    c1n c2n · · cnn    .   Se montarmos C = (cij ), ´e claro que, como Axj = bj , teremos AC = I. Isso prova o lema. 2 Finalmente, podemos concluir: Teorema 2.5. Seja A ∈ Mn (R) uma matriz invert´ıvel. Ent˜ao existe uma u ´nica matriz B ∈ Mn (R) tal que BA = I e essa matriz B verifica tamb´em AB = I. Prova: Como A ´e invert´ıvel, o lema 2.2 garante que Ax = b tem solu¸c˜ao u ´nica. Mas ent˜ao o lema 2.4 garante a existˆencia de uma u ´nica matriz C ∈ Mn (R) tal que AC = I. Como A ´e invert´ıvel, seja B uma matriz tal que BA = I. Ent˜ao B = BI = B(AC) = (BA)C = IC = C, ou seja, CA = AC = I. Isso termina a prova do teorema. 2 Vamos denominar a matriz B do teorema acima por A−1 . Ela ser´a chamada de a inversa da matriz A. Podemos concluir o estudo da rela¸c˜ao entre sistemas com solu¸c˜ao u ´nica e matrizes invert´ıveis: 2. MATRIZES INVERS´IVEIS 27 Teorema 2.6. Seja A ∈ Mn (R). O sistema Ax = b tem solu¸c˜ ao u ´nica se e somente se A for invert´ıvel. Prova: Se Ax = b tem solu¸c˜ao u ´nica ent˜ao a prova do Teorema 2.5 garante que A ´e invert´ıvel. A rec´ıproca foi provada no lema 2.2. 2 Se soubermos que uma determinada matriz A ´e invert´ıvel, como calcular a sua inversa? Podemos proceder observando que: se A = (aij ) ´e a matriz invert´ıvel e B = (xij ), matriz de inc´ognitas, ´e a sua inversa ent˜ao AB = I. Matricialmente:     x11 · · · x1n 1 ··· 0 a11 · · · a1n  · ··· ·  · ··· ·  =  · ··· · , an1 · · · ann xn1 · · · xnn 0 ··· 1  e portanto, se considerarmos as inc´ognitas por temas lineares:     x11 a11 · · · a1n  · ··· ·  ·  =  an1 · · · ann xn1 colunas, teremos n sis 1 · ,··· 0      a11 · · · a1n x1n 0 ·  ·  =  ·  ··· , · ··· an1 · · · ann xnn 1 que podemos resolver simultaneamente, por escalonamento completo da matriz:   a11 · · · a1n | 1 · · · 0   a21 · · · a2n | 0 · · · 0    · ··· ··· | ··· ··· ·     · ··· ··· | ··· ··· ·  an1 · · · ann | 0 · · · 1 Escalonando at´e que o lado esquerdo fique sendo a matriz identidade. Vemos que a matriz do lado direito ´e a matriz inversa procurada(cada coluna dela ´e a solu¸c˜ao do sistema linear correspondente). Exemplo 2.7. O sistema linear da matriz  1 1 A =  3 −1 1 −1 p´ agina 7 nos fornece a seguinte  −2 1 . 3 28 3. MATRIZES Vamos invertˆe-la pelo processo acima:      | 1 0 0 1 1 −2 | 1 0 0 | 0 1 0  ∼  0 4 −7 | 3 −1 0  ∼ | 0 0 1 1 −1 3 | 0 0 1    1 0 0 1 1 −2 | 1 0 0 3 −1 0  ∼  0 4 −7 | 3 −1 0  ∼ 1 0 −1 0 0 3 | 1 −1 2    −2 | 1 0 0 1 1 −2 | 1 0 0 −7 | 3 −1 0  ∼  0 4 0 | 16/3 −10/3 14/3  ∼ 1 | 1/3 −1/3 2/3 0 0 1 | 1/3 −1/3 2/3    0 | 5/3 −2/3 4/3 1 0 0 | 1/3 1/6 1/6 0 | 4/3 −5/6 7/6  ∼  0 1 0 | 4/3 −5/6 7/6  1 | 1/3 −1/3 2/3 0 0 1 | 1/3 −1/3 2/3 conclu´ımos que   1/3 1/6 1/6 A−1 =  4/3 −5/6 7/6  . 1/3 −1/3 2/3 1 1 −2  3 −1 1 1 −1 3  1 1 −2 |  0 4 −7 | 0 2 −5 | 1 1  0 4 0 0  1 1  0 1 0 0 de onde CAP´ıTULO 4 DETERMINANTES 1. Motiva¸ c˜ ao Consideremos inicialmente o seguinte sistema homogˆeneo: ax1 + bx2 = 0 cx1 + dx2 = 0. J´a sabemos que ou a solu¸c˜ao trivial (0, 0) ´e a u ´nica solu¸c˜ao ou ´ existir˜ao infinitas solu¸c˜oes. E claro que essas alternativas dependem apenas dos quatro coeficientes a, b, c, d, ou, se quisermos, da matriz dos coeficientes do sistema  a b c d  . Como podemos decidir entre as duas possibilidades para o conjunto solu¸c˜ao, considerando apenas a matriz acima? Isso ´e o que nos propomos neste cap´ıtulo. Uma primeira observa¸c˜ao bem simples nos diz que se a = c = 0 ent˜ao x1 pode assumir qualquer valor e portanto teremos uma infinidade de solu¸c˜oes. A mesma conclus˜ao vale no caso em que b = d = 0. Em termos da matriz dos coeficientes isso se traduz no seguinte: se uma das suas colunas for nula, o sistema ter´a infinitas solu¸c˜oes! Podemos ent˜ao supor que nenhuma das suas colunas ´e nula. Trocando as linhas de lugar, se necess´ario, podemos supor nesse caso que a = 0. Vamos escalonar o sistema. Mantemos a primeira equa¸c˜ao e no lugar da segunda equa¸c˜ao pomos a segunda menos c/a vezes a primeira, obtendo  a b 0 d − (c/a)b  O n´ umero que aparece na segunda linha, a saber 29 30 4. DETERMINANTES ad − bc a ´e fundamental para a determina¸c˜ao das alternativas poss´ıveis para o conjunto solu¸c˜ao do sistema inicial: se ele for diferente de zero, ent˜ao au ´nica solu¸c˜ao ´e a trivial. Caso contr´ario existem infinitas solu¸c˜oes. Agora, do quociente (ad − bc)/a j´a sabemos que a = 0 e portanto podemos resumir a nossa discuss˜ao da seguinte maneira: ad − bc = 0 se e somente a u ´nica solu¸c˜ao do sistema for a trivial! O que ´e ainda melhor ´e que essa condi¸c˜ao engloba o caso anterior de uma das colunas se anular: se uma das colunas se anular, ent˜ao ´e claro que ad − bc = 0, e o sistema ter´a infinitas solu¸c˜oes. Assim, para sistemas com duas equa¸c˜oes e duas inc´ognitas, encontramos um u ´nico n´ umero, a saber ad − bc que possui a not´avel propriedade de discriminar as duas alternativas poss´ıveis para o seu conjunto solu¸c˜ao, bastando para tanto olhar se esse n´ umero ´e zero ou n˜ao. Chamaremos esse n´ umero de determinante da matriz   a b . c d Vejamos se tamb´em podemos encontrar um n´ umero que discrimine o conjunto solu¸c˜ao de um sistema com trˆes equa¸c˜oes e trˆes inc´ognitas: ax1 + bx2 + cx3 = 0 dx1 + ex2 + f x3 = 0 gx1 + hx2 + ix3 = 0. A´ı tamb´em, se uma das colunas da matriz associada for nula, ´e claro que teremos uma infinidade de solu¸c˜oes. Vamos ent˜ao supor que nenhuma das suas colunas ´e nula. Do mesmo modo como fizemos antes, trocando as linhas se necess´ario, podemos supor que a = 0. Vamos escalonar o sistema:   a b c  0 e − bd/a f − cd/a  . 0 h − bg/a i − cg/a Na submatriz 2 × 2 que aparece acima, a saber ˜ 1. MOTIVAC ¸ AO 31   1 ae − bd af − cd a ah − bg ai − cg temos as seguintes possibilidades: I. Ao menos uma das colunas se anula; II. Nenhuma das duas colunas se anula. No caso II, como a vari´avel x1 n˜ao aparece nas duas u ´ltimas equac¸˜oes do sistema escalonado, podemos troc´a-las de lugar e supor que ae − bd = 0. Nesse caso podemos continuar o escalonamento, que nos dar´a a seguinte matriz:   a b c  0 (ae − bd)/a (af − cd)/a  , 0 0 ξ onde   g d(bg − ah) f (bg − ah) +c − − + i, ξ= −bd + ae a a(−bd + ae) ou seja, simplificando, ceg − bf g − cdh + af h + bdi − aei . bd − ae O denominador da fra¸c˜ao acima ´e o oposto do determinante da submatriz   a b . d e Vamos ent˜ao trocar os sinais no numerador e no denominador, para a coerˆencia dos c´alculos: ξ= −ceg + bf g + cdh − af h − bdi + aei . ae − bd Podemos ent˜ao concluir a an´alise, no caso II: o sistema ter´a uma u ´nica solu¸c˜ao (a saber, a trivial) se e somente se ξ = 0. Mas como ae − bd = 0, conclu´ımos: o sistema ter´a solu¸c˜ao u ´nica se e somente se ξ= (2) −ceg + bf g + cdh − af h − bdi + aei = 0. Novamente ocorre algo surpreendente: no caso I, podemos ter ou 32 4. DETERMINANTES I.1) ae − bd = ah − bg = 0 I.2) af − cd = ai − cg = 0 ou (com infinitas solu¸c˜oes em ambas as possibilidades) e em ambos os casos o n´ umero (1) acima se anula, fornecendo um crit´erio u ´nico. De fato, supondo I.1, temos −ceg + bf g + cdh − af h − bdi + aei = = i(ae − bd) − f (ah − bg) + c(dh − eg) = 0 onde a terceira parcela tamb´em se anula pois, por hip´otese, e = db/a e h = gb/a, de onde    db gb −g = 0. dh − eg = d a a O mesmo ocorre com o caso I.2 e tamb´em no caso de alguma das colunas da matriz inicial se anular. Isso significa que podemos resumir a nossa an´alise para sistemas 3 × 3 assim: o sistema ter´a solu¸c˜ao u ´nica se e somente se  −ceg + bf g + cdh − af h − bdi + aei = 0. Como esse n´ umero (sendo zero ou n˜ao) determina se o sistema tem solu¸c˜ao u ´nica vamos cham´a-lo de determinante do sistema dado. Mais formalmente: ˜ o 1.1. Definimos o determinante de uma matriz 2 × 2 ou Defini¸ ca 3 × 3 por:  det a11 a12 a21 a22  = a11 a22 − a21 a12  a11 a12 a13 det  a21 a22 a23  = a11 a22 a33 + a12 a23 a31 + a31 a32 a33 + a13 a21 a32 − a13 a22 a31 − a11 a23 a32 − a12 a21 a33  ˜ E PROPRIEDADES 2. DEFINIC ¸ AO 33 Na defini¸c˜ao acima agrupamos os termos positivos e os termos negativos, procedimento esse que torna mais f´acil a memoriza¸c˜ao do c´alculo do determinante: a11 E a12 E a a a a31 a32 a33 a31 a32 13 E 11 12 EE yy EE yy yy EEyy EyEy y y yy EEE yy EEE yy |yy " |yy |yy " a21 a22 E a23 E a21 E a22 EE yy EE yy EE y y EEyy EEyy EE yy EE yy EEE yy yy EEE E" y y y " |y " |y |y EE EE EE E" Podemos tamb´em perceber outras regularidades, reescrevendo o determinante da seguinte maneira: a11 (a22 a33 − a32 a23 ) − a21 (a12 a33 − a32 a13 ) + a31 (a12 a23 − a22 a13 ) , que revela uma interessante recursividade: os n´ umeros entre parˆenteses s˜ao os determinantes de matrizes 2 × 2 facilmente identific´aveis  (3) a11 det a22 a23 a32 a33   − a21 det a12 a13 a32 a33   + a31 det a12 a13 a22 a23  . A regra que percebemos nesse caso ´e a seguinte: escolhemos a primeira coluna e cada elemento ai1 dessa coluna contribui para o determinante com a parcela ai1 (−1)i+1 detMi1 onde Mi1 ´e a submatriz 2 × 2 obtida da matriz inicial retirando-se dela a i-´esima linha e a primeira coluna. O leitor curioso pode fatorar a express˜ao do determinante de modo que as expans˜oes obtidas sejam feitas n˜ao apenas pela primeira coluna, mas por qualquer coluna, e mesmo por qualquer linha, segundo regras an´alogas a` regra acima. 2. Defini¸ c˜ ao e propriedades Como generalizar o determinante para matrizes quadradas de ordem qualquer? A u ´ltima observa¸c˜ao acima (veja a equa¸c˜ao (3)) sobre a express˜ao recursiva do determinante permite uma defini¸c˜ao simples de determinante para matrizes quadradas quaisquer. Vejamos como ficar´ıa a defini¸c˜ao para uma matriz 4 × 4: 34 4. DETERMINANTES  a11  a21 A=  a31 a41 a12 a22 a32 a42 a13 a23 a33 a43  a14 a24  . a34  a44 Pelas nossas observa¸c˜oes anteriores, o n´ umero procurado deve ser:    a22 a23 a24 a12 a13 a14 a11 det  a32 a33 a34  − a21 det  a32 a33 a34  + a42 a43 a44 a42 a43 a44     a12 a13 a14 a12 a13 a14 +a31 det  a22 a23 a24  − a41 det  a22 a23 a24  a42 a43 a44 a32 a33 a34  ou seja: det(A) = + a14 a23 a32 a41 − a13 a24 a32 a41 − a14 a22 a33 a41 + a12 a24 a33 a41 + a13 a22 a34 a41 − a12 a23 a34 a41 − a14 a23 a31 a42 + a13 a24 a31 a42 + a14 a21 a33 a42 − a11 a24 a33 a42 − a13 a21 a34 a42 + a11 a23 a34 a42 + a14 a22 a31 a43 − a12 a24 a31 a43 − a14 a21 a32 a43 + a11 a24 a32 a43 + a12 a21 a34 a43 − a11 a22 a34 a43 − a13 a22 a31 a44 + a12 a23 a31 a44 + a13 a21 a32 a44 − a11 a23 a32 a44 − a12 a21 a33 a44 + a11 a22 a33 a44 . Embora pud´essemos adotar essa defini¸c˜ao recursiva, preferimos, para uma compreens˜ao mais profunda do assunto, seguir outro caminho. Vamos examinar com cuidado as express˜oes obtidas para os determinantes de matrizes de ordens 2, 3 e 4 e tentar perceber algum padr˜ao. Come¸camos observando que os determinantes obtidos acima s˜ao formados de parcelas bastante peculiares: ˜ E PROPRIEDADES 2. DEFINIC ¸ AO 35 (−1)s(j1 ,j2 ) a1j1 a2j2 , (−1)s(j1 ,j2 ,j3 ) a1j1 a2j2 a3j3 , (−1)s(j1 ,j2 ,j3 ,j4 ) a1j1 a2j2 a3j3 a4j4 , onde (j1 , j2 , . . . , jk ) assumem os poss´ıveis arranjos (s˜ao k! arranjos) dos inteiros {1, 2, . . . , k}, para k = 2, 3, 4. O inteiro s(j1 , . . . , jk ) depende de alguma propriedade oculta no arranjo (j1 , . . . , jk ). Tabelemos os arranjos com sinal positivo e os arranjos com sinal negativo para as diversas ordens: para ordem 2 (1, 2).........(+) (2, 1).........(−) para ordem 3 (1, 2, 3)........(+) (2, 3, 1)........(+) (3, 1, 2)........(+) (3, 2, 1)........(−) (1, 3, 2)........(−) (2, 1, 3)........(−) e para ordem 4: 36 4. DETERMINANTES (4, 3, 2, 1)........(+) (3, 4, 2, 1)........(−) (2, 4, 3, 1)........(+) (4, 2, 3, 1)........(−) (3, 2, 4, 1)........(+) (2, 3, 4, 1)........(−) (3, 4, 1, 2)........(+) (4, 3, 1, 2)........(−) (4, 1, 3, 2)........(+) (1, 4, 3, 2)........(−) (1, 3, 4, 2)........(+) (3, 1, 4, 2)........(−) (4, 2, 1, 3)........(+) (2, 4, 1, 3)........(−) (1, 4, 2, 3)........(+) (4, 1, 2, 3)........(−) (2, 1, 4, 3)........(+) (1, 2, 4, 3)........(−) (2, 3, 1, 4)........(+) (3, 2, 1, 4)........(−) (3, 1, 2, 4)........(+) (1, 3, 2, 4)........(−) (1, 2, 3, 4)........(+) (2, 1, 3, 4)........(−) Percebemos imediatamente algumas regularidades: 1. O arranjo identidade tem sempre sinal (+): (1, 2).....(+), (1, 2, 3).....(+), (1, 2, 3, 4)......(+). 2. Arranjos que diferem do arranjo identidade por apenas uma troca de posi¸c˜ao entre dois elementos tˆem sempre sinal (−): (2, 1)....(−), (2, 1, 3, 4)....(−), (1, 3, 2)....(−), (2, 1, 3)....(−), (3, 2, 1)....(−), (3, 2, 1, 4)....(−), (4, 2, 3, 1)....(−), (1, 4, 3, 2)....(−), (1, 2, 4, 3)....(−). (1, 3, 2, 4)....(−), 3. Dado um arranjo qualquer com sinal ε, o arranjo obtido dele por uma troca de posi¸c˜ao entre dois elementos quaisquer tem sinal −ε. Com essas trˆes observa¸c˜oes j´a podemos arriscar uma caracteriza¸c˜ao desse misterioso inteiro s ´e: ´e o n´ umero de trocas necess´arias para trazer cada arranjo (j1 , j2 , . . . , jk ) `a forma ordenada (1, 2, 3, . . . , k). Assim, por exemplo, o arranjo (3, 1, 2) sofre duas trocas de posi¸c˜ao: (3, 1, 2) −→ (1, 3, 2) −→ (1, 2, 3), de modo que s = 2. O arranjo (2, 1, 3) sofre apenas uma troca: ˜ E PROPRIEDADES 2. DEFINIC ¸ AO 37 (2, 1, 3) −→ (1, 2, 3), e portanto s = 1. A caracteriza¸c˜ao acima possui uma aparente fraqueza; consideremos o arranjo (1, 3, 4, 2). Vamos fazer as trocas para obter (1, 2, 3, 4) de duas maneiras distintas: (1, 3, 4, 2) −→ (1, 2, 4, 3) −→ (1, 2, 3, 4) onde s = 2, e tamb´em (1, 3, 4, 2) −→ (3, 1, 4, 2) −→ (3, 1, 2, 4) −→ (2, 1, 3, 4) −→ (1, 2, 3, 4) onde s = 4. Embora distintas, as duas maneiras produziram um valor par para s. Como o fator (−1)s depende apenas de s ser par ou ´ımpar, essas duas maneiras distintas forneceram o mesmo sinal para a parcela correspondente ao arranjo considerado. Ser´a que n˜ao poder´a ocorrer uma mudan¸ca na paridade de s, se fizermos outras trocas? O pr´oximo lema, que deixaremos como exerc´ıcio, garante que isso n˜ao ´e poss´ıvel! Lema 2.1. Seja (j1 , . . . , jn ) um arranjo dos inteiros {1, 2, . . . , n}. Se com s trocas levamos esse arranjo para o arranjo (1, 2, . . . , n) ent˜ao a paridade de s depende apenas do arranjo inicial dado. ˜ o 2.2. Dada uma matriz quadrada de ordem n, A = Defini¸ ca (aij ) ∈ Mn (R), definimos o seu determinante como a soma:  (−1)s(J) a1j1 a2j2 · · · anjn det(A) = J feita sobre todos os n! arranjos J = (j1 , . . . , jn ) dos inteiros {1, 2, . . . , n} e o inteiro s = s(J) correspondente ´e o n´ umero de trocas necess´ arias para levar o arranjo J dado ao arranjo (1, 2, . . . , n). ´ claro que precisamos verificar se esse determinante, definido em E geral, preserva a propriedade que lhe deu origem, a saber: o sistema Ax = 0 tem uma u ´nica solu¸c˜ao se e somente se det(A) = 0. Antes, por´em, vamos estudar algumas propriedades dos determinantes. ´ muito frequente (como vimos no processo de escalonamento) enE contrarmos matrizes na forma triangular, isto ´e, uma matriz A = (aij ), onde aij = 0 se i > j: 38 4. DETERMINANTES  a11 a12  0 a22 A=  0 0 0 0  · · · a1n · · · a2n  , · · · a3n  · · · ann Vamos calcular o determinante dessa matriz triangular: det(A) =  (−1)s a1j1 a2j2 · · · anjn , somando sobre os arranjos (j1 , . . . , jn ) de {1, 2, . . . , n}. Como aij = 0 se i > j, vemos que as parcelas onde jn = n se anulam. Assim, ficam apenas aquelas onde jn = n. Mas ent˜ao a (n − 1) upla (j1 , . . . , jn−1 ) ´e um arranjo de (1, 2, . . . , n−1) e portanto a u ´nica possibilidade de obter parcelas n˜ao nulas ´e jn−1 = n − 1. Continuando o processo, obtemos det(A) = a11 a22 · · · ann . Vamos resumir essa discuss˜ao no seguinte lema: Lema 2.3. Se A = (aij ) ´e uma matriz quadrada de ordem n triangular, i.e., se aij = 0 quando i > j ent˜ao det(A) = a11 a22 · · · ann . O lema acima tem um caso particular importante, o das matrizes diagonais. Dizemos que uma matriz quadrada A = (aij ) ´e uma matriz diagonal se aij = 0 quando i = j. O lema diz que o determinante de uma matriz diagonal ´e o produto dos elementos da sua diagonal principal. Outro processo frequente na manipula¸c˜ao com matrizes ´e a transpo´ natural buscarmos saber qual a rela¸c˜ao entre o determinante si¸c˜ao. E de uma matriz A e o determinante da sua transposta At . Se A = (aij ) ent˜ao At = (bij ), onde bij = aji . Assim, det(At ) = = =    (−1)s b1j1 b2j2 · · · bnjn (−1)s aj1 1 aj2 2 · · · ajn n (−1)s a1k1 a2k2 · · · ankn = det(A) ˜ E PROPRIEDADES 2. DEFINIC ¸ AO 39 Na passagem da segunda para a terceira linha acima usamos que J = (j1 , . . . , jn ) ´e um arranjo de (1, 2, . . . , n) e portanto, pela comutatividade do produto dos n´ umeros reais, fizemos exatamente s(J) trocas de posi¸c˜ao no produto aj1 1 aj2 2 · · · ajn n de modo a escrevˆe-lo como a1k1 a2k2 · · · ankn . Como cada troca ´e revers´ıvel, se J  = (k1 , k2 , . . . , kn ) ent˜ao s(J  ) = s(J), e obtivemos a forma requerida pela defini¸c˜ao de determinante. Vamos resumir essa discuss˜ao no seguinte Lema 2.4. Se A ´e uma matriz quadrada de ordem n ent˜ao det(A) = det(At ). Lema 2.5. Se B ´e uma matriz obtida a partir da matriz quadrada A = (aij ) permutando-se duas de suas linhas (ou duas de suas colunas) ent˜ao det(A) = −det(B). Prova: Suponhamos que B ´e obtida pela troca das linhas k e p da matriz A, com 1 ≤ k < p ≤ n. Sabemos que  det(A) = (−1)s a1j1 · · · akjk · · · apjp · · · anjn . Aplicando a defini¸c˜ao de determinante a` matriz B obtemos:  det(B) = (−1)t a1j1 · · · apjp · · · akjk · · · anjn . de modo que se precisamos s trocas para transformar (j1 , . . . , jk , . . . , jp , . . . , jn ) em (1, 2, . . . , n), precisaremos de s + 1 trocas para transformar (j1 , . . . , jp , . . . , jk , . . . , jn ) em (1, 2, . . . , n) ou seja: t(J) = s(J) + 1 para todo arranjo J, de onde concluimos que det(B) = −det(A). 2 Uma consequˆencia importante ´e o seguinte: ´rio 2.6. Se A ´e uma matriz quadrada que possui duas liCorola nhas (ou duas colunas) iguais, ent˜ ao det(A) = 0. Prova: A matriz B obtida pela troca de lugar das duas linhas (ou colunas) iguais ´e a pr´opria A, de modo que, pelo lema, det(A) = −det(A), ou seja, det(A) = 0. 2 Vamos explorar um pouco melhor a f´ormula de recursividade (f´ormula (3)) que descobrimos no caso particular de matrizes 3 × 3. Essa f´ormula (generalizada no Teorema de Laplace) nos permite calcular 40 4. DETERMINANTES o determinante a partir de qualquer linha (ou coluna) da matriz A, utilizando os cofatores de A. ˜ o 2.7. (1) Seja A = (aij ) uma matriz de Mn (R) (n ≥ 2). Defini¸ ca ao da A submatriz Mij de A de ordem (n − 1) obtida pela elimina¸c˜ i-´esima linha e da j-´esima coluna ´e chamada de o menor de aij . (2) O cofator Aij do coeficiente aij de A ´e, por defini¸c˜ ao, Aij = (−1)(i+j) det(Mij ). Teorema 2.8. [Laplace] Seja A = (aij ) uma matriz de Mn (R). Ent˜ao det(A) = ai1 Ai1 + ai2 Ai2 + · · · + ain Ain para qualquer 1 ≤ i ≤ n. Acima, Ail ´e o cofator do coeficiente ail de A. Prova: Fixemos a linha i-´esima. Por defini¸c˜ao temos  det(A) = (−1)s a1j1 a2j2 · · · aiji · · · anjn , de modo que cada parcela da soma acima ´e um produto de n fatores onde aparece um u ´nico coeficiente da linha i, a saber aiji . Fixando esse i, em princ´ıpio podemos escrever: det(A) = ai1 pi1 + ai2 pi2 + · · · + ain pin , de modo que precisamos mostrar que aik pik = (−1)(i+k) aik det(Mik ). Passo 1. Suponhamos i = k = 1. Nesse caso   s (−1) a2j2 a3j3 · · · anjn , a11 p11 = a11 onde a soma ´e tomada sobre todos os arranjos (j2 , . . . , jn ) de {2, 3, . . . , n}. Mas o valor entre colchetes ´e, por defini¸c˜ao, A11 = det(M11 ), ou seja, p11 = (−1)(1+1) A11 . Passo 2. Suponhamos agora que i ≥ 1 e k ≥ 1. Fazendo-se (i − 1) trocas de linhas adjacentes e (j − 1) trocas de colunas adjacentes o elemento aij vai para a primeira linha e a primeira coluna sem alterar o menor de aij . Chamando de B a nova matriz resultante dessas trocas, a prova do Lema 2.5 garante que cada termo em det(B) ´e igual a` (−1)(i+j) vezes um correspondente termo em det(A), e portanto ˜ E PROPRIEDADES 2. DEFINIC ¸ AO (4) 41 det(B) = (−1)(i−1+j−1) det(A) = (−1)(i+j) det(A). Passo 3. Como aij foi parar na primeira linha e na primeira coluna da matriz B, pelo Passo 1, a soma de todos os termos envolvendo aij na expans˜ao de det(B) ´e igual a` aij det(Mij ) onde, pelo Passo 2, Mij ´e o menor de aij em A. Assim, a soma dos termos envolvendo aij na expans˜ao de det(A) ´e igual a` (−1)(i+j) aij det(Mij ), isto ´e: aij pij = (−1)(i+j) aij det(Mij ), Isso termina a prova do teorema. 2 ˜ o 2.9. O Teorema de Laplace acima pode tamb´em ser Observa¸ ca aplicado utilizando-se uma coluna em vez de uma linha; o resultado fica: det(A) = a1j A1j + a2j A2j + · · · + anj Anj , para qualquer 1 ≤ j ≤ n. A raz˜ ao disso vem do Lema 2.4. ´rio 2.10. Se A ´e uma matriz de Mn (R) que possui uma Corola linha (ou coluna) nula, ent˜ao det(A) = 0. Prova: Basta usar o teorema anterior e expandir det(A) segundo a linha (ou coluna) nula. 2 Teorema 2.11. [Jacobi] Se uma matriz B ´e obtida a partir de uma matriz A ∈ Mn (R) substituindo-se uma de suas colunas (linhas) pela soma dessa coluna (linha) com um m´ ultiplo escalar de outra coluna (linha) ent˜ ao det(B) = det(A). Prova: Seja A = (aij ) e suponhamos que no lugar da p-´esima coluna Cp pomos Cp + λCk , k = p. Usando o teorema anterior, expandimos det(B) pela p-´esima coluna: det(B) = (a1p + λa1k )A1p + · · · + (anp + λank )Anp = a1p A1p + · · · + anp Anp + λ (a1k A1p + · · · + ank Anp ) = det(A) + λ (a1k A1p + · · · + ank Anp ) . Precisamos mostrar que (a1k A1p + · · · + ank Anp ) = 0. Faremos isso no pr´oximo teorema. 2 42 4. DETERMINANTES Teorema 2.12. [Cauchy] Seja A = (aij ) ∈ Mn (R). Ent˜ao ai1 Ak1 + ai2 Ak2 + · · · + ain Akn = 0, i = k, a1j A1l + a2j A2l + · · · + anj Anl = 0, j = l. onde Aij ´e o cofator do coeficiente aij da matriz A. Prova: Consideremos a matriz C formada a partir de A substituindose a k-´esima linha pela i-´esima linha. Como C tem duas linhas iguais, ent˜ao det(C) = 0. Vamos expandir det(C), usando o Teorema 2.8, pela i-´esima linha: det(C) = ai1 Ci1 + · · · + ain Cin . Qual a rela¸c˜ao entre o cofator Cil do coeficiente ail da matriz C e o ´ f´acil de ver que os menores cofator Akl do coeficiente akl da matriz A? E associados aos coeficientes ail de C e akl de A possuem as mesmas linhas, exceto talvez pela ordem, o que significa que Cil = ±Akl , sendo que o sinal independe de l. Isso acarreta ai1 Ak1 + ai2 Ak2 + · · · + ain Akn = 0, i = k. A prova para o caso das colunas ´e semelhante e fica como exerc´ıcio. 2 Lema 2.13. Seja A = (aij ) ∈ Mn (R) e λ ∈ R. Ent˜ao det(λA) = λn det(A). Prova: Como λA = (λaij ), aplicando a defini¸c˜ao de determinante det(λA) = =   (−1)s (λa1j1 )(λa2j2 ) · · · (λanjn ) (−1)s λn a1j1 · · · anjn = λn det(A). Isso prova o lema. 2 Lema 2.14. Se B ´e a matriz obtida a partir da matriz A = (aij ) ∈ Mn (R) substitu´ındo-se a i-´esima linha (coluna) por λ vezes a i-´esima linha (coluna), ent˜ao det(B) = λdet(A). 3. DETERMINANTES E MATRIZES INVERS´IVEIS 43 Prova: Vamos aplicar o Teorema 2.8 a` matriz B, pela i-´esima linha: det(B) = (λai1 )Ai1 + (λai2 )Ai2 + · · · + (λain )Ain = λ (ai1 Ai1 + · · · + ain Ain ) = λdet(A). 2 Lema 2.15. Seja A = (aij ) ∈ Mn (R) uma matriz dada e fixemos a j-´esima coluna, onde 1 ≤ j ≤ n. Se B denota a matriz que tem todas as colunas iguais a`s de A, exceto a j-´esima que ´e bij (com 1 ≤ i ≤ n) e C denota a matriz obtida de A trocando-se aij por aij + bij (1 ≤ i ≤ n) ent˜ao det(C) = det(A) + det(B), isto ´e:    det       = det    a11 a21 ··· ··· an1 a11 a21 · · an1 · · · a1j · · · a2j ··· · ··· · · · · anj  · · · a1j + b1j · · · a1n · · · a2j + b2j · · · a2n   ··· ··· ··· ·  = ··· ··· ··· ·  · · · anj + bnj · · · ann   a11 · · · b1j · · · a1n  a21 · · · b2j · · · a2n     ··· ··· · ··· ·  + det    ··· ··· · ··· ·  · · · ann an1 · · · bnj · · · a1n · · · a2n ··· · ··· · · · · ann       Prova: Pelo Teorema 2.8 desenvolvemos o determinante da matriz inicial pela j-´esima coluna: det(C) = (a1j + b1j )A1j + · · · + (anj + bnj )Anj = (a1j A1j + · · · + anj Anj ) + (b1j A1j + · · · + bnj Anj ) = det(A) + det(B). 3. Determinantes e matrizes invers´ıveis Precisamos agora verificar a quest˜ao que ficou pendente: dada uma matriz A de Mn (R), ser´a que podemos afirmar que o sistema linear homogˆeneo Ax = 0 44 4. DETERMINANTES tem solu¸c˜ao u ´nica (a saber, a trivial) se e somente se det(A) = 0? O nosso ponto de partida para responder essa quest˜ao ´e o Teorema de Laplace (Teorema 2.8) e o Teorema de Cauchy (Teorema 2.12), que podemos enunciar de maneira u ´nica assim: seja A = (aij ) ∈ Mn (R); ent˜ao ai1 Ak1 + ai2 Ak2 + · · · + ain Akn = δik det(A), a1j A1l + a2j A2l + · · · + anj Anl = δjl det(A), onde δuv = 1 se u = v e δuv = 0 se u = v. Essas equa¸c˜oes acima lembram aquelas que definem os elementos de um produto de duas matrizes. Por´em, se definirmos a matrix Cof (A) = (Aij ) (chamada de matriz dos cofatores de A) ent˜ao (no caso da primeira equa¸c˜ao) estamos multiplicando a i-´esima linha de A pela k-´esima linha de Cof (A), o que n˜ao tem significado. Mas se definirmos a matriz Adj(A) = [Cof (A)]t (chamada de matriz adjunta de A) ent˜ao as equa¸c˜oes acima de fato descrevem produtos de matrizes:               a11 a12 a21 a22 · · ai1 ai2 · · an1 · A11 A12 · A1l · A1n · · · a1n · · · a2n ··· · · · · ain ··· · · · · ann        · · · · · · · · · An1 · · · · · · · · · An2 ··· · ··· · A2l · · · · Anl ··· · ··· · · · · · · · · · · Ann A11 A12 · · · A1n        · · · Ak1 · · · Ak2 ··· · ··· · ··· · · · · Akn a11 a21 · ai1 · an1 · a1j · a2j · · · · · · · anj · · · An1 · · · An2 ··· · ··· · ··· · · · · Ann · · · a1n · · · a2n ··· · · · · ain ··· · · · · ann onde In ´e a matriz identidade de ordem n. Isso significa que se det(A) = 0 ent˜ao a matriz D= 1 Adj(A) det(A)      = det(A)In        = det(A)In   3. DETERMINANTES E MATRIZES INVERS´IVEIS 45 verifica: AD = DA = I, ou seja, nesse caso A ´e uma matriz invert´ıvel. Isso prova um lado da equivalˆencia: se det(A) = 0 ent˜ao o sistema Ax = 0 tem uma u ´nica solu¸c˜ao. Vamos provar a rec´ıproca. Se o sistema tem uma u ´nica solu¸c˜ao, no processo de escalonamento da matriz A obtemos uma matriz triangular C = (cij ) onde necessariamente cii = 0 para todo i. Agora, no processo de escalonamento usamos apenas trocas de linhas (que tˆem por efeito a mudan¸ca de sinal do determinante – Cf. Lema 2.5–), multiplica¸c˜ao de uma linha por um escalar n˜ao nulo (que tem por efeito multiplicar o determinante por esse mesmo escalar – Cf. Lema 2.14– ) e trocar uma linha L por L + µL (que tem por efeito a manuten¸c˜ao do determinante – Cf. Teorema 2.11–), e como C ´e uma matriz triangular, det(C) = c11 c22 · · · cnn = 0, e portanto o determinante de A tamb´em ´e diferente de zero. Isso prova o Teorema 3.1. Seja A uma matriz quadrada de ordem n. Ent˜ao o sistema linear homogˆeneo Ax = 0 tem uma u ´nica solu¸c˜ ao se e somente se det(A) = 0. Nesse caso a matriz A ´e invers´ıvel e a sua inversa ´e dada por A−1 = 1 Adj(A). det(A) Vejamos os casos mais simples onde o c´alculo da inversa pode ser feito com facilidade. Seja   a b A= c d uma matriz de ordem 2. Como A11 = d, A12 = −c, A21 = −b e A22 = a, temos:     d −c d −b Cof (A) = , Adj(A) = , −b a −c a de onde −1 A 1 = ad − bc  d −b −c a  . Seja agora A uma matriz de ordem 3 com det(A) = 0: 46 4. DETERMINANTES   a b c A =  d e f . g h i Ent˜ao, podemos escrever, diretamente  A−1  (ei − f h) −(bi − ch) (bf − ce) 1  −(di − f g) (ai − cg) −(af − cd)  . = det(A) (dh − eg) −(ah − gb) (ae − db) Podemos tamb´em utilizar a f´ormula da matriz inversa para expressar a solu¸c˜ao do sistema Ax = b quando det(A) = 0. De fato, multiplicando ambos os lados (`a esquerda) pela matriz inversa A−1 obtemos x = A−1 b. Assim, se x = (x1 , . . . , xn )t , b = (b1 , . . . , bn )t , e A−1 = (cij ) ent˜ao xi = n  cij bj = j=1 n  j=1 1 Aji bj , det(A) onde Cof (A) = (Aij ). A f´ormula acima pode ser pensada na dire¸c˜ao inversa: seja A = (aij ) uma matriz invert´ıvel e consideremos o sistema linear n  aij xj = yj , 1 ≤ i ≤ n. j=1  Se xi = j bij yj ent˜ao a unicidade da inversa garante que A−1 = (bij ). Vejamos uma aplica¸c˜ao interessante: calculemos a inversa de   0 1 1 ··· 1  1 0 1 ··· 1     A=  1 1 0 ··· 1 .  ··· · · ··· ·  1 1 1 ··· 1 O sistema associado a` matriz A pode ser escrito como:     x i − xn = y n , xi − x 1 = y 1 , de onde conclu´ımos que (n − 1)     xi = yi , 3. DETERMINANTES E MATRIZES INVERS´IVEIS e portanto xi =   xj 1   − yi = y j − yi , n−1 de onde A−1 = 1 2−n A+ I. n−1 n−1 47 CAP´ıTULO 5 MATRIZES ELEMENTARES 1. Escalonamento revisitado Vimos no Cap´ıtulo 2 que o m´etodo do escalonamento usa apenas trˆes opera¸c˜oes elementares, que recordamos de modo informal: 1. Permuta¸c˜ao de linhas, 2. Multiplica¸c˜ao de uma linha por λ = 0, 3. Substitui¸c˜ao da linha Li por Li + µLj onde i = j. Essas opera¸c˜oes podem ser traduzidas matricialmente de um modo bastante simples. Consideremos o sistema Ax = b onde  a11 a12 a13 A =  a21 a22 a23  . a31 a32 a33  Vamos trocar de lugar a primeira e a terceira linha. Observemos o seguinte produto de matrizes:      0 0 1 a11 a12 a13 a31 a32 a33  0 1 0   a21 a22 a23  =  a21 a22 a23  . 1 0 0 a31 a32 a33 a11 a12 a13 A matriz num´erica do lado esquerdo ´e simplesmente obtida da matriz identidade I3 , trocando de lugar a primeira e a terceira linha. O leitor deve se convencer de que esse procedimento sempre funciona: se A ´e uma matriz de ordem n e querrmos trocar de lugar as linhas Li e Lj (com i = j) ent˜ao fazemos a seguinte opera¸c˜ao matricial: multiplicamos a matriz A (`a esquerda) pela matriz E obtida da matriz identidade de ordem n trocando-se as linhas i e j de lugar. Vamos multiplicar a segunda linha pelo escalar λ = 0. Em termos matriciais: 49 50 5. MATRIZES ELEMENTARES      1 0 0 a11 a12 a13 a11 a12 a13  0 λ 0   a21 a22 a23  =  λa21 λa22 λa23  . a31 a32 a33 a31 a32 a33 0 0 1 Novamente, o processo ´e completamente geral: fizemos a opera¸c˜ao elementar na matriz identidade e multiplicamos (`a esquerda) essa matriz pela matriz A. Vamos agora trocar L3 por L3 + 2L1 . Matricialmente:     a11 a12 a13 1 0 0 a11 a12 a13 .  0 1 0   a21 a22 a23  =  a21 a22 a23 a31 a32 a33 a31 + 2a11 a32 + 2a12 a33 + 2a13 2 0 1  ˜ o 1.1. Uma matriz elementar de ordem n ´e uma matriz Defini¸ ca E obtida a partir da matriz identidade In de ordem n efetuando-se em ´nica opera¸c˜ ao elementar. In uma u Assim, as matrizes elementares de ordem 2 s˜ao:  λ 0 0 1   1 0 0 µ   0 1 1 0   1 α 0 1   , 1 0 β 1  , onde λ, µ s˜ao escalares reais n˜ao nulos. Sintetizaremos as observa¸c˜oes acima no pr´oximo Lema 1.2. Seja A uma matriz quadrada de ordem n. Se B denota a matriz obtida a partir de A pela aplica¸c˜ ao de uma das trˆes opera¸co˜es elementares ent˜ ao B = EA, onde E ´e a matriz elementar obtida a partir da identidade In pela aplica¸ca˜o da mesma opera¸ca˜o elementar acima. Se formos aplicando opera¸c˜oes elementares em sequˆencia em uma dada matriz, o que acontecer´a? Vejamos um exemplo:   1 1 0 A =  2 3 0 . 2 2 1 1. ESCALONAMENTO REVISITADO 51 1. No lugar de L2 pomos L2 − 2L1 :   1 1 0 A1 =  0 1 0  . 2 2 1 2. No lugar de L3 pomos L3 − 2L1 :   1 1 0 A2 =  0 1 0  . 0 0 1 3. No lugar de L1 pomos L1 − L2 :   1 0 0 A3 =  0 1 0  . 0 0 1 Vamos escrever a sequˆencia acima utilizando as matrizes elementares:        1 0 0 1 −1 0 1 0 0 1 0 0 1 1 0  0 1 0  =  0 1 0   0 1 0   −2 1 0   2 3 0  . 0 0 1 0 0 1 −2 0 1 0 0 1 2 2 1 Nesse exemplo, como cada uma das matrizes elementares ´e uma matriz triangular invert´ıvel, podemos invertˆe-las e escrever A como um produto de (inversas de) matrizes elementares. Mas ser´a que tudo isso se generaliza? Primeiramente, vamos entender melhor as inversas de matrizes elementares: Lema 1.3. Toda matriz elementar E ´e uma matriz invert´ıvel e a sua inversa ´e uma matriz elementar do mesmo tipo. Prova: Seja In a matriz identidade de ordem n. Se E ´e obtida a partir de In pela permuta¸c˜ao de duas linhas ent˜ao o Lema 2.5 garante que det(E) = −det(In ) = −1. Se E for obtida de In pela muliplica¸c˜ao de uma linha pelo escalar λ = 0 o Lema 2.14 garante que det(E) = λdet(In ) = λ. Finalmente, se E for obtida de In trocando-se a linha Li por Li + µLj (com i = j) ent˜ao o Teorema 2.11 garante que det(E) = det(In ) = 1. Isso significa que, em qualquer dos trˆes casos, det(E) = 0 e assim, pelo Teorema 3.1, E ´e invert´ıvel. A parte final do enunciado ´e consequˆencia imediata dos coment´arios que fizemos no Cap´ıtulo 1, se¸c˜ao 2, sobre a invertibilidade das opera¸c˜oes elementares. Isso termina a prova do lema. 2 52 5. MATRIZES ELEMENTARES Teorema 1.4. Uma matriz quadrada A de ordem n ´e invert´ıvel se e somente se existirem matrizes elementares E1 , E2 , . . . , Ek de ordem n, de modo que In = Ek Ek−1 · · · E2 E1 A. Prova: Se A ´e invert´ıvel o sistema Ax = 0 tem apenas a solu¸c˜ao trivial. Logo, escaloando-o, obtemos uma matriz triangular da forma c11 x1 + c12 x2 + · · · + c1n xn = 0 c22 x2 + · · · + c2n xn = 0 .......................... cnn xn = 0, onde cii = 0 para todo i. De baixo para cima, vamos eliminando todos os termos cij com i < j (usando o mesmo processo de escalonamento). Chegamos a um sistema equivalente da forma d11 x1 = 0 d22 x2 = 0 ............ dnn xn = 0 com dii = 0. Dividindo cada linha pelo coeficiente correspondente chegamos ao sistema x1 = 0, x2 = 0, · · · , xn = 0, ou, matricialmente, In x = 0. Pelo Lema 1.2 existe uma sequˆencia de matrizes elementares E1 , . . . , Ek que satisfaz o enunciado do teorema. Reciprocamente, se In = Ek Ek−1 · · · E2 E1 A, como cada matriz elementar Ej ´e invers´ıvel, podemos escrever A = E1−1 E2−1 · · · Ek−1 In , e como o produto de matrizes invers´ıveis fornece uma matriz invers´ıvel, A ´e invers´ıvel. Isso prova o teorema. 2 2. MATRIZES ELEMENTARES E DETERMINANTES 53 Uma maneira informal de enunciar o teorema acima ´e a seguinte: todo sistema que possui uma u ´nica solu¸c˜ao (u1 , u2 , . . . , un ) ´e obtido do sistema ´obvio x 1 = u1 , x 2 = u 2 , · · · , x n = un , atrav´es de opera¸c˜oes elementares. 2. Matrizes elementares e determinantes O Lema 1.2 da se¸c˜ao anterior possui uma consequˆencia interessante em termos de determinantes: Lema 2.1. Seja A uma matriz quadrada de ordem n. Se B denota a matriz obtida de A pela aplica¸c˜ ao de uma das trˆes opera¸co˜es elementares ent˜ ao det(B) = det(E)det(A), onde E ´e a matriz elementar obtida da identidade In pela aplica¸ca˜o da mesma opera¸ca˜o elementar acima. Prova: O Lema 2.5 garante que se a opera¸c˜ao elementar for a permuta¸c˜ao de duas linhas ent˜ao det(E) = −1 e det(B) = −det(A). Logo det(B) = det(E)det(A). Se a opera¸c˜ao elementar for a multiplica¸c˜ao de uma linha de A pelo escalar λ = 0 o Lema 2.14 garante que det(E) = λ e det(B) = λdet(A). Logo det(B) = det(E)det(A). O Teorema 2.11 de Jacobi garante que se a opera¸c˜ao elementar for a troca de uma linha pelo soma dela com um m´ ultiplo de outra linha ent˜ao det(E) = 1 e det(B) = det(A), de modo que igualmente temos det(B) = det(E)det(A). Isso termina a prova do lema. 2 Al´em disso, temos o Teorema 2.2. Sejam A e B duas matrizes de ordem n. Ent˜ao det(AB) = det(A)det(B). Prova: Vamos supor inicialmente que A ´e invert´ıvel. O Teorema 1.4 da se¸c˜ao anterior garante que A pode ser escrita como A = E1 E2 · · · Ek onde cada Ei ´e uma matriz elementar. Ent˜ao o Lema 2.1 acima nos diz que 54 5. MATRIZES ELEMENTARES det(AB) = det(E1 E2 · · · Ek B) = det(E1 )det(E2 ) · · · det(Ek )det(B) = det(A)det(B). Se A n˜ao for invert´ıvel ent˜ao temos duas possibilidades: a) B ´e invert´ıvel ou b) B n˜ao ´e invert´ıvel. No caso b) temos det(B) = 0 e o Teorema 3.1 garante a existˆencia de uma n-upla u n˜ao trivial com Bu = 0. Mas ent˜ao u ´e uma solu¸c˜ao n˜ao trivial do sistema (AB)x = 0, de modo que det(AB) = 0. Isso mostra que det(AB) = det(A)det(B). No caso a), como A n˜ao ´e invert´ıvel, existe uma n-upla b n˜ao trivial com Ab = 0. Consideremos o sistema Bx = b. Como B ´e invert´ıvel esse sistema tem solu¸c˜ao u ´nica n˜ao trivial w = B −1 b. Logo (AB)w = (AB)B −1 b = Ab = 0, ou seja, det(AB) = 0. Logo, temos det(AB) = det(A)det(B). Isso prova o teorema. 2 ´rio 2.3. Se A ´e uma matriz invert´ıvel de ordem n ent˜ao Corola det(A−1 ) = 1 . det(A) Prova: Sabemos que AA−1 = A−1 A = In e o teorema acima nos diz que 1 = det(In ) = det(AA−1 ) = det(A)det(A−1 ), de onde segue o corol´ario. 2 CAP´ıTULO 6 EXERC´ICIOS 1. Exerc´ıcios Propostos. Todos os exerc´ıcios aqui propostos tˆem respostas; o leitor ´e encorajado fortemente a seriamente tentar resolvˆe-los antes de olhar as respostas! O leitor n˜ao deve supor que a ordem dos exerc´ıcios siga necessariamente a ordem do texto, embora, de modo geral, haja um certo paralelismo. 1. Resolva pelo m´ etodo do escalonamento: x 1 + x2 + x3 = 1 x1 − x2 + 2x3 = 2 x1 + 6x2 + 3x3 = 3 2. Determine os valores de m para os quais o sistema possui uma u ´nica solu¸ ca ~o: x1 + 2x2 − 2x3 − x4 2x1 − 2x2 − 2x3 − 3x4 2x1 − 2x2 − x3 − 5x4 3x1 − x2 + x3 − mx4 =1 = −1 =9 =0 3. Encontre todas as solu¸ co ~es do sistema x1 + 2x2 + x3 = 1 x1 − 3x2 + 2x3 = 2 55 6. EXERC´ICIOS 56 4. Resolva o sistema: cos(θ)x + sin(θ)y = cos(ψ) − sin(θ)x + cos(θ)y = sin(ψ) 5. Resolva o sistema de equa¸ co ~es matriciais: AX + BY = C BX + CY = A onde   1 0 0 A =  0 1 0 , 0 0 1 6. Resolva  1  2 3   3 1 1 B =  0 5 1 , 0 0 7   4 0 0 C =  5 1 0 . 7 1 0 o sistema matricial:     −2 1 1 2 3 x11 x12 x13 3 4   x21 x22 x23  =  −2 1 1  x31 x32 x33 −2 1 1 4 5 7. Determine os valores de a, b que tornam o conjunto solu¸ ca ~o do sistema 3x − 7y x+y 5x + 3y x + 2y um conjunto unit´ ario. =a =b = 5a + 2b =a+b−1 Ache-o! 7.1. Seja A ∈ Mm,n (R). Considere o sistema n~ ao homog^ eneo Ax = b e o sistema homog^ eneo associado, Ax = 0. Prove ou d^ e contra-exemplo: a) Se Ax = b tem infinitas solu¸ co ~es ent~ ao Ax = 0 tem infinitas solu¸ co ~es. 1. EXERC´ICIOS PROPOSTOS. 57 b) Se Ax = 0 tem infinitas solu¸ co ~es ent~ ao Ax = b tem infinitas solu¸ co ~es. c) Se Ax = b n~ ao tem solu¸ co ~es ent~ ao Ax = 0 s´ o tem a solu¸ ca ~o trivial. d) Se Ax = 0 s´ o tem a solu¸ ca ~o trivial ent~ ao Ax = b tem solu¸ ca ~o u ´nica. 7.2 Sejam A, B ∈ Mn (R). Considere a equa¸ ca ~o matricial AX = B, onde a inc´ ognita e ´ uma matriz de ordem n. Mostre que se essa equa¸ ca ~o possuir mais do que uma solu¸ ca ~o ent~ ao ela ter´ a infinitas solu¸ co ~es. 8. Considere as seguintes matrizes de M3 (R):     1 0 0 4 0 0 A= 0 2 0  B= 0 2 0  0 0 4 0 0 1 Mostre que AB = BA. Pode-se concluir da´ ı que e ´ v´ alida a e e ´ capropriedade comutativa da multiplica¸ ca ~o em M3 (R)? Voc^ paz de encontrar todas as matrizes C ∈ M3 (R) que comutam com A, ou seja, todas as C tais que AC = CA? 9. Se A, B ∈ Mn (R) e se AB = BA, mostre que a) (A − B)2 = A2 − 2AB + B 2 , b) (A − B)(A + B) = A2 − B 2 , c) (A − B)(A2 + AB + B 2 ) = A3 − B 3 . 10. Encontre uma matriz A ∈ M2 (R) tal que A = 0 e A2 = 0. Encontre uma A ∈ Mn (R) com a mesma propriedade acima. 11. Encontre A ∈ Mn (R) (n ≥ 3) tal que A = 0, A2 = 0, . . . , An−1 = 0 e An = 0. 12. Efetue os produtos AB e BA onde   1   A =  2 , B= 1 2 3 . 3 13. Determinar todas as matrizes quadradas de ordem 3 que comutam com a matriz 6. EXERC´ICIOS 58   λ 1 0 A =  0 λ 1 , 0 0 λ onde λ ∈ R. 14. Se A, B s~ ao matrizes de ordem 2 que comutam com a matriz   0 1 , −1 0 mostre que AB = BA. ao tais que AB = 0, pode-se con15. Se A, B ∈ Mn (R) s~ cluir da´ ı que BA = 0? 16. Seja A uma matriz quadrada invert´ ıvel. Mostre que a −1 em e ´ uma matriz invert´ ıvel e que sua inversa A tamb´ (A−1 )−1 = A. 17. Mostre que a matriz   1 0 0 A= a 1 0  b c 1 e ´ invert´ ıvel e que sua inversa e ´:   1 0 0 1 0 . A−1 =  −a ac − b −c 1 18. Mostre que as seguintes matrizes s~ ao invert´ ıveis e calcule as inversas:  A= 1 2 2 2   ,  1 0 1  1 1 0 , B= 0 2 1  0  1 C=  1 0 0 0 1 2  1 1 0 1  . 1 −1  0 3 19. Sejam A, B, C matrizes de ordem n com A invert´ ıvel. Se AB = AC, mostre que necessariamente B = C. 1. EXERC´ICIOS PROPOSTOS. 59 20. Sejam A, B, C matrizes invert´ ıveis de ordem n. Encontre a matriz X de ordem n que satisfaz A(B −1 X) = C −1 A. 21. Existe alguma matriz invert´ ıvel A tal que A2 = 0? 22. Dada a matriz   1 a A= , 0 −1 calcule todas as suas pot^ encias An , com n ≥ 1 natural. 23. Num processo de escalonamento da matriz quadrada A, cujas linhas s~ ao L1 , . . . , Lk fez-se o seguinte: no lugar de L1 colocou-se L1 +L2 e no lugar de L2 colocou-se L2 +L1 . Ora, a nova matriz obtida possui agora as duas primeiras linhas iguais, o que acarreta det(A) = 0. Acabamos de provar que toda matriz quadrada possui determinante nulo. O que est´ a errado? 24. Apenas olhando (bom, tente pensar um pouco!) para a matriz A do sistema Ax = b, decida se o sistema possui solu¸ ca ~o u ´nica, infinitas solu¸ co ~es ou nenhuma solu¸ ca ~o, nos casos:     0 0 2 1 A =  0 3 −1  , b =  2  ; 5 2 0 3     1 0 2 1 A =  3 3 3 , b =  0  4 3 5 3 25. Considere a matriz   cos θ − sin θ A= . sin θ cos θ Mostre que para todo inteiro n ∈ Z temos:   cos(nθ) − sin(nθ) n . A = sin(nθ) cos(nθ) ´ dita triangular superior 26. Uma matriz quadrada A = (aij ) e se aij = 0 quando i > j (os coeficientes abaixo da diagonal principal s~ ao zero). Mostre que o produto de duas matrizes triangulares superiores e ´ uma matriz triangular superior. 27. Uma matriz quadrada A e ´ dita sim´ etrica se At = A e e ´ dita anti-sim´ etrica se At = −A. 6. EXERC´ICIOS 60 a) Mostre que a soma de matrizes sim´ etricas e ´ uma matriz sim´ etrica. b) Mostre que o produto de uma matriz sim´ etrica por um escalar real e ´ uma matriz sim´ etrica. c) Mostre que uma matriz anti-sim´ etrica possui todos os elementos da diagonal principal nulos. d) Mostre que toda matriz A ∈ Mn (R) se escreve de modo u ´nico como a soma de uma matriz sim´ etrica e de uma matriz antisim´ etrica. em e ´ e) Se A e ´ sim´ etrica e invert´ ıvel, mostre que A−1 tamb´ sim´ etrica. 28. Mostre que, em geral, n~ ao e ´ verdade que (AB)−1 = A−1 B −1 . Quais hip´ oteses sobre A e B garantem que (AB)−1 = A−1 B −1 ? ´ chamada de 29. Uma matriz quadrada A tal que A2 = A e matriz idempotente. Prove que a matriz identidade e´ a u ´nica matriz idempotente invert´ ıvel. 30. Seja A uma matriz quadrada tal que A2 + A + I = 0. Mostre que A e ´ invert´ ıvel e que A−1 = −A − I. 31. Seja A uma matriz quadrada tal que an An + an−1 An−1 + · · · + a1 A + a0 I = 0, para alguns n´ umeros reais an , an−1 , . . . , a0 . Mostre que se a0 = 0 ent~ ao A e ´ invert´ ıvel e encontre A−1 . 32. Dados n ≥ 2 n´ umeros a1 , a2 , . . . , an , a seguinte matriz    V =   1 1 1 a2 a3 a1 a21 a22 a23 · · · n−1 n−1 n−1 a1 a2 a3 e ´ chamada de matriz de Vandermonde. det(V ) =  i>j 33. Prove que ··· 1 · · · an · · · a2n ··· · n−1 · · · an       Mostre que (ai − aj ). 1. EXERC´ICIOS PROPOSTOS. 61    bc 1 a 1 a a2 det  ac 1 b  = det  1 b b2  . 1 c c2 ab 1 c  34. Mostre que det(B) = −6det(A) onde  a  b A=  c d a2 b2 c2 d2 a3 b3 c3 d3  a4 b4  , c4  d4   −6b 2b3 2b2 2b4  −3a a3 a2 a4   B=  −3c c3 c2 c4  −3d d3 d2 d4 35. Mostre que   1 1 1 det  sin x sin y sin z  = sin(x − y) + sin(y − z) + sin(z − x). cos x cos y cos z 36. Calcule o valor do determinante da seguinte matriz:   1 2 3 4 5  6 7 8 9 10     11 12 13 14 15  .    16 17 18 19 20  21 22 23 24 25 37. Seja A uma matriz quadrada de ordem n ≥ 3 onde os elementos de cada linha est~ ao em progress~ ao aritim´ etica. Prove que det(A) = 0. 38. Sejam t, u, v n´ umeros reais distintos. tema nas indeterminadas a, b, c Mostre que o sis- a + tb + t2 c = p a + ub + u2 c = q a + vb + v 2 c = r tem solu¸ ca ~o u ´nica, quaisquer que sejam p, q, r. Fixados p, q, r com: 6. EXERC´ICIOS 62 q−p r−p = , (v − t)(v − u) (u − t)(v − u) mostre que existe uma par´ abola que passa pelos pontos (t, p), (u, q) e (v, r). 39. Seja J = (aij ) uma matriz de ordem n com todos os coeficientes aij = 1. a) Mostre que J 2 = nJ. 1 b) Mostre que (I − J)−1 = I − n−1 J 40. Mostre que     det    x 0 0 0 0 a0 −1 x 0 0 0 a1 0 −1 x 0 0 a2 0 0 −1 x 0 a3 0 0 0 −1 x a4 0 0 0 0 −1 x + a5      = x 6 + a5 x 5 + · · · + a 1 x + a0 .   41. Seja A uma matriz de ordem 3 cujos coeficientes s~ ao ou zero ou um. Qual o maior valor poss´ ıvel para det(A)? 42. Uma matriz quadrada A e ´ chamada nilpotente se An = 0 para algum g ≥ 1. Mostre que se A for nilpotente ent~ ao as matrizes I − A e I + A s~ ao invert´ ıveis. Seja A uma matriz nilpotente. Resolva a equa¸ ca ~o matricial AX + X + A = 0. 43. Considere uma fun¸ ca ~o f : Mn (R) −→ R com as seguintes propriedades: D1. f (AB) = f (A)f (B), D2. f (A) = 0 ⇐⇒ ∃B com BA = In , D3. f n~ ao e ´ uma fun¸ ca ~o constante Mostre que necessariamente a fun¸ ca ~o f e ´ o determinante, ou seja, f (A) = det(A) para toda A ∈ Mn (R). 44. Uma matriz quadrada C e ´ dita uma matriz diagonal por blocos se for da forma 1. EXERC´ICIOS PROPOSTOS.    C=   63  A1 A2      · Ak−1 Ak onde cada Aj e ´ uma matriz quadrada de ordem nj e os demais coeficientes de C s~ ao todos nulos. As matrizes Aj s~ ao os blocos de C. Um exemplo:    C=   1 3 0 0 0 2 4 0 0 0 0 0 4 1 2 0 0 3 2 3 0 0 7 3 2        A1 = 1 2 3 4   ,  4 3 7 A2 =  1 2 3  . 2 3 2 Prove que det(C) = det(A1 )det(A2 ) · · · det(Ak ). 45. Para quais valores do sui solu¸ ca ~o n~ ao trivial?   1 2 3  2 3 4  3 4 5 escalar λ o sistema abaixo pos   λx1 x1 x2  =  λx2  . x3 λx3 Para os pr´oximos 5 exerc´ıcios precisaremos de uma defini¸c˜ao. Uma matriz quadrada de ordem n ´e dita positiva definida se para toda n-upla n˜ao trivial x = (x1 , . . . , xn )t tivermos: 1. A ´e uma matriz sim´etrica, isto ´e, At = A, 2. Para toda n-upla n˜ao nula x = (x1 , . . . , xn )t xt Ax > 0. Observe que x ´e uma matriz n × 1 e xt ´e uma matriz 1 × n, de umero real. Tais mamodo que xt Ax ´e uma matriz 1 × 1, ou seja, um n´ trizes s˜ao frequentes em aplica¸c˜oes, como por exemplo em deforma¸c˜oes de estruturas el´asticas. Nesse contexto x representa a deforma¸c˜ao da estrutura e o n´ umero (1/2)xt Ax ´e a energia potencial armazenada na estrutura devido a` deforma¸c˜ao x. 46. 0. Mostre que se A for definida positiva ent~ ao det(A) = 6. EXERC´ICIOS 64 47. Mostre que se G e ´ uma matriz com det(G) = 0 ent~ ao A = t ´ definida positiva. GG e 48. Mostre que se A e ´ definida positiva ent~ ao aii > 0. 49. Seja A uma matriz definida positiva. Suponhamos que   A11 A12 A= , A21 A22 onde A11 e ´ uma submatriz quadrada de ordem j e A22 e ´ uma subao matrimatriz quadrada de ordem k. Mostre que A11 e A22 s~ zes definidas positivas.   a b 50. Mostre que uma matriz A = de ordem 2 e ´ dec d finida positiva se e somente se a > 0, d > 0, b = c e ad − bc > 0. 51. Ser´ a que toda matriz definida positiva A e ´ do tipo GGt para alguma G? Sugest~ ao: experimente com uma matriz de ordem 3. ´ 52. Ser´ a que uma matriz sim´ etrica A = (aij ) de ordem 3 e definida positiva se e somente se a11 > 0, a11 a22 − a21 a12 > 0, det(A) > 0? 53. Considere o sistema linear: λx1 + x2 + 2x3 = 1 x1 + x2 + 2x3 = 2 2x1 + 2x2 + x3 = 1 onde λ e ´ um par^ ametro real lido num determinado instrumento. Normalmente a leitura fornece λ0 = 0.8. Defina a sensibilica ~o do sistema dade ao par^ ametro λ, da componente xi da solu¸ como dxi |λ=0.8 . dλ a Mostre que se a leitura aumentar de 10% ent~ ao x1 aumentar´ de aproximadamente 40%. 2. RESPOSTAS AOS EXERC´ICIOS 65 54. Calcular a inversa da seguinte matriz 2. Respostas aos exerc´ıcios 1. O conjunto solu¸c˜ao ´e S = {(0, 0, 1)}. 2. Devemos ter m = 27/2. 3. O conjunto de todas as solu¸c˜oes ´e: S = {( 7 − 7a a − 1 , , a) : a ∈ R}. 5 5 4. A matriz do sistema dado ´e:   cos θ sin θ A= − sin θ cos θ e det(A) = 1. Logo   cos θ − sin θ −1 A = sin θ cos θ ou seja:      x cos θ − sin θ cos ψ = y sin θ cos θ sin ψ de onde x = cos(θ + ψ) e y = sin(θ + ψ). 5. Uma primeira solu¸c˜ao. Vamos escalonar o sistema (note que det(B) = 3 × 5 × 7 = 0): no lugar da segunda equa¸c˜ao pomos a segunda menos B vezes a primeira equa¸c˜ao. O sistema fica AX + BY = C (C − B 2 )Y = A − BC A matriz C − B 2 ´e:   −5 −8 −11 C − B 2 =  5 −24 −12  , 7 1 −49 det(C − B 2 ) = −9131. Logo, Y = (C−B 2 )−1 (A−BC), de onde X = C−B ((C − B 2 )−1 (A − BC)). Se algu´em tiver paciˆencia, obter´a: 66 6. EXERC´ICIOS   6196 −815 168 1  8372 1127 115  Y = 9131 10187 1211 −160   623 107 −459 1  −6392 2285 −415  X= 9131 −7392 654 1120 Segunda solu¸c˜ao. A matrix X possui 9 vari´aveis x1 , . . . , x9 e a matrix Y mais 9: y1 , . . . , y9 . Fazendo as multiplica¸c˜oes matriciais, separamos um conjunto de 18 equa¸c˜oes com 18 inc´ognitas, que podemos escalonar. 6. Observe inicialmente que o determinante da matrix a esquerda ´e zero, e portanto ela n˜ao ´e invers´ıvel. Desenvolva o sistema em 3 sistemas usuais:      −2 1 2 3 x11  2 3 4   x21  =  −2  , x31 −2 3 4 5      1 2 3 1 x12  2 3 4   x22  =  1  , 3 4 5 x32 1      1 1 2 3 x13  2 3 4   x23  =  1  , x33 1 3 4 5 e note que eles s˜ao muito parecidos. Denotando Sj o conjunto solu¸c˜ao do sistema j (para j = 1, 2, 3), obtemos S1 = {(2 + λ, −2 − 2λ, λ) : λ ∈ R} S2 = {(−1 + µ, 1 − 2µ, µ) : µ ∈ R} S3 = {(−1 + ν, 1 − 2ν, ν) : ν ∈ R} ou seja, o conjunto solu¸c˜ao da equa¸c˜ao inicial ´e:   2 + λ −1 + µ −1 + ν X =  −2 − 2λ 1 − 2µ 1 − 2ν  λ µ ν onde µ, ν, λ percorrem os reais. 2. RESPOSTAS AOS EXERC´ICIOS 67 7. a = 2, b = 4. O conjunto solu¸c˜ao unit´ario ´e: x = b − (3b − a)/10 e y = (3b − a)/10, ou seja x = 3 e y = 1. 7.1 a) Se (u1 , . . . , un ) ´e uma solu¸c˜ao de Ax = b ent˜ao todas as solu¸c˜oes desse sistema s˜ao da forma (u1 , . . . , un ) + (h1 , . . . , un ), onde (h1 , . . . , un ) percorre as solu¸c˜oes de Ax = 0. Se o conjunto acima ´e infinito, ent˜ao o sistema homogˆeneo tem infinitas solu¸c˜oes. b) A afirma¸c˜ao ´e falsa. Um contra-exemplo x1 + x2 = 2 3x1 + 3x2 = 3. c) A afirma¸c˜ao ´e falsa. Olhe o contra-exemplo do item acima. d) A afirma¸c˜ao ´e falsa. Um contra-exemplo x1 + x2 = 1 x 1 − x2 = 2 3x1 + 3x3 = 4. 7.2 Mostre que as solu¸c˜oes de AX = B s˜ao da forma X1 + H, onde X1 ´e uma solu¸c˜ao fixada e H percorre o conjunto das solu¸c˜oes de AX = O. Conclua que AX = 0 ter´a uma solu¸c˜ao n˜ao trivial H1 e fabrique infinitas outras solu¸c˜oes de AX = O. 8. Se escrevermos uma C gen´erica, queremos AC = CA, ou seja:       1 0 0 a b c a b c 1 0 0  0 2 0  d e f  =  d e f  0 2 0  0 0 4 g h i g h i 0 0 4 ou seja,    a b c a 2b  2d 2e 2f  =  d 2e 4g 4h 4i g 2h de onde conclu´ımos que b = 0, c = 0, d = 0, f  4c 4f  , 4i = 0, g = 0, h = 0. 6. EXERC´ICIOS 68 9. A u ´nica propriedade utilizada para mostrar as express˜oes ´e a comutatividade! Mais geralmente, prove que a f´ormula do binˆomio de Newton continua v´alida se as matrizes A, B comutarem: n    n n−k k n A B . (A + B) = k k=0   0 1 10. A = . Em geral tome A = (aij ) com a1n = 1 e os 0 0 demais coeficientes nulos. 11. Para n = 3 podemos tomar   0 1 0 A =  0 0 1 . 0 0 0 Os demais casos s˜ao semelhantes. 12. Temos que AB ´e uma matrix 3 × 3 e BA ´e uma matriz 1 × 1, ou seja, um n´ umero real:   1 2 3 AB =  2 4 6  , BA = 14. 3 6 9 13. Observe-se que     0 1 0 0 1 0 A = λI3 +  0 0 1  , A1 =  0 0 1  , 0 0 0 0 0 0 e que se C ∈ M3 (R) ent˜ao AC = CA se e somente se A1 C = CA1 . Esta u ´ltima condi¸c˜ao se traduz, para uma C gen´erica:       0 1 0 a b c a b c 0 1 0  0 0 1  d e f  =  d e f  0 0 1  0 0 0 g h i g h i 0 0 0 ou seja,     d e f 0 a b  g h i  =  0 d e , 0 0 0 0 g h de onde conclu´ımos que 2. RESPOSTAS AOS EXERC´ICIOS 69   a b c C =  0 a b . 0 0 a 14. Seja C uma matriz gen´erica de ordem 2 comutando com a matriz dada. Ent˜ao       0 1 a b a b 0 1 = −1 0 c d c d −1 0 ou seja,     c d −b a = , −a −b −d c de onde conclu´ımos que   a b C= . −b a Assum, A e B possuem a forma acima. Uma conta simples mostra que AB = BA. 15. Considere  A= 1 0 0 0   , B= 0 0 1 0  . 16. Vimos no texto que inversa de uma matriz invert´ıvel C ´e a u ´nica matriz D tal que CD = DC = I. Ora, se C = A−1 , tomando D = A temos que CD = DC = I. 17. Vamos fazer  1 0  a 1 b c ou seja: as contas:     0 1 0 0 x1 x2 x3 0   x4 x5 x6  =  0 1 0  x7 x8 x9 1 0 0 1    1 0 0 x2 x3 x1 = 0 1 0   ax1 + x4 ax2 + x5 ax3 + x6 bx1 + cx4 + x7 bx2 + cx5 + x8 bx3 + cx6 + x9 0 0 1  de onde x1 = 1, x2 = x3 = 0, ou seja 6. EXERC´ICIOS 70     1 0 0 1 0 0  = 0 1 0  a + x4 x5 x6 b + cx4 + x7 cx5 + x8 cx6 + x9 0 0 1 de onde x4 = −a, x5 = 1 e x6 = 0. O resto sai imediatamente! 18. Note-se que det(A) = −2, det(B) = 3 e det(C) = 9.  A−1 =   1 2 −1 1 −1 1 1 , , B −1 =  −1 1 1 −1/2 3 2 −2 1   2 7 2 1 1  −1 −1 1 1   C −1 =  9  7 −2 2 −1  2 2 −2 1  19. Se AB = AC e A−1 existe, ent˜ao A−1 (AB) = A−1 (AC) (A−1 A)B = (A−1 A)C IB = IC B=C 20. X = BA−1 C −1 A. 21. Se existisse tal A ent˜ao A−1 (A2 ) = A−1 0 = 0, de onde A−1 AA = 0, ou seja, A = 0, absurdo! 22. Temos A2n = I e A2n+1 = A. 23. Tente fazer o procedimento com uma matriz 2 × 2 e vocˆe perceber´a o erro! 24. No primeiro caso, a solu¸c˜ao ´e u ´nica (obtida recursivamente). No segundo caso, a u ´ltima linha ´e a soma das duas primeiras linhas, mas o mesmo n˜ao ocorre com o vetor b, de modo que n˜ao existem solu¸c˜oes! 2. RESPOSTAS AOS EXERC´ICIOS 71 25. Primeiramente provemos para os naturais n ≥ 2. Se n = 2, fa¸ca a conta, usando as f´ormulas trigonom´etricas de adi¸c˜ao de arcos. Para n ≥ 3 use indu¸c˜ao matem´atica. Se n = 0 temos por defini¸c˜ao A0 = I2 . Para n > 0, usamos a defini¸c˜ao A−n = (A−1 )n . Repare que det(A) = 1, e portanto   cos θ sin θ −1 A = , − sin θ cos θ Como cos(θ) = cos(−θ) e sin(−θ) = − sin(θ) escrevemos:   cos(−θ) − sin(−θ) −1 A = , sin(−θ) cos(−θ) de onde, pela parte anterior, se n ≥ 1   cos(−nθ) − sin(−nθ) −1 n (A ) = , sin(−nθ) cos(−nθ) ou ainda   cos(−nθ) − sin(−nθ) −n A = , sin(−nθ) cos(−nθ) e temos o exerc´ıcio! 26. Sejam A = (aij ) e B = (bij ) duas matrizes triangulares superiores. Se C = AB, C = (cij ), sabemos que cij = n  aik bkj , k=1 de modo que, se i > j, ent˜ao aik = 0 para i > k e bkj = 0 para k > j, ou seja   cij = aik bkj + aii bij + aik bkj i>k ij Assim, det(V ) = (−1)(n−1) (−1)(n−1) (an − a1 )(an − an−1 ) · · · (an − a1 ) 2n−2 = (−1)  (ai − aj )  (ai − aj ) i>j i>j  = (ai − aj ) i>j 33. Se a = 0 ou b = 0 ou c = 0 as matrizes se simplificam bastante e por c´alculo direto temos o resultado. Suponhamos ent˜ao abc = 0. 2. RESPOSTAS AOS EXERC´ICIOS 75     bc 1 a abc a a2 1 det  ac 1 b  = det  ac 1 b  a ab 1 c ab 1 c   abc a a2 11 det  abc b b2  = ab ab 1 c   abc a a2 111 det  abc b b2  = abc abc c c2   1 a a2 1 = (abc)det  1 b b2  abc 1 c c2 34. Note que cada elemento na primeira coluna ´e m´ ultiplo de −3. Logo det(B) = (−3)det(C), e na matriz C a primeira linha tem todos os seus elementos m´ ultiplos de 2. Assim det(B) = (−3)(2)det(C1 ). A matriz C1 ´e quase a matriz A a menos da troca de uma linha e uma coluna de lugar! 34. Fa¸ca o c´alculo do determinante por Laplace. 11. Dˆe uma olhada no pr´oximo exerc´ıcio! 36. Na matriz A substitua a segunda coluna pela segunda coluna menos a primeira coluna e troque terceira coluna pela terceira menos a primeira. 37. (Sol 1): A matriz do sistema ´e a transposta de uma matriz de Vandermonde. Como t, u, v s˜ao distintos, o seu determinante ´e n˜ao nulo. Isso prova a primeira afirma¸c˜ao. (Sol 2):Vamos escalonar o sistema:  1 t t2  1 u u2 1 v v2  1 t t2  0 1 u+t 0 1 v+t   1 | p   0 | q ∼ | r 0   | p ∼ | q−p u−t r−p | v−t  t t2 | p u − t u2 − t2 | q − p  ∼ v − t v 2 − t2 | r − p  | p 1 t t2 q−p ∼ 0 1 u+t | u−t r−p q−p 0 0 v − u | v−t − u−t 6. EXERC´ICIOS 76  | 1 t t2  0 1 u+t | 0 0 1 |  p r−p (v−t)(v−u) 2 q−p u−t − q−p (u−t)(v−u)  A par´abola ´e y = a + bx + cx onde (a, b, c) ´e a solu¸c˜ao do sistema, para dados (p, q, r) com q−p r−p − = 0. (v − t)(v − u) (u − t)(v − u) ´ claro! b) 38. a) E (I − J)(I − 1 1 1 J) = I − J −J + J 2 = I, n−1 n−1 n−1 por a). 39. Seja A a matriz que aparece do lado esquerdo no enunciado do exerc´ıcio. Ent˜ao, multiplicando a segunda linha por x, e usando o teorema de Jacobi, obtemos:  x 0 0 0 0 a0 0 0 a1 x   −x x2 0   0 0 a2   0 −1 x xdet(A) = det  = 0 −1 x 0 a3   0  0 0 0 −1 x a4  0 0 0 0 −1 x + a5   x 0 0 0 0 a0 0 0 a 1 x + a0   0 x2 0   0 0 a2   0 −1 x = det  = 0 a3   0 0 −1 x   0 0 0 −1 x a4 0 0 0 0 −1 x + a5 Da mesma maneira,      x2 xdet(A) = det    x 0 0 0 0 a0 0 x2 0 0 0 a 1 x + a0 0 0 x3 0 0 a2 x 2 + a1 x + a0 0 0 −1 x 0 a3 0 0 0 −1 x a4 0 0 0 0 −1 x + a5 Continuando assim, obtemos:        2. RESPOSTAS AOS EXERC´ICIOS     x5 x4 x3 x2 xdet(A) =    77 x 0 0 0 0 a0 2 0 x 0 0 0 a1 x + a0 0 0 x3 0 0 a 2 x 2 + a 1 x + a0 0 0 0 x4 0 a3 x 3 + a2 x 2 + a1 x + a0 5 0 0 0 0 x a 4 x 4 + · · · + a 1 x + a0 0 0 0 0 0 x 6 + a5 x 5 + · · · + a1 x + a0        ou seja, temos o exerc´ıcio! 40. Seja   a1 a 2 a 3 A =  a4 a5 a6  . a7 a8 a9 Ent˜ao det(A) = a1 a5 a9 + a2 a6 a7 + a3 a4 a8 − a2 a4 a9 − a1 a6 a8 − a3 a5 a7 . Se tivermos a1 a5 a9 = a2 a6 a7 = a3 a4 a8 = 1 ent˜ao necessariamente ai = 1 para todo i e assim det(A) = 0. S´o resta termos dois termos com sinal positivo iguais a 1 e os demais termos iguais a zero, obtendo det(A) = 2, como por exemplo   0 1 1 A =  1 0 1 . 1 1 0 41. Seja A nilpotente comAn = 0. Ent˜ao (I − A)(I + A + A2 + · · · + An−1 ) = = I + A + A2 + · · · + An−1 − A − A2 − · · · − An−1 − An = I de modo que (I − A) ´e invert´ıvel com inversa (I − A)−1 = I + A + A2 + · · · + An−1 . Do mesmo modo, (I + A)(I − A + A2 − A3 + · · · + (−1)(n−1) An−1 ) = I, e provamos a primeira parte. Para a equa¸c˜ao AX + X + A = 0 temos: 6. EXERC´ICIOS 78 (A + I)X + A = 0, e, pela invertibilidade de I + A obtemos X = (I + A)−1 (−A) = −(I − A + A2 − A3 + · · · + (−1)(n−1) An−1 )A = −(A − A2 + A3 − · · · + (−1)(n−2) An−1 ). 43. 44. Indu¸c˜ao no n´ umero de blocos. Suponha que C tenha dois blocos A (de ordem m) e B (de ordem n). Ent˜ao      Im O A O A O , C= = O B O B O In de modo que       Im O A O A O det det = det O B O B O In e cada um dos determinantes do lado direito pode ser facilmente calculado usando o teorema de Laplace! 45. Podemos reescrever o sistema na forma       λ 0 0 x1 1 2 3 x1  2 3 4   x2  =  0 λ 0   x2  . x3 x3 0 0 λ 3 4 5 ou seja,         1 2 3 λ 0 0 0 x1  2 3 4  −  0 λ 0   x2  =  0  . 3 4 5 x3 0 0 λ 0 Assim, queremos que o sistema abaixo tenha solu¸c˜ao n˜ao trivial:      0 1−λ 2 3 x1  2 3−λ 4   x2  =  0  . x3 0 3 4 5−λ Isso somente ´e poss´ıvel se o determinante da matriz dos coeficientes (que depende de λ) tenha determinante zero. Usando Laplace vemos que 2. RESPOSTAS AOS EXERC´ICIOS 79   1−λ 2 3 3−λ 4  = −λ3 + 9λ2 + 6λ, det  2 3 4 5−λ de modo que os valores de λ procurados s˜ao as ra´ızes reais desse polinˆomio: λ = 0, λ= 9+ √ 2 105 , λ= 9− √ 105 . 2 46. Se det(A) = 0 ent˜ao existe x ∈ Rn n˜ao trivial tal que Ax = 0. Logo xt Ax = 0, contra a hip´otese. 47. Se A = GGt ent˜ao At = (GGt )t = (Gt )t Gt = GGt = A e assim A ´e sim´etrica. Se x = (x1 , . . . , xn )t ´e n˜ao trivial (i.e., algum xj = 0) ent˜ao xt GGt x = yt y, onde y = Gt x. Como det(G) = 0 ent˜ao y nunca pode ser trivial, ou seja, se y = (y1 , . . . , yn )t algum yj ´e diferente de zero. Logo xt Ax = yt y = y12 + y22 + · · · + yn2 > 0. 48. Se A = (aij ) ´e definida positiva, tomo xi = (0, . . . , 1, . . . , 0)t uma n-upla com todos os coeficientes nulos exceto o coeficiente da i´esima posi¸c˜ao que ´e 1. Ent˜ao xi t Axi = aii > 0. 49. Seja y = (y1 , . . . , yj )t uma n-upla n˜ao trivial de Rj . Ent˜ao, se definirmos x = (y1 , . . . , yj , 0, 0, . . . , 0)t ∈ Rj+k , temos que x ´e n˜ao trivial e xt Ax > 0. Mas ´e claro que xt Ax = yt A11 y, de modo que isso prova que A11 ´e positiva definida (a simetria de A11 ´e ´obvia). O caso de A22 ´e an´alogo. 80 6. EXERC´ICIOS   a b 50. Seja A = . Se A for definida positiva ent˜ao a simetria c d de A implica b = c. O exerc´ıcio 48 implica a > 0 e d > 0. O vetor x = (d, −c)t ´e n˜ao trivial e xt Ax > 0. Mas  (d, −c) e assim ad − bc > 0. a c c d  d −c  = d(ad − c2 ) > 0,   a b Reciprocamente, se A = ´e uma matriz com a > 0, d > 0, c d b = c e det(A) > 0 ent˜ao, seja (x, y) uma 2-upla n˜ao trivial. Precisamos mostrar que    a c x (x, y) = ax2 + 2cxy + dy 2 > 0 c d y Temos duas possibilidades: 1. Ou x = 0 ou y = 0 (mas n˜ao ambos). Nesse caso temos ou dy 2 > 0 ou ax2 > 0. 2. xy = 0. Nesse caso   ax2 + 2cxy + dy 2 = y 2 a(x/y)2 + 2c(x/y) + d2 > 0 pois a par´abola entre parˆenteses (na vari´avel x/y) do lado direito tem discriminante ∆ = 4c2 − 4ad = −4(ad − c2 ) < 0 e concavidade para cima (pois a > 0). 51. Vejamos o caso de A definida positiva de ordem 3 e suponhamos que G tenha uma forma particular:     0 g11 0 g11 g21 g31 a11 a12 a13  a21 a22 a23  =  g21 g22 0   0 g22 g32  g31 g32 g33 a31 a32 a33 0 0 g33  Vejamos a primeira coluna de A: 2 . a11 = g11 √ Como, pelo exerc´ıcio 48 sabemos que a11 > 0, escolhemos g11 = a11 . Para a21 temos 2. RESPOSTAS AOS EXERC´ICIOS 81 a21 = g21 g11 , √ √ ou seja, g21 = a21 / a11 . Do mesmo modo g31 = a31 / a11 . Isso determina a primeira coluna da matriz G. Para a segunda coluna: 2 2 + g22 , a22 = g21 de onde  g22 = a22 − a221 . a11 (Mostre, usando os exerc´ıcios 49 e 50 que podemos efetivamente tirar a2 > 0) Al´em disso, a raiz quadrada, isto ´e, que a22 − a21 11 a32 = g31 g21 + g32 g22 , donde g32 a32 − a31a11a21 a32 − g31 g21 = = a2 g22 a22 − a21 11 Finalmente 2 2 2 a33 = g31 + g32 + g33 , e tiramos g33 (´e poss´ıvel tirar a raiz quadrada?). 52. Sim. Se A = (aij ) for definida positiva de ordem 3, ent˜ao pelo exerc´ıcio 21 sabemos que A = GGt de modo que det(A) = det(G)det(Gt ) = [det(G)]2 > 0. Al´em disso, o exerc´ıcio 49 garante que a submatriz  a11 a12 a21 a22  ´e definida positiva. Assim, usando o exerc´ıcio 50, conclu´ımos que a11 a22 − a21 a12 > 0. O exerc´ıcio 48 mostra que a11 > 0. Para a rec´ıproca precisamos provar que se x = (x1 , x2 , x3 )t ´e uma 3-upla n˜ao trivial, ant˜ao xt Ax > 0. Fa¸camos a seguinte mudan¸ca de vari´aveis (poss´ıvel, pois a11 > 0): 6. EXERC´ICIOS 82 x1 = y1 − a12 a13 y2 − y3 a11 a11 x2 = y2 x3 = y3 que, em termos matriciais, pode ser escrita      x1 1 −a12 /a11 −a13 /a11 y1  x2  =  0   y2  . 1 0 x3 y3 0 0 1 Chamando a matriz acima de B temos x = By, de onde xt Ax = yt B t ABy. Como det(B) = 1, x = 0 ⇐⇒ y = 0 e   1 0 0 B t AB =  −a12 /a11 1 0   −a13 /a11 0 1  a12 a11 a22 − a212 /a11 = 0 0 a23 − a12 a13 /a11  0 a11 a22 − a212 /a11 = 0 0 a23 − a12 a13 /a11   1 −a12 /a11 −a13 /a11 a11 a12 a13  a12 a22 a23   0 1 0 a13 a23 a33 0 0 1   a13 1 −a12 /a11 −a13 /a11  a23 − a12 a13 /a11   0 1 0 2 a33 − a13 /a11 0 0 1  0 a23 − a12 a13 /a11  a33 − a213 /a11 O leitor deve observar que a matriz final acima possui o mesmo determinante que A pois det(B) = det(B t ) = 1 e portanto, por hip´otese, esse determinante ´e positivo. Como a11 > 0, o determinante da submatriz sim´etrica  C= a22 − a212 /a11 a23 − a12 a13 /a11 a23 − a12 a13 /a11 a33 − a213 /a11  tamb´em ´e positivo. Al´em disso, as hip´otese do exerc´ıcio e o exerc´ıcio 19 garantem que 2. RESPOSTAS AOS EXERC´ICIOS 83 a212 a11 a22 − a212 = >0 a11 a11 a2 a11 a33 − a213 a33 − 13 = >0 a11 a11 a22 − ou seja, essa submatriz ´e definida positiva. Assim, pelo exerc´ıcio 20,   y2 t t 2 y B ABy = a11 y1 + (y2 , y3 )C > 0, y3 como quer´ıamos provar. ´ claro que det(A) = 3 − 3λ, de modo que para λ = 1 a matriz 53. E A ´e invert´ıvel. Usando A−1 = (det(A))−1 Adj(A) obtemos x1 = 1 , 1−λ x2 = −1 , 1−λ x3 = 1, de modo que dx1 1 dx2 −1 , = , |λ = | λ dλ (1 − λ)2 dλ (1 − λ)2 Na leitura usual do parˆametro, temos dx3 |λ = 0 dλ dx1 |λ=0.8 = 25 dλ de modo que, como x1 (0.8) = 5, ent˜ao x1 (0.88) ∼ = x1 (0.8) + 25(0.08) = 7.