Artigos

15: Matrizes Simétricas de Diagonalização


As matrizes simétricas têm muitas aplicações. Por exemplo, se considerarmos a distância mais curta entre pares de cidades importantes, podemos obter uma tabela como esta:

[ begin {array} {c | ccc} & Davis & Seattle & San ; Francisco hline Davis & 0 & 2000 & 80 Seattle & 0 & 0 & 2010 San ; Francisco & 80 & 2010 & 0 end {array} ]

Codificado como uma matriz, obtemos:

[M = begin {pmatrix} 0 & 2000 & 80 2000 & 0 & 2010 80 & 2010 & 0 end {pmatrix} = M ^ {T}. ]

Definição: Matriz simétrica

Uma matriz é simétrica se obedece a [M = M ^ {T}. ]

Uma boa propriedade das matrizes simétricas é que elas sempre têm real autovalores. O exercício de revisão 1 orienta você através da prova geral, mas aqui está um exemplo para matrizes (2 vezes 2 ):

Exemplo 128

Para uma matriz simétrica geral (2 vezes 2 ), temos:

begin {eqnarray *} P _ { lambda} begin {pmatrix} a & b b & d end {pmatrix} & = & det begin {pmatrix} lambda-a & -b - b & lambda -d end {pmatrix} & = & ( lambda-a) ( lambda-d) -b ^ {2} & = & lambda ^ {2} - (a + d) lambda- b ^ {2} + ad Rightarrow lambda & = & frac {a + d} {2} pm sqrt {b ^ {2} + left ( frac {ad} {2} right ) ^ {2}}. End {eqnarray *}

Observe que o discriminante (4b ^ {2} + (a-d) ^ {2} ) é sempre positivo, de modo que os autovalores devem ser reais.

Agora, suponha que uma matriz simétrica (M ) tenha dois autovalores distintos ( lambda neq mu ) e autovetores (x ) e (y ):

[Mx = lambda x, qquad My = mu y. ]

Considere o produto escalar (x cdot y = x ^ {T} y = y ^ {T} x ) e calcule:

begin {eqnarray *} x ^ {T} M y & = & x ^ {T} mu y = mu x cdot y, textit {e} x ^ {T} M y & = & ( y ^ {T} Mx) ^ {T} textit {(transpondo uma matriz (1 vezes 1 ))} & = & x ^ {T} M ^ {T} y & = & x ^ {T} Meu & = & x ^ {T} lambda y & = & lambda x cdot y. end {eqnarray *}

Subtraindo esses dois resultados nos diz que:

begin {eqnarray *} 0 & = & x ^ {T} My-x ^ {T} My = ( mu- lambda) , x cdot y. end {eqnarray *}

Como ( mu ) e ( lambda ) foram assumidos como autovalores distintos, ( lambda- mu ) é diferente de zero e, portanto, (x cdot y = 0 ). Provamos o seguinte teorema.

Teorema

Autovetores de uma matriz simétrica com autovalores distintos são ortogonais.

Exemplo 129

A matriz (M = begin {pmatrix} 2 & 1 1 & 2 end {pmatrix} ) tem autovalores determinados por

[ det (M- lambda I) = (2- lambda) ^ {2} -1 = 0. ]

Portanto, os autovalores de (M ) são (3 ) e (1 ), e os autovetores associados acabam sendo ( begin {pmatrix} 1 1 end {pmatrix} ) e ( begin {pmatrix} 1 - 1 end {pmatrix} ). É facilmente visto que esses vetores próprios são ortogonais:

[ begin {pmatrix} 1 1 end {pmatrix} cdot begin {pmatrix} 1 - 1 end {pmatrix} = 0 ]

No capítulo 14, vimos que a matriz (P ) construída a partir de qualquer base ortonormal ((v_ {1}, ldots, v_ {n}) ) para ( mathbb {R} ^ {n} ) como suas colunas,

[P = begin {pmatrix} v_ {1} & cdots & v_ {n} end {pmatrix} ,, ]

era uma matriz ortogonal:

[P ^ {- 1} = P ^ {T}, textit {ou} PP ^ {T} = I = P ^ {T} P. ]

Além disso, dado qualquer vetor (unidade) (x_ {1} ), pode-se sempre encontrar vetores (x_ {2}, ldots, x_ {n} ) tais que ((x_ {1}, ldots , x_ {n}) ) é uma base ortonormal. (Essa base pode ser obtida usando o procedimento de Gram-Schmidt.)

Agora suponha que (M ) seja uma matriz simétrica (n vezes n ) e ( lambda_ {1} ) é um autovalor com autovetor (x_ {1} ) (este é sempre o caso porque todo matriz tem pelo menos um autovalor - veja o problema de revisão 3). Seja a matriz quadrada dos vetores da coluna (P ) a seguinte:

[P = begin {pmatrix} x_ {1} & x_ {2} & cdots & x_ {n} end {pmatrix}, ]

onde (x_ {1} ) a (x_ {n} ) são ortonormais, e (x_ {1} ) é um autovetor para (M ), mas os outros não são necessariamente autovetores para ( M ). Então

[MP = begin {pmatrix} lambda_ {1} x_ {1} & Mx_ {2} & cdots & Mx_ {n} end {pmatrix}. ]

Mas (P ) é uma matriz ortogonal, então (P ^ {- 1} = P ^ {T} ). Então:

begin {eqnarray *} P ^ {- 1} = P ^ {T} & = & begin {pmatrix} x_ {1} ^ {T} vdots x_ {n} ^ {T} end {pmatrix} Rightarrow P ^ {T} MP & = & begin {pmatrix} x_ {1} ^ {T} lambda_ {1} x_ {1} & * & cdots & * x_ {2 } ^ {T} lambda_ {1} x_ {1} & * & cdots & * vdots & & & vdots x_ {n} ^ {T} lambda_ {1} x_ {1} & * & cdots & * end {pmatrix} & = & begin {pmatrix} lambda_ {1} & * & cdots & * 0 & * & cdots & * vdots & * & & vdots 0 & * & cdots & * end {pmatrix} & = & begin {pmatrix} lambda_ {1} & 0 & cdots & 0 0 & & & vdots & & hat {M} & 0 & & & end {pmatrix} ,. end {eqnarray *}

A última igualdade segue porque (P ^ {T} MP ) é simétrica. Os asteriscos na matriz são onde “coisas” acontecem; esta informação extra é denotada por ( hat {M} ) na expressão final. Não sabemos nada sobre ( hat {M} ) exceto que é uma matriz ((n-1) times (n-1) ) e que é simétrica. Mas então, encontrando um autovetor (unidade) para ( hat {M} ), poderíamos repetir este procedimento sucessivamente. O resultado final seria uma matriz diagonal com autovalores de (M ) na diagonal. Mais uma vez, provamos um teorema:

Teorema

Cada matriz simétrica é semelhante a uma matriz diagonal de seus autovalores. Em outras palavras,

[M = M ^ {T} Leftrightarrow M = PDP ^ {T} ]

onde (P ) é uma matriz ortogonal e (D ) é uma matriz diagonal cujas entradas são os autovalores de (M ).

Para diagonalizar uma matriz simétrica real, comece construindo uma matriz ortogonal a partir de uma base ortonormal de vetores próprios:

Exemplo 130

A matriz simétrica

[M = begin {pmatrix} 2 e 1 1 e 2 end {pmatrix} ,, ]

tem autovalores (3 ) e (1 ) com autovetores ( begin {pmatriz} 1 1 end {pmatriz} ) e ( begin {pmatriz} 1 - 1 end {pmatriz } ) respectivamente. Depois de normalizar esses autovetores, construímos a matriz ortogonal:

[P = begin {pmatrix} frac {1} { sqrt {2}} & frac {1} { sqrt {2}} frac {1} { sqrt {2}} & frac {-1} { sqrt {2}} end {pmatrix} ,. ]

Observe que (P ^ {T} P = I ). Então:

[MP = begin {pmatrix} frac {3} { sqrt {2}} & frac {1} { sqrt {2}} frac {3} { sqrt {2}} & frac {-1} { sqrt {2}} end {pmatrix} = begin {pmatrix} frac {1} { sqrt {2}} & frac {1} { sqrt {2}} frac {1} { sqrt {2}} & frac {-1} { sqrt {2}} end {pmatrix} begin {pmatrix} 3 & 0 0 & 1 end {pmatrix}. ]

Resumindo, (MP = DP ), então (D = P ^ {T} MP ). Então (D ) é a forma diagonalizada de (M ) e (P ) a matriz de mudança de base associada da base padrão para a base de vetores próprios.


Diagonalizando uma matriz simétrica complexa

$ AMA ^ T = D $, onde D é uma matriz diagonal com entradas reais positivas.

Pergunta 1: Quando isso pode ser feito?

Pergunta 2: $ A $ é unitário, ou seja, $ A ^ dagger A = 1 $?

Pergunta 3: como faço para construir $ A $?

A questão é motivada pelas massas de férmions de Majorana, que são matrizes simétricas complexas e precisam ser diagonalizadas como acima para obter as massas físicas. Obviamente, as massas precisam ser positivas e a rotação da base em $ A $ deve preservar as probabilidades e precisa ser unitária.


Diagonalização da matriz 3x3

Código C ++ simples que encontra um quatérnio que diagonaliza uma matriz 3x3:

Diagonalizar um 3x3 simétrico tem várias aplicações úteis, como diagonalizar tensores de inércia, ajustar OBBs, encontrar eixos principais, etc. As entradas diagonais da matriz diagonalizada são os autovalores e o quaternion representa os autovetores em que as linhas da matriz correspondente são os autovetores . Observe que essas seriam as colunas da matriz para vocês, pessoal da coluna principal. Nota: O código real no meu site github pode usar algumas convenções diferentes (estilo de nomenclatura e agora na coluna principal).

Este código é mantido simples para que seja fácil de pegar e incorporar em sua própria biblioteca de matemática 3D ou aplicativo de jogo. Renomeie os tipos vetoriais, matriciais e quat como achar necessário. Esteja ciente de qualquer armazenamento de matriz (linha vs coluna) e convenções de ordem de multiplicação que você possa estar usando. O código assume as convenções de linha principal e D3D da linguagem C para a ordenação dos elementos da matriz (por exemplo, v_world = v_local * M). Você deve ter notado que os comentários escrevem D = Q * M * Q ^ T, enquanto um livro de álgebra linear centrado em colunas provavelmente escreveria D = Q ^ T * M * Q em vez disso. A associação do quatérnio com matrizes e multiplicação é a mesma ordem que literalmente todos usam. Até onde sei, isso inclui a implementação do quatérnio do D3DX, embora sua ordem de matriz do D3D oposta, o que significaria: (Qa * Qb) .AsMatrix () == Qb.AsMatrix () * Qa.AsMatrix (). De qualquer forma, a função pode ser facilmente modificada para se adequar à sua preferência caso seja diferente.

Quando você chama a rotina para uma matriz M e obtém um quatérnio q cuja matriz correspondente é Q e então calcula D = Q * M * Q ^ T, você provavelmente notará que os elementos fora da diagonal de D não são exatamente zero. Os componentes internos do algoritmo são todos flutuantes de 32 bits. Alterar isso para o dobro pode melhorar o resultado. Mesmo assim, o quaternion resultante será representado com precisão finita (32 bits xyzw). Para o loop principal de funções, eu apenas codifiquei um limite de iteração de 24. Não há uma boa razão para esse número. Jogando dezenas de matrizes simétricas aleatórias na função, não vi usar mais de 7 antes de satisfazer uma das condições de saída. Observe que as entradas aleatórias foram inicializadas com (float) rand () / (float) rand (). Pelo que vi, os elementos fora da diagonal sempre foram muitas ordens de magnitude menores do que o maior elemento da diagonal e menores do que a menor diagonal. Mais testes de cobertura em casos mais extremos podem ser úteis.


Conteúdo

O fato fundamental sobre mapas e matrizes diagonalizáveis ​​é expresso pelo seguinte:

  • Uma n × n < displaystyle n times n> matriz A < displaystyle A> sobre um campo F < displaystyle F> é diagonalizável se e somente se a soma das dimensões de seus espaços próprios for igual a n < displaystyle n >, que é o caso se e somente se houver uma base de F n < displaystyle F ^> consistindo em vetores próprios de A < displaystyle A>. Se tal base for encontrada, pode-se formar a matriz P < displaystyle P> tendo esses vetores de base como colunas, e P - 1 AP < displaystyle P ^ <-1> AP> será uma matriz diagonal cujas entradas diagonais são os autovalores de A < displaystyle A>. A matriz P < displaystyle P> é conhecida como uma matriz modal para A < displaystyle A>.
  • Um mapa linear T: V → V < displaystyle T: V to V> é diagonalizável se e somente se a soma das dimensões de seus espaços próprios for igual a dim ⁡ (V) < displaystyle dim (V)>, que é o caso se e somente se houver uma base de V < displaystyle V> consistindo de autovetores de T < displaystyle T>. Com relação a tal base, T < displaystyle T> será representado por uma matriz diagonal. As entradas diagonais dessa matriz são os autovalores de T < displaystyle T>.

Outra caracterização: uma matriz ou mapa linear é diagonalizável sobre o campo F < displaystyle F> se e somente se seu polinômio mínimo for um produto de fatores lineares distintos sobre F < displaystyle F>. (Dito de outra forma, uma matriz é diagonalizável se e somente se todos os seus divisores elementares forem lineares.)

A seguinte condição suficiente (mas não necessária) é freqüentemente útil.

Sobre os números complexos C < displaystyle mathbb >, quase todas as matrizes são diagonalizáveis. Mais precisamente: o conjunto de matrizes complexas n × n < displaystyle n times n> que são não diagonalizável sobre C < displaystyle mathbb >, considerado como um subconjunto de C n × n < displaystyle mathbb ^>, Lebesgue mede zero. Pode-se dizer também que as matrizes diagonalizáveis ​​formam um subconjunto denso em relação à topologia de Zariski: as matrizes não diagonalizáveis ​​estão dentro do conjunto desaparecido do discriminante do polinômio característico, que é uma hipersuperfície. Disto segue também a densidade no usual (Forte) topologia fornecida por uma norma. O mesmo não acontece com R < displaystyle mathbb > .


Procedimento de diagonalização da matriz

É matematicamente possível encontrar um sistema de coordenadas <x′, y′, z′> Em que o tensor de permeabilidade tem a forma diagonal . Nós diagonalizamos a matriz encontrando e aplicando uma matriz de transformação de similaridade . O procedimento para encontrar uma matriz que diagonaliza um n × n matriz é o seguinte: & # 914 & # 93

  • Encontre os valores próprios <λeu: eu = 1, . n> de da equação de autovalor det = 0.
  • Encontrar n autovetores linearmente independentes .
  • Forme a matriz de transformação de similaridade com os vetores próprios como colunas.
  • Calcule a matriz diagonalizada ´. As entradas diagonais de ´ são os autovalores correspondentes aos autovetores .

Os eixos coordenados <x′, y′, z′> São os eixos principais do tensor diagonalizado, e a forma diagonal do tensor de permeabilidade é obtida por uma transformação do eixo principal. As equações de fluxo ao longo dos eixos principais são

A forma do tensor de permeabilidade depende das propriedades do meio poroso. Se o meio for anisotrópico, pelo menos dois elementos do tensor de permeabilidade diagonalizado não são iguais. Se a permeabilidade não depende da direção, então a permeabilidade é isotrópica, e os elementos do tensor de permeabilidade diagonalizada são iguais, ou seja,

Se a magnitude dos elementos do tensor de permeabilidade varia de um ponto no meio para outro, o tensor de permeabilidade é heterogêneo, caso contrário, a permeabilidade é homogênea. Os eixos principais do tensor de permeabilidade também podem variar de ponto a ponto no meio se a permeabilidade for heterogênea.


Pode sempre uma família de matrizes reais simétricas dependendo suavemente de um parâmetro real ser diagonalizada por transformações de similaridade suaves?

Esta pergunta está relacionada a outra pergunta, mas definitivamente não é a mesma.

É sempre possível diagonalizar (pelo menos localmente em torno de cada ponto) uma família de matrizes reais simétricas $ A (t) $ que dependem suavemente de um parâmetro real $ t $? A diagonalização deve ser feita por transformações de similaridade com uma família de matrizes invertíveis $ S (t) $ dependendo suavemente de $ t $.

Uma formulação equivalente é se, dado um pacote vetorial suave $ E to mathbb R $ sobre a variedade diferenciável unidimensional $ mathbb R $, e uma forma bilinear simétrica suave $ b in E ^ * otimes_M E ^ * $ no pacote vetorial, podemos sempre encontrar um quadro local de seções suaves de $ E $ em que a forma bilinear simétrica $ b $ é diagonal.

Alguns resultados sobre tais diagonalizações são conhecidos, por exemplo, a partir deste artigo. Lá é provado que podemos escolher suavemente os autovalores de uma família de matrizes hermitianas dependendo suavemente de um parâmetro real, visto que não há pontos onde as raízes do polinômio característico se encontram de ordem infinita. Em particular, isso funciona para o caso analítico. Mas, como os autovetores são calculados em relação à base natural, assume-se implicitamente que eles são ortogonais em relação a essa base.

Minha necessidade é encontrar uma diagonalização suave por transformações de similaridade, que, portanto, não são necessariamente ortogonais em relação à base natural, apenas invertíveis. Portanto, a restrição é mais fraca do que ter autovetores suaves.

É sempre possível encontrar tal diagonalização? Se não, quais são as condições sob as quais isso pode ser feito? Você pode fornecer algumas referências?

Atualize com as conclusões:

O contra-exemplo do tipo dado por Michael Renardy e Denis Serre (que também o explica) responde à minha pergunta (negativamente). Inicialmente pensei em tais exemplos como sendo válidos apenas para o problema dos autovetores, sendo do tipo no artigo a que me referi em minha pergunta, e esperava que permitir que as transformações fossem mais gerais do que as ortogonais pudesse evitar esse problema.

Mas entendo agora que os dois problemas são de fato equivalentes. Acho que a essência do contra-exemplo é ter a base feita de dois vetores rotativos nos quais a forma quadrática correspondente a $ b (t) $ tem sinais opostos. Nesse caso, se por absurdo podemos diagonalizar as matrizes, mesmo que $ S (t) $ não sejam ortogonais, então na nova base é como resolver o problema dos autovalores, e essa possibilidade é contrariada pelos contra-exemplos. Para o caso definido positivo, Johannes Ebert apontou que a diagonalização é possível.


Seção 5.2 Diagonalização ortogonal

Prova: Se [latex] U [/ latex] é uma matriz [latex] n times n [/ latex] com colunas ortonormais, então [latex] U [/ latex] tem linhas ortonormais. Porque [latex] U [/ latex] é invertível, e [latex] U ^= U ^ <-1> [/ latex] e [latex] UU ^= I [/ latex].

Definição: um matriz ortogonal é uma matriz quadrada invertível [latex] U [/ latex] tal que [latex] U ^ <-1> = U ^[/látex].

Definição: A matriz simétrica é uma matriz [latex] A [/ latex] tal que [latex] A = A ^[/látex].

Observação: Essa matriz é necessariamente quadrada. Suas principais entradas diagonais são arbitrárias, mas suas outras entradas ocorrem em pares & # 8212 em lados opostos da diagonal principal.

Teorema: Se [latex] A [/ latex] é simétrico, quaisquer dois autovetores de diferentes espaços próprios são ortogonais.

Prova: Use [latex] lambda_ <1> overrightarrow> cdot overrightarrow> = lambda_ <2> overrightarrow> cdot overrightarrow> [/ latex].

Exemplo 1 : Encontre o eigenspace de [latex] A = left [ begin 16 e -4 -4 e 1 fim right] [/ latex] e verifique se os autovetores de diferentes espaços próprios são ortogonais.

Exercício 1: Encontre o eigenspace de [latex] A = left [ begin -7 e 24 24 e 7 end right] [/ latex] e verifique se os autovetores de diferentes espaços próprios são ortogonais.

Definição: Uma [latex] n times n [/ latex] matriz [latex] A [/ latex] é considerada diagonalizável ortogonalmente se houver uma matriz ortogonal [latex] P [/ latex] (com [latex] P ^ <-1> = P ^[/ latex] e [latex] P [/ latex] tem colunas ortonormais) e uma matriz diagonal [latex] D [/ latex] tal que [latex] A = PDP ^= PDP ^ <-1> [/ latex].

Observação: Tal diagonalização requer [latex] n [/ latex] linearmente independentes e autovetores ortonormais. Se [latex] A [/ latex] for ortogonalmente diagonalizável, então [latex] A ^= (PDP ^)^= (P ^)^D ^P ^= PDP ^= A [/ latex],

ou seja, [latex] A [/ latex] é simétrico.

Teorema: Uma matriz [latex] n times n [/ latex] A é ortogonalmente diagonalizável se e somente se [latex] A [/ latex] é simétrica
matriz.

Exemplo 2: Diagonalize ortogonalmente a matriz [latex] A = left [ begin 3 e 1 1 e 3 fim right] [/ latex].

Exercício 2: Diagonalize ortogonalmente a matriz [latex] A = left [ begin 1 e 5 5 e 1 fim right] [/ latex].

Exemplo 3: Diagonalize ortogonalmente a matriz [latex] A = left [ begin 3 e -2 e 4 -2 e 6 e 2 4 e 2 e 3 end right] [/ latex].

Exercício 3: Diagonalize ortogonalmente a matriz [latex] A = left [ begin 5 & ​​-4 & -2 -4 & 5 & 2 -2 & 2 & 2 end right] [/ latex].

Observação: O conjunto de valores próprios de uma matriz [látex] A [/ látex] é algumas vezes chamado de espectro de [látex] A [/ látex], e a seguinte descrição dos valores próprios é chamada de teorema espectral.

Teorema: O Teorema Espectral para Matrizes Simétricas

Uma matriz simétrica [latex] n times n [/ latex] [latex] A [/ latex] tem as seguintes propriedades:

(a) [latex] A [/ latex] tem [latex] n [/ latex] autovalores reais, contando multiplicidades.

(b) A dimensão do espaço próprio para cada valor próprio [latex] lambda [/ latex] é igual à multiplicidade de [latex] lambda [/ latex] como uma raiz da equação característica.

(c) Os autoespaços são mutuamente ortogonais, no sentido de que os autovetores correspondentes a diferentes autovalores são ortogonais.

(d) [latex] A [/ latex] é diagonalizável ortogonalmente.

Exemplo 4: Diagonalize ortogonalmente a matriz [latex] A = left [ begin 2 & 0 & 0 & 0 0 & 1 & 0 & 1 0 & 0 & 2 & 0 0 & 1 & 0 & 1 end right] [/ latex].

Exercício 4: Diagonalize ortogonalmente a matriz [latex] A = left [ begin 1 & 0 & 0 & 1 0 & 3 & 0 & 0 0 & 0 & 3 & 0 1 & 0 & 0 & 1 end right]. [/ latex]

GroupWorkExample 1: True ou False.

uma. Uma matriz [latex] n times n [/ latex] que é diagonalizável ortogonalmente deve ser simétrica.

b. Se [latex] A = A ^[/ latex] e se vetores [latex] overrightarrow[/ latex] e [latex] overrightarrow[/ latex] satisfazer
[latex] A overrightarrow= 3 overrightarrow[/ latex] e [latex] A overrightarrow= 4 overrightarrow[/ latex] então
[latex] overrightarrow cdot overrightarrow= 0 [/ latex].

c. Uma matriz simétrica [latex] n times n [/ latex] tem [latex] n [/ latex] autovalores reais distintos.

d. Cada matriz simétrica é diagonalizável ortogonalmente.

e. Se [latex] B = PDP ^[/ latex], onde [latex] P ^= P ^ <-1> [/ latex] e [latex] D [/ latex] é uma matriz diagonal, então [latex] B [/ latex] é uma matriz simétrica.

f. A dimensão de um autoespaço de uma matriz simétrica é igual à multiplicidade do autovalor correspondente.

GroupWork 2: Mostre que se [latex] A [/ latex] e [latex] B [/ latex] são matrizes ortogonais, então [latex] AB [/ latex] também é uma matriz ortogonal.

GroupWork 3: Suponha que [latex] A [/ latex] seja invertível e diagonalizável ortogonalmente. Mostre que [latex] A ^ <-1> [/ latex] também é diagonalizável ortogonal.

GroupWork 4: Prove a afirmação ou dê um contra-exemplo.

uma. Uma matriz ortogonal é diagonalizável ortogonalmente.

b. Uma matriz ortogonal é invertível.

c. Uma matriz invertível é ortogonal.

d. Se uma matriz é diagonalizável, ela é simétrica.

GroupWork 5: Suponha que [latex] A [/ latex] seja uma matriz simétrica [latex] n vezes n [/ latex] e [latex] B [/ latex] seja qualquer matriz [latex] n times m [/ latex] . Mostre que [latex] B ^AB [/ latex], [latex] B ^B [/ latex] e [latex] BB ^[/ latex] são matrizes simétricas.


15: Matrizes Simétricas Diagonalizantes

Descrição da palestra

Álgebra Linear: Para a matriz simétrica real [3 2/2 3], 1) verifique se todos os valores próprios são reais, 2) mostre que os vectores próprios para valores próprios distintos são ortogonais em relação ao produto interno padrão e 3) encontre uma matriz ortogonal P tal que P ^ <-1> AP = D é diagonal. O Teorema Espectral afirma que toda matriz simétrica pode ser colocada na forma diagonal real usando uma mudança ortogonal da matriz de base (ou há uma base ortonormal de autovetores).

Índice de Curso

  1. Redução de linha para um sistema de duas equações lineares
  2. Resolvendo um SLE 2x2 usando uma matriz inversa
  3. Resolvendo um SLE em 3 Variáveis ​​com Operações de Linha 1
  4. Resolvendo um SLE em 3 Variáveis ​​com Operações de Linha 2
  5. Consistência de um sistema de equações lineares
  6. Matriz inversa de 3 x 3 usando operações de linha 1
  7. Inversa da Matriz 3x3 Usando Operações de Linha 2
  8. Inverso da matriz 4x4 usando operações de linha
  9. Exemplo de determinante usando a forma escalonada de linha
  10. Inversa da Matriz 3 x 3 Usando Fórmula Adjugada
  11. Inversa da Matriz 4x4 Usando Fórmula Adjugada
  12. Regra de Cramer para três equações lineares
  13. Determinante de uma matriz 4 x 4 usando cofatores
  14. Determinante de uma matriz 4 x 4 usando operações de linha
  15. Exemplos de mapas lineares
  16. Exemplo de combinação linear
  17. Exemplo de combinação linear (visual)
  18. Avaliando transformações lineares usando uma base
  19. Transformações lineares em R ^ 2
  20. Exemplo de verificação de propriedade básica
  21. Exemplo de base para um espaço nulo
  22. Exemplo de base para um Span
  23. Exemplo de independência linear usando determinante
  24. Exemplo de kernel e intervalo de transformação linear
  25. Transformações Lineares: Um-Um
  26. Transformações lineares: para
  27. Exemplo de mudança de base
  28. Autovalores e autovetores
  29. Exemplo de vetor próprio: cadeia de Markov
  30. Exemplo de diagonalização de uma matriz 2 x 2
  31. Exemplo de fórmula de potência para uma matriz
  32. Os números de Fibonacci usando álgebra linear (versão HD)
  33. Comprimento do vetor em R ^ n
  34. O produto interno padrão em R ^ n
  35. Exemplo de truque de Fourier
  36. Exemplo de complemento ortogonal
  37. Transformações ortogonais 1: 2x2 caso
  38. Transformações Ortogonais 2: Caso 3x3
  39. Exemplo de ortogonalização de Gram-Schmidt
  40. Decomposição QR para uma matriz 2x2
  41. Além dos Eigenspaces: Planos Invariantes Reais
  42. Além dos Eigenspaces 2: Forma Complexa
  43. Teorema espectral para matrizes reais: caso geral 2x2
  44. Teorema espectral para matrizes reais: caso nxn geral
  45. Exemplo de teorema espectral (matriz simétrica 3x3)
  46. Exemplo de decomposição espectral
  47. Exemplo de diagonalização de uma matriz simétrica (teorema espectral)

Descrição do Curso

Este curso contém 47 pequenas aulas em vídeo pelo Dr. Bob sobre conceitos básicos e avançados de Álgebra Linear. Ele o orienta através de ideias básicas, como resolver sistemas de equações lineares usando forma escalonada de linha, redução de linha, eliminação Gaussiana-Jordan e solução de sistemas de 2 ou mais equações usando determinantes, regra de Cramer e muito mais.

Ele também examina conceitos de espaços vetoriais como extensão, mapas lineares, combinações lineares, transformações lineares, base de um vetor, espaço nulo, mudanças de base, bem como encontrar autovalores e autovetores.

Finalmente, ele termina o curso cobrindo alguns conceitos avançados envolvendo autovetores, incluindo a diagonalização da matriz, a fórmula de potência para uma matriz, resolução de números de Fibonacci usando álgebra linear, produto interno em R ^ n, transformações ortogonais, ortogonalização de Gram-Schmidt, QR -decomposição, o teorema espectral e muito mais.


15: Matrizes Simétricas de Diagonalização

Matrizes simétricas têm muitas propriedades especiais, as mais importantes das quais são expressas no seguinte teorema:

3. existe uma matriz diagonal e uma matriz ortogonal tal que A = UDU T. As entradas diagonais de D são os autovalores de A e as colunas de U são os autovetores correspondentes:

Uma matriz ortogonal U satisfaz, por definição, U T = U -1, o que significa que as colunas de U são ortonormais (ou seja, quaisquer duas delas são ortogonais e cada uma tem a norma um). A expressão A = UDU T de uma matriz simétrica em termos de seus autovalores e autovetores é referida como a decomposição espectral de A.

O teorema espectral implica que há uma mudança de variáveis ​​que transforma A em uma matriz diagonal. Antes de explicar essa mudança de variáveis, mostrarei por que ela é importante. O leitor deve se lembrar que cada função quadrática nas n variáveis ​​pode ser expressa na forma

A fórmula para q (x) envolve n 2 termos e as variáveis ​​são tipicamente acopladas. No entanto, se H passa a ser uma matriz diagonal, então a fórmula para q (x) simplifica consideravelmente:

Essa quadrática é fácil de entender: em cada direção de coordenada x i, o gráfico é uma parábola, abrindo para cima se H ii & gt0 e abrindo para baixo se H ii & lt0. Existe também o caso degenerado H ii = 0, caso em que q é constante em relação a x i e o gráfico nessa direção é uma linha horizontal.

Portanto, em duas variáveis ​​(o único caso que pode ser visualizado), uma função quadrática definida por tem seis formas possíveis, correspondendo aos seguintes casos: 1. 0, lambda_2> 0 $ -> 2. 3. 0, lambda_2 ou 0 $ -> 4. 0, lambda_2 = 0 $ -> ou 0 $ -> 5. ou 6.. Quatro das possibilidades estão representadas na Figura 1.

   Figura 1: Os gráficos de quatro funções quadráticas: dois autovalores positivos (superior esquerdo), dois autovalores negativos (superior direito), um positivo e um negativo autovalor (inferior esquerdo), um positivo e um autovalor zero (inferior direito).

Agora vou explicar a mudança de variáveis ​​que diagonaliza uma matriz simétrica. Um vetor

está implicitamente expresso em termos da base padrão:

Se for um conjunto ortonormal, então é uma base alternativa: Cada um pode ser expresso como

Além disso, os coeficientes são fáceis de calcular:

Quando a base ortonormal forma uma matriz, o cálculo dos coeficientes assume a forma de um produto matriz-vetor:

O ponto chave aqui é que os números podem ser considerados como novas variáveis ​​que representam o vetor x. Especificamente, represente x na base padrão, enquanto represente x na base alternativa.

Agora divago para lembrar o leitor da seguinte propriedade fundamental de matrizes, vetores e o produto escalar: Se, então

Esta é realmente a razão pela qual a transposição de uma matriz é importante.

Supondo que seja simétrico, ele tem uma decomposição espectral H = UDU T. Portanto,

onde apliquei a mudança de variáveis. Portanto, a quadrática é uma quadrática simples desacoplada quando expressa em termos da base alternativa. Como toda matriz simétrica tem uma decomposição espectral, isso significa que toda função quadrática pode ser expressa como uma simples quadrática desacoplada, desde que o sistema de coordenadas correto seja escolhido. Em particular, isso mostra que o gráfico de cada quadrática em duas variáveis ​​se parece com um dos gráficos na Figura 1 (ou como uma das duas outras possibilidades não ilustradas naquela figura), possivelmente girado a partir das coordenadas padrão.


15: Matrizes Simétricas Diagonalizantes

Uma matriz pode ser diagonalizada se tiver n autovetores independentes. A matriz diagonal Î ›é a matriz de autovalores.

Índice de Curso

  1. Introdução às Equações Diferenciais e ao Conjunto MATLAB® ODE
  2. Visão geral das equações diferenciais
  3. O cálculo que você precisa
  4. Resposta à entrada exponencial
  5. Resposta à entrada oscilante
  6. Solução para qualquer entrada
  7. Função de degrau e função delta
  8. Resposta ao exponencial complexo
  9. Fator de integração para taxa constante
  10. Fator de integração para uma taxa variável
  11. A Equação Logística
  12. A estabilidade e instabilidade dos estados estacionários
  13. Equações Separáveis
  14. Equações de segunda ordem
  15. Movimento Harmônico Forçado
  16. Movimento Amortecido Não Forçado
  17. Resposta ao Impulso e Resposta ao Passo
  18. Resposta exponencial - possível ressonância
  19. Equações de segunda ordem com amortecimento
  20. Redes elétricas: tensões e correntes
  21. Método de coeficientes indeterminados
  22. Um exemplo de coeficientes indeterminados
  23. Variação de Parâmetros
  24. Transformada de Laplace: Equação de Primeira Ordem
  25. Transformada de Laplace: Equação de segunda ordem
  26. Transformadas e convolução de Laplace
  27. Fotos de soluções
  28. Imagens do plano de fase: fonte, afundamento, sela
  29. Imagens do plano de fase: espirais e centros
  30. Duas equações de primeira ordem: estabilidade
  31. Linearização em pontos críticos
  32. Linearização de duas equações não lineares
  33. Valores próprios e estabilidade: matriz 2 por 2, A
  34. A caixa de proteção em 3-D
  35. O espaço da coluna de uma matriz
  36. Independência, base e dimensão
  37. The Big Picture of Linear Algebra
  38. Gráficos
  39. Matrizes de Incidência de Gráficos
  40. Autovalores e autovetores
  41. Diagonalizando uma matriz
  42. Poderes das matrizes e matrizes de Markov
  43. Resolvendo Sistemas Lineares
  44. The Matrix Exponential
  45. Matrizes semelhantes
  46. Matrizes simétricas, autovalores reais, autovetores ortogonais
  47. Sistemas de segunda ordem
  48. Matrizes Definidas Positivas
  49. Decomposição de valor singular (o SVD)
  50. As condições de limite substituem as condições iniciais
  51. Equação de Laplace
  52. Séries de Fourier
  53. Exemplos da série de Fourier
  54. Solução da série de Fourier da equação de Laplace
  55. Equação de Calor
  56. Equação de Onda
  57. Euler, ODE1
  58. Método do ponto médio, ODE2
  59. Runge-Kutta clássico, ODE4
  60. Ordem, convenções de nomenclatura
  61. Erro de estimativa, ODE23
  62. ODE45
  63. Rigidez, ODE23s, ODE15s
  64. Sistemas de Equações
  65. Suíte MATLAB ODE
  66. Tumbling Box
  67. Equações Predador-Presa
  68. Lorenz Attractor e Chaos

Descrição do Curso

Aprenda equações diferenciais: de perto com Gilbert Strang e Cleve Moler é uma série aprofundada de vídeos sobre equações diferenciais e o pacote MATLAB® ODE. Esses vídeos são adequados para os alunos e alunos ao longo da vida desfrutarem.

Cleve Moler, fundador e matemático chefe da MathWorks, e Gilbert Strang, professor e matemático do Massachusetts Institute of Technology, fornecem uma visão geral de sua série de vídeos aprofundados sobre equações diferenciais e o pacote MATLAB® ODE.

Equações diferenciais e álgebra linear são dois assuntos cruciais na ciência e na engenharia. A série de vídeos de Gilbert Strang desenvolve esses assuntos separadamente e em conjunto e complementa o livro de Gil Strang sobre o assunto. Cleve Moler apresenta computação para equações diferenciais e explica o pacote MATLAB ODE e sua base matemática. A série de vídeos de Cleve Moler começa com o método de Euler e vai até Runge Kutta e inclui exercícios práticos do MATLAB.


Assista o vídeo: wartości i wektory własne macierzy (Outubro 2021).