Artigos

7.4: Existência de valores próprios


A seguir, queremos estudar a questão de quando existem autovalores para um determinado operador (T ). Para responder a esta pergunta, usaremos polinômios (p (z) in mathbb {F} [z] ) avaliados em operadores (T in mathcal {L} (V, V) ) (ou, equivalentemente, em matrizes quadradas (A in mathbb {F} ^ {n vezes n} ). Mais explicitamente, dado um polinômio

[p (z) = a_0 + a_1 z + cdots + a_k z ^ k ]

podemos associar o operador

[p (T) = a_0 I_V + a_1 T + cdots + a_k T ^ k. ]

Observe que, para (p (z), q (z) in mathbb {F} [z] ), temos

begin {equation *}
(pq) (T) = p (T) q (T) = q (T) p (T).
end {equação *}

Os resultados desta seção serão para espaços vetoriais complexos. Isso ocorre porque a prova da existência de autovalores se baseia no Teorema Fundamental da Álgebra do Capítulo 3, que faz uma afirmação sobre a existência de zeros de polinômios em ( mathbb {C} ).

Teorema 7.4.1: Existência

Deixar (V neq {0 } ) ser um espaço vetorial de dimensão finita sobre ( mathbb {C} ), e deixar (T in mathcal {L} (V, V) ). Então (T ) tem pelo menos um autovalor.

Prova

Seja (v in V ) com (v neq 0 ), e considere a lista de vetores

begin {equation *}
(v, Tv, T ^ 2v, ldots, T ^ nv),
end {equação *}

onde (n = dim (V) ). Visto que a lista contém (n + 1 ) vetores, ela deve ser linearmente dependente. Portanto, existem escalares (a_0, a_1, ldots, a_n in mathbb {C} ), nem todos zero, de modo que

begin {equation *}
0 = a_0 v + a_1 Tv + a_2 T ^ 2 v + cdots + a_n T ^ n v.
end {equação *}

Seja (m ) o maior índice para o qual (a_m neq 0 ). Uma vez que (v neq 0 ), devemos ter (m> 0 ) (mas possivelmente (m = n ). Considere o polinômio

begin {equation *}
p (z) = a_0 + a_1 z + cdots + a_m z ^ m.
end {equação *}

Pelo Teorema 3.2.3 (3), ele pode ser fatorado como
begin {equation *}
p (z) = c (z- lambda_1) cdots (z- lambda_m),
end {equação *}

onde (c, lambda_1, ldots, lambda_m in mathbb {C} ) e (c neq 0 ).

Portanto,
begin {equation *}
begin {split}
0 & = a_0 v + a_1 Tv + a_2 T ^ 2 v + cdots + a_n T ^ n v = p (T) v
& = c (T- lambda_1 I) (T- lambda_2 I) cdots (T- lambda_m I) v,
end {split}
end {equação *}
e, portanto, pelo menos um dos fatores (T- lambda_j I ) deve ser não-objetivo. Em outras palavras, este ( lambda_j ) é um autovalor de (T ).

Observe que a prova do Teorema 7.4.1 usa apenas conceitos básicos sobre mapas lineares, que é a mesma abordagem de um livro popular chamado Álgebra Linear feita da maneira certa por Sheldon Axler. Muitos outros livros didáticos contam com provas significativamente mais difíceis usando conceitos como o polinômio determinante e característico de uma matriz. Ao mesmo tempo, muitas vezes é preferível usar o polinômio característico de uma matriz para calcular a informação própria de um operador; discutimos essa abordagem no Capítulo 8.

Observe também que o teorema 7.4.1 não é válido para espaços vetoriais reais. Por exemplo, como vimos no Exemplo 7.2.2, o operador de rotação (R ) em ( mathbb {R} ^ 2 ) não tem autovalores.


Encontre os autovalores e autovetores de $$ left [ begin1 e 2 0 e 3 fim direita] $$.

Comece formando uma nova matriz subtraindo $$ lambda $$ das entradas diagonais da matriz dada: $$ left [ begin1 - lambda & 2 0 & 3 - lambda end direita] $$.

O determinante da matriz obtida é $$ left ( lambda - 3 right) left ( lambda - 1 right) $$ (para etapas, consulte calculadora de determinantes).

Resolva a equação $$ left ( lambda - 3 right) left ( lambda - 1 right) = 0 $$.

As raízes são $$ lambda_ <1> = 3 $$, $$ lambda_ <2> = 1 $$ (para ver as etapas, consulte o solucionador de equações).

Esses são os valores próprios.

Em seguida, encontre os vetores próprios.

$$ left [ begin1 - lambda & 2 0 & 3 - lambda end right] = left [ begin-2 e 2 0 e 0 fim right] $$

O espaço nulo desta matriz é $$ left < left [ begin1 1 fim right] right > $$ (para as etapas, consulte a calculadora de espaço nulo).

$$ left [ begin1 - lambda & 2 0 & 3 - lambda end right] = left [ begin0 e 2 0 e 2 fim right] $$

O espaço nulo desta matriz é $$ left < left [ begin1 0 fim right] right > $$ (para as etapas, consulte a calculadora de espaço nulo).


7.4: Valores próprios de Lz

  • Contribuição de Richard Fitzpatrick
  • Professor (Física) na Universidade do Texas em Austin

Parece razoável tentar escrever o estado próprio (Y_( theta, phi) ) na forma separável

Podemos satisfazer a restrição de ortonormalidade ([e8.31]) desde que

Observe, da Equação ([e8.26]), que o operador diferencial que representa (L_z ) depende apenas do ângulo azimutal ( phi ), e é independente do ângulo polar ( theta ). Portanto, segue-se das Equações ([e8.26]), ([e8.29]) e ([e8.34]) que [- < rm i> , hbar , frac_m> = m , hbar , < mit Phi> _m. ] A solução desta equação é [ label < mit Phi> _m ( phi) sim < rm e> ^ <, < rm i> , m , phi>. ] Aqui, o símbolo ( sim ) significa apenas que estamos negligenciando constantes multiplicativas.

Nossa interpretação básica de uma função de onda como uma quantidade cujo módulo ao quadrado representa a densidade de probabilidade de encontrar uma partícula em um ponto particular no espaço sugere que uma função de onda física deve ter um valor único no espaço. Caso contrário, a densidade de probabilidade em um determinado ponto não teria, em geral, um valor único, o que não faz sentido físico. Portanto, exigimos que a função de onda ([e8.38]) seja de valor único: ou seja, (< mit Phi> _m ( phi + 2 , pi) = < mit Phi> _m ( phi) ) para todos ( phi ). Isso implica imediatamente que a quantidade (m ) é quantizada. Na verdade, (m ) pode aceitar apenas valores inteiros. Assim, concluímos que os autovalores de (L_z ) também são quantizados, e tomamos os valores (m , hbar ), onde (m ) é um número inteiro. [Um argumento mais rigoroso é que (< mit Phi> _m ( phi) ) deve ser contínuo para garantir que (L_z ) seja um operador Hermitiano, porque a prova de hermiticidade envolve uma integração por partes em ( phi ) que tem contribuições de cancelamento de ( phi = 0 ) e ( phi = 2 pi ). ]

Finalmente, podemos normalizar facilmente o autoestado ([e8.38]) fazendo uso da restrição de ortonormalidade ([e8.36]). Obtemos [< mit Phi> _m ( phi) = frac << rm e> ^ <, < rm i> , m , phi >> < sqrt <2 pi> >. ] Este é o estado próprio normalizado de (L_z ) correspondente ao valor próprio (m , hbar ).


Conteúdo

Se T é uma transformação linear de um espaço vetorial V sobre um campo F em si mesmo e v é um vetor diferente de zero em V, então v é um autovetor de T se T(v) é um múltiplo escalar de v . Isso pode ser escrito como

onde λ é um escalar em F, conhecido como o autovalor, valor característico, ou raiz característica associado com v .

Existe uma correspondência direta entre n-de-n matrizes quadradas e transformações lineares de um nespaço vetorial dimensional em si mesmo, dada qualquer base do espaço vetorial. Portanto, em um espaço vetorial de dimensão finita, é equivalente definir autovalores e autovetores usando a linguagem de matrizes ou a linguagem de transformações lineares. [3] [4]

Se V for finito-dimensional, a equação acima é equivalente a [5]

onde A é a representação matricial de T e você é o vetor coordenado de v .

Autovalores e autovetores apresentam um papel proeminente na análise de transformações lineares. O prefixo eigen- é adotado da palavra alemã eigen (cognato com a palavra inglesa ter) para "adequado", "característico", "próprio". [6] [7] Originalmente usado para estudar os eixos principais do movimento rotacional de corpos rígidos, autovalores e autovetores têm uma ampla gama de aplicações, por exemplo, em análise de estabilidade, análise de vibração, orbitais atômicos, reconhecimento facial e diagonalização de matriz.

Em essência, um autovetor v de uma transformação linear T é um vetor diferente de zero que, quando T é aplicado a ele, não muda de direção. Aplicando T para o vetor próprio escala apenas o vetor próprio pelo valor escalar λ, chamado de autovalor. Esta condição pode ser escrita como a equação

referido como o equação de autovalor ou eigenequação. Em geral, λ pode ser qualquer escalar. Por exemplo, λ pode ser negativo, caso em que o vetor próprio inverte a direção como parte da escala, ou pode ser zero ou complexo.

O exemplo da Mona Lisa retratado aqui fornece uma ilustração simples. Cada ponto na pintura pode ser representado como um vetor apontando do centro da pintura para aquele ponto. A transformação linear neste exemplo é chamada de mapeamento de cisalhamento. Os pontos da metade superior são movidos para a direita e os pontos da metade inferior são movidos para a esquerda, proporcionalmente à distância que eles estão do eixo horizontal que passa pelo meio da pintura. Os vetores que apontam para cada ponto na imagem original são, portanto, inclinados para a direita ou para a esquerda e tornados mais longos ou mais curtos pela transformação. Pontos ao longo o eixo horizontal não se move quando esta transformação é aplicada. Portanto, qualquer vetor que aponte diretamente para a direita ou esquerda sem nenhum componente vertical é um autovetor dessa transformação, pois o mapeamento não muda sua direção. Além disso, todos esses autovetores têm um autovalor igual a um, porque o mapeamento também não altera seu comprimento.

As transformações lineares podem assumir muitas formas diferentes, mapeando vetores em uma variedade de espaços vetoriais, de modo que os autovetores também podem assumir muitas formas. Por exemplo, a transformação linear pode ser um operador diferencial como d d x < displaystyle < tfrac >>, caso em que os autovetores são funções chamadas autofunções que são escaladas por esse operador diferencial, como

Alternativamente, a transformação linear pode assumir a forma de um n de n matriz, caso em que os vetores próprios são n por 1 matrizes. Se a transformação linear for expressa na forma de um n de n matriz UMA, então a equação do valor próprio para uma transformação linear acima pode ser reescrita como a multiplicação da matriz

onde o autovetor v é um n por 1 matriz. Para uma matriz, autovalores e autovetores podem ser usados ​​para decompor a matriz - por exemplo, diagonalizando-a.

Autovalores e autovetores dão origem a muitos conceitos matemáticos intimamente relacionados, e o prefixo eigen- é aplicado liberalmente ao nomeá-los:

  • O conjunto de todos os autovetores de uma transformação linear, cada um emparelhado com seu autovalor correspondente, é chamado de sistema autônomo dessa transformação. [8] [9]
  • O conjunto de todos os vetores próprios de T correspondente ao mesmo valor próprio, juntamente com o vetor zero, é chamado de eigenspace, ou o espaço característico de T associado a esse valor próprio. [10]
  • Se um conjunto de vetores próprios de T forma a base do domínio de T, então essa base é chamada de base própria.

Os valores próprios são frequentemente introduzidos no contexto da álgebra linear ou teoria das matrizes. Historicamente, no entanto, eles surgiram no estudo de formas quadráticas e equações diferenciais.

No século 18, Leonhard Euler estudou o movimento rotacional de um corpo rígido e descobriu a importância dos eixos principais. [a] Joseph-Louis Lagrange percebeu que os eixos principais são os autovetores da matriz de inércia. [11]

No início do século 19, Augustin-Louis Cauchy viu como seu trabalho poderia ser usado para classificar as superfícies quádricas e generalizou-as para dimensões arbitrárias. [12] Cauchy também cunhou o termo racine caractéristique (raiz característica), para o que agora é chamado autovalor seu mandato sobrevive em equação característica. [b]

Mais tarde, Joseph Fourier usou o trabalho de Lagrange e Pierre-Simon Laplace para resolver a equação do calor por separação de variáveis ​​em seu famoso livro de 1822 Théorie analytique de la chaleur. [13] Charles-François Sturm desenvolveu ainda mais as idéias de Fourier e as trouxe à atenção de Cauchy, que as combinou com suas próprias idéias e chegou ao fato de que matrizes simétricas reais têm autovalores reais. [12] Isso foi estendido por Charles Hermite em 1855 para o que agora é chamado de matrizes hermitianas. [14]

Na mesma época, Francesco Brioschi provou que os autovalores de matrizes ortogonais estão no círculo unitário, [12] e Alfred Clebsch encontrou o resultado correspondente para matrizes assimétricas. [14] Finalmente, Karl Weierstrass esclareceu um aspecto importante na teoria da estabilidade iniciada por Laplace, ao perceber que matrizes defeituosas podem causar instabilidade. [12]

Nesse ínterim, Joseph Liouville estudou problemas de autovalor semelhantes aos de Sturm, a disciplina que surgiu de seu trabalho agora é chamada Teoria de Sturm-Liouville. [15] Schwarz estudou o primeiro valor próprio da equação de Laplace em domínios gerais no final do século 19, enquanto Poincaré estudou a equação de Poisson alguns anos depois. [16]

No início do século 20, David Hilbert estudou os valores próprios de operadores integrais, vendo os operadores como matrizes infinitas. [17] Ele foi o primeiro a usar a palavra alemã eigen, que significa "próprio", [7] para denotar autovalores e autovetores em 1904, [c] embora ele possa estar seguindo um uso relacionado por Hermann von Helmholtz. Por algum tempo, o termo padrão em inglês era "valor adequado", mas o termo mais distinto "autovalor" é o padrão hoje. [18]

O primeiro algoritmo numérico para calcular autovalores e autovetores apareceu em 1929, quando Richard von Mises publicou o método de potência. Um dos métodos mais populares hoje, o algoritmo QR, foi proposto independentemente por John G. F. Francis [19] e Vera Kublanovskaya [20] em 1961. [21] [22]

Valores próprios e vetores próprios são frequentemente apresentados aos alunos no contexto de cursos de álgebra linear com foco em matrizes. [23] [24] Além disso, as transformações lineares sobre um espaço vetorial de dimensão finita podem ser representadas usando matrizes, [25] [4] que é especialmente comum em aplicações numéricas e computacionais. [26]

Considere vetores n-dimensionais que são formados como uma lista de n escalares, como os vetores tridimensionais

Esses vetores são múltiplos escalares entre si, ou paralelos ou colineares, se houver um escalar λ tal que

Agora considere a transformação linear de vetores n-dimensionais definidos por uma matriz A n por n,

Se ocorrer que v e w são múltiplos escalares, isto é, se

então v é um autovetor da transformação linear A e o fator de escala λ é o autovalor correspondendo a esse autovetor. Equação (1) é o equação de autovalor para a matriz A.

Equação (1) pode ser declarado de forma equivalente a

onde I é a matriz de identidade n por n e 0 é o vetor zero.

Valores próprios e a edição polinomial característica

Equação (2) tem uma solução diferente de zero v se e somente se o determinante da matriz (UMAλI) é zero. Portanto, os valores próprios de UMA são valores de λ que satisfazem a equação

Usando a regra de Leibniz para o determinante, o lado esquerdo da Equação (3) é uma função polinomial da variável λ e o grau deste polinômio é n, a ordem da matriz UMA. Seus coeficientes dependem das entradas de UMA, exceto que seu prazo de graduação n é sempre (-1) n λ n . Este polinômio é chamado de polinômio característico de UMA. Equação (3) é chamado de equação característica ou o equação secular de UMA.

O teorema fundamental da álgebra implica que o polinômio característico de um n-de-n matriz UMA, sendo um polinômio de grau n, pode ser fatorado no produto de n termos lineares,

onde cada λeu pode ser real, mas em geral é um número complexo. Os números λ1, λ2, …, λn, que podem não ter todos valores distintos, são raízes do polinômio e são os autovalores de UMA.

Como um breve exemplo, que é descrito em mais detalhes na seção de exemplos posteriormente, considere a matriz

Tomando o determinante de (UMAλI), o polinômio característico de UMA é

Definindo o polinômio característico igual a zero, ele tem raízes em λ = 1 e λ = 3, que são os dois autovalores de UMA. Os autovetores correspondentes a cada autovalor podem ser encontrados resolvendo para os componentes de v na equação (A - λ I) v = 0 < displaystyle left (A- lambda I right) mathbf = mathbf <0>>. Neste exemplo, os autovetores são quaisquer múltiplos escalares diferentes de zero de

Se as entradas da matriz UMA são todos números reais, então os coeficientes do polinômio característico também serão números reais, mas os autovalores ainda podem ter partes imaginárias diferentes de zero. As entradas dos autovetores correspondentes, portanto, também podem ter partes imaginárias diferentes de zero. Da mesma forma, os valores próprios podem ser números irracionais, mesmo se todas as entradas de UMA são números racionais ou mesmo se forem todos inteiros. No entanto, se as entradas de UMA são todos números algébricos, que incluem os racionais, os autovalores são números algébricos complexos.

As raízes não reais de um polinômio real com coeficientes reais podem ser agrupadas em pares de conjugados complexos, nomeadamente com os dois membros de cada par tendo partes imaginárias que diferem apenas no sinal e na mesma parte real. Se o grau for ímpar, pelo teorema do valor intermediário, pelo menos uma das raízes é real. Portanto, qualquer matriz real com ordem ímpar tem pelo menos um autovalor real, enquanto uma matriz real com ordem par pode não ter nenhum autovalor real. Os autovetores associados a esses autovalores complexos também são complexos e também aparecem em pares de conjugados complexos.

Editar multiplicidade algébrica

Deixar λeu ser um autovalor de um n de n matriz UMA. O multiplicidade algébrica µUMA(λeu) do valor próprio é a sua multiplicidade como uma raiz do polinômio característico, ou seja, o maior inteiro k de tal modo que (λλeu) k divide uniformemente esse polinômio. [10] [27] [28]

Suponha uma matriz UMA tem dimensão n e dn autovalores distintos. Considerando que a Equação (4) fatora o polinômio característico de UMA no produto de n termos lineares com alguns termos potencialmente repetidos, o polinômio característico pode, em vez disso, ser escrito como o produto de d termos, cada um correspondendo a um autovalor distinto e elevado ao poder da multiplicidade algébrica,

Se d = n então o lado direito é o produto de n termos lineares e este é o mesmo que Equação (4) O tamanho da multiplicidade algébrica de cada autovalor está relacionado com a dimensão n como

Se µUMA(λeu) = 1, então λeu é dito ser um autovalor simples. [28] Se µUMA(λeu) é igual à multiplicidade geométrica de λeu, γUMA(λeu), definido na próxima seção, então λeu é dito ser um autovalor semi-simples.

Autoespaços, multiplicidade geométrica e a base própria para matrizes Editar

Dado um determinado valor próprio λ do n de n matriz UMA, defina o conjunto E ser todos vetores v que satisfazem a Equação (2),

Por um lado, este conjunto é precisamente o kernel ou espaço nulo da matriz (UMAλI) Por outro lado, por definição, qualquer vetor diferente de zero que satisfaça esta condição é um autovetor de UMA associado com λ. Então, o conjunto E é a união do vetor zero com o conjunto de todos os vetores próprios de UMA associado com λ, e E é igual ao espaço nulo de (UMAλI). E é chamado de eigenspace ou espaço característico de UMA associado com λ. [29] [10] Em geral λ é um número complexo e os vetores próprios são complexos n por 1 matrizes. Uma propriedade do espaço nulo é que ele é um subespaço linear, então E é um subespaço linear de ℂ n .

Porque o eigenspace E é um subespaço linear, ele é fechado sob adição. Ou seja, se dois vetores você e v pertence ao conjunto E, escrito você, vE , então (você + v) ∈ E ou equivalente UMA(você + v) = λ(você + v) Isso pode ser verificado usando a propriedade distributiva da multiplicação da matriz. Da mesma forma, porque E é um subespaço linear, ele é fechado na multiplicação escalar. Ou seja, se vE e α é um número complexo, (αv) ∈ E ou equivalente UMA(αv) = λ(αv) Isso pode ser verificado observando que a multiplicação de matrizes complexas por números complexos é comutativa. Enquanto você + v e αv não são zero, eles também são autovetores de UMA associado com λ.

A dimensão do autoespaço E associado com λ, ou equivalentemente o número máximo de autovetores linearmente independentes associados com λ, é referido como o autovalor multiplicidade geométrica γUMA(λ) Porque E também é o espaço nulo de (UMAλI), a multiplicidade geométrica de λ é a dimensão do espaço nulo de (UMAλI), também chamado de nulidade de (UMAλI), que se relaciona à dimensão e classificação de (UMAλI) como

Devido à definição de autovalores e autovetores, a multiplicidade geométrica de um autovalor deve ser pelo menos um, ou seja, cada autovalor tem pelo menos um autovetor associado. Além disso, a multiplicidade geométrica de um autovalor não pode exceder sua multiplicidade algébrica. Além disso, lembre-se de que a multiplicidade algébrica de um autovalor não pode exceder n.

Propriedades adicionais de autovalores Editar

Editar autovetores esquerdo e direito

Muitas disciplinas tradicionalmente representam vetores como matrizes com uma única coluna em vez de matrizes com uma única linha. Por esse motivo, a palavra "autovetor" no contexto de matrizes quase sempre se refere a um autovetor direito, ou seja, um coluna vetor que direito multiplica n × n < displaystyle n times n> matriz A < displaystyle A> na equação de definição, Equação (1),

O problema do autovalor e do autovetor também pode ser definido para fila vetores que deixou multiplique a matriz A < displaystyle A>. Nesta formulação, a equação definidora é

Diagonalização e edição da decomposição automática

Suponha que os vetores próprios de UMA formar uma base, ou equivalentemente UMA tem n autovetores linearmente independentes v1, v2, …, vn com autovalores associados λ1, λ2, …, λn. Os valores próprios não precisam ser distintos. Defina uma matriz quadrada Q cujas colunas são o n autovetores linearmente independentes de UMA,

Uma vez que cada coluna de Q é um autovetor de UMA, multiplicando à direita UMA de Q dimensiona cada coluna de Q por seu autovalor associado,

Com isso em mente, defina uma matriz diagonal Λ onde cada elemento diagonal Λii é o autovalor associado ao euª coluna de Q. Então

Porque as colunas de Q são linearmente independentes, Q é invertível. Multiplicando à direita ambos os lados da equação por Q −1 ,

ou, em vez disso, multiplicando à esquerda ambos os lados por Q −1 ,

UMA pode, portanto, ser decomposta em uma matriz composta de seus autovetores, uma matriz diagonal com seus autovalores ao longo da diagonal e o inverso da matriz de autovetores. Isso é chamado de eigendecomposition e é uma transformação de similaridade. Tal matriz UMA é dito ser semelhante para a matriz diagonal Λ ou diagonalizável. O Matrix Q é a mudança da matriz de base da transformação de similaridade. Essencialmente, as matrizes UMA e Λ representam a mesma transformação linear expressa em duas bases diferentes. Os autovetores são usados ​​como base para representar a transformação linear como Λ.

Por outro lado, suponha que uma matriz UMA é diagonalizável. Deixar P ser uma matriz quadrada não singular de modo que P −1 AP é alguma matriz diagonal D. Esquerda multiplicando ambos por P, AP = PD . Cada coluna de P deve, portanto, ser um autovetor de UMA cujo autovalor é o elemento diagonal correspondente de D. Desde as colunas de P deve ser linearmente independente para P para ser invertível, existem n autovetores linearmente independentes de UMA. Segue-se então que os vetores próprios de UMA formar uma base se e somente se UMA é diagonalizável.

Uma matriz que não é diagonalizável é considerada defeituosa. Para matrizes defeituosas, a noção de autovetores generaliza para autovetores generalizados e a matriz diagonal de autovalores generaliza para a forma normal de Jordan. Sobre um campo algébricamente fechado, qualquer matriz UMA tem uma forma normal de Jordan e, portanto, admite uma base de autovetores generalizados e uma decomposição em autovetores generalizados.


Existência e singularidade da decomposição própria de uma matriz quadrada

Estou confuso sobre as condições suficientes para a existência e exclusividade da decomposição própria de uma matriz quadrada.

Considere uma matriz $ A $ de dimensão $ m vezes m $, uma matriz $ B $ de dimensão $ m vezes m $ e uma matriz $ D $ diagonal de dimensão $ m vezes m $.

Premissa 1: $ B $ invertível

Suposição 2: Os elementos diagonais de $ D $ são todos distintos

Suposição 3: $ A = BDB ^ <-1> $ onde $ B ^ <-1> $ existe pela Suposição 1

(1) Faz Suposição 3 significa que $ BDB ^ <-1> $ é a decomposição própria de $ A $? Em outras palavras, a Suposição 3 equivale a dizer que as colunas de $ B $ são os autovetores de $ A $ e os elementos diagonais de $ D $ são os autovalores de $ A $? Ou precisamos de outras suposições para afirmar isso?

Minha dúvida é que: se a hipótese 3 significa que as colunas de $ B $ são os autovetores de $ A $ e os elementos diagonais de $ D $ são os autovalores de $ A $, então, uma vez que $ B $ é invertível, deveria é que os autovetores de $ A $ são linearmente independentes e, portanto, que $ A $ é invertível (o que não está entre minhas suposições).

(2) Pelo que li em algumas fontes, Premissas 2 e 3 implica que a decomposição própria de $ A $ é único [até uma multiplicação à esquerda de $ B $ por uma matriz diagonal invertível e até uma ordem para os autovalores]. O que "único" significa exatamente? Pensei que isso significa que não existem outras matrizes $ E, F $ com $ F $ diagonal tais que $ A = EFE ^ <-1> $? Mas se isso estiver certo, a unicidade seria necessária para garantir que as colunas de $ B $ são os autovetores de $ A $ e os elementos diagonais de $ D $ são os autovalores de $ A $ em outras palavras seriam "embutidos" ao dizer que $ BDB ^ <-1> $ é a decomposição própria de $ A $. Você poderia esclarecer este ponto?


7.4: Existência de valores próprios


Este é o site do curso MAT22B do Departamento de Matemática da UC Davis.
Ele contém as informações básicas do curso, os diários matemáticos e os recursos matemáticos.

O livro didático do curso é a versão resumida de Equações Diferenciais Elementares e Problemas de Valor Limite de W.E. Boyce, R.C. DiPrima e D.B. Meade preparado para alunos da UC Davis. Nosso curso usará apenas os capítulos 1,2,3,6 e 7 de sua 11ª edição padrão.

O objetivo da unidade curricular é desenvolver uma compreensão clara das equações diferenciais, das técnicas básicas de resolução e obter a capacidade de as utilizar para resolver problemas, conforme indicado no Programa do Departamento.

Informação do curso

Palestras: MWF às 10h00 às 10h50 no Kleiber Hall 3.

Livro didático: Equações diferenciais elementares e problemas de valor limite por W.E. Boyce, R.C. DiPrima e D.B. Meade (11ª edição).
Observe que há uma versão resumida e mais acessível deste livro disponível para os alunos da UC Davis.
Usaremos os Capítulos 1,2,3,6 e 7 do livro acima, que estão disponíveis na versão resumida.


Programa de Estudos: O programa do curso contém as diretrizes básicas do curso, e será carregado próximo ao início do trimestre.

Horário comercial: Segundas-feiras das 16h30 às 17h30 e às quartas-feiras das 15h às 16h no MSB 3214 (Casals). Sempre fique à vontade para perguntar depois da aula. Terças-feiras das 16 às 17h e às quartas-feiras das 16 às 17h no MSB 2123 (Jiawei Wang). Terças-feiras das 14h00 às quintas-feiras das 15h00 às 16h00 no MSB 2204 (Haolin Chen).
Os Centros de Assistência Acadêmica e Tutoria oferecem oficinas de apoio para esta classe segundas e quartas-feiras, das 15h às 16h, no Dutton Hall 3218

Assistentes de Ensino: Os Assistentes de Ensino são Jiawei Wang (wangjw - at - math.ucdavis.edu) e Haolin Chen (hlnchen - at - math.ucdavis.edu).

Datas importantes: Primeiro dia (25 de setembro), Prova intermediária (25 de outubro), Exame final (9 de dezembro).
O curso pode ser adicionado até 10 de outubro (12º dia de aulas) e retirado até 22 de outubro (20º dia de aulas).

Conjuntos de Problemas: As tarefas semanais devem ser entregues às sextas-feiras às 10h00, no início das aulas.
Os conjuntos de problemas devem ser enviados online por meio do Canvas. O conjunto de problemas 1 será entregue na sexta-feira, 4 de outubro.

Conjuntos de Problemas

    : Vencimento na sexta-feira, 4 de outubro e disponível na sexta-feira, 27 de setembro.

: O prazo é sexta-feira, 11 de outubro e disponível no sábado, 5 de outubro.

: O prazo é sexta-feira, 18 de outubro, e disponível no sábado, 12 de outubro.

: Para prática e disponível quinta-feira, 17 de outubro.

: Para prática e disponível na sexta, 18 de outubro.

: Disponível nas aulas na sexta, 25 de outubro.

: Vencimento na sexta-feira, 8 de novembro, e disponível no sábado, 2 de novembro.

: Vencimento na sexta-feira, 15 de novembro e disponível na quinta-feira, 7 de novembro.

: Vencimento na sexta-feira, 6 de dezembro e disponível na quinta-feira, 23 de novembro.

: Para prática e disponível sábado, 30 de novembro.

: Para prática e disponível sábado, 30 de novembro.

: Para prática e disponível sábado, 30 de novembro.

Soluções

: Disponível quinta-feira, 17 de outubro.

Diários Matemáticos

    Quarta-feira, 25 de setembro: Introdução às Equações Diferenciais.

Definição de uma equação diferencial. Exemplos de ordens um e dois.
O Teorema Fundamental do Cálculo e da Integração como método de resolução.
Duas classes de Equações Diferenciais: Segunda Lei de Newton e Modelagem da Taxa de Crescimento.
Exemplos: Pêndulo Oscilante e Pequenas Oscilações (Seção 1.3).
Leitura do livro didático (25 de setembro): Seções 1.1 e 1.3. A seção 1.2 também é recomendada.

O Método de Separação de Variáveis. Primeiro exemplo.
A Equação Diferencial para a Lei de Pareto e sua Solução.
Aplicação: Número estimado de milionários nos EUA em 1998.
A equação diferencial para crescimento celular e solução.
Leitura do livro didático (30 de setembro): Seção 2.2.

Soluções qualitativas. Quão rápido um objeto em queda cai.
Comportamento de longo prazo: solução analítica e solução geométrica.
Método dos campos de direção (Isoclinos). Exemplo: Modelo Logístico.
Cotas de colheita. A extinção da vaca do mar de Steller (1968).
Leitura do livro didático (2 de outubro): Seções 1.1, 1.2 e Seção 2.5.

Equações diferenciais autônomas. Comportamento em termos de f (y).
Exemplo em modelo logístico. Receita para soluções estáveis ​​e instáveis.
Aplicação à Colheita: Solução para o caso de Cota Constante.
(O caso da cota não constante: modelo de Gordon-Schaefer.)

Leitura do livro didático (4 de outubro): Seção 2.5, Problemas 19 e 20 (Colhendo um Recurso Renovável).

Aproximações numéricas: valores e erros. Método de Euler,
Perpsetivo Geométrico. Perspectiva algorítmica: a receita.
Estudo de caso abrangente: Soluções analíticas e numéricas.
Erro de análise. Erro em termos de he limite superior para erro global.
Leitura do livro didático (7 de outubro): Seção 2.7.

ODEs de segunda ordem. Linearidade e o Princípio da Superposição.
Os dois exemplos principais: Pêndulo com Pequenas Oscilações e sua Inversão.
O ansatz exponencial. Equação característica. Raízes distintas e complexas.
Receita: Resolvendo EDOs homogêneas de segunda ordem com coeficientes constantes.

Leitura do livro didático (9 de outubro): Seção 3.1.

Osciladores harmônicos amortecidos. Interpretação física.
Superamortecimento (raízes reais distintas). Subamortecimento (raízes complexas distintas).
Osciladores com amortecimento crítico: o caso de raízes repetidas.
Redução da ordem: Encontrar uma segunda solução linearmente independente.

Leitura de livros didáticos (11 de outubro): Seções 3.4 e 3.7.

Osciladores harmônicos com amortecimento forçado. Soluções particulares.
As soluções gerais: Soluções homogêneas mais uma solução particular.
A Tabela Ansatz: forma das soluções particulares dadas força externa.
O método dos coeficientes indeterminados. Exemplos.
Leitura de livros didáticos (14 de outubro): Seções 3.5 e 3.8.

Variação de parâmetros para EDOs lineares de segunda ordem.
Determinação das funções: Sistema Linear em termos de Wronskian.
Definição do Wronskian e Conclusão do Teorema Principal (Thm. 3.6.1).
Exemplo: Combinando redução de ordem e variação de parâmetros.
Leitura do livro didático (16 de outubro): Seção 3.6

Existência e singularidade para EDOs homogêneas lineares de segunda ordem (Teorema 3.2.3).
Existência e singularidade para EDOs lineares não homogêneas de segunda ordem (Teorema 3.6.1).
Exemplos onde variações de parâmetros são necessárias (e coeficientes indeterminados falham).
Encontrar soluções linearmente independentes por meio da Redução da Ordem.
Leitura de livros didáticos (18 de outubro): Seções 3.2 e 3.6.

Equação de Euler. Polinomial Ansatz. Raízes repetidas e complexas.
Equação Aérea e Função Aérea. Arco-íris e pontos de viragem.
Equação de Schr & oumldinger. Oscilador Quantum Harmonic.
Leitura de livros didáticos (21 de outubro): Seções 5.2 e 5.4.

A intuição para as transformadas de Fourier e Laplace. Aplicações de transformadas integrais.
Definições matemáticas exatas. Freqüências de captura: ortogonalidade de senos e cossenos.
Transformada de Fourier de um acorde de Fá maior. Transformando impulsos e sinais DC.
Leitura do livro didático (28 de outubro): Seção 6.1.

Definição de Transformada de Laplace. Condições de Existência (Teorema 6.1.2): Crescimento Exponencial.
Tabela de Transformações de Laplace (Tabela 6.2.1): exponenciais, polinômios e funções trigonométricas.
A propriedade fundamental da transformada de Laplace (Teorema 6.2.1): Transformar uma derivada.
Transformada de Laplace de uma equação diferencial linear. Exemplos para sistemas de segunda ordem.
Leitura do livro didático (30 de outubro): Seção 6.2.

Transformada de Laplace de um sistema harmônico amortecido: Senos e Cosseno de Completação de Quadrados.
Equações diferenciais de ordem superior com a transformada de Laplace. Example of fourth-order (Example 6.2.3).
Heaviside Step Functions and its Laplace transform. Examples in Sections 6.3 and 6.4.
Dirac Delta Impulse and its Laplace transform. Examples in Section 6.5.
Textbook Reading (Nov 1): Sections 6.3, 6.4 and 6.5.

System of Coupled Springs and Double Pendulums.
Higher-order Differential Equations as a System of First-order.
Definition of a system of ODEs. Definition of a Linear System of ODEs.
Review of Linear Algebra: Eigenvalues, Eigenvectors and Diagonalization.
Textbook Reading (Nov 4): Sections 7.1, 7.2 and 7.3.

Principle of Superposition (Theorem 7.4.1). Fundamental set of solutions.
Solutions to Linear Homogeneous Systems (Theorem 7.4.2).
Homogeneous Linear Systems with Constant Coefficients.
Examples: Diagonal case and Non-Diagonal Case.
Textbook Reading (Nov 6): Sections 7.4 and 7.5.

Eigenvalues and Eigenvectors. Fundamental Solutions associated to Eigenvalues.
Review of Linear Algebra: Nullspace, rank and eigenspaces.
Several Examples. Space of solutions of a linear system.
Textbook Reading (Nov 8): Sections 7.5 and 7.6.

General Recipe for Linear Systems. Example with Defective Eigenvalues.
Towers of Generalized Eigenvalues. Fundamental solutions for Generalized Eigenvalues.
3-Dimensional Example with a multiplicity three eigenvalue and Fundamental Solutions.
Textbook Reading (Nov 13): Section 7.8.

The Direction Field of a Linear System. Long-term behaviours.
The geometric meaning of Eigenvalues and Eigenvectors. Examples.
Case of Real Eigenvalues. Imaginary Eigenvalues and Rotations.
Generic Complex Eigenvalues and Spirals.
Textbook Reading (Nov 15): Sections 7.5 and 7.6.

Motivation for the Matrix Exponential. Definition with Taylor Series.
Examples of Exponentials in Diagonal and Non-Diagonal Case.
Computation of a Matrix Exponential via Diagonalization.
Application to Solving Linear Systems of ODEs.
Textbook Reading (Nov 18): Section 7.7.

Non-homogeneous Linear Systems. Structure of the General Solution.
Method of Variations of Parameters. Fundamental Matrices.
Construction of a Particular Solution. Detailed Example.
Textbook Reading (Nov 20): Section 7.9.

The Lorenz Attractor. Non-linear Systems of Equations.
Examples: the Lorenz System and the Lotka-Volterra System.
The Hartman-Grobman Theorem: Linearization at Constant Solutions.
Example of How To Linearize a System. Deduction of Global Dynamics.
Resources (Nov 22): This lecture and this lecture can be helpful.


Conteúdo

The possible states of a quantum mechanical system may be treated mathematically as abstract vectors in a separable, complex Hilbert space, while the observables may be represented by linear Hermitian operators acting upon them. By selecting a suitable basis, the components of these vectors and the matrix elements of the operators in that basis may be determined. If A is a N × N matrix, X a non-zero vector, and λ is a scalar, such that A X = λ X , then the scalar λ is said to be an eigenvalue of A and the vector X is said to be the eigenvector corresponding to λ . Together with the zero vector, the set of all eigenvectors corresponding to a given eigenvalue λ form a subspace of ℂ n , which is called the eigenspace of λ . An eigenvalue λ which corresponds to two or more different linearly independent eigenvectors is said to be degenerate, i.e., A X 1 = λ X 1 =lambda X_<1>> and A X 2 = λ X 2 =lambda X_<2>> , where X 1 > and X 2 > are linearly independent eigenvectors. The dimension of the eigenspace corresponding to that eigenvalue is known as its degree of degeneracy, which can be finite or infinite. An eigenvalue is said to be non-degenerate if its eigenspace is one-dimensional.

The eigenvalues of the matrices representing physical observables in quantum mechanics give the measurable values of these observables while the eigenstates corresponding to these eigenvalues give the possible states in which the system may be found, upon measurement. The measurable values of the energy of a quantum system are given by the eigenvalues of the Hamiltonian operator, while its eigenstates give the possible energy states of the system. A value of energy is said to be degenerate if there exist at least two linearly independent energy states associated with it. Moreover, any linear combination of two or more degenerate eigenstates is also an eigenstate of the Hamiltonian operator corresponding to the same energy eigenvalue. This clearly follows from the fact that the eigenspace of the energy value eigenvalue λ is a subspace (being the kernel of the Hamiltonian minus λ times the identity), hence is closed under linear combinations.

In the absence of degeneracy, if a measured value of energy of a quantum system is determined, the corresponding state of the system is assumed to be known, since only one eigenstate corresponds to each energy eigenvalue. However, if the Hamiltonian H ^ >> has a degenerate eigenvalue E n > of degree gn, the eigenstates associated with it form a vector subspace of dimension gn. In such a case, several final states can be possibly associated with the same result E n > , all of which are linear combinations of the gn orthonormal eigenvectors | E n , i ⟩ angle > .

This section intends to illustrate the existence of degenerate energy levels in quantum systems studied in different dimensions. The study of one and two-dimensional systems aids the conceptual understanding of more complex systems.

Degeneracy in one dimension Edit

In several cases, analytic results can be obtained more easily in the study of one-dimensional systems. For a quantum particle with a wave function | ψ ⟩ moving in a one-dimensional potential V ( x ) , the time-independent Schrödinger equation can be written as

In case of well-defined and normalizable wave functions, the above constant vanishes, provided both the wave functions vanish at at least one point, and we find: ψ 1 ( x ) = c ψ 2 ( x ) (x)=cpsi _<2>(x)> where c is, in general, a complex constant. For bound state eigenfunctions (which tend to zero as x → ∞ ), and assuming V and E satisfy the condition given above, it can be shown [3] that also the first derivative of the wave function approaches zero in the limit x → ∞ , so that the above constant is zero and we have no degeneracy.

Degeneracy in two-dimensional quantum systems Edit

Two-dimensional quantum systems exist in all three states of matter and much of the variety seen in three dimensional matter can be created in two dimensions. Real two-dimensional materials are made of monoatomic layers on the surface of solids. Some examples of two-dimensional electron systems achieved experimentally include MOSFET, two-dimensional superlattices of Helium, Neon, Argon, Xenon etc. and surface of liquid Helium. The presence of degenerate energy levels is studied in the cases of particle in a box and two-dimensional harmonic oscillator, which act as useful mathematical models for several real world systems.


In the preceding section we saw that the eigenvalues and eigenvectors of the n × n matrix UMA are of central importance to the solutions of the homogeneous linear constant-coefficient system

Indeed, according to Theorem 1 from Section 7.3 , if λ is an eigenvalue of UMA e v is an eigenvector of UMA associated with λ , then

is a nontrivial solution of the system (1) . Moreover, if UMA has n linearly independent eigenvectors v 1 , v 2 , … , v n associated with its n eigenvalues λ 1 , λ 2 , … , λ n , then in fact all solutions of the system (1) are given by linear combinations

where c 1 , c 2 , … , c n are arbitrary constants. If the eigenvalues include complex conjugate .

Obter Differential Equations and Linear Algebra, 4th Edition agora com o aprendizado online O’Reilly.

Os membros da O’Reilly passam por treinamento online ao vivo, além de livros, vídeos e conteúdo digital de mais de 200 editoras.


1 Answer 1

não canonical choice for a basis of eigenvectors. For instance, if $(1,1,1)$ is an eigenvector, then also $(a,a,a)$ (for $a e0$) is, and there's no rule that makes $(1,1,1)$ preferable to $(2,2,2)$.

Your matrix is $ egin 7 & -4 & 10 4 & -3 & 8 -2 & 1 & -2 end $ It's readily checked that

  1. $(1,2,0)$ is an eigenvector for the eigenvalue $-1$
  2. $(1,-1,-1)$ is an eigenvector for the eigenvalue $1$
  3. $(2,0,-1)$ is an eigenvector for the eigenvalue $2$.

There's no canonical choice, so using $(-2,0,1)$ is as good as using $(4,0,-2)$ or $(2,0,-1)$.

However, having made the checks, your vector $(1,4,1)$ cannot be an eigenvector: if it were, it would be a scalar multiple of one of the preceding vectors, which it isn't.

If I had to grade your test, I'd consider this a serious mistake, because you ter a way to check your computations, namely that the vectors you found are indeed eigenvectors.


Amann, H., Lusternik-Schnirelman theory and nonlinear eigenvalue problems, Matemática. Ann., 199, 1972, 55–72.

Azorero, J. G. and Alonso, I. P., Existence and nonuniqueness for the p-Laplacian: nonlinear eigenvalues, Commun. in PDE, 12, 1987, 1389–1430.

Brezis, H., Functional Analysis, Sobolev Spaces, and Partial Differential Equations, Springer-Verlag, New York, 2011.

Cao, D., Peng, S. and Yan, S., Infinitely many solutions for p-Laplacian equation involving critical Sobolev growth, Journal of Functional Analysis, 262(6), 2012, 2861–2902.

Carl, S. and Motreanu, D., Multiple and sign-changing solutions for the multivalued p-Laplacian equation Mathematische Nachrichten, 283(7), 2010, 965–981.

Chen, H., Liu, X. and Wei Y., Existence theorem for a class of semi-linear totally characteristic elliptic equations with Cr Y.itical cone sobolev exponents, Annals of Global Analysis and Geometry, 39, 2011, 27–43.

Chen, H., Liu, X. and Wei, Y., Cone Sobolev inequality and dirichlet problems for nonlinear elliptic equations on manifold with conical singularities, Calculus of variations and PDEs, 43(3), 2012, 463–484.

Chen, H., Liu, X. and Wei, Y., Multiple solutions for semilinear totally characteristic elliptic equations with subcritical or critical cone sobolev exponents, J. Differential Equations, 252, 2012, 4200–4228.

Chen, H. and Wei, Y., Multiple solutions for nonlinear cone degenerate p-Laplacian equations, preprint, 2018.

Chen, H., Wei, Y. and Zhou, B., Existence of solutions for degenerate elliptic equations with singular potential on conical singular manifolds, Matemática. Nachrichten, 285(11–12), 2012, 1370–1384.

Coriasco, S., Schrohe, E. and Seiler, J., Realizations of differential operators on conic manifolds with boundary, Annals of Global Analysis and Geometry, 31, 2007, 223–285.

Drabek, P., Resonance problems for the p-Laplacian, Journal of Functional Analysis, 169(1), 1999, 189–200.

Egorov, Ju. V. and Schulze, B.-W., Pseudo-differential operators, singularities, applications, Operator Theory, Advances and Applications, 93, Birkhäuser Verlag, Basel, 1997.

Evans, L. C., Partial Differential Equations: 2nd ed., Graduate Series in Mathematics, vol. 19. R, American. Mathematical Society, Providence, Rhode Island, 2010.

Melrose, R. B. and Mendoza, G. A., Elliptic operators of totally characteristic type, Preprint, Math. Sci. Res. Institute, MSRI 047–83, 1983.

Rabinowitz, P. H., Some Aspects of nonlinear eigenvalue problems, Rocky Mountain J. of Math., 2(2), 1973, 70.

Rabinowitz, P. H., Minimax Methods in Critical Point Theory with Applications to Differential Equations, CBMS Regional Conference, 65, A.M.S., Providence, Rhode Island, 1986.

Schulze, B.-W., Boundary Value Problems and Singular Pseudo-differential Operators, J. Wiley, Chichester, 1998.

Schrohe, E. and Seiler, J., Ellipticity and invertibility in the cone algebra on Lp-Sobolev spaces, Integral Equations Operator Theory, 41, 2001, 93–114.


Assista o vídeo: 25 Czym Są Wartości Własne i Wektory Własne (Outubro 2021).