Artigos

3.5: Sistemas bidimensionais e seus campos vetoriais


Tomemos um momento para falar sobre sistemas homogêneos lineares de coeficiente constante no plano. Suponha que temos uma matriz (2 , times , 2 ) (P ) e o sistema

[ begin {bmatrix} x y end {bmatrix} '= P begin {bmatrix} x y end {bmatrix}. ]

O sistema é Autônomo (compare esta seção com § 1.6) e assim podemos desenhar um campo vetorial (ver final de § 3.1). Seremos capazes de dizer visualmente como o campo vetorial se parece e como as soluções se comportam, uma vez que encontramos os autovalores e autovetores da matriz (P ). Para esta seção, assumimos que (P ) tem dois autovalores e dois autovetores correspondentes.

Figura 3.3: Autovetores de (P ).

Caso 1. Suponha que os autovalores de (P ) sejam reais e positivos. Encontramos dois autovetores correspondentes e os plotamos no plano. Por exemplo, pegue a matriz ( begin {bmatrix} 1 & 1 0 & 2 end {bmatrix} ). Os autovalores são 1 e 2 e os autovetores correspondentes são ( begin {bmatrix} 1 0 end {bmatrix} ) e ( begin {bmatrix} 1 1 end {bmatrix} ). Veja a Figura 3.3.

Agora suponha que (x ) e (y ) estejam na linha determinada por um autovetor ( vec {v} ) para um autovalor ( lambda ). Ou seja, ( begin {bmatrix} x y end {bmatrix} = a vec {v} ) para algum escalar (a ). Então

[ begin {bmatrix} x y end {bmatrix} '= P begin {bmatrix} x y end {bmatrix} = P (a vec {v}) = a (P vec { v}) = a lambda vec {v} ]

A derivada é um múltiplo de ( vec {v} ) e, portanto, pontos ao longo da linha determinada por ( vec {v} ). Como ( lambda> 0 ), a derivada aponta na direção de (vec {v} ) quando ( alpha ) é positiva e na direção oposta quando ( alpha ) é negativa. Vamos desenhar as linhas determinadas pelos autovetores, e vamos desenhar as setas nas linhas para indicar as direções. Veja a Figura 3.4.

Figura 3.4: Autovetores de (P ) com direções.

Preenchemos o restante das setas para o campo vetorial e também desenhamos algumas soluções. Veja a Figura 3.5. Observe que a imagem parece uma fonte com setas saindo da origem. Por isso, chamamos esse tipo de imagem de fonte ou, às vezes, de nó instável.

Figura 3.5: Exemplo de campo de vetor fonte com autovetores e soluções.

Caso 2. Suponha que ambos os valores próprios sejam negativos. Por exemplo, tome a negação da matriz no caso 1, ( begin {bmatrix} -1 & -1 0 & -2 end {bmatrix} ). Os autovalores são -1 e -2 e os autovetores correspondentes são iguais, ( begin {bmatrix} 1 0 end {bmatrix} ) e ( begin {bmatrix} 1 1 end {bmatrix} ). O cálculo e a imagem são quase os mesmos. A única diferença é que os valores próprios são negativos e, portanto, todas as setas são invertidas. Temos a imagem na Figura 3.6. Chamamos esse tipo de imagem de dissipador ou, às vezes, de nó estável.

Figura 3.6: Exemplo de campo vetorial sumidouro com autovetores e soluções.

Caso 4.Suponha que os autovalores sejam puramente imaginários. Ou seja, suponha que os autovalores sejam ( pm ib ). Por exemplo, deixe (P = begin {bmatrix} 0 & 1 - 4 & 0 end {bmatrix} ). Os autovalores são ( pm 2i ) e os autovetores são ( begin {bmatrix} 1 2i end {bmatrix} ) e ( begin {bmatrix} 1 -2i end { bmatrix} ). Considere o autovalor (2i ) e seu autovetor ( begin {bmatrix} 1 2i end {bmatrix} ). As partes real e imaginária de ( vec {v} e ^ {i 2t} ) são

(Re begin {bmatrix} 1 2i end {bmatrix} e ^ {i2t} = begin {bmatrix} cos (2t) - 2sin (2t) end {bmatrix} )

(Im begin {bmatrix} 1 2i end {bmatrix} e ^ {i2t} = begin {bmatrix} sin (2t) 2cos (2t) end {bmatrix} )

Podemos usar qualquer combinação linear deles para obter outras soluções, que tomaremos depende das condições iniciais. Agora observe que a parte real é uma equação paramétrica para uma elipse. O mesmo acontece com a parte imaginária e, de fato, qualquer combinação linear das duas. Isso é o que acontece em geral quando os autovalores são puramente imaginários. Portanto, quando os autovalores são puramente imaginários, obtemos elipses para as soluções. Esse tipo de imagem às vezes é chamado de centro. Veja a Figura 3.8.

Figura 3.8: Exemplo de campo vetorial central.

Caso 5. Agora, suponha que os autovalores complexos tenham uma parte real positiva. Ou seja, suponha que os autovalores sejam (a pm ib ) para algum (a> 0 ). Por exemplo, deixe (P = begin {bmatrix} 1 & 1 -4 & 1 end {bmatrix} ). Os autovalores são (1 pm 2i ) e os autovetores são ( begin {bmatrix} 1 2i end {bmatrix} ) e ( begin {bmatrix} 1 -2i end {bmatrix} ). Pegamos (1 pm 2i ) e seu autovetor ( begin {bmatrix} 1 2i end {bmatrix} ) e encontramos o real e o imaginário de ( vec {v} e ^ {(1 + 2i) t} ) são

(Re begin {bmatrix} 1 2i end {bmatrix} e ^ {(1 + 2i) t} = e ^ t begin {bmatrix} cos (2t) - 2sin (2t) end { bmatrix} )

(Im begin {bmatrix} 1 2i end {bmatrix} e ^ {(1 + 2i) t} = e ^ t begin {bmatrix} sin (2t) 2cos (2t) end {bmatrix } )

Observe o (e ^ t ) na frente das soluções. Isso significa que as soluções crescem em magnitude enquanto giram em torno da origem. Portanto, temos um fonte espiral. Veja a Figura 3.9.

Figura 3.9: Exemplo de campo vetorial de origem em espiral.

Caso 6. Finalmente, suponha que os autovalores complexos tenham uma parte real negativa. Ou seja, suponha que os autovalores sejam (- a pm ib ) para algum (a> 0 ). Por exemplo, deixe (P = begin {bmatrix} -1 & -1 4 & -1 end {bmatrix} ). Os autovalores são (- 1 pm 2i ) e os autovetores são ( begin {bmatrix} 1 -2i end {bmatrix} ) e ( begin {bmatrix} 1 2i fim {bmatrix} ). Pegamos (-1-2i ) e seu autovetor ( begin {bmatrix} 1 2i end {bmatrix} ) e encontramos o real e o imaginário de ( vec {v} e ^ {(- 1-2i) t} ) são

(Re begin {bmatrix} 1 2i end {bmatrix} e ^ {(- 1-2i) t} = e ^ {- t} begin {bmatrix} cos (2t) 2sin (2t) end {bmatrix} )

(Im begin {bmatrix} 1 2i end {bmatrix} e ^ {(- 1-2i) t} = e ^ {- t} begin {bmatrix} -sin (2t) 2cos (2t ) end {bmatrix} )

Observe o (e ^ {- t} ) na frente das soluções. Isso significa que as soluções diminuem em magnitude enquanto giram em torno da origem. Conseqüentemente, obtemos uma pia em espiral. Veja a Figura 3.10.

Figura 3.10: Exemplo de campo vetorial de sumidouro em espiral.

Resumimos o comportamento de sistemas bidimensionais homogêneos lineares na Tabela 3.1.

Tabela 3.1: Resumo do comportamento de sistemas bidimensionais homogêneos lineares.
AutovaloresComportamento
real e ambos positivosfonte / nó instável
real e ambos negativosnodo coletor / estável
sinais reais e opostosselim
puramente imaginárioponto central / elipses
complexo com parte real positivafonte espiral
complexo com parte real negativapia em espiral
  • Jiří Lebl (Oklahoma State University). Estas páginas foram apoiadas pelos subsídios da NSF DMS-0900885 e DMS-1362337.

Notas sobre Diffy Qs: Equações Diferenciais para Engenheiros

Muitas vezes nos encontramos olhando para o conjunto de soluções de uma equação linear (L vec = vec <0> ) para alguma matriz (L text <,> ) ou seja, estamos interessados ​​no kernel de (L text <.> ) O conjunto de todas essas soluções tem um bom estrutura: parece e age muito como algum espaço euclidiano (< mathbb R> ^ k text <.> )

Dizemos que um conjunto (S ) de vetores em (< mathbb R> ^ n ) é um subespaço se sempre que ( vec) e ( vec) são membros de (S ) e ( alpha ) é um escalar, então

também são membros de (S text <.> ) Ou seja, podemos somar e multiplicar por escalares e ainda assim pousamos em (S text <.> ) Portanto, todas as combinações lineares de vetores de (S ) ainda está em (S text <.> ) Isso é realmente o que é um subespaço. É um subconjunto onde podemos pegar combinações lineares e ainda acabar no subconjunto. Conseqüentemente, a extensão de vários vetores é automaticamente um subespaço.

Exemplo A.4.1.

Se deixarmos (S = < mathbb R> ^ n text <,> ) então este (S ) é um subespaço de (< mathbb R> ^ n text <.> ) Adicionando qualquer dois vetores em (< mathbb R> ^ n ) obtém um vetor em (< mathbb R> ^ n text <,> ) e assim o faz a multiplicação por escalares.

O conjunto (S '= < vec <0> > text <,> ) ou seja, o conjunto do vetor zero por si só, também é um subespaço de (< mathbb R> ^ n text <.> ) Há apenas um vetor neste subespaço, então só precisamos verificar esse vetor, e tudo verifica: ( vec <0> + vec <0> = vec <0> ) e ( alpha vec <0> = vec <0> text <.> )

O conjunto (S '' ) de todos os vetores da forma ((a, a) ) para qualquer número real (a text <,> ) como ((1,1) text <,> ) ((3,3) text <,> ) ou ((- 0,5, -0,5) ) é um subespaço de (< mathbb R> ^ 2 text <.> ) Adicionar dois desses vetores, digamos ((1,1) + (3,3) = (4,4) ) novamente obtém um vetor da mesma forma, e assim a multiplicação por um escalar, digamos (8 ( 1,1) = (8,8) text <.> )

Se (S ) é um subespaço e podemos encontrar (k ) vetores linearmente independentes em (S )

de modo que todos os outros vetores em (S ) são uma combinação linear de ( vec_1, vec_2, ldots, vec_k text <,> ) então o conjunto ( < vec_1, vec_2, ldots, vec_k > ) é chamado de base de (S text <.> ) Em outras palavras, (S ) é o intervalo de ( < vec_1, vec_2, ldots, vec_k > text <.> ) Dizemos que (S ) tem dimensão (k text <,> ) e escrevemos

Teorema A.4.1.

Se (S subset < mathbb R> ^ n ) é um subespaço e (S ) não é o subespaço trivial ( < vec <0> > text <,> ) então existe um número inteiro positivo único (k ) (a dimensão) e uma base (não única) ( < vec_1, vec_2, ldots, vec_k > text <,> ) de modo que todo ( vec) em (S ) pode ser representado exclusivamente por

para alguns escalares ( alpha_1 text <,> ) ( alpha_2 text <,> ). ( alpha_k text <.> )

Assim como um vetor em (< mathbb R> ^ k ) é representado por uma (k ) - tupla de números, também o é um vetor em um subespaço (k ) - dimensional de (< mathbb R> ^ n ) representado por uma (k ) - tupla de números. Pelo menos uma vez fixamos uma base. Uma base diferente daria uma diferente (k ) - tupla de números para o mesmo vetor.

Devemos reiterar que embora (k ) seja único (um subespaço não pode ter duas dimensões diferentes), o conjunto de vetores de base não é de todo único. Existem muitas bases diferentes para qualquer subespaço. Encontrar a base certa para um subespaço é uma grande parte do que se faz na álgebra linear. Na verdade, é nisso que gastamos muito tempo nas equações diferenciais lineares, embora à primeira vista possa não parecer que é isso que estamos fazendo.

Exemplo A.4.2.

é uma base de (< mathbb R> ^ n text <,> ) (daí o nome). Então, como esperado

Por outro lado, o subespaço ( < vec <0> > ) é de dimensão (0 texto <.> )

O subespaço (S '' ) de um exemplo anterior, ou seja, o conjunto de vetores ((a, a) ) é de dimensão 1. Uma base possível é simplesmente ( <(1,1) > text <,> ) o vetor único ((1,1) text <:> ) cada vetor em (S '' ) pode ser representado por (a (1,1) = (a , a) text <.> ) Da mesma forma, outra base possível seria ( <(-1, -1) > text <.> ) Então o vetor ((a, a) ) seria representado como ((- a) (1,1) text <.> )

Espaços de linha e coluna de uma matriz também são exemplos de subespaços, pois são dados como a extensão de vetores. Podemos usar o que sabemos sobre classificação, espaços de linha e espaços de coluna da seção anterior para encontrar uma base.

Exemplo A.4.3.

Na última seção, consideramos a matriz

Usando a redução de linha para encontrar as colunas dinâmicas, descobrimos

O que fizemos foi encontrar a base do espaço da coluna. A base tem dois elementos e, portanto, o espaço da coluna de (A ) é bidimensional. Observe que a classificação de (A ) é dois.

Teríamos seguido o mesmo procedimento se quiséssemos encontrar a base do subespaço (X ) estendido por

Teríamos simplesmente formado a matriz (A ) com esses vetores como colunas e repetido o cálculo acima. O subespaço (X ) é então o espaço da coluna de (A text <.> )

Exemplo A.4.4.

Convenientemente, a matriz está na forma escalonada de linha reduzida. A matriz é de classificação 3. O espaço da coluna é a extensão das colunas do pivô. É o espaço tridimensional

O espaço da linha é o espaço tridimensional

Como esses vetores têm 5 componentes, pensamos no espaço de linha de (L ) como um subespaço de (< mathbb> ^ 5 text <.> )

A forma como as dimensões trabalhadas nos exemplos não é acidental. Como o número de vetores que precisávamos tomar era sempre igual ao número de pivôs, e o número de pivôs é a classificação, obtemos o seguinte resultado.

Teorema A.4.2. Classificação.

A dimensão do espaço da coluna e a dimensão do espaço da linha de uma matriz (A ) são iguais à classificação de (A text <.> )

Subseção A.4.2 Kernel

O conjunto de soluções de uma equação linear (L vec = vec <0> text <,> ) o kernel de (L text <,> ) é um subespaço: If ( vec) e ( vec) são soluções, então

Então ( vec+ vec) e ( alpha vec) são soluções. A dimensão do kernel é chamada de nulidade da matriz.

O mesmo tipo de ideia governa as soluções de equações diferenciais lineares. Tentamos descrever o kernel de um operador diferencial linear e, como se trata de um subespaço, procuramos uma base para esse kernel. Muito deste livro é dedicado a encontrar essas bases.

O kernel de uma matriz é o mesmo que o kernel de sua forma escalonada de linha reduzida. Para uma matriz em forma escalonada de linha reduzida, o kernel é bastante fácil de encontrar. Se um vetor ( vec) é aplicado a uma matriz (L text <,> ) então cada entrada em ( vec) corresponde a uma coluna de (L text <,> ) a coluna que a entrada multiplica. Para encontrar o kernel, escolha uma coluna não dinâmica e faça um vetor que tenha um (- 1 ) na entrada correspondente a esta coluna não dinâmica e zeros em todas as outras entradas correspondentes às outras colunas não dinâmicas. Então para todas as entradas correspondentes às colunas dinâmicas faça com que seja precisamente o valor na linha correspondente da coluna não dinâmica para fazer com que o vetor seja uma solução para (L vec = vec <0> text <.> ) Este procedimento é melhor compreendido por meio de exemplos.

Exemplo A.4.5.

Esta matriz está na forma escalonada de linha reduzida, os pivôs são marcados. Existem duas colunas não dinâmicas, portanto o kernel tem dimensão 2, ou seja, é o intervalo de 2 vetores. Vamos encontrar o primeiro vetor. Vemos a primeira coluna não dinâmica, o (2 ^ < text> ) coluna, e colocamos um (- 1 ) na coluna (2 ^ < text> ) entrada do nosso vetor. Colocamos um (0 ) no (5 ^ < text> ) entrada como (5 ^ < text> ) coluna também é uma coluna não dinâmica:

Deixe-nos preencher o resto. Quando esse vetor atinge a primeira linha, obtemos (- 2 ) e (1 ) vezes o que quer que seja o primeiro ponto de interrogação. Portanto, coloque o primeiro ponto de interrogação (2 text <.> ) Para a segunda e terceira linhas, é suficiente torná-lo o ponto de interrogação zero. Na verdade, estamos preenchendo a coluna não dinâmica nas entradas restantes. Vamos verificar enquanto marcamos quais números foram para onde:

Yay! Que tal o segundo vetor. Começamos com

Definimos o primeiro ponto de interrogação como 3, o segundo como 4 e o terceiro como 5. Vamos verificar, marcando as coisas como antes,

Existem duas colunas não dinâmicas, portanto, precisamos apenas de dois vetores. Encontramos a base do kernel. Então,

O que fizemos para encontrar uma base para o kernel foi expressar todas as soluções de (L vec = vec <0> ) como uma combinação linear de alguns vetores dados.

O procedimento para encontrar a base do kernel de uma matriz (L text <:> )

Encontre a forma escalonada de linha reduzida de (L text <.> )

Escreva a base do kernel como acima, um vetor para cada coluna não dinâmica.

A classificação de uma matriz é a dimensão do espaço da coluna, e essa é a extensão nas colunas pivô, enquanto o kernel é a extensão de vetores um para cada coluna não dinâmica. Portanto, os dois números devem ser somados ao número de colunas.

Teorema A.4.3. Classificação - Nulidade.

Se uma matriz (A ) tem (n ) colunas, classificação (r text <,> ) e nulidade (k ) (dimensão do kernel), então

O teorema é imensamente útil em aplicações. Permite calcular a classificação (r ) se conhecermos a nulidade (k ) e vice-versa, sem fazer nenhum trabalho extra.

Vamos considerar um exemplo de aplicativo, uma versão simples do chamado Alternativa Fredholm. Um resultado semelhante é verdadeiro para equações diferenciais. Considerar

onde (A ) é uma matriz quadrada (n vezes n ). Existem então duas possibilidades mutuamente exclusivas:

Uma solução diferente de zero ( vec) para (A vec = vec <0> ) existe.

A equação (A vec = vec) tem uma solução única ( vec) para cada ( vec text <.> )

Como o teorema da classificação-nulidade entra em cena? Bem, se (A ) tem uma solução diferente de zero ( vec) para (A vec = vec <0> text <,> ) então a nulidade (k ) é positiva. Mas então a classificação (r = nk ) deve ser menor que (n text <.> ) Em particular, isso significa que o espaço da coluna de (A ) é de dimensão menor que (n text < ,> ) portanto, é um subespaço que não inclui tudo em (< mathbb> ^ n text <.> ) Então (< mathbb> ^ n ) deve conter algum vetor ( vec) não está no espaço de coluna de (A text <.> ) Na verdade, a maioria dos vetores em (< mathbb> ^ n ) não estão no espaço da coluna de (A text <.> )

Subseção A.4.3 Exercícios

Exercício A.4.1.

Para os seguintes conjuntos de vetores, encontre uma base para o subespaço estendido pelos vetores e encontre a dimensão do subespaço.

( displaystyle begin 1 1 1 fim , quad begin -1 -1 -1 end)

( displaystyle begin 1 0 5 end , quad begin 0 1 0 fim , quad begin 0 -1 0 fim)

( displaystyle begin -4 -3 5 end , quad begin 2 3 3 end , quad begin 2 0 2 fim)

( displaystyle begin 1 3 0 fim , quad begin 0 2 2 fim , quad begin -1 -1 2 end)

( displaystyle begin 1 3 fim , quad begin 0 2 fim , quad begin -1 -1 fim)

( displaystyle begin 3 1 3 end , quad begin 2 4 -4 end , quad begin -5 -5 -2 end)

Exercício A.4.2.

Para as seguintes matrizes, encontre uma base para o kernel (espaço nulo).

( displaystyle begin 1 & amp 1 & amp 1 1 & amp 1 & amp 5 1 & amp 1 & amp -4 end)

Exercício A.4.3.

Suponha que uma matriz (5 vezes 5 ) (A ) tenha classificação 3. Qual é a nulidade?

Exercício A.4.4.

Suponha que (X ) seja o conjunto de todos os vetores de (< mathbb> ^ 3 ) cujo terceiro componente é zero. É (X ) um subespaço? E se for assim, encontre uma base e a dimensão.

Exercício A.4.5.

Considere uma matriz quadrada (A text <,> ) e suponha que ( vec) é um vetor diferente de zero tal que (A vec = vec <0> text <.> ) O que a alternativa de Fredholm diz sobre a invertibilidade de (A text <.> )

Exercício A.4.6.

Se a nulidade desta matriz for 2, preencha os pontos de interrogação. Dica: qual é a classificação?

Exercício A.4.101.

Para os seguintes conjuntos de vetores, encontre uma base para o subespaço estendido pelos vetores e encontre a dimensão do subespaço.

( displaystyle begin 1 2 fim , quad begin 1 1 fim)

( displaystyle begin 1 1 1 fim , quad begin 2 2 2 fim , quad begin 1 1 2 fim)

( displaystyle begin 5 3 1 fim , quad begin 5 -1 5 end , quad begin -1 3 -4 end)

( displaystyle begin 2 2 4 end , quad begin 2 2 3 end , quad begin 4 4 -3 end)

( displaystyle begin 1 0 fim , quad begin 2 0 fim , quad begin 3 0 fim)

( displaystyle begin 1 0 0 fim , quad begin 2 0 0 fim , quad begin 0 1 2 fim)

a) ( begin 1 2 fim , começar 1 1 fim) dimensão 2, b) ( begin 1 1 1 fim , começar 1 1 2 fim) dimensão 2, c) ( begin 5 3 1 fim , começar 5 -1 5 end , começar -1 3 -4 end) dimensão 3, d) ( begin 2 2 4 end , começar 2 2 3 end) dimensão 2, e) ( begin 1 1 fim) dimensão 1, f) ( begin 1 0 0 fim , começar 0 1 2 fim) dimensão 2

Exercício A.4.102.

Para as seguintes matrizes, encontre uma base para o kernel (espaço nulo).

( displaystyle begin 2 & amp 6 & amp 1 & amp 9 1 & amp 3 & amp 2 & amp 9 3 & amp 9 & amp 0 & amp 9 end)

( displaystyle begin 0 & amp 4 & amp 4 0 & amp 1 & amp 1 0 & amp 5 & amp 5 end)

Exercício A.4.103.

Suponha que o espaço da coluna de uma matriz (9 vezes 5 ) (A ) de dimensão 3. Encontre


Opções de acesso

Compre um único artigo

Acesso instantâneo ao artigo completo em PDF.

O cálculo do imposto será finalizado durante o checkout.

Inscrever-se no jornal

Acesso online imediato a todas as edições de 2019. A assinatura será renovada automaticamente anualmente.

O cálculo do imposto será finalizado durante o checkout.


Classificação da forma normal do potencial vetorial para singularidades nilpotentes solenóides totalmente integráveis ​​☆, ☆☆

Apresentamos uma família sl 2 -invariante de campos de vetores polinomiais com uma singularidade nilpotente irredutível. Neste artigo, estamos preocupados com a caracterização e classificação da forma normal desses campos vetoriais. Mostramos que a família é uma subálgebra de Lie e cada campo vetorial dessa família preserva o volume, é totalmente integrável e rotacional. Todos esses campos vetoriais compartilham um invariante quadrático comum. Fornecemos uma estrutura de Poisson para a subálgebra de Lie, da qual o segundo invariante para cada campo vetorial pode ser facilmente derivado. Mostramos que cada campo vetorial desta família pode ser caracterizado exclusivamente por duas representações alternativas que podem ser encontradas em aplicações: uma usa um potencial vetorial, enquanto a outra usa dois potenciais de Clebsch funcionalmente independentes. Nossos resultados de forma normal são projetados para preservar essas estruturas e representações.


Tópico 3.3: Vetores em três dimensões (21 horas)

A álgebra de vetores em três dimensões

3.3.1 revisar os conceitos de vetores da Unidade 1 e estender para três dimensões, incluindo a introdução dos vetores unitários eu, j e k

3.3.2 provar resultados geométricos no plano e construir provas simples em 3 dimensões

Equações vetoriais e cartesianas

3.3.3 introduzir as coordenadas cartesianas para o espaço tridimensional, incluindo pontos de plotagem e equações de esferas

3.3.4 usar equações vetoriais de curvas em duas ou três dimensões envolvendo um parâmetro e determinar uma equação cartesiana 'correspondente' no caso bidimensional

3.3.5 determinar uma equação vetorial de uma linha reta e um segmento de linha reta, dada a posição de dois pontos ou informação equivalente, em duas e três dimensões

3.3.6 examinar a posição de duas partículas, cada uma descrita como uma função vetorial do tempo, e determinar se seus caminhos se cruzam ou se as partículas se encontram

3.3.7 usar o produto vetorial para determinar um vetor normal a um determinado plano

3.3.8 determinar o vetor e as equações cartesianas de um plano

Sistemas de equações lineares

3.3.9 reconhecer a forma geral de um sistema de equações lineares em várias variáveis ​​e usar técnicas elementares de eliminação para resolver um sistema de equações lineares

3.3.10 examinar os três casos para soluções de sistemas de equações - uma solução única, nenhuma solução e infinitas soluções - e a interpretação geométrica de uma solução de um sistema de equações com três variáveis

Cálculo vetorial

3.3.11 considere os vetores de posição em função do tempo

3.3.12 derivar a equação cartesiana de um caminho dado como uma equação vetorial em duas dimensões, incluindo elipses e hipérboles

3.3.13 diferenciar e integrar uma função vetorial no que diz respeito ao tempo

3.3.14 determinar equações de movimento de uma partícula viajando em linha reta com aceleração constante e variável

3.3.15 aplicar cálculo vetorial ao movimento em um plano, incluindo projétil e movimento circular


Multiplicação de vetores e escalares

Se decidíssemos caminhar três vezes mais na primeira etapa da viagem considerada no exemplo anterior, caminharíamos 3 × 27,5 m, ou 82,5 m, em uma direção 66,0º ao norte do leste. Este é um exemplo de multiplicação de um vetor por um positivo escalar. Observe que a magnitude muda, mas a direção permanece a mesma.

Se o escalar for negativo, a multiplicação de um vetor por ele muda a magnitude do vetor e dá ao novo vetor o oposto direção. Por exemplo, se você multiplicar por –2, a magnitude dobra, mas a direção muda. Podemos resumir essas regras da seguinte maneira: Quando vetor UMA é multiplicado por um escalar c ,

  • a magnitude do vetor torna-se o valor absoluto de cUMA ,
  • E se c é positivo, a direção do vetor não muda,
  • E se c é negativo, a direção é invertida.

No nosso caso, c = 3 e UMA = 27,5 m. Os vetores são multiplicados por escalares em muitas situações. Observe que a divisão é o inverso da multiplicação. Por exemplo, dividir por 2 é o mesmo que multiplicar pelo valor (1/2). As regras para multiplicação de vetores por escalares são as mesmas, pois a divisão simplesmente trata o divisor como um escalar entre 0 e 1.


Anastassiou, S., Pnevmatikos, S., Bountis, T .: Classificação de sistemas dinâmicos com base na decomposição de seus campos vetoriais. J. Differ. Equ. 253, 2252–2262 (2012)

Chorin, A.J., Marsden, J.E .: A Mathematical Introduction to Fluid Mechanics, 3rd edn. Springer, Nova York (1993)

Deriaz, E., Perrier, V .: Decomposição de Helmholtz ortogonal em dimensão arbitrária usando wavelets sem divergência e sem ondulação. Appl. Comput. Harmon. Anal. 26(2), 249–269 (2009)

Hardy, Y., Steeb, W.H .: O sistema de dínamo de dois discos de Rikitake e domínios com órbitas periódicas. Int. J. Theor. Phys. 38, 2413–2417 (1999)

Lotka, A.J .: Nota analítica sobre certas relações rítmicas em sistemas orgânicos. Proc. Natl. Acad. 6, 410–415 (1920)

Ortigueira, M.D., Rivero, M., Trujillo, J.J .: De um teorema de decomposição de Helmholtz generalizado para equações fracionárias de Maxwell. Comum. Nonlinear Sci. Numer. Simul. 22(1–3), 1036–1049 (2015)

Presnov, E .: Decomposição não local de campos de vetores. Fractais de Solitons do Caos 12, 759–764 (2002)

Presnov, E .: Decomposição global de campo vetorial em variedades Riemannianas ao longo de coordenadas naturais. Rep. Math. Phys. 62(3), 273–282 (2008)

Rikitake, T .: Oscillators of a disk dynamos. Proc. Camb. Philos. Soc. 54, 89–105 (1958)

Robinson, C .: Sistemas Dinâmicos: Estabilidade, Dinâmica Simbólica e Caos. CRC Press, Boca Raton (1999)

Schwarz, G .: Hodge Decomposition - a Method for Solving Boundary Value Problems. Lecture Notes in Mathematics, vol. 1607. Springer, Berlin (1995)

Volterra, V .: Flutuações na abundância de uma espécie considerada matematicamente. Natureza 118, 558–560 (1926)


Conteúdo

O kernel de L é um subespaço linear do domínio V. [4] [3] No mapa linear eu : VC , dois elementos de V têm a mesma imagem em W se e somente se sua diferença está no núcleo de L:

Disto, segue-se que a imagem de L é isomórfica ao quociente de V pelo kernel:

No caso em que V é finito-dimensional, isso implica no teorema de classificação de nulidade:

através do qual classificação queremos dizer a dimensão da imagem de L, e por nulidade o do kernel de L. [5]

Quando V é um espaço de produto interno, o quociente V / ker (eu) pode ser identificado com o complemento ortogonal em V de ker (eu) Esta é a generalização para operadores lineares do espaço de linha, ou co-imagem, de uma matriz.

A noção de kernel também faz sentido para homomorfismos de módulos, que são generalizações de espaços vetoriais onde os escalares são elementos de um anel, ao invés de um campo. O domínio do mapeamento é um módulo, com o kernel constituindo um submódulo. Aqui, os conceitos de classificação e nulidade não se aplicam necessariamente.

Se V e C são espaços vetoriais topológicos tais que C tem dimensão finita, então um operador linear eu: VC é contínuo se e somente se o kernel de eu é um subespaço fechado de V.

A equação da matriz é equivalente a um sistema homogêneo de equações lineares:

Assim, o núcleo de UMA é o mesmo que a solução definida para as equações homogêneas acima.

Editar propriedades do subespaço

O núcleo de um m × n matriz UMA sobre um campo K é um subespaço linear de K n . Ou seja, o núcleo de UMA, o conjunto Nulo (UMA), tem as três propriedades a seguir:

  1. Nulo(UMA) sempre contém o vetor zero, uma vez que UMA0 = 0 .
  2. Se x ∈ Nulo (UMA) e y ∈ Nulo (UMA) , então x + y ∈ Nulo (UMA) Isso decorre da distributividade da multiplicação da matriz sobre a adição.
  3. Se x ∈ Nulo (UMA) e c é um escalarcK , então cx ∈ Nulo (UMA) , desde UMA(cx) = c(UMAx) = c0 = 0 .

O espaço da linha de uma matriz Editar

O produto UMAx pode ser escrito em termos do produto escalar de vetores da seguinte forma:

Aqui, uma1, . , umam denotam as linhas da matriz UMA. Segue que x está no kernel de UMA, se e apenas se x é ortogonal (ou perpendicular) a cada um dos vetores de linha de UMA (uma vez que a ortogonalidade é definida como tendo um produto escalar de 0).

O espaço de linha, ou co-imagem, de uma matriz UMA é a extensão dos vetores de linha de UMA. Pelo raciocínio acima, o núcleo de UMA é o complemento ortogonal ao espaço da linha. Ou seja, um vetor x encontra-se no núcleo de UMA, se e somente se for perpendicular a cada vetor no espaço da linha de UMA.

A dimensão do espaço da linha de UMA é chamado de classificação de UMA, e a dimensão do kernel de UMA é chamado de nulidade do UMA. Essas quantidades são relacionadas pelo teorema da nulidade de classificação [5]

Espaço nulo esquerdo Editar

O deixou espaço nulo, ou cokernel, de uma matriz UMA consiste em todos os vetores de coluna x de tal modo que x T UMA = 0 T, onde T denota a transposta de uma matriz. O espaço nulo esquerdo de UMA é o mesmo que o kernel de UMA T. O espaço nulo esquerdo de UMA é o complemento ortogonal ao espaço da coluna de UMA, e é dual para o cokernel da transformação linear associada. O kernel, o espaço de linha, o espaço de coluna e o espaço nulo esquerdo de UMA são as quatro subespaços fundamentais associado à matriz UMA.

Sistemas não homogêneos de equações lineares Editar

O kernel também desempenha um papel na solução para um sistema não homogêneo de equações lineares:

Se você e v são duas soluções possíveis para a equação acima, então

Assim, a diferença de quaisquer duas soluções para a equação UMAx = b encontra-se no núcleo de UMA.

Conclui-se que qualquer solução para a equação UMAx = b pode ser expresso como a soma de uma solução fixa v e um elemento arbitrário do kernel. Ou seja, a solução definida para a equação UMAx = b é

Geometricamente, isso diz que a solução definida para UMAx = b é a tradução do kernel de UMA pelo vetor v. Veja também Fredholm alternativa e plana (geometria).

O que se segue é uma ilustração simples do cálculo do kernel de uma matriz (consulte § Cálculo por eliminação Gaussiana, abaixo para métodos mais adequados para cálculos mais complexos). A ilustração também toca no espaço da linha e sua relação com o kernel.

O núcleo desta matriz consiste em todos os vetores (x, y, z) ∈ R 3 para os quais

que pode ser expresso como um sistema homogêneo de equações lineares envolvendo x, y, e z:

As mesmas equações lineares também podem ser escritas em forma de matriz como:

Por meio da eliminação de Gauss-Jordan, a matriz pode ser reduzida a:

Reescrever a matriz em forma de equação resulta em:

Os elementos do kernel podem ser posteriormente expressos na forma paramétrica, da seguinte forma:

Desde c é uma variável livre que varia sobre todos os números reais, isso pode ser expresso igualmente bem como:

O kernel de UMA é precisamente a solução definida para essas equações (neste caso, uma linha através da origem em R 3). Aqui, uma vez que o vetor (−1, −26,16) T constitui uma base do kernel de UMA. A nulidade de UMA é 1.

Os seguintes produtos escalares são zero:

que ilustra que vetores no kernel de UMA são ortogonais a cada um dos vetores de linha de UMA.

Esses dois vetores de linha (linearmente independentes) abrangem o espaço de linha de UMA—Um plano ortogonal ao vetor (−1, −26,16) T.

Com a classificação 2 de UMA, a nulidade 1 de UMA, e a dimensão 3 de UMA, temos uma ilustração do teorema da nulidade de classificação.

  • Se eu: RmRn , então o kernel de eu é a solução definida para um sistema homogêneo de equações lineares. Como na ilustração acima, se eu é o operador: L (x 1, x 2, x 3) = (2 x 1 + 3 x 2 + 5 x 3, - 4 x 1 + 2 x 2 + 3 x 3) < displaystyle L (x_ <1 >, x_ <2>, x_ <3>) = (2x_ <1> + 3x_ <2> + 5x_ <3>, - 4x_ <1> + 2x_ <2> + 3x_ <3>)> então o kernel do eu é o conjunto de soluções para as equações 2 x 1 + 3 x 2 + 5 x 3 = 0 - 4 x 1 + 2 x 2 + 3 x 3 = 0 < displaystyle < begin<7> 2x_ <1> & amp + & amp3x_ <2> & amp + & amp5x_ <3> & amp = & amp0 - 4x_ <1> & amp + & amp2x_ <2> & amp + & amp3x_ <3 > & amp = & amp0 end>>
  • Deixar C[0,1] denotam o espaço vetorial de todas as funções contínuas de valor real no intervalo [0,1] e definem eu: C[0,1] → R pela regra L (f) = f (0,3). < displaystyle L (f) = f (0.3) < text <. >>> Então o kernel de eu consiste em todas as funções fC[0,1] para o qual f(0.3) = 0.
  • Deixar C ∞ (R) ser o espaço vetorial de todas as funções infinitamente diferenciáveis RR, e deixar D: C ∞ (R) → C ∞ (R) ser o operador de diferenciação: D (f) = d f d x. < displaystyle D (f) = < frac > < text <. >>> Então o kernel de D consiste em todas as funções em C ∞ (R) cujas derivadas são zero, ou seja, o conjunto de todas as funções constantes.
  • Deixar R ∞ ser o produto direto de infinitas cópias de R, e deixar s: R ∞ → R ∞ seja o operador de deslocamento s (x 1, x 2, x 3, x 4,…) = (x 2, x 3, x 4,…). < displaystyle s (x_ <1>, x_ <2>, x_ <3>, x_ <4>, ldots) = (x_ <2>, x_ <3>, x_ <4>, ldots) < texto <. >>> Então o kernel de s é o subespaço unidimensional que consiste em todos os vetores (x1, 0, 0, …).
  • Se V é um espaço de produto interno e C é um subespaço, o núcleo da projeção ortogonalVC é o complemento ortogonal para C em V.

Uma base do kernel de uma matriz pode ser calculada por eliminação gaussiana.

Na verdade, o cálculo pode ser interrompido assim que a matriz superior estiver na forma escalonada de colunas: o restante do cálculo consiste em alterar a base do espaço vetorial gerado pelas colunas cuja parte superior é zero.

Colocar a parte superior na forma escalonada de coluna por operações de coluna em toda a matriz dá

As últimas três colunas de B são zero colunas. Portanto, os três últimos vetores de C,

são a base do núcleo de UMA.

O problema de calcular o kernel em um computador depende da natureza dos coeficientes.

Coeficientes exatos Editar

Se os coeficientes da matriz são números exatamente dados, a forma escalonada da coluna da matriz pode ser calculada pelo algoritmo de Bareiss de forma mais eficiente do que com a eliminação de Gauss. É ainda mais eficiente usar a aritmética modular e o teorema do resto chinês, o que reduz o problema a vários outros semelhantes em campos finitos (isso evita a sobrecarga induzida pela não linearidade da complexidade computacional da multiplicação de inteiros). [ citação necessária ]

Para coeficientes em um campo finito, a eliminação gaussiana funciona bem, mas para as grandes matrizes que ocorrem na criptografia e na computação de base de Gröbner, algoritmos melhores são conhecidos, que têm aproximadamente a mesma complexidade computacional, mas são mais rápidos e se comportam melhor com hardware de computador moderno. [ citação necessária ]

Edição de cálculo de ponto flutuante

Para matrizes cujas entradas são números de ponto flutuante, o problema de calcular o kernel faz sentido apenas para matrizes em que o número de linhas é igual à sua classificação: por causa dos erros de arredondamento, uma matriz de ponto flutuante tem quase sempre uma classificação completa , mesmo quando é uma aproximação de uma matriz de um posto muito menor. Mesmo para uma matriz de classificação completa, é possível calcular seu kernel apenas se estiver bem condicionado, ou seja, se tiver um número de condição baixo. [6] [ citação necessária ]

Mesmo para uma matriz de classificação completa bem condicionada, a eliminação Gaussiana não se comporta corretamente: ela introduz erros de arredondamento que são muito grandes para obter um resultado significativo. Como o cálculo do kernel de uma matriz é uma instância especial de resolução de um sistema homogêneo de equações lineares, o kernel pode ser calculado por qualquer um dos vários algoritmos projetados para resolver sistemas homogêneos. Um software de última geração para esse propósito é a biblioteca Lapack. [ citação necessária ]


Conteúdo

O conceito de vetor, como o conhecemos hoje, evoluiu gradualmente ao longo de um período de mais de 200 anos. Cerca de uma dúzia de pessoas contribuíram significativamente para o seu desenvolvimento. [10]

Em 1835, Giusto Bellavitis abstraiu a ideia básica ao estabelecer o conceito de equipolência. Trabalhando em um plano euclidiano, ele tornou equipolente qualquer par de segmentos de linha do mesmo comprimento e orientação. Essencialmente, ele percebeu uma relação de equivalência nos pares de pontos (bipontos) no plano, e assim ergueu o primeiro espaço de vetores no plano. [10]: 52-4

O termo vetor foi introduzido por William Rowan Hamilton como parte de um quaternion, que é uma soma q = s + v de um número real s (também chamado escalar) e um tridimensional vetor. Como Bellavitis, Hamilton viu os vetores como representativos de classes de segmentos dirigidos equipolentes. Como os números complexos usam uma unidade imaginária para complementar a reta real, Hamilton considerou o vetor v ser o parte imaginária de um quatérnio:

A parte algebricamente imaginária, sendo geometricamente construída por uma linha reta, ou vetor de raio, que tem, em geral, para cada quatérnio determinado, um determinado comprimento e determinada direção no espaço, pode ser chamada de parte do vetor, ou simplesmente o vetor do quaternion. [11]

Vários outros matemáticos desenvolveram sistemas semelhantes a vetores em meados do século XIX, incluindo Augustin Cauchy, Hermann Grassmann, August Möbius, Conde de Saint-Venant e Matthew O'Brien. Obra de Grassmann de 1840 Theorie der Ebbe und Flut (Teoria do Ebb e Flow) foi o primeiro sistema de análise espacial semelhante ao sistema atual, e tinha ideias correspondentes ao produto vetorial, produto escalar e diferenciação vetorial. O trabalho de Grassmann foi amplamente negligenciado até a década de 1870. [10]

Peter Guthrie Tait carregou o padrão do quaternion depois de Hamilton. His 1867 Tratado Elementar de Quaternions incluiu tratamento extensivo do nabla ou del operador ∇.

Em 1878, Elementos de Dinâmica foi publicado por William Kingdon Clifford. Clifford simplificou o estudo do quaternion isolando o produto escalar e o produto cruzado de dois vetores do produto quaternion completo. Essa abordagem tornou os cálculos vetoriais disponíveis para engenheiros - e outros que trabalham em três dimensões e céticos em relação à quarta.

Josiah Willard Gibbs, que foi exposto a quatérnios por meio de James Clerk Maxwell Tratado sobre Eletricidade e Magnetismo, separaram sua parte do vetor para tratamento independente. A primeira metade do Gibbs Elementos de análise vetorial, publicado em 1881, apresenta o que é essencialmente o sistema moderno de análise vetorial. [10] [7] Em 1901, Edwin Bidwell Wilson publicou Análise Vetorial, adaptado das palestras de Gibb, que baniu qualquer menção aos quatérnios no desenvolvimento do cálculo vetorial.

Em física e engenharia, um vetor é normalmente considerado como uma entidade geométrica caracterizada por uma magnitude e uma direção. É formalmente definido como um segmento de linha direcionado, ou seta, em um espaço euclidiano. [12] Em matemática pura, um vetor é definido mais geralmente como qualquer elemento de um espaço vetorial. Nesse contexto, vetores são entidades abstratas que podem ou não ser caracterizadas por uma magnitude e uma direção. Esta definição generalizada implica que as entidades geométricas acima mencionadas são um tipo especial de vetores, pois são elementos de um tipo especial de espaço vetorial denominado espaço euclidiano.

Este artigo é sobre vetores estritamente definidos como setas no espaço euclidiano. Quando se torna necessário distinguir esses vetores especiais de vetores definidos em matemática pura, às vezes são chamados de geométrico, espacial, ou Euclidiana vetores.

Sendo uma flecha, um vetor euclidiano possui uma ponto inicial e ponto final. Um vetor com ponto inicial e terminal fixos é chamado de vetor ligado. [13] Quando apenas a magnitude e a direção do vetor importam, o ponto inicial particular não tem importância, e o vetor é chamado de vetor livre. Assim, duas setas A B → < displaystyle < overrightarrow >> e A ′ B ′ → < displaystyle < overrightarrow >> no espaço representam o mesmo vetor livre se tiverem a mesma magnitude e direção: ou seja, são equipolentes se o quadrilátero ABB′A ′ é um paralelogramo. Se o espaço euclidiano está equipado com uma escolha de origem, então um vetor livre é equivalente ao vetor ligado de mesma magnitude e direção cujo ponto inicial é a origem.

O termo vetor também tem generalizações para dimensões mais altas e para abordagens mais formais com aplicações muito mais amplas.

Exemplos em uma dimensão Editar

Como o conceito de força do físico tem uma direção e uma magnitude, ela pode ser vista como um vetor. Por exemplo, considere uma força para a direita F de 15 newtons. Se o eixo positivo também for direcionado para a direita, então F é representado pelo vetor 15 N, e se pontos positivos apontam para a esquerda, então o vetor para F é −15 N. Em ambos os casos, a magnitude do vetor é 15 N. Da mesma forma, a representação vetorial de um deslocamento Δs de 4 metros seria 4 m ou −4 m, dependendo de sua direção, e sua magnitude seria 4 m independentemente.

Em física e engenharia Editar

Os vetores são fundamentais nas ciências físicas. Eles podem ser usados ​​para representar qualquer quantidade que tenha magnitude, tenha direção e que siga as regras de adição de vetores. Um exemplo é a velocidade, cuja magnitude é a velocidade. Por exemplo, a velocidade 5 metros por segundo para cima poderia ser representado pelo vetor (0, 5) (em 2 dimensões com o positivo y-eixo como 'para cima'). Outra grandeza representada por um vetor é a força, pois tem magnitude e direção e segue as regras de adição de vetores. [8] Os vetores também descrevem muitas outras quantidades físicas, como deslocamento linear, deslocamento, aceleração linear, aceleração angular, momento linear e momento angular. Outros vetores físicos, como o campo elétrico e magnético, são representados como um sistema de vetores em cada ponto de um espaço físico, ou seja, um campo vetorial. Exemplos de grandezas que possuem magnitude e direção, mas falham em seguir as regras de adição vetorial, são o deslocamento angular e a corrente elétrica. Conseqüentemente, esses não são vetores.

No espaço cartesiano Editar

No sistema de coordenadas cartesianas, um vetor ligado pode ser representado identificando as coordenadas de seu ponto inicial e terminal. Por exemplo, os pontos UMA = (1, 0, 0) e B = (0, 1, 0) no espaço determina o vetor de limite A B → < displaystyle < overrightarrow >> apontando do ponto x = 1 no x-eixo direto ao ponto y = 1 no y-eixo.

Nas coordenadas cartesianas, um vetor livre pode ser pensado em termos de um vetor ligado correspondente, neste sentido, cujo ponto inicial possui as coordenadas da origem. O = (0, 0, 0). Ele é então determinado pelas coordenadas do ponto terminal desse vetor ligado. Assim, o vetor livre representado por (1, 0, 0) é um vetor de comprimento unitário - apontando ao longo da direção do positivo x-eixo.

Esta representação de coordenadas de vetores livres permite que suas características algébricas sejam expressas de uma maneira numérica conveniente. Por exemplo, a soma dos dois vetores (livres) (1, 2, 3) e (−2, 0, 4) é o vetor (livre)

(1, 2, 3) + (−2, 0, 4) = (1 − 2, 2 + 0, 3 + 4) = (−1, 2, 7).

Vetores euclidianos e afins Editar

Nas configurações geométricas e físicas, às vezes é possível associar, de forma natural, um comprimento ou magnitude e uma direção para vetores. Além disso, a noção de direção está estritamente associada à noção de um ângulo entre dois vetores. Se o produto escalar de dois vetores for definido - um produto escalar de dois vetores - então também é possível definir um comprimento, o produto escalar fornece uma caracterização algébrica conveniente de ambos os ângulos (uma função do produto escalar entre quaisquer dois não vetores -zero) e comprimento (a raiz quadrada do produto escalar de um vetor por si só). Em três dimensões, é ainda possível definir o produto vetorial, que fornece uma caracterização algébrica da área e orientação no espaço do paralelogramo definido por dois vetores (usados ​​como lados do paralelogramo). Em qualquer dimensão (e, em particular, nas dimensões superiores), é possível definir o produto exterior, que (entre outras coisas) fornece uma caracterização algébrica da área e orientação no espaço do nparalelotopo dimensional definido por n vetores.

No entanto, nem sempre é possível ou desejável definir o comprimento de um vetor de forma natural. Este tipo mais geral de vetor espacial é o assunto dos espaços vetoriais (para vetores livres) e espaços afins (para vetores vinculados, cada um representado por um par ordenado de "pontos"). Um exemplo importante é o espaço de Minkowski (que é importante para nosso entendimento da relatividade especial), onde há uma generalização de comprimento que permite que vetores diferentes de zero tenham comprimento zero. Outros exemplos físicos vêm da termodinâmica, onde muitas das quantidades de interesse podem ser consideradas vetores em um espaço sem noção de comprimento ou ângulo. [14]

Edição de generalizações

Na física, assim como na matemática, um vetor é frequentemente identificado com uma tupla de componentes, ou lista de números, que atuam como coeficientes escalares para um conjunto de vetores de base. Quando a base é transformada, por exemplo por rotação ou alongamento, então os componentes de qualquer vetor em termos dessa base também se transformam em um sentido oposto. O vetor em si não mudou, mas a base mudou, então os componentes do vetor devem mudar para compensar. O vetor é chamado covariante ou contravariante, dependendo de como a transformação dos componentes do vetor está relacionada à transformação da base. Em geral, vetores contravariantes são "vetores regulares" com unidades de distância (como um deslocamento), ou distância vezes alguma outra unidade (como velocidade ou aceleração), vetores covariantes, por outro lado, têm unidades de um sobre a distância como gradiente. Se você mudar as unidades (um caso especial de mudança de base) de metros para milímetros, um fator de escala de 1/1000, um deslocamento de 1 m torna-se 1000 mm - uma mudança contrária no valor numérico. Em contraste, um gradiente de 1 K / m torna-se 0,001 K / mm - uma mudança covariante no valor (para mais informações, consulte covariância e contravariância de vetores). Os tensores são outro tipo de quantidade que se comporta desta forma, um vetor é um tipo de tensor.

Em matemática pura, um vetor é qualquer elemento de um espaço vetorial sobre algum campo e geralmente é representado como um vetor de coordenadas. Os vetores descritos neste artigo são um caso muito especial desta definição geral, porque são contravariantes com respeito ao espaço ambiente. A contravariância captura a intuição física por trás da ideia de que um vetor tem "magnitude e direção".

) ou um sublinhado ondulado desenhado por baixo do símbolo, por ex. a ∼ < displaystyle < underset <^ < sim >>>>, que é uma convenção para indicar o tipo em negrito. Se o vetor representa uma distância direcionada ou deslocamento de um ponto UMA até um ponto B (veja a figura), também pode ser denotado como A B ⟶ < displaystyle < stackrel < longrightarrow>>> ou AB. Na literatura alemã, era especialmente comum representar vetores com pequenas letras fraktur, como um < displaystyle < mathfrak >>.

Os vetores são geralmente mostrados em gráficos ou outros diagramas como setas (segmentos de linha direcionados), conforme ilustrado na figura. Aqui, o ponto UMA é chamado de origem, cauda, base, ou ponto inicial, e o ponto B é chamado de cabeça, gorjeta, ponto final, ponto final ou ponto final. O comprimento da seta é proporcional à magnitude do vetor, enquanto a direção para a qual a seta aponta indica a direção do vetor.

Em um diagrama bidimensional, às vezes é desejado um vetor perpendicular ao plano do diagrama. Esses vetores são comumente mostrados como pequenos círculos. Um círculo com um ponto no centro (Unicode U + 2299 ⊙) indica um vetor apontando para fora da frente do diagrama, em direção ao visualizador. Um círculo com uma cruz inscrita nele (Unicode U + 2297 ⊗) indica um vetor apontando para dentro e para trás do diagrama. Isso pode ser visto como a visualização da ponta de uma flecha e a visualização dos vôos de uma flecha por trás.

Para calcular com vetores, a representação gráfica pode ser muito complicada. Vetores em um nO espaço euclidiano dimensional pode ser representado como vetores de coordenadas em um sistema de coordenadas cartesiano. O ponto final de um vetor pode ser identificado com uma lista ordenada de n numeros reais (n-tuple). Esses números são as coordenadas do ponto final do vetor, em relação a um determinado sistema de coordenadas cartesianas, e são normalmente chamados de componentes escalares (ou projeções escalares) do vetor nos eixos do sistema de coordenadas.

Como um exemplo em duas dimensões (ver figura), o vetor da origem O = (0, 0) direto ao ponto UMA = (2, 3) é simplesmente escrito como

A noção de que a cauda do vetor coincide com a origem é implícita e facilmente compreendida. Assim, a notação mais explícita O A → < displaystyle < overrightarrow >> geralmente é considerado desnecessário (e de fato raramente é usado).

Em tridimensional Espaço euclidiano (ou R 3), os vetores são identificados com triplos de componentes escalares:

Isso pode ser generalizado para n-dimensional Espaço euclidiano (ou R n ).

Esses números são frequentemente organizados em um vetor de coluna ou vetor de linha, particularmente ao lidar com matrizes, da seguinte maneira:

Outra maneira de representar um vetor em n-dimensões é introduzir os vetores de base padrão. Por exemplo, em três dimensões, existem três delas:

Estes têm a interpretação intuitiva como vetores de comprimento unitário apontando para cima no x-, y-, e z-eixo de um sistema de coordenadas cartesianas, respectivamente. Em termos destes, qualquer vetor uma em R 3 pode ser expresso na forma:

Onde uma1, uma2, uma3 são chamados de componentes do vetor (ou projeções vetoriais) do uma nos vetores de base ou, de forma equivalente, nos eixos cartesianos correspondentes x, y, e z (veja a figura), enquanto uma1, uma2, uma3 são os respectivos componentes escalares (ou projeções escalares).

Em livros didáticos de introdução à física, os vetores de base padrão são frequentemente denotados como i, j, k < displaystyle mathbf , mathbf , mathbf > em vez disso (ou x ^, y ^, z ^ < displaystyle mathbf < hat >, mathbf < hat >, mathbf < hat >>, em que o símbolo do chapéu ^ normalmente denota vetores unitários). Neste caso, os componentes escalares e vetoriais são denotados respectivamente umax, umay, umaz, e umax, umay, umaz (observe a diferença em negrito). Desse modo,

A notação eeu é compatível com a notação de índice e a convenção de soma comumente usada em matemática, física e engenharia de nível superior.

Decomposição ou resolução Editar

Conforme explicado acima, um vetor é frequentemente descrito por um conjunto de componentes do vetor que se somam para formar o vetor fornecido. Normalmente, esses componentes são as projeções do vetor em um conjunto de eixos de referência mutuamente perpendiculares (vetores de base). O vetor é dito ser decomposto ou resolvido com respeito a esse conjunto.

A decomposição ou resolução [15] de um vetor em componentes não é única, pois depende da escolha dos eixos sobre os quais o vetor é projetado.

A escolha de uma base não afeta as propriedades de um vetor ou seu comportamento sob transformações.

Um vetor também pode ser dividido em relação a vetores de base "não fixos" que mudam sua orientação em função do tempo ou do espaço. Por exemplo, um vetor no espaço tridimensional pode ser decomposto em relação a dois eixos, respectivamente normal, e tangente a uma superfície (veja a figura). Além disso, o radial e componentes tangenciais de um vetor se relaciona com o raio de rotação de um objeto. O primeiro é paralelo ao raio e o último é ortogonal a ele. [16]

Nestes casos, cada um dos componentes pode ser, por sua vez, decomposto em relação a um sistema de coordenadas fixas ou conjunto de base (por exemplo, um global sistema de coordenadas ou referencial inercial).

A seção a seguir usa o sistema de coordenadas cartesianas com vetores de base

e assume que todos os vetores têm a origem como um ponto de base comum. Um vetor uma será escrito como

Edição de igualdade

Dois vetores são considerados iguais se tiverem a mesma magnitude e direção. Equivalentemente, eles serão iguais se suas coordenadas forem iguais. Então, dois vetores

Vetores opostos, paralelos e antiparalelos Editar

Dois vetores são opostos se eles têm a mesma magnitude, mas direção oposta. Então, dois vetores

Dois vetores são paralelos se tiverem a mesma direção, mas não necessariamente a mesma magnitude, ou antiparalelos se tiverem direção oposta, mas não necessariamente a mesma magnitude.

Edição de adição e subtração

Suponha agora que uma e b não são necessariamente vetores iguais, mas podem ter diferentes magnitudes e direções. A soma de uma e b é

A adição pode ser representada graficamente colocando a cauda da seta b na ponta da flecha umae, em seguida, desenhando uma flecha da cauda de uma para a cabeça de b. A nova seta desenhada representa o vetor uma + b, conforme ilustrado abaixo: [8]

Este método de adição às vezes é chamado de regra do paralelogramo Porque uma e b formar os lados de um paralelogramo e uma + b é uma das diagonais. Se uma e b são vetores vinculados que têm o mesmo ponto de base, este ponto também será o ponto de base de uma + b. Pode-se verificar geometricamente que uma + b = b + uma e (uma + b) + c = uma + (b + c).

A diferença de uma e b é

A subtração de dois vetores pode ser ilustrada geometricamente da seguinte forma: para subtrair b a partir de uma, coloque as caudas de uma e b no mesmo ponto e, em seguida, desenhe uma flecha da cabeça de b para a cabeça de uma. Esta nova seta representa o vetor (-b) + uma, com (-b) sendo o oposto de b, ver desenho. E (-b) + uma = umab.

Multiplicação escalar Editar

Um vetor também pode ser multiplicado, ou re-em escala, por um número real r. No contexto da álgebra vetorial convencional, esses números reais são freqüentemente chamados de escalares (por escala) para distingui-los dos vetores. A operação de multiplicação de um vetor por um escalar é chamada multiplicação escalar. O vetor resultante é

Intuitivamente, multiplicando por um escalar r estende um vetor por um fator de r. Geometricamente, isso pode ser visualizado (pelo menos no caso quando r é um inteiro) como colocação r cópias do vetor em uma linha onde o ponto final de um vetor é o ponto inicial do próximo vetor.

Se r for negativo, o vetor muda de direção: ele gira em um ângulo de 180 °. Dois exemplos (r = -1 e r = 2) são fornecidos abaixo:

A multiplicação escalar é distributiva sobre a adição vetorial no seguinte sentido: r(uma + b) = ruma + rb para todos os vetores uma e b e todos os escalares r. Também se pode mostrar que umab = uma + (−1)b.

Edição de comprimento

O comprimento ou magnitude ou norma do vetor uma é denotado por ‖uma‖ Ou, menos comumente, |uma|, que não deve ser confundido com o valor absoluto (uma "norma" escalar).

O comprimento do vetor uma pode ser calculado com a norma euclidiana

que é uma consequência do teorema de Pitágoras, uma vez que os vetores de base e1, e2, e3 são vetores unitários ortogonais.

Isso acontece ser igual à raiz quadrada do produto escalar, discutido abaixo, do vetor com ele mesmo:

UMA vetor unitário é qualquer vetor com o comprimento de uma unidade, normalmente, vetores são usados ​​simplesmente para indicar a direção. Um vetor de comprimento arbitrário pode ser dividido por seu comprimento para criar um vetor unitário. [17] Isso é conhecido como normalizando um vetor. Um vetor unitário é frequentemente indicado com um chapéu, como em uma.

Para normalizar um vetor uma = (uma1, uma2, uma3), dimensione o vetor pelo recíproco de seu comprimento ‖uma‖. Isso é:

O vetor zero é o vetor com comprimento zero. Escrito em coordenadas, o vetor é (0, 0, 0) e é comumente denotado como 0 → < displaystyle < vec <0> >>, 0, ou simplesmente 0. [4] Ao contrário de qualquer outro vetor, ele tem uma direção arbitrária ou indeterminada e não pode ser normalizado (ou seja, não há vetor unitário que seja múltiplo do vetor zero). A soma do vetor zero com qualquer vetor uma é uma (isso é, 0 + uma = uma ).

Editar produto escalar

O produto escalar de dois vetores uma e b (às vezes chamado de produto Interno, ou, uma vez que seu resultado é um escalar, o produto escalar) é denotado por umab, [4] e é definido como:

Onde θ é a medida do ângulo entre uma e b (veja a função trigonométrica para uma explicação do cosseno). Geometricamente, isso significa que uma e b são desenhados com um ponto inicial comum e, em seguida, o comprimento de uma é multiplicado pelo comprimento do componente de b que aponta na mesma direção que uma.

O produto escalar também pode ser definido como a soma dos produtos dos componentes de cada vetor como

Edição de produtos cruzados

O produto cruzado (também chamado de produto vetorial ou produto externo) só é significativo em três ou sete dimensões. O produto vetorial difere do produto escalar principalmente porque o resultado do produto vetorial de dois vetores é um vetor. O produto vetorial, denotado uma × b, é um vetor perpendicular a ambos uma e b e é definido como

Onde θ é a medida do ângulo entre uma e b, e n é um vetor unitário perpendicular a ambos uma e b que completa um sistema destro. A restrição de destros é necessária porque existe dois vetores unitários que são perpendiculares a ambos uma e b, ou seja, n e (-n).

O produto cruzado uma × b é definido para que uma, b, e uma × b também se torna um sistema destro (embora uma e b não são necessariamente ortogonais). Esta é a regra da mão direita.

O comprimento do uma × b pode ser interpretado como a área do paralelogramo tendo uma e b como lados.

O produto vetorial pode ser escrito como

Para escolhas arbitrárias de orientação espacial (isto é, permitindo sistemas de coordenadas para destros e canhotos), o produto cruzado de dois vetores é um pseudovetor em vez de um vetor (veja abaixo).

Edição de produto escalar triplo

O produto triplo escalar (também chamado de produto de caixa ou produto triplo misto) não é realmente um novo operador, mas uma maneira de aplicar os outros dois operadores de multiplicação a três vetores. O produto escalar triplo às vezes é denotado por (uma b c) e definido como:

Ele tem três usos principais. Em primeiro lugar, o valor absoluto do produto da caixa é o volume do paralelepípedo que possui arestas definidas pelos três vetores. Em segundo lugar, o produto escalar triplo é zero se e somente se os três vetores são linearmente dependentes, o que pode ser facilmente provado considerando que, para que os três vetores não formem um volume, eles devem estar todos no mesmo plano. Terceiro, o produto da caixa é positivo se e somente se os três vetores uma, b e c são destros.

Em componentes (com relação a uma base ortonormal destra), se os três vetores são pensados ​​como linhas (ou colunas, mas na mesma ordem), o produto triplo escalar é simplesmente o determinante da matriz 3 por 3 tendo os três vetores como linhas

O produto triplo escalar é linear em todas as três entradas e anti-simétrico no seguinte sentido:

Conversão entre múltiplas bases cartesianas Editar

Todos os exemplos até agora lidaram com vetores expressos em termos da mesma base, ou seja, o e base <e1, e2, e3>. No entanto, um vetor pode ser expresso em termos de qualquer número de bases diferentes que não estão necessariamente alinhadas entre si e ainda permanecem o mesmo vetor. No e base, um vetor uma é expresso, por definição, como

Os componentes escalares no e base são, por definição,

Em outra base ortonormal n = <n1, n2, n3> que não está necessariamente alinhado com e, o vetor uma é expresso como

e os componentes escalares no n base são, por definição,

Os valores de p, q, r, e você, v, C relacionam-se com os vetores unitários de tal forma que a soma do vetor resultante é exatamente o mesmo vetor físico uma em ambos os casos. É comum encontrar vetores conhecidos em termos de bases diferentes (por exemplo, uma base fixada na Terra e uma segunda base fixada em um veículo em movimento). Nesse caso, é necessário desenvolver um método para converter as bases para que as operações básicas do vetor, como adição e subtração, possam ser realizadas. Uma maneira de expressar você, v, C em termos de p, q, r é usar matrizes de coluna junto com uma matriz de cosseno de direção contendo as informações que relacionam as duas bases. Tal expressão pode ser formada pela substituição das equações acima para formar

Distribuir a multiplicação de pontos dá

Substituir cada produto escalar por um escalar exclusivo dá

e essas equações podem ser expressas como a equação de matriz única

Esta equação matricial relaciona os componentes escalares de uma no n base (você,v, e C) com aqueles no e base (p, q, e r) Cada elemento da matriz cjk é a direção cosseno relacionada nj para ek. [18] O termo direção cosseno refere-se ao cosseno do ângulo entre dois vetores unitários, que também é igual ao seu produto escalar. [18] Portanto,

Referindo-se coletivamente a e1, e2, e3 Enquanto o e base e para n1, n2, n3 Enquanto o n base, a matriz contendo todos os cjk é conhecido como o "matriz de transformação a partir de e para n", ou o "matriz de rotação a partir de e para n"(porque pode ser imaginado como a" rotação "de um vetor de uma base para outra), ou o"matriz cosseno de direção a partir de e para n"[18] (porque contém cossenos de direção). As propriedades de uma matriz de rotação são tais que seu inverso é igual a sua transposta. Isso significa que a" matriz de rotação de e para n"é a transposição de" matriz de rotação de n para e".

As propriedades de uma matriz cosseno de direção, C, são: [19]

  • o determinante é a unidade, | C | = 1
  • o inverso é igual ao transposto,
  • as linhas e colunas são vetores unitários ortogonais, portanto, seus produtos escalares são zero.

A vantagem deste método é que uma matriz de cosseno de direção geralmente pode ser obtida de forma independente usando ângulos de Euler ou um quatérnio para relacionar as duas bases do vetor, de modo que as conversões de base podem ser realizadas diretamente, sem ter que trabalhar todos os produtos escalares descritos acima .

Aplicando várias multiplicações de matrizes em sucessão, qualquer vetor pode ser expresso em qualquer base, desde que o conjunto de cossenos de direção seja conhecido, relacionando as bases sucessivas. [18]

Outras dimensões Editar

Com exceção dos produtos cruzados e triplos, as fórmulas acima generalizam para duas dimensões e dimensões superiores. Por exemplo, a adição generaliza duas dimensões como

e em quatro dimensões como

O produto vetorial não generaliza prontamente para outras dimensões, embora o produto externo intimamente relacionado o faça, cujo resultado é um bivetor. Em duas dimensões, isso é simplesmente um pseudoescalar

Um produto vetorial de sete dimensões é semelhante ao produto vetorial, pois seu resultado é um vetor ortogonal aos dois argumentos; no entanto, não há uma maneira natural de selecionar um desses produtos possíveis.

Os vetores têm muitos usos na física e em outras ciências.

Comprimento e unidades Editar

Em espaços vetoriais abstratos, o comprimento da seta depende de uma escala adimensional. Se representar, por exemplo, uma força, a "escala" tem dimensão física comprimento / força. Assim, normalmente há consistência na escala entre as quantidades da mesma dimensão, mas caso contrário, as relações de escala podem variar, por exemplo, se "1 newton" e "5 m" forem ambos representados com uma seta de 2 cm, as escalas são 1 m: 50 N e 1: 250 respectivamente. O comprimento igual de vetores de dimensões diferentes não tem significado particular, a menos que haja alguma constante de proporcionalidade inerente ao sistema que o diagrama representa. Além disso, o comprimento de um vetor unitário (de comprimento de dimensão, não comprimento / força, etc.) não tem significado invariante do sistema de coordenadas.

Funções com valor vetorial Editar

Muitas vezes, nas áreas da física e da matemática, um vetor evolui no tempo, o que significa que depende de um parâmetro de tempo t. Por exemplo, se r representa o vetor posição de uma partícula, então r(t) fornece uma representação paramétrica da trajetória da partícula. As funções com valor vetorial podem ser diferenciadas e integradas pela diferenciação ou integração dos componentes do vetor, e muitas das regras familiares do cálculo continuam valendo para a derivada e integral das funções com valor vetorial.

Posição, velocidade e aceleração Editar

A posição de um ponto x = (x1, x2, x3) no espaço tridimensional pode ser representado como um vetor de posição cujo ponto base é a origem

O vetor de posição tem dimensões de comprimento.

Dados dois pontos x = (x1, x2, x3), y = (y1, y2, y3) seu deslocamento é um vetor

que especifica a posição de y relativo a x. O comprimento deste vetor fornece a distância em linha reta de x para y. O deslocamento tem as dimensões do comprimento.

A velocidade v de um ponto ou partícula é um vetor, seu comprimento fornece a velocidade. Para velocidade constante, a posição no tempo t será

Onde x0 é a posição no momento t = 0. Velocidade é a derivada da posição no tempo. Suas dimensões são comprimento / tempo.

Aceleração uma de um ponto é o vetor, que é a derivada da velocidade no tempo. Suas dimensões são comprimento / tempo 2.

Força, energia, trabalho Editar

Força é um vetor com dimensões de massa × comprimento / tempo 2 e a segunda lei de Newton é a multiplicação escalar

O trabalho é o produto escalar de força e deslocamento

Uma caracterização alternativa de vetores euclidianos, especialmente em física, os descreve como listas de quantidades que se comportam de uma certa maneira sob uma transformação de coordenadas. UMA vetor contravariante é necessário ter componentes que "se transformam em oposição à base" sob mudanças de base. O próprio vetor não muda quando a base é transformada, em vez disso, os componentes do vetor fazem uma mudança que cancela a mudança na base. Em outras palavras, se os eixos de referência (e a base derivada deles) fossem girados em uma direção, a representação do componente do vetor giraria no sentido oposto para gerar o mesmo vetor final. Da mesma forma, se os eixos de referência fossem alongados em uma direção, os componentes do vetor seriam reduzidos de maneira exatamente compensatória. Matematicamente, se a base sofre uma transformação descrita por uma matriz invertível M, de modo que um vetor de coordenadas x é transformado em x′ = Mx , então um vetor contravariante v deve ser transformado de forma semelhante por meio de v′ = M - 1 < displaystyle ^ <-1>> v . Este requisito importante é o que distingue um vetor contravariante de qualquer outro triplo de quantidades fisicamente significativas. Por exemplo, se v consiste no x, y, e z-componentes de velocidade, então v é um vetor contravariante: se as coordenadas do espaço são esticadas, giradas ou torcidas, então os componentes da velocidade se transformam da mesma maneira. Por outro lado, por exemplo, um triplo consistindo no comprimento, largura e altura de uma caixa retangular poderia formar os três componentes de um vetor abstrato, mas esse vetor não seria contravariante, uma vez que girar a caixa não altera o comprimento, largura e altura da caixa. Exemplos de vetores contravariantes incluem deslocamento, velocidade, campo elétrico, momento, força e aceleração.

Na linguagem da geometria diferencial, o requisito de que os componentes de uma transformação vetorial de acordo com a mesma matriz da transição de coordenadas é equivalente a definir um vetor contravariante para ser um tensor de posição contravariante um. Alternativamente, um vetor contravariante é definido como um vetor tangente, e as regras para transformar um vetor contravariante seguem a regra da cadeia.

Alguns vetores se transformam como vetores contravariantes, exceto que quando eles são refletidos através de um espelho, eles mudam e ganhe um sinal de menos. Diz-se que uma transformação que muda a mão direita para a mão esquerda e vice-versa como um espelho muda o orientação do espaço. Um vetor que ganha um sinal de menos quando a orientação do espaço muda é chamado de pseudovetor ou um vetor axial. Os vetores comuns às vezes são chamados vetores verdadeiros ou vetores polares para distingui-los dos pseudovetores. Os pseudovetores ocorrem mais freqüentemente como o produto cruzado de dois vetores comuns.

Um exemplo de pseudovetor é a velocidade angular. Dirigindo um carro e olhando para frente, cada uma das rodas tem um vetor de velocidade angular apontando para a esquerda. Se o mundo é refletido em um espelho que muda o lado esquerdo e direito do carro, o reflexão deste vetor de velocidade angular aponta para a direita, mas o real O vetor de velocidade angular da roda ainda aponta para a esquerda, correspondendo ao sinal de menos.Outros exemplos de pseudovetores incluem campo magnético, torque ou, mais geralmente, qualquer produto cruzado de dois vetores (verdadeiros).

Essa distinção entre vetores e pseudovetores é freqüentemente ignorada, mas se torna importante no estudo das propriedades de simetria. Veja paridade (física).


Notas sobre Diffy Qs: Equações Diferenciais para Engenheiros

Pode acontecer que uma matriz (A ) tenha alguns autovalores “repetidos”. Ou seja, a equação característica ( det (A- lambda I) = 0 ) pode ter raízes repetidas. Na verdade, isso é improvável de acontecer em uma matriz aleatória. Se tomarmos uma pequena perturbação de (A ) (alteramos ligeiramente as entradas de (A )), obtemos uma matriz com autovalores distintos. Como qualquer sistema que queiramos resolver na prática é uma aproximação da realidade de qualquer maneira, não é absolutamente indispensável saber como resolver esses casos esquivos. Por outro lado, esses casos aparecem em aplicativos de vez em quando. Além disso, se tivermos autovalores distintos, mas muito próximos, o comportamento será semelhante ao de autovalores repetidos e, portanto, a compreensão desse caso nos dará um insight sobre o que está acontecendo.

Subseção 3.7.1 Multiplicidade geométrica

(A ) tem um autovalor 3 de multiplicidade 2. Chamamos a multiplicidade do autovalor na equação característica de multiplicidade algébrica. Neste caso, também existem 2 autovetores linearmente independentes, ( left [ begin 1 0 fim right] ) e ( left [ begin 0 1 fim direita] ) correspondente ao autovalor 3. Isso significa que o chamado multiplicidade geométrica deste valor próprio também é 2.

Em todos os teoremas em que exigimos que uma matriz tivesse (n ) autovalores distintos, só precisávamos realmente ter (n ) autovetores linearmente independentes. Por exemplo, (< vec> '= A vec) tem a solução geral

Vamos reafirmar o teorema sobre os autovalores reais. No seguinte teorema, repetiremos os autovalores de acordo com a multiplicidade (algébrica). Portanto, para a matriz (A ) acima, diríamos que ela tem autovalores 3 e 3.

Teorema 3.7.1.

Suponha que a matriz (n vezes n ) (P ) tenha (n ) autovalores reais (não necessariamente distintos), ( lambda_1 text <,> ) ( lambda_2 text <,> ). ( lambda_n text <,> ) e há (n ) autovetores correspondentes linearmente independentes ( vec_1 text <,> ) ( vec_2 text <,> ). ( vec_n text <.> ) Então a solução geral para (< vec> '= P vec) pode ser escrito como

O multiplicidade geométrica de um autovalor de multiplicidade algébrica (n ) é igual ao número de autovetores linearmente independentes correspondentes. A multiplicidade geométrica é sempre menor ou igual à multiplicidade algébrica. O teorema trata do caso em que essas duas multiplicidades são iguais para todos os autovalores. Se para um autovalor a multiplicidade geométrica é igual à multiplicidade algébrica, então dizemos que o autovalor é completo.

Em outras palavras, a hipótese do teorema poderia ser afirmada como dizendo que se todos os autovalores de (P ) são completos, então existem (n ) autovetores linearmente independentes e, portanto, temos a solução geral dada.

Se a multiplicidade geométrica de um autovalor é 2 ou maior, então o conjunto de autovetores linearmente independentes não é único até múltiplos como era antes. Por exemplo, para a matriz diagonal (A = left [ begin 3 & amp 0 0 & amp 3 end right] ) também podemos escolher vetores próprios ( left [ begin 1 1 fim right] ) e ( left [ begin 1 -1 fim right] text <,> ) ou de fato qualquer par de dois vetores linearmente independentes. O número de autovetores linearmente independentes correspondentes a ( lambda ) é o número de variáveis ​​livres que obtemos ao resolver (A vec = lambda vec text <.> ) Selecionamos valores específicos para essas variáveis ​​livres para obter vetores próprios. Se você escolher valores diferentes, poderá obter vetores próprios diferentes.

Subseção 3.7.2 Autovalores defeituosos

Se uma matriz (n times n ) tem menos de (n ) autovetores linearmente independentes, diz-se que é deficiente. Então, há pelo menos um autovalor com uma multiplicidade algébrica que é maior do que sua multiplicidade geométrica. Chamamos isso de autovalor defeituoso e a diferença entre as duas multiplicidades que chamamos de defeito.

Exemplo 3.7.1.

tem um autovalor 3 de multiplicidade algébrica 2. Vamos tentar calcular autovetores.

Devemos ter esse (v_2 = 0 text <.> ) Portanto, qualquer autovetor é da forma ( left [ begin v_1 0 end right] text <.> ) Quaisquer dois desses vetores são linearmente dependentes e, portanto, a multiplicidade geométrica do autovalor é 1. Portanto, o defeito é 1, e não podemos mais aplicar o método do autovalor diretamente a um sistema de EDOs com essa matriz de coeficiente.

Grosso modo, a observação chave é que se ( lambda ) é um autovalor de (A ) de multiplicidade algébrica (m text <,> ), então podemos encontrar certos (m ) vetores linearmente independentes resolvendo (<(A- lambda I)> ^ k vec = vec <0> ) para vários poderes (k text <.> ) Vamos chamá-los autovetores generalizados.

Vamos continuar com o exemplo (A = left [ begin 3 & amp 1 0 & amp 3 end right] ) e a equação (< vec> '= A vec text <.> ) Encontramos um autovalor ( lambda = 3 ) de (algébrico) multiplicidade 2 e defeito 1. Encontramos um autovetor ( vec = left [ begin 1 0 fim right] text <.> ) Temos uma solução

Agora estamos presos, não temos outras soluções de autovetores padrão. Mas precisamos de duas soluções linearmente independentes para encontrar a solução geral da equação.

Vamos tentar (no espírito das raízes repetidas da equação característica para uma única equação) outra solução da forma

Como estamos assumindo que ( vec_2 ) é uma solução, (< vec_2> ') deve ser igual a (A vec_2 text <.> ) Então, vamos calcular (A vec_2 text <:> )

Olhando para os coeficientes de (e ^ <3t> ) e (t e ^ <3t> ), vemos (3 vec_2 + vec_1 = A vec_2 ) e (3 vec_1 = A vec_1 text <.> ) Isso significa que

Portanto, ( vec_2 ) é uma solução se essas duas equações forem satisfeitas. A segunda equação é satisfeita se ( vec_1 ) é um autovetor, e encontramos o autovetor acima, então vamos ( vec_1 = left [ begin 1 0 fim right] text <.> ) Então, se pudermos encontrar um ( vec_2 ) que resolve ((A-3I) vec_2 = vec_1 text <,> ) então terminamos. Este é apenas um monte de equações lineares para resolver e agora somos muito bons nisso. Vamos resolver ((A-3I) vec_2 = vec_1 text <.> ) Escrever

Por inspeção, vemos que deixar (a = 0 ) ( (a ) pode ser qualquer coisa) e (b = 1 ) faz o trabalho. Portanto, podemos pegar ( vec_2 = left [ begin 0 1 fim right] text <.> ) Nossa solução geral para (< vec> '= A vec) é

Vamos verificar se realmente temos a solução. Primeiro (x_1 '= c_1 3 e ^ <3t> + c_2 e ^ <3t> + 3 c_2 te ^ <3t> = 3 x_1 + x_2 text <.> ) Bom. Agora (x_2 '= 3 c_2 e ^ <3t> = 3x_2 texto <.> ) Bom.

No exemplo, se conectarmos ((A-3I) vec_2 = vec_1 ) em ((A-3I) vec_1 = vec <0> ) encontramos

Além disso, if ((A-3I) vec not = vec <0> text <,> ) então ((A-3I) vec) é um autovetor, um múltiplo de ( vec_1 text <.> ) Neste caso (2 vezes 2 ) (<(A-3I)> ^ 2 ) é apenas a matriz zero (exercício). Portanto, qualquer vetor ( vec) resolve (<(A-3I)> ^ 2 vec = vec <0> ) e só precisamos de um ( vec) de modo que ((A-3I) vec not = vec <0> text <.> ) Então poderíamos usar ( vec) para ( vec_2 text <,> ) e ((A-3I) vec) para ( vec_1 text <.> )

Observe que o sistema (< vec> '= A vec) tem uma solução mais simples, uma vez que (A ) é um assim chamado matriz triangular superior, ou seja, cada entrada abaixo da diagonal é zero. Em particular, a equação para (x_2 ) não depende de (x_1 text <.> ) Lembre-se, nem toda matriz defeituosa é triangular.

Exercício 3.7.1.

Resolva (< vec> '= left [ begin 3 & amp 1 0 & amp 3 end right] vec) resolvendo primeiro para (x_2 ) e depois para (x_1 ) independentemente. Verifique se você obteve a mesma solução que obtivemos acima.

Vamos descrever o algoritmo geral. Suponha que ( lambda ) seja um autovalor de multiplicidade 2, defeito 1. Primeiro encontre um autovetor ( vec_1 ) de ( lambda text <.> ) Ou seja, ( vec_1 ) resolve ((A- lambda I) vec_1 = vec <0> text <.> ) Em seguida, encontre um vetor ( vec_2 ) de modo que

Isso nos dá duas soluções linearmente independentes

Exemplo 3.7.2.

Os valores próprios são 1 e 2, onde 2 tem multiplicidade 2. Deixamos para o leitor descobrir que ( left [ begin 0 0 1 fim right] ) é um autovetor para o autovalor ( lambda = 1 text <.> )

Vamos nos concentrar em ( lambda = 2 text <.> ) Calculamos os vetores próprios:

A primeira equação diz que (v_2 = 0 text <,> ) então a última equação é (- v_1 -v_3 = 0 text <.> ) Seja (v_3 ) a variável livre para descobrir que (v_1 = -v_3 text <.> ) Talvez deixe (v_3 = -1 ) para encontrar um vetor próprio ( left [ begin 1 0 -1 fim right] text <.> ) O problema é que definir (v_3 ) para qualquer outra coisa apenas obtém múltiplos deste vetor e então temos um defeito de 1. Let ( vec_1 ) seja o autovetor e vamos procurar um autovetor generalizado ( vec_2 text <:> )

onde usamos (a text <,> ) (b text <,> ) (c ) como componentes de ( vec_2 ) para simplificar. A primeira equação diz (- 5b = 1 ) então (b = nicefrac <-1> <5> text <.> ) A segunda equação não diz nada. A última equação é (- a + 4b - c = -1 text <,> ) ou (a + nicefrac <4> <5> + c = 1 text <,> ) ou (a + c = nicefrac <1> <5> text <.> ) Deixamos (c ) ser a variável livre e escolhemos (c = 0 text <.> ) Encontramos ( vec_2 = left [ begin nicefrac <1> <5> nicefrac <-1> <5> 0 end right] text <.> )

A solução geral é, portanto,

Essa máquina também pode ser generalizada para multiplicidades e defeitos maiores. Não examinaremos esse método em detalhes, mas apenas esboçaremos as idéias. Suponha que (A ) tenha um autovalor ( lambda ) de multiplicidade (m text <.> ) Encontramos vetores tais que

Esses vetores são chamados autovetores generalizados (então ( vec_1 = <(A - lambda I)> ^ vec) é um autovetor). Para o vetor próprio ( vec_1 ) há uma cadeia de autovetores generalizados ( vec_2 ) a ( vec_k ) de modo que:

vdots (A - lambda I) vec_k & amp = vec_ . fim fim

Quando você realmente encontrar o ( vec_k ) de forma que (<(A - lambda I)> ^ k vec_k = vec <0> ) mas (<(A - lambda I)> ^ vec_k not = vec <0> text <,> ) você encontra a cadeia inteira já que pode calcular o resto, ( vec_ = (A - lambda I) vec_k text <,> ) ( vec_ = (A - lambda I) vec_ text <,> ) etc. Nós formamos as soluções linearmente independentes

Lembre-se de que (k! = 1 cdot 2 cdot 3 cdots (k-1) cdot k ) é o fatorial. Se você tiver um autovalor de multiplicidade geométrica ( ell text <,> ), você terá que encontrar ( ell ) tais cadeias (algumas delas podem ser curtas: apenas a única equação de autovetor). Vamos até formar (m ) soluções linearmente independentes onde (m ) é a multiplicidade algébrica. Não sabemos bem quais eigenvetores específicos vão com qual cadeia, então comece encontrando ( vec_k ) primeiro para a cadeia mais longa possível e vá a partir daí.

Por exemplo, se ( lambda ) é um autovalor de (A ) de multiplicidade algébrica 3 e defeito 2, então resolva

Ou seja, encontre ( vec_3 ) de modo que (<(A - lambda I)> ^ 3 vec_3 = vec <0> text <,> ) mas (<(A - lambda I)> ^ 2 vec_3 not = vec <0> text <.> ) Então você está pronto como ( vec_2 = (A - lambda I) vec_3 ) e ( vec_1 = (A - lambda I) vec_2 text <.> ) As 3 soluções linearmente independentes são

Se por outro lado (A ) tem um autovalor ( lambda ) de multiplicidade algébrica 3 e defeito 1, então resolva

Aqui ( vec_1 ) e ( vec_2 ) são autovetores honestos reais, e ( vec_3 ) é um autovetor generalizado. Portanto, existem duas cadeias. Para resolver, primeiro encontre um ( vec_3 ) de modo que (<(A - lambda I)> ^ 2 vec_3 = vec <0> text <,> ) mas ((A - lambda I) vec_3 not = vec <0> text <.> ) Então ( vec_2 = (A - lambda I) vec_3 ) será um autovetor. Em seguida, resolva para um vetor próprio ( vec_1 ) que é linearmente independente de ( vec_2 text <.> ) Você obtém 3 soluções linearmente independentes

Subseção 3.7.3 Exercícios

Exercício 3.7.2.

Vamos (A = left [ begin 5 & ​​amp -3 3 & amp -1 end right] text <.> ) Encontre a solução geral de (< vec> '= A vec text <.> )

Exercício 3.7.3.

Qual é / são o (s) defeito (s) dos valores próprios?

Encontre a solução geral de (< vec> '= A vec text <.> )

Exercício 3.7.4.

Qual é / são o (s) defeito (s) dos valores próprios?

Encontre a solução geral de (< vec> '= A vec) de duas maneiras diferentes e verifique se você obteve a mesma resposta.

Exercício 3.7.5.

Qual é / são o (s) defeito (s) do (s) valor (es) próprio (s)?

Encontre a solução geral de (< vec> '= A vec text <.> )

Exercício 3.7.6.

Qual é / são o (s) defeito (s) dos valores próprios?

Encontre a solução geral de (< vec> '= A vec text <.> )

Exercício 3.7.7.

Qual é / são o (s) defeito (s) do (s) valor (es) próprio (s)?

Encontre a solução geral de (< vec> '= A vec text <.> )

Exercício 3.7.8.

Suponha que (A ) seja uma matriz (2 vezes 2 ) com um autovalor repetido ( lambda text <.> ) Suponha que haja dois autovetores linearmente independentes. Mostre que (A = lambda I text <.> )

Exercício 3.7.101.

Qual é / são o (s) defeito (s) dos valores próprios?

Encontre a solução geral de ( vec, '= A vec text <.> )

a) (3,0,0 ) b) Sem defeitos. c) ( vec = C_1 left [ begin 1 1 1 fim direita] e ^ <3t> + C_2 esquerda [ começar 1 0 -1 fim direita] + C_3 esquerda [ começar 0 1 -1 fimcerto])

Exercício 3.7.102.

Qual é / são o (s) defeito (s) dos valores próprios?

Encontre a solução geral de ( vec, '= A vec text <.> )

a) (1,1,2 )
b) O valor próprio 1 tem um defeito de 1
c) ( vec = C_1 left [ begin 0 1 -1 fim direita] e ^ + C_2 left ( left [ begin 1 0 0 fim direita] + t esquerda [ começar 0 1 -1 fim right] right) e ^ + C_3 left [ begin 3 3 -2 end direita] e ^ <2t> )

Exercício 3.7.103.

Qual é / são o (s) defeito (s) dos valores próprios?

Encontre a solução geral de ( vec, '= A vec text <.> )

a) (2,2,2 )
b) O valor próprio 2 tem um defeito de 2
c) ( vec = C_1 left [ begin 0 3 1 fim right] e ^ <2t> + C_2 left ( left [ begin 0 -1 0 fim direita] + t esquerda [ começar 0 3 1 fim right] right) e ^ <2t> + C_3 left ( left [ begin 1 0 0 fim direita] + t esquerda [ começar 0 -1 0 fim direita] + frac <2> left [ begin 0 3 1 fim direita] direita) e ^ <2t> )

Exercício 3.7.104.

Vamos (A = left [ begin a & amp a b & amp c end right] text <,> ) onde (a text <,> ) (b text <,> ) e (c ) são desconhecidos. Suponha que (5 ) seja um autovalor dobrado do defeito 1, e suponha que ( left [ begin 1 0 fim right] ) é um autovetor correspondente. Encontre (A ) e mostre que existe apenas uma matriz (A text <.> )


Assista o vídeo: Conversión de unidades de área. Unidades cuadradas (Outubro 2021).