Artigos

6.2.E: Problemas em Mapas Lineares e Matrizes - Matemática


Exercício ( PageIndex {1} )

Verifique a Nota 1 e a equivalência das duas afirmações na Definição 1.

Exercício ( PageIndex {2} )

Nos Exemplos (b) e (c) mostram que
[f_ {n} rightarrow f ( text {uniformemente}) text {on} I text {iff} left | f_ {n} -f right | rightarrow 0, ]
ou seja, (f_ {n} rightarrow f ) em (E ^ { prime}. )
[Dica: use o Teorema 1 no Capítulo 4, §2.]
Portanto, deduza o seguinte.
(i) Se (E ) estiver completo, então o mapa ( phi ) no Exemplo (c) é contínuo.
[Dica: use o Teorema 2 do Capítulo 5, §9, e o Teorema 1 do Capítulo 4, §12.]
(ii) O mapa (D ) do Exemplo (b}) não é contínuo.
[Dica: use o Problema 3 no Capítulo 5, §9.]

Exercício ( PageIndex {3} )

Prove os corolários 1 a 3.

Exercício ( PageIndex {3 '} )

Mostra isso
[ | f | = sup _ {| vec {x} | leq 1} | f ( vec {x}) | = sup _ {| vec {x} | = 1} | f ( vec {x}) | = sup _ { vec {x} neq overrightarrow {0}} frac {| f ( vec {x}) |} {| vec {x} |}. ]
[Dica: Da linearidade de (f ) deduza que (| f ( vec {x}) | geq | f (cx) | ) se (| c | <1. ) Portanto, pode-se desconsiderar vetores de comprimento (<1 ) ao calcular sup (| f ( vec {x}) |. ) Por quê?]

Exercício ( PageIndex {4} )

Encontre as matrizes ([f], [g], [h], [k], ) e as fórmulas de definição para os mapas lineares (f: E ^ {2} rightarrow E ^ {1}, g: E ^ {3} rightarrow E ^ {4}, h: E ^ {4} rightarrow E ^ {2}, k: E ^ {1} rightarrow E ^ {3} ) se
(i) (f left ( vec {e} _ {1} right) = 3, f left ( vec {e} _ {2} right) = - 2; )
(ii) (g left ( vec {e} _ {1} right) = (1,0, -2,4), g left ( vec {e} _ {2} right) = (0,2, -1,1), g left ( vec {e} _ {3} right) = (0,1,0, -1); )
(iii) (h left ( vec {e} _ {1} right) = (2,2), h left ( vec {e} _ {2} right) = (0, -2 ), h left ( vec {e} _ {3} right) = (1,0), h left ( vec {e} _ {4} right) = (- 1,1); )
(iv) (k (1) = (0,1, -1). )

Exercício ( PageIndex {5} )

No Problema 4, use a Nota 4 para encontrar as matrizes de produto ([k] [f], [g] [k], [f] [h], ) e ([h] [g]. ) Portanto obtenha as fórmulas de definição para (k circ f, g circ k, f circ h, ) e (h circ g. )

Exercício ( PageIndex {6} )

Para matrizes (m vezes n ) (com (m ) e (n ) fixos), defina adição e multiplicação por escalares da seguinte forma:
[a [f] + b [g] = [a f + bg] text {if} f, g in L left (E ^ {n}, E ^ {m} right) left ( texto {ou} L esquerda (C ^ {n}, C ^ {m} direita) direita). ]
Mostre que essas matrizes formam um espaço vetorial sobre (E ^ {1} ) (ou (C )).

Exercício ( PageIndex {7} )

Com adição de matrizes como no Problema 6 e multiplicação como na Nota 4, mostre que todas as matrizes (n vezes n ) formam um anel não comutativo com unidade, ou seja, satisfazem os axiomas de campo (Capítulo 2, §§1-4) exceto a comutatividade da multiplicação e existência de inversos multiplicativos (dê counterex-amplest!).
Qual é a matriz de "unidade"?

Exercício ( PageIndex {8} )

Seja (f: E ^ { prime} rightarrow E ) linear. Prove as seguintes afirmações.
(i) A derivada (D _ { vec {u}} f ( vec {p}) ) existe e é igual a (f ( vec {u}) ) para cada ( vec {p}, vec {u} in E ^ { prime} ( vec {u} neq overrightarrow {0}); )
(ii) (f ) é relativamente contínuo em qualquer linha em (E ^ { prime} ) (use o Teorema 1 em §1);
(iii) (f ) leva qualquer linha em uma linha em (E. )

Exercício ( PageIndex {9} )

Seja (g: E ^ { prime prime} rightarrow E ) linear. Prove que se algum (f: E ^ { prime} rightarrow E ^ { prime prime} ) tem uma derivada ( vec {u} ) - direcionada em ( vec {p} in E ^ { prime}, ) então tem (h = g circ f, ) e (D _ { vec {u}} h ( vec {p}) = g left (D _ { vec {u}} f ( vec {p}) right) ).
[Dica: Use o Problema 8.]

Exercício ( PageIndex {10} )

Um conjunto (A ) em um espaço vetorial (V (A subseteq V) ) é dito ser linear (ou um subespaço linear de (V )) iff (a vec {x} + b vec {y} in A ) para qualquer ( vec {x}, vec {y} in A ) e quaisquer escalares (a, b. ) Prove o seguinte.
(i) Qualquer um desses (A ) é em si um espaço vetorial.
(ii) Se (f: E ^ { prime} rightarrow E ) é um mapa linear e (A ) é linear em (E ^ { prime} ) (respectivamente, em (E )), então é (f [A] ) em (E ) (respectivamente, também é (f ^ {- 1} [A] ) em (E ^ { prime} )).

Exercício ( PageIndex {11} )

Um conjunto (A ) em um espaço vetorial (V ) é chamado de extensão de um conjunto (B subseteq A (A = operatorname {sp} (B)) ) iff (A ) consiste de todas as combinações lineares de vetores de (B ). Então também dizemos que (B ) abrange (A ).
Prove o seguinte:
(i) (A = operatorname {sp} (B) ) é o menor subespaço linear de (V ) que contém (B ).
(ii) Se (f: V rightarrow E ) for linear e (A = operatorname {sp} (B), ) então (f [A] = operatorname {sp} (f [B] ) ) em (E ).

Exercício ( PageIndex {12} )

Um conjunto (B = left { vec {x} _ {1}, vec {x} _ {2}, ldots, vec {x} _ {n} right } ) em um o espaço vetorial (V ) é chamado de base se cada ( vec {v} in V ) tem uma representação única como
[ vec {v} = sum_ {i = 1} ^ {n} a_ {i} vec {x} _ {i} ]
para alguns escalares (a_ {i}. ) Se assim for, o número (n ) dos vetores em (B ) é chamado de dimensão de (V, ) e (V ) é dito para ser (n ) - dimensional. Exemplos de tais espaços são (E ^ {n} ) e (C ^ {n} ) (o ( vec {e} _ {k} ) forma uma base!).
(i) Mostre que (B ) é uma base se se estender por (V ) (ver Problema 11) e seus elementos ( vec {x} _ {i} ) são linearmente independentes, ou seja,
[ sum_ {i = 1} ^ {n} a_ {i} vec {x} _ {i} = overrightarrow {0} text {iff all} a_ {i} text {desaparecer.} ]
(ii) Se (E ^ { primo} ) é finito-dimensional, todos os mapas lineares em (E ^ { primo} ) são uniformemente contínuos. (Veja também os Problemas 3 e 4 do §6.)

Exercício ( PageIndex {13} )

Prove que se (f: E ^ {1} rightarrow E ) é contínuo e ( left ( forall x, y in E ^ {1} right) )
[f (x + y) = f (x) + f (y), ]
então (f ) é linear; então, pelo Corolário 2, (f (x) = v x ) onde (v = f (1) ).
[Dica: mostre que (f (ax) = af (x); ) primeiro para (a = 1,2, ldots ) ​​(nota: (nx = x + x + cdots + x, n ) termos); então para racional (a = m / n; ) então para (a = 0 ) e (a = -1. ) Qualquer (a in E ^ {1} ) é um limite de racionais ; portanto, use a continuidade e o Teorema 1 no Capítulo 4, §2.]


Álgebra Linear

Attribution-ShareAlike
CC BY-SA


Em relação à base padrão $ e_i $ o mapa possui a matriz $ A = begin 3 & amp -1 -1 & amp 1 end $ porque $ f (x) = x A = (x_1 e_1 + x_2 e_2) A = x_1 e_1 A + x_2 e_2 A = (x_1, x_2) begin e_1 A e_2 A end e_1 = (1,0): quad f (1,0) = (3, -1) = e_1 A = (1,0) A = (a_ <11> a_ <12>) e_2 = (0,1): quad f (0,1) = (-1,1) = e_2 A = (0,1) A = (a_ <21> a_ <22>) $ O que você está procurando é $ B = MAM ^ <-1> $ $ M $ primeiro transforma um vetor referente à base $ b_1 = (1,0) $ e $ b_2 = (1,1) $ em coordenadas padrão (base $ e_i $). Em seguida, ele aplica a função $ f $ através da matriz $ A $ (representando $ f $ se você usá-la com vetores relativos às coordenadas padrão) e finalmente transforma o resultado no mesmo vetor referente à base $ b_i $ via $ M ^ <- 1> $.

As matrizes combinadas têm o mesmo efeito que $ f $ para vetores relativos à base $ b_i $.

Como os $ b_i $ em relação a si próprios possuem as coordenadas $ (1,0) $ e $ (0,1) $, esses vetores devem ser mapeados por $ M $ a $ (1,0) $ e $ (1,1) $ , portanto $ M = begin 1 & amp 0 1 & amp 1 end quad M ^ <-1> = begin 1 & amp 0 -1 & amp 1 end $ e nós calculamos begin B & amp = M A M ^ <-1> & amp = begin 1 & amp 0 1 & amp 1 end começar 3 & amp -1 -1 & amp 1 end começar 1 & amp 0 -1 & amp 1 end & amp = begin 3 & amp -1 2 & amp 0 end começar 1 & amp 0 -1 & amp 1 end & amp = begin 4 e amp -1 2 e amp 0 end fim

$ e_1 = (1,0) $ em relação à base $ b_i $ ainda tem as coordenadas $ (1,0) $, pois $ (1,0) = 1 cdot b_1 + 0 cdot b_2 $. Então $ e_1 B = (1,0) begin 4 e amp -1 2 e amp 0 end = (4, -1) $ E de fato $ 4 b_1 - b_2 = 4 (1,0) - (1,1) = (4,0) - (1,1) = (3, -1) $ Mais $ e_2 = (0,1) $ em relação às coordenadas padrão tem coordenadas $ (- 1,1) $ em relação a $ b_i $: $ -1 cdot b_1 + 1 cdot b_2 = (-1,0) + (1,1 ) = (0,1) $ Isto é mapeado como: $ (-1,1) begin 4 e amp -1 2 e amp 0 end = (-2, 1) $ Calculando de volta às coordenadas padrão: $ -2 b_1 + b_2 = -2 (1,0) + (1,1) = (-2,0) + (1,1) = (- 1,1) $ que é onde $ e_2 $ deve mapear por $ f $.

O acima presumiu de sua pergunta que você deve usar vetores de linha. Se você usar vetores de coluna, terá que transpor as matrizes e vetores: $ f (x) = A x $ como $ A = A ^ T $ é simétrico. Além disso, $ B = (MAM ^ <-1>) ^ T = (M ^ <-1>) ^ T A ^ T M ^ T = (M ^ T) ^ <-1> A M ^ T = begin 4 & amp 2 -1 & amp 0 end $


Mapa linear

Em matemática, um mapa linear (também chamado de mapeamento linear, transformação linear, homomorfismo do espaço vetorial, ou em alguns contextos Função linear) é um mapeamento V → W < displaystyle V to W> entre dois espaços vetoriais que preserva as operações de adição vetorial e multiplicação escalar. Os mesmos nomes e a mesma definição também são usados ​​para o caso mais geral de módulos sobre um anel, consulte Homomorfismo de módulo.

Se um mapa linear é uma bijeção, é chamado de isomorfismo linear. No caso em que V = W < displaystyle V = W>, um mapa linear é chamado de (linear) endomorfismo. Às vezes, o termo operador linear refere-se a este caso, [1] mas o termo "operador linear" pode ter significados diferentes para convenções diferentes: por exemplo, pode ser usado para enfatizar que V < displaystyle V> e W < displaystyle W> são espaços vetoriais reais (não necessariamente com V = W < displaystyle V = W>), [ citação necessária ] ou pode ser usado para enfatizar que V < displaystyle V> é um espaço de função, que é uma convenção comum em análise funcional. [2] Às vezes, o termo Função linear tem o mesmo significado que mapa linear, enquanto na análise não.

Um mapa linear de V para C sempre mapeia a origem de V para a origem de C. Além disso, mapeia subespaços lineares em V em subespaços lineares em C (possivelmente de uma dimensão inferior) [3] por exemplo, ele mapeia um plano através da origem em V para um plano através da origem em C, uma linha através da origem em C, ou apenas a origem em C. Os mapas lineares geralmente podem ser representados como matrizes, e exemplos simples incluem transformações lineares de rotação e reflexão.

Na linguagem da teoria das categorias, os mapas lineares são os morfismos dos espaços vetoriais.


Prova 1.

Identificamos a matriz $ A $ com a transformação linear de $ K ^ n $ para si mesma, cuja representação da matriz é $ A $ com uma base fixa para $ K ^ n $.

Primeiro restringimos a transformação linear $ A: K ^ n a K ^ n $ à imagem de $ A $ e obtemos a transformação linear
[A | _ < im (A)>: im (A) to K ^ n. ] Observe que a imagem de $ A | _ < im (A)> $ é $ im (A ^ 2) $.
Assim, pelo teorema da nulidade, temos
[ rk (A ^ 2) + dim ( ker (A | _ < im (A)>) = rk (A). tag <1> ]

Da mesma forma, consideramos a transformação linear restrita $ A | _ < im (A ^ 2)>: im (A ^ 2) para K ^ n $.
A imagem de $ A | _ < im (A ^ 2)> $ é $ im (A ^ 3) $ e pelo teorema da nulidade temos
[ rk (A ^ 3) + dim ( ker (A | _ < im (A ^ 2)>) = rk (A ^ 2). tag <2> ]

Como $ im (A ^ 2) subset im (A) $, temos
[ ker (A | _ < im (A ^ 2)>) subset ker (A | _ < im (A)>), ] e assim
[ dim ( ker (A | _ < im (A ^ 2)>)) leq dim ( ker (A | _ < im (A)>)). tag <3> ] Combinando (1), (2) e (3), obtemos
[ rk (A ^ 2) - rk (A ^ 3) leq rk (A) - rk (A ^ 2), ] conforme necessário.


Normas

Com as normas, atribuímos um "tamanho" aos vetores e matrizes, satisfazendo certas propriedades relativas à escalabilidade e aditividade. Exceto para o elemento zero, a norma é estritamente positiva.

Os vetores suportam as seguintes normas:

  • L1Norm ou norma de Manhattan (p = 1): a soma dos valores absolutos.
  • L2Norm ou norma euclidiana (p = 2): a raiz quadrada da soma dos valores quadrados. Esta é a norma mais comum e assumida se nada mais for declarado.
  • InfinityNorm (p = infinito): o valor absoluto máximo.
  • Norma (p): norma generalizada, essencialmente a raiz p-ésima da soma da potência p absoluta dos valores.

Da mesma forma, as matrizes suportam as seguintes normas:

  • L1Norm (induzido): a soma máxima absoluta da coluna.
  • L2Norm (induzido): o maior valor singular da matriz (caro).
  • InfinityNorm (induzido): a soma absoluta máxima das linhas.
  • FrobeniusNorm (entrada): a raiz quadrada da soma dos valores quadrados.
  • RowNorms (p): a norma p generalizada para cada vetor linha.
  • ColumnNorms (p): a norma p generalizada para cada vetor de coluna.

Os vetores podem ser normalizados para a norma p da unidade com o método Normalize, as matrizes podem normalizar todas as linhas ou todas as colunas para a norma p da unidade com NormalizeRows e NormalizeColumns.

Intimamente relacionadas às normas estão as funções de soma. Os vetores têm uma função Sum que retorna a soma de todos os elementos do vetor e SumMagnitudes que retorna a soma dos elementos absolutos do vetor (e é idêntica à norma L1).

As matrizes fornecem funções RowSums e ColumnSums que retornam a soma de cada vetor de linha ou coluna, e RowAbsoluteSums e ColumnAbsoluteSums para as somas dos elementos absolutos.


Determinantes

UMA determinante de uma matriz representa um único número. Obtemos esse valor multiplicando e adicionando seus elementos de uma maneira especial. Podemos usar o determinante de uma matriz para resolver um sistema de equações simultâneas.

Por exemplo, se tivermos a matriz (quadrado) 2 e vezes 2:

então o determinante desta matriz é escrito dentro de linhas verticais da seguinte forma:

Veremos na próxima seção como avaliar esse determinante. (Tem valor -29).


Este é um dos mais de 2.400 cursos do OCW. Explore os materiais para este curso nas páginas com links à esquerda.

MIT OpenCourseWare é uma publicação gratuita e aberta de material de milhares de cursos do MIT, cobrindo todo o currículo do MIT.

Sem inscrição ou registro. Navegue livremente e use materiais OCW em seu próprio ritmo. Não há inscrição nem datas de início ou término.

O conhecimento é a sua recompensa. Use o OCW para orientar sua própria aprendizagem ao longo da vida ou para ensinar outras pessoas. Não oferecemos crédito ou certificação para usar OCW.

Feito para compartilhar. Baixe os arquivos para mais tarde. Envie para amigos e colegas. Modifique, remixe e reutilize (lembre-se de citar o OCW como a fonte).

Sobre o MIT OpenCourseWare

MIT OpenCourseWare é uma publicação online de materiais de mais de 2.500 cursos do MIT, compartilhando conhecimento gratuitamente com alunos e educadores em todo o mundo. Saiba mais & raquo

& copy 2001 & ndash2018
Instituto de Tecnologia de Massachusetts

O uso do site e dos materiais do MIT OpenCourseWare está sujeito à nossa Licença Creative Commons e outros termos de uso.


6.2.E: Problemas em Mapas Lineares e Matrizes - Matemática

Este curso explora a positividade da matriz e as operações que a preservam. Estes envolvem questões fundamentais que foram extensivamente estudadas ao longo do século passado e ainda estão sendo estudadas na literatura matemática, incluindo com motivação adicional de aplicações modernas para estimativa de covariância de alta dimensão. O curso reunirá técnicas de diferentes áreas: análise, álgebra linear, combinatória e funções simétricas.

Lista de tópicos (se o tempo permitir):

1. O cone de matrizes semidefinidas positivas. Matrizes totalmente positivas / não negativas. Exemplos de matrizes PSD e TP / TN (Gram, Hankel, Toeplitz, Vandermonde, $ mathbb

_G $). Identidades de matriz (Cauchy-Binet, Andreief). Quocientes de Rayleigh generalizados e raio espectral. Schur complementa.

2. Preservantes de positividade. Teorema do produto de Schur. Observação de Polya-Szego. Teorema de Schoenberg. Funções definidas positivas para matrizes de correlação. Teorema de Rudin (mais forte). Herz, Christensen-Ressel.

3. Problema de dimensão fixa. Introdução e motivações modernas. Teorema e simplificações de H.L. Vasudeva. Teorema e simplificações de Roger Horn.

4. Prova do teorema de Schoenberg. Caracterização de preservadores de positividade (total de Hankel) no cenário livre de dimensões

5. Preservadores analíticos / polinomiais - I. Quais coeficientes podem ser negativos? Domínios limitados e ilimitados: condições necessárias do tipo Horn.

6. Polinômios de Schur. Duas definições e propriedades. Especialização em campos e para poderes reais. Aproximação de primeira ordem.

7. Preservadores analíticos / polinomiais - II. Padrões de sinais: as condições necessárias do tipo buzina são as melhores possíveis.Limite quantitativo preciso. Princípio de extensão I: aumento de dimensão.

8. Mapas de entrada preservando positividade total. Princípio de extensão II: matrizes de Hankel TN. Variantes para todas as matrizes TP e para matrizes TP simétricas. Problemas de conclusão de matriz.

9. Poderes básicos preservando a positividade. Aplicação do princípio de extensão I. Contra-exemplos de baixa patente. Resultado de Tanvi Jain.

10. Caracterizações para funções que preservam $ mathbb

_G $. Princípio de extensão III: bordas pendentes. O caso das árvores. Gráficos de cordas e suas propriedades. Funções e poderes preservando $ mathbb

_G $ para $ G $ chordal. Gráficos não cordais.


Matrix (matemática)

Em matemática, uma matriz (matrizes plurais ou, menos comumente, matrizes) é uma matriz retangular de números, símbolos ou expressões. Os itens individuais em uma matriz são chamados de seus elementos ou entradas. Um exemplo de uma matriz com seis elementos é

Matrizes do mesmo tamanho podem ser adicionadas ou subtraídas elemento por elemento. A regra para multiplicação de matrizes é mais complicada e duas matrizes podem ser multiplicadas apenas quando o número de colunas na primeira é igual ao número de linhas na segunda. Uma das principais aplicações das matrizes é representar transformações lineares, ou seja, generalizações de funções lineares como f (x) = 4x. Por exemplo, a rotação de vetores no espaço tridimensional é uma transformação linear. Se R é uma matriz de rotação ev é um vetor coluna (uma matriz com apenas uma coluna) que descreve a posição de um ponto no espaço, o produto Rv é um vetor coluna que descreve a posição desse ponto após uma rotação. O produto de duas matrizes é uma matriz que representa a composição de duas transformações lineares. Outra aplicação de matrizes é na solução de um sistema de equações lineares. Se a matriz for quadrada, é possível deduzir algumas de suas propriedades calculando seu determinante. Por exemplo, uma matriz quadrada tem uma inversa se e somente se seu determinante não for zero. Autovalores e autovetores fornecem uma visão sobre a geometria das transformações lineares.

As matrizes encontram aplicações na maioria dos campos científicos. Na física, as matrizes são usadas para estudar circuitos elétricos, óptica e mecânica quântica. Na computação gráfica, as matrizes são usadas para projetar uma imagem tridimensional em uma tela bidimensional e para criar um movimento que parece realista. O cálculo matricial generaliza noções analíticas clássicas, como derivadas e exponenciais, para dimensões superiores.

Um grande ramo da análise numérica é dedicado ao desenvolvimento de algoritmos eficientes para cálculos matriciais, um assunto que tem séculos de existência e é hoje uma área de pesquisa em expansão. Os métodos de decomposição de matrizes simplificam os cálculos, tanto teórica quanto praticamente. Algoritmos adaptados à estrutura de estruturas matriciais particulares, por ex. matrizes esparsas e matrizes quase diagonais, agilizam cálculos no método de elementos finitos e outros cálculos. Matrizes infinitas ocorrem na teoria planetária e na teoria atômica. Um exemplo simples é a matriz que representa o operador derivado, que atua sobre a série de Taylor de uma função.

Uma matriz é um arranjo retangular de expressões matemáticas que podem ser simplesmente números. [1] Por exemplo,

Uma notação alternativa usa parênteses grandes em vez de colchetes.

As linhas horizontais e verticais em uma matriz são chamadas de linhas e colunas, respectivamente. Os números na matriz são chamados de suas entradas ou seus elementos. Para especificar o tamanho de uma matriz, uma matriz com m linhas en colunas é chamada de matriz m por n ou matriz m × n, enquanto m e n são chamadas de suas dimensões. O acima é uma matriz 4 por 3.

Uma matriz com uma linha (uma matriz 1 × n) é chamada de vetor linha, e uma matriz com uma coluna (uma matriz m × 1) é chamada de vetor coluna. Qualquer linha ou coluna de uma matriz determina um vetor linha ou coluna, obtido removendo todas as outras linhas ou colunas, respectivamente, da matriz. Por exemplo, o vetor linha para a terceira linha da matriz A acima é

Quando uma linha ou coluna de uma matriz é interpretada como um valor, isso se refere ao vetor de linha ou coluna correspondente. Por exemplo, pode-se dizer que duas linhas diferentes de uma matriz são iguais, o que significa que determinam o mesmo vetor linha. Em alguns casos, o valor de uma linha ou coluna deve ser interpretado apenas como uma sequência de valores (um elemento de Rn se as entradas forem números reais) em vez de uma matriz, por exemplo, ao dizer que as linhas de uma matriz são iguais ao colunas correspondentes de sua matriz transposta.

A maior parte deste artigo enfoca matrizes reais e complexas, ou seja, matrizes cujos elementos são reais ou complexos, respectivamente. Tipos mais gerais de entradas são discutidos abaixo.
Notação

As especificações da notação de matrizes variam amplamente, com algumas tendências predominantes. As matrizes são geralmente denotadas com letras maiúsculas, enquanto as letras minúsculas correspondentes, com dois índices subscritos, representam as entradas. Além de usar letras maiúsculas para simbolizar matrizes, muitos autores usam um estilo tipográfico especial, comumente em negrito vertical (não itálico), para distinguir ainda mais as matrizes de outros objetos matemáticos. Uma notação alternativa envolve o uso de um sublinhado duplo com o nome da variável, com ou sem negrito, (por exemplo, underline < underline>).

A entrada no eu-ésima linha e o j-ésima coluna de uma matriz é normalmente referida como o eu,j, (eu,j), ou (eu,j) ª entrada da matriz. Por exemplo, a entrada (2,3) da matriz acima UMA é 7. O (eu, j) ª entrada de uma matriz UMA é mais comumente escrito como umaeu,j. Notações alternativas para essa entrada são UMA[eu j] ou UMAeu j.

Às vezes, uma matriz é referida fornecendo uma fórmula para seu (eu,j) ª entrada, geralmente com parênteses duplos em torno da fórmula da entrada, por exemplo, se o (eu,j) ª entrada de UMA foram dados por umaeu j, UMA seria denotado ((umaeu j)).

Um asterisco é comumente usado para se referir a linhas ou colunas inteiras em uma matriz. Por exemplo, ai, ∗ refere-se à i-ésima linha de A, e a ∗, j refere-se à j-ésima coluna de A. O conjunto de todas as matrizes m-por-n é denotado ( mathbb(m, n) ).

UMA = [umaeu,j]eu = 1. m j = 1. n ou mais brevemente UMA = [umaeu,j]m×n

para definir uma matriz A. m × n. Normalmente, as entradas ai, j são definidas separadamente para todos os inteiros 1 ≤ i ≤ m e 1 ≤ j ≤ n. Eles podem, no entanto, às vezes ser dados por uma fórmula, por exemplo, a matriz 3 por 4

pode ser especificado alternativamente por A = [i - j] i = 1,2,3 j = 1,4, ou simplesmente A = ((i-j)), onde o tamanho da matriz é compreendido.

Algumas linguagens de programação iniciam a numeração de linhas e colunas em zero, caso em que as entradas de uma matriz m por n são indexadas por 0 ≤ i ≤ m - 1 e 0 ≤ j ≤ n - 1. [2] Este artigo segue a convenção mais comum na escrita matemática, em que a enumeração começa em 1.
Operações básicas
Artigos principais: adição de matriz, multiplicação escalar, transposição e operações de linha

Existem várias operações que podem ser aplicadas para modificar matrizes, chamadas adição de matrizes, multiplicação escalar e transposição. [3] Estas constituem as técnicas básicas para lidar com matrizes.

Propriedades familiares de números se estendem a essas operações de matrizes: por exemplo, a adição é comutativa, ou seja, a soma da matriz não depende da ordem das somas: UMA + B = B + UMA. [4] A transposta é compatível com adição e multiplicação escalar, conforme expresso por (cUMA) T = c(UMA T ) e (UMA + B) T = UMA T + B T . Finalmente, (UMA T ) T = UMA.

As operações de linha são maneiras de alterar matrizes. Existem três tipos de operações de linha: troca de linha, que é a troca de duas linhas de uma multiplicação de linha de matriz, multiplicando todas as entradas de uma linha por uma constante diferente de zero e, finalmente, adição de linha, o que significa adicionar um múltiplo de uma linha a outra linha . Essas operações de linha são usadas de várias maneiras, incluindo resolver equações lineares e encontrar inversos.


Multiplicação de matrizes, equações lineares e transformações lineares
Artigo principal: multiplicação de matrizes
Representação esquemática do produto de matriz AB de duas matrizes A e B.

A multiplicação de duas matrizes é definida apenas se o número de colunas da matriz esquerda for igual ao número de linhas da matriz direita. Se A é uma matriz m-por-n e B é uma matriz n-por-p, então seu produto de matriz AB é a matriz m-por-p cujas entradas são dadas pelo produto escalar da linha correspondente de A e o correspondente coluna de B:

onde 1 ≤ i ≤ m e 1 ≤ j ≤ p. [5] Por exemplo, a entrada sublinhada 2340 no produto é calculada como (2 × 1000) + (3 × 100) + (4 × 10) = 2340:

( começar começar underline <2> & amp underline 3 & amp underline 4 1 & amp 0 & amp 0 end começar 0 & amp underline 1000 1 & amp underline 100 0 & amp underline 10 end & amp = begin 3 & amp underline 2340 0 & amp 1000 end. fim )

A multiplicação da matriz satisfaz as regras (AB) C = A (BC) (associatividade), e (A + B) C = AC + BC, bem como C (A + B) = CA + CB (distributividade esquerda e direita), sempre que o tamanho das matrizes é tal que os vários produtos são definidos. [6] O produto AB pode ser definido sem que BA seja definido, a saber se A e B são matrizes m-por-n e n-por-k, respectivamente, e m ≠ k. Mesmo se ambos os produtos forem definidos, eles não precisam ser iguais, ou seja, geralmente um tem

ou seja, a multiplicação da matriz não é comutativa, em contraste marcante com os números (racionais, reais ou complexos) cujo produto é independente da ordem dos fatores. Um exemplo de duas matrizes que não se deslocam entre si é:

A matriz de identidade In de tamanho n é a matriz n por n em que todos os elementos na diagonal principal são iguais a 1 e todos os outros elementos são iguais a 0, por ex.

É chamada de matriz de identidade porque a multiplicação com ela deixa uma matriz inalterada: MIn = eumM = M para qualquer m-de-n matriz M.

Além da multiplicação de matrizes comum que acabamos de descrever, existem outras operações menos frequentemente usadas em matrizes que podem ser consideradas formas de multiplicação, como o produto de Hadamard e o produto de Kronecker. [7] Eles surgem na solução de equações matriciais, como a equação de Sylvester.
Equações lineares
Artigos principais: Equação linear e sistema de equações lineares

Um caso particular de multiplicação de matrizes está intimamente ligado a equações lineares: E se x designa um vetor de coluna (ou seja, n× 1-matriz) de n variáveis x1, x2, . xn, e UMA é um m-de-n matriz, então a equação da matriz

Onde b é algum m× vetor de 1 coluna, é equivalente ao sistema de equações lineares

UMA1,1x1 + UMA1,2x2 + . + UMA1,nxn = b1 . UMAm,1x1 + UMAm,2x2 + . + UMAm,nxn = bm . [8]

Dessa forma, as matrizes podem ser usadas para escrever e lidar de forma compacta com várias equações lineares, ou seja, sistemas de equações lineares.

Dessa forma, as matrizes podem ser usadas para escrever e lidar de forma compacta com várias equações lineares, ou seja, sistemas de equações lineares.
Transformações lineares
Artigos principais: Transformação linear e matriz de transformação
Os vetores representados por uma matriz 2 por 2 correspondem aos lados de um quadrado unitário transformado em um paralelogramo.

Matrizes e multiplicação de matrizes revelam suas características essenciais quando relacionadas às transformações lineares, também conhecidas como mapas lineares. Uma matriz A real m-por-n dá origem a uma transformação linear Rn → Rm mapeando cada vetor x em Rn para o produto (matriz) Ax, que é um vetor em Rm. Por outro lado, cada transformação linear f: Rn → Rm surge de uma única matriz A m-por-n: explicitamente, a (i, j) -entrada de A é a i-ésima coordenada de f (ej), onde ej = (0. 0,1,0. 0) é o vetor unitário com 1 na posição j e 0 em outro lugar. Diz-se que a matriz A representa o mapa linear f, e A é chamada de matriz de transformação de f.

Por exemplo, a matriz 2 × 2

pode ser visto como a transformação do quadrado da unidade em um paralelogramo com vértices em (0, 0), (a, b), (a + c, b + d) e (c, d). O paralelogramo ilustrado à direita é obtido multiplicando A por cada um dos vetores da coluna ( begin 0 0 fim, começar 1 0 fim , começar 1 1 fim ) e ( begin0 1 fim ) por sua vez. Esses vetores definem os vértices do quadrado da unidade.

A tabela a seguir mostra uma série de matrizes 2 por 2 com os mapas lineares associados de R 2 O original azul é mapeado para a grade e as formas verdes. A origem (0,0) é marcada com um ponto preto.

Cisalhamento horizontal com m = 1,25. Virada horizontal Mapeamento de compressão com r = 3/2 Escala por um fator de 3/2 Rotação por π / 6 R = 30 °
( começar 1 & amp 1.25 0 & amp 1 end ) ( começar -1 & amp 0 0 & amp 1 end) ( começar 3/2 e amp 0 0 e amp 2/3 end) ( começar 3/2 e amp 0 0 e amp 3/2 end) ( começar cos ( pi / 6 ^) & amp - sin ( pi / 6 ^) sin ( pi / 6 ^) & amp cos ( pi / 6 ^)fim)

Sob a correspondência 1 para 1 entre matrizes e mapas lineares, a multiplicação de matrizes corresponde à composição de mapas: [9] se uma matriz k-por-m B representa outro mapa linear g: Rm → Rk, então a composição g g f é representado por BA desde

(g ∘ f) (x) = g (f (x)) = g (Ax) = B (Ax) = (BA) x.

A última igualdade decorre da associatividade da multiplicação de matrizes mencionada acima.

A classificação de uma matriz A é o número máximo de vetores linha linearmente independentes da matriz, que é o mesmo que o número máximo de vetores coluna linearmente independentes. [10] Equivalentemente, é a dimensão da imagem do mapa linear representado por A. [11] O teorema da nulidade da classificação afirma que a dimensão do núcleo de uma matriz mais a classificação é igual ao número de colunas da matriz. [12]
Matrizes quadradas

Uma matriz quadrada é uma matriz com o mesmo número de linhas e colunas. Uma matriz n por n é conhecida como matriz quadrada de ordem n. Quaisquer duas matrizes quadradas da mesma ordem podem ser adicionadas e multiplicadas. Uma matriz quadrada A é chamada invertível ou não singular se existe uma matriz B tal que

Isso é equivalente a BA = In. [14] Além disso, se B existe, ele é único e é chamado de matriz inversa de A, denotada A − 1.

As entradas Ai, i formam a diagonal principal de uma matriz. O traço, tr (A) de uma matriz quadrada A é a soma de suas entradas diagonais. Embora, como mencionado acima, a multiplicação de matrizes não seja comutativa, o traço do produto de duas matrizes é independente da ordem dos fatores: tr (AB) = tr (BA). [15]

Além disso, o traço de uma matriz é igual ao de sua transposta, ou seja, tr (A) = tr (AT).

Se todas as entradas fora da diagonal principal forem zero, A é chamado de matriz diagonal. Se apenas todas as entradas acima (abaixo) da diagonal principal forem zero, A é chamada de matriz triangular inferior (matriz triangular superior, respectivamente). Por exemplo, se n = 3, eles se parecem com

Determinante
Artigo principal: Determinante
Uma transformação linear em R2 dada pela matriz indicada. O determinante dessa matriz é −1, pois a área do paralelogramo verde à direita é 1, mas o mapa inverte a orientação, pois gira a orientação anti-horária dos vetores para a direita.

O determinante det (A) ou | A | de uma matriz quadrada A é um número que codifica certas propriedades da matriz. Uma matriz é invertível se e somente se seu determinante for diferente de zero. Seu valor absoluto é igual à área (em R2) ou volume (em R3) da imagem do quadrado unitário (ou cubo), enquanto seu sinal corresponde à orientação do mapa linear correspondente: o determinante é positivo se e somente se o a orientação é preservada.

O determinante das matrizes 2 por 2 é dado por

Quando o determinante é igual a um, a matriz representa um mapeamento equiareal. O determinante de matrizes 3 por 3 envolve 6 termos (regra de Sarrus). A fórmula de Leibniz mais longa generaliza essas duas fórmulas para todas as dimensões. [16]

O determinante de um produto de matrizes quadradas é igual ao produto de seus determinantes: det (AB) = det (A) · det (B). [17] Adicionar um múltiplo de qualquer linha a outra linha ou um múltiplo de qualquer coluna a outra coluna não altera o determinante. A troca de duas linhas ou duas colunas afeta o determinante, multiplicando-o por -1. [18] Usando essas operações, qualquer matriz pode ser transformada em uma matriz triangular inferior (ou superior) e, para tais matrizes, o determinante é igual ao produto das entradas na diagonal principal, o que fornece um método para calcular o determinante de qualquer matriz. Finalmente, a expansão de Laplace expressa o determinante em termos de menores, ou seja, determinantes de matrizes menores. [19] Esta expansão pode ser usada para uma definição recursiva de determinantes (tomando como caso inicial o determinante de uma matriz 1 por 1, que é sua entrada única, ou mesmo o determinante de uma matriz 0 por 0, que é 1) , que pode ser visto como equivalente à fórmula de Leibniz. Os determinantes podem ser usados ​​para resolver sistemas lineares usando a regra de Cramer, onde a divisão dos determinantes de duas matrizes quadradas relacionadas é igual ao valor de cada uma das variáveis ​​do sistema. [20]
Autovalores e autovetores
Artigo principal: Valores próprios e vetores próprios

Um número λ e um vetor diferente de zero v satisfazendo

são chamados de autovalor e autovetor de A, respectivamente. [nb 1] [21] O número λ é um autovalor de uma matriz n × n A se e somente se A − λIn não for invertível, o que é equivalente a

O polinômio pA em um X indeterminado dado pela avaliação do determinante det (XIn − A) é chamado de polinômio característico de A. É um polinômio mônico de grau n. Portanto, a equação polinomial pA (λ) = 0 tem no máximo n soluções diferentes, ou seja, os valores próprios da matriz. [23] Eles podem ser complexos, mesmo se as entradas de A forem reais. De acordo com o teorema de Cayley-Hamilton, pA (A) = 0, ou seja, o resultado da substituição da própria matriz em seu próprio polinômio característico produz a matriz zero.
Simetria

Uma matriz quadrada A que é igual à sua transposta, ou seja, A = AT, é uma matriz simétrica. Se, em vez disso, A for igual ao negativo de sua transposta, ou seja, A = −AT, então A é uma matriz assimétrica. Em matrizes complexas, a simetria é frequentemente substituída pelo conceito de matrizes Hermitianas, que satisfazem A ∗ = A, onde a estrela ou asterisco denota a transposta conjugada da matriz, ou seja, a transposta do conjugado complexo de A.

Pelo teorema espectral, matrizes simétricas reais e matrizes Hermitianas complexas têm uma base própria, ou seja, todo vetor é expressável como uma combinação linear de vetores próprios. Em ambos os casos, todos os valores próprios são reais. [24] Este teorema pode ser generalizado para situações de dimensão infinita relacionadas a matrizes com infinitas linhas e colunas, veja abaixo.
Definição
Matriz A definição quadrática associada à forma QA (x, y)
conjunto de vetores (x, y) de modo que QA (x, y) = 1
( começar 1/4 e amp 0 0 e amp 1/4 end começar 1/4 e amp 0 0 e amp -1/4 end )
positivo definido indefinido
1/4 x2 + 1 / 4y2 1/4 x2 - 1/4 y2
Elipse no sistema de coordenadas com semi-eixos labelled.svg
Ellipse Hyperbola2.png
Hipérbole

Uma matriz simétrica n × n é chamada de definida positiva (respectivamente indefinida negativa), se para todos os vetores diferentes de zero x ∈ Rn a forma quadrática associada dada por

aceita apenas valores positivos (respectivamente apenas valores negativos, alguns valores negativos e alguns valores positivos). [25] Se a forma quadrática assumir apenas valores não negativos (respectivamente apenas não positivos), a matriz simétrica é chamada semidefinida positiva (respectivamente semidefinida negativa), portanto, a matriz é indefinida precisamente quando não é semidefinida positiva nem semidefinida negativa.

Uma matriz simétrica é definida positivamente se e somente se todos os seus autovalores forem positivos. [26] A tabela à direita mostra duas possibilidades para matrizes 2 por 2.

Permitir como entrada dois vetores diferentes, em vez disso, resulta na forma bilinear associada a A:

Além do conhecimento teórico das propriedades das matrizes e sua relação com outros campos, é importante para fins práticos realizar cálculos de matrizes com eficácia e precisão. O domínio que estuda esses assuntos é chamado de álgebra linear numérica. [28] Como em outras situações numéricas, dois aspectos principais são a complexidade dos algoritmos e sua estabilidade numérica. Muitos problemas podem ser resolvidos por algoritmos diretos ou abordagens iterativas. Por exemplo, encontrar autovetores pode ser feito encontrando uma sequência de vetores xn convergindo para um autovetor quando n tende ao infinito. [29]

Determinar a complexidade de um algoritmo significa encontrar limites superiores ou estimativas de quantas operações elementares, como adições e multiplicações de escalares, são necessárias para realizar algum algoritmo, por exemplo, multiplicação de matrizes. Por exemplo, calcular o produto da matriz de duas matrizes n por n usando a definição dada acima precisa de n3 multiplicações, uma vez que para qualquer uma das n2 entradas do produto, n multiplicações são necessárias. O algoritmo Strassen supera este algoritmo & quotnaive & quot, ele precisa apenas de n2.807 multiplicações. [30] Uma abordagem refinada também incorpora recursos específicos dos dispositivos de computação.

Em muitas situações práticas, informações adicionais sobre as matrizes envolvidas são conhecidas. Um caso importante são as matrizes esparsas, ou seja, as matrizes cujas entradas são zero. Existem algoritmos especificamente adaptados para, digamos, resolver sistemas lineares Ax = b para matrizes esparsas A, como o método do gradiente conjugado. [31]

Um algoritmo é, grosso modo, numericamente estável, se pequenos desvios (como erros de arredondamento) não levarem a grandes desvios no resultado. Por exemplo, calcular o inverso de uma matriz através da fórmula de Laplace (Adj (A) denota a matriz adjugada de A)

pode levar a erros de arredondamento significativos se o determinante da matriz for muito pequeno. A norma de uma matriz pode ser usada para capturar o condicionamento de problemas algébricos lineares, como calcular o inverso de uma matriz. [32]

Embora a maioria das linguagens de computador não seja projetada com comandos ou bibliotecas para matrizes, já na década de 1970, alguns computadores desktop de engenharia, como o HP 9830, tinham cartuchos ROM para adicionar comandos BASIC para matrizes. Algumas linguagens de computador, como APL, foram projetadas para manipular matrizes, e vários programas matemáticos podem ser usados ​​para auxiliar na computação com matrizes. [33]
Métodos de decomposição de matriz
Artigos principais: decomposição de matrizes, diagonalização de matrizes, eliminação de Gauss e método de Montante

Existem vários métodos para renderizar matrizes em uma forma mais facilmente acessível. Eles são geralmente referidos como técnicas de transformação de matriz ou decomposição de matriz. O interesse de todas essas técnicas de decomposição é que preservam certas propriedades das matrizes em questão, como determinante, posto ou inverso, de forma que essas quantidades possam ser calculadas após a aplicação da transformação, ou que certas operações de matriz sejam algoritmicamente mais fáceis de realizar para alguns tipos de matrizes.

As matrizes de fatores de decomposição LU como um produto de matrizes triangulares inferior (L) e superior (U). [34] Uma vez calculada essa decomposição, os sistemas lineares podem ser resolvidos de forma mais eficiente, por uma técnica simples chamada substituição direta e posterior. Da mesma forma, inversos de matrizes triangulares são algoritmicamente mais fáceis de calcular. A eliminação gaussiana é um algoritmo semelhante que transforma qualquer matriz em forma escalonada de linha. [35] Ambos os métodos procedem multiplicando a matriz por matrizes elementares adequadas, que correspondem a permutar linhas ou colunas e adicionar múltiplos de uma linha a outra linha. A decomposição de valores singulares expressa qualquer matriz A como um produto UDV ∗, onde U e V são matrizes unitárias e D é uma matriz diagonal.
Uma matriz na forma normal de Jordan. Os blocos cinza são chamados de blocos Jordan.

A decomposição automática ou diagonalização expressa A como um produto VDV − 1, onde D é uma matriz diagonal e V é uma matriz invertível adequada. [36] Se A puder ser escrito dessa forma, é denominado diagonalizável. Mais geralmente, e aplicável a todas as matrizes, a decomposição de Jordan transforma uma matriz na forma normal de Jordan, ou seja, matrizes cujas únicas entradas diferentes de zero são os valores próprios λ1 a λn de A, colocados na diagonal principal e, possivelmente, entradas iguais a um diretamente acima da diagonal principal, conforme mostrado à direita. [37] Dada a decomposição automática, a enésima potência de A (ou seja, multiplicação de matriz iterada n vezes) pode ser calculada via

An = (VDV − 1) n = VDV − 1VDV − 1. VDV − 1 = VDnV − 1

e a potência de uma matriz diagonal pode ser calculada tomando as potências correspondentes das entradas diagonais, o que é muito mais fácil do que fazer a exponenciação para A. Isso pode ser usado para calcular a matriz exponencial eA, uma necessidade que freqüentemente surge na resolução de equações diferenciais lineares, logaritmos de matrizes e raízes quadradas de matrizes. [38] Para evitar situações numericamente mal condicionadas, algoritmos adicionais, como a decomposição de Schur, podem ser empregados. [39]
Aspectos algébricos abstratos e generalizações

As matrizes podem ser generalizadas de maneiras diferentes. A álgebra abstrata usa matrizes com entradas em campos mais gerais ou mesmo anéis, enquanto a álgebra linear codifica propriedades de matrizes na noção de mapas lineares. É possível considerar matrizes com infinitas colunas e linhas. Outra extensão são os tensores, que podem ser vistos como matrizes de números de dimensões mais altas, em oposição a vetores, que muitas vezes podem ser realizados como sequências de números, enquanto as matrizes são matrizes retangulares ou bidimensionais de números. [40] As matrizes, sujeitas a certos requisitos, tendem a formar grupos conhecidos como grupos de matrizes.
Matrizes com entradas mais gerais

Este artigo se concentra em matrizes cujas entradas são números reais ou complexos. No entanto, as matrizes podem ser consideradas com tipos de entradas muito mais gerais do que números reais ou complexos. Como uma primeira etapa de generalização, qualquer campo, ou seja, um conjunto onde as operações de adição, subtração, multiplicação e divisão são definidas e bem comportadas, pode ser usado em vez de R ou C, por exemplo, números racionais ou campos finitos. Por exemplo, a teoria da codificação faz uso de matrizes sobre campos finitos. Sempre que os valores próprios são considerados, como são raízes de um polinômio, eles podem existir apenas em um campo maior do que o dos coeficientes da matriz, por exemplo, eles podem ser complexos no caso de uma matriz com entradas reais. A possibilidade de reinterpretar as entradas de uma matriz como elementos de um campo maior (por exemplo, para ver uma matriz real como uma matriz complexa cujas entradas são todas reais), então, permite considerar que cada matriz quadrada possui um conjunto completo de autovalores. Alternativamente, pode-se considerar apenas matrizes com entradas em um campo algébricamente fechado, como C, desde o início.

De forma mais geral, a álgebra abstrata faz grande uso de matrizes com entradas em um anel R. [41] Os anéis são uma noção mais geral do que os campos, pois não existe nenhuma operação de divisão. As mesmas operações de adição e multiplicação de matrizes também se estendem a essa configuração. O conjunto M (n, R) de todas as matrizes quadradas n-por-n sobre R é um anel denominado anel de matriz, isomórfico ao anel de endomorfismo do módulo R esquerdo Rn. [42] Se o anel R é comutativo, ou seja, sua multiplicação é comutativa, então M (n, R) é uma álgebra associativa unitária não comutativa (a menos que n = 1) sobre R. O determinante de matrizes quadradas sobre um anel comutativo R ainda pode ser definido usando a fórmula de Leibniz, tal matriz é invertível se e somente se seu determinante for invertível em R, generalizando a situação sobre um campo F, onde todo elemento diferente de zero é invertível. [43] Matrizes sobre superanéis são chamadas de supermatrizes. [44]

As matrizes nem sempre têm todas as suas entradas no mesmo anel - ou mesmo em qualquer anel. Um caso especial, mas comum, são as matrizes de bloco, que podem ser consideradas como matrizes cujas próprias entradas são matrizes. As entradas não precisam ser matrizes quadráticas e, portanto, não precisam ser membros de nenhum anel comum, mas seus tamanhos devem atender a certas condições de compatibilidade.
Relação com mapas lineares

Mapas lineares Rn → Rm são equivalentes a matrizes m-por-n, conforme descrito acima. Mais geralmente, qualquer mapa linear f: V → W entre espaços vetoriais de dimensão finita pode ser descrito por uma matriz A = (aij), após escolher as bases v1,. vn de V e w1,. wm de W (então n é a dimensão de V e m é a dimensão de W), que é tal que

(f ( mathbf_j) = sum_^ m a_ mathbf_i qquad mboxj = 1, ldots, n. )

Em outras palavras, a coluna j de A expressa a imagem de vj em termos dos vetores de base wi de W, portanto, essa relação determina unicamente as entradas da matriz A. Observe que a matriz depende da escolha das bases: diferentes escolhas de bases dar origem a matrizes diferentes, mas equivalentes. [45] Muitas das noções concretas acima podem ser reinterpretadas sob essa luz, por exemplo, a matriz transposta AT descreve a transposta do mapa linear dado por A, com relação às bases duais. [46]

Mais geralmente, o conjunto de matrizes m × n pode ser usado para representar os mapas R-lineares entre os módulos livres Rm e Rn para um anel arbitrário R com unidade. Quando n = m a composição desses mapas é possível, e isso dá origem ao anel de matriz de n × n matrizes que representam o anel de endomorfismo de Rn.
Grupos matriciais
Artigo principal: grupo Matrix

Um grupo é uma estrutura matemática que consiste em um conjunto de objetos em conjunto com uma operação binária, ou seja, uma operação que combina quaisquer dois objetos em um terceiro, sujeito a certos requisitos. [47] Um grupo em que os objetos são matrizes e a operação de grupo é a multiplicação de matrizes é chamado de grupo de matrizes. [Nb 2] [48] Como em um grupo todo elemento deve ser invertível, os grupos de matrizes mais gerais são os grupos de todos os invertíveis. matrizes de um determinado tamanho, chamadas de grupos lineares gerais.

Qualquer propriedade de matrizes que é preservada em produtos de matriz e inversos pode ser usada para definir grupos de matrizes adicionais. Por exemplo, matrizes com um determinado tamanho e com um determinante de 1 formam um subgrupo de (ou seja, um grupo menor contido em) seu grupo linear geral, chamado de grupo linear especial. [49] Matrizes ortogonais, determinadas pela condição

formar o grupo ortogonal. [50] Eles são chamados de ortogonais, uma vez que as transformações lineares associadas de Rn preservam ângulos no sentido de que o produto escalar de dois vetores permanece inalterado após a aplicação de M a eles:

Todo grupo finito é isomórfico a um grupo matricial, como se pode ver considerando a representação regular do grupo simétrico. [52] Grupos gerais podem ser estudados usando grupos de matriz, que são comparativamente bem compreendidos, por meio da teoria da representação. [53]
Matrizes infinitas

Também é possível considerar matrizes com infinitas linhas e / ou colunas [54] mesmo que, sendo objetos infinitos, não se possa escrever tais matrizes explicitamente. Tudo o que importa é que para cada elemento nas linhas de indexação do conjunto e para cada elemento nas colunas de indexação do conjunto, haja uma entrada bem definida (esses conjuntos de índices não precisam nem mesmo ser subconjuntos dos números naturais). As operações básicas de adição, subtração, multiplicação escalar e transposição ainda podem ser definidas sem problemas, entretanto a multiplicação de matrizes pode envolver somas infinitas para definir as entradas resultantes, e estas não são definidas em geral.

Se R for qualquer anel com unidade, então o anel dos endomorfismos de M = bigoplus_R como um módulo R direito é isomórfico ao anel de matrizes finitas da coluna mathbb_I (R) cujas entradas são indexadas por I vezes I, e cujas colunas cada uma contém apenas um número finito de entradas diferentes de zero. Os endomorfismos de M considerados como um módulo R esquerdo resultam em um objeto análogo, as matrizes de linha finita mathbb_I (R) cujas linhas possuem apenas um número finito de entradas diferentes de zero.

Se matrizes infinitas são usadas para descrever mapas lineares, então apenas aquelas matrizes podem ser usadas, todas cujas colunas têm apenas um número finito de entradas diferentes de zero, pelo seguinte motivo. Para uma matriz A descrever um mapa linear f: V → W, as bases para ambos os espaços devem ter sido escolhidas, lembre-se de que, por definição, isso significa que cada vetor no espaço pode ser escrito exclusivamente como uma combinação linear (finita) de vetores de base, de modo que escrito como um vetor (coluna) v de coeficientes, apenas um número finito de entradas vi são diferentes de zero. Agora, as colunas de A descrevem as imagens por f de vetores de base individuais de V na base de W, o que só é significativo se essas colunas tiverem apenas um número finito de entradas diferentes de zero. Não há nenhuma restrição nas linhas de A, no entanto: no produto A · v existem apenas finitamente muitos coeficientes diferentes de zero de v envolvidos, então cada uma de suas entradas, mesmo que seja dada como uma soma infinita de produtos, envolve apenas finitamente muitos termos diferentes de zero e, portanto, bem definida. Além disso, isso equivale à formação de uma combinação linear das colunas de A que efetivamente envolve apenas finitamente muitas delas, de onde o resultado tem apenas entradas finitas diferentes de zero, porque cada uma dessas colunas tem. Vê-se também que os produtos de duas matrizes do tipo dado são bem definidos (desde que, como de costume, os conjuntos de índice de coluna e índice de linha coincidam), é novamente do mesmo tipo e corresponde à composição de mapas lineares.

Se R for um anel normalizado, então a condição de finitude de linha ou coluna pode ser relaxada. Com a norma em vigor, séries absolutamente convergentes podem ser usadas em vez de somas finitas. Por exemplo, as matrizes cujas somas das colunas são sequências absolutamente convergentes formam um anel. De forma análoga, é claro, as matrizes cujas somas de linhas são séries absolutamente convergentes também formam um anel.

Nesse sentido, matrizes infinitas também podem ser usadas para descrever operadores em espaços de Hilbert, onde surgem questões de convergência e continuidade, que novamente resultam em certas restrições que devem ser impostas. No entanto, o ponto de vista explícito das matrizes tende a ofuscar o assunto, [nota 3] e as ferramentas abstratas e mais poderosas de análise funcional podem ser usadas em seu lugar.
Matrizes vazias

Uma matriz vazia é uma matriz em que o número de linhas ou colunas (ou ambos) é zero. [55] [56] Matrizes vazias ajudam a lidar com mapas envolvendo o espaço vetorial zero. Por exemplo, se A é uma matriz 3 por 0 e B é uma matriz 0 por 3, então AB é a matriz zero 3 por 3 correspondente ao mapa nulo de um espaço tridimensional V para si mesmo, enquanto BA é uma matriz 0 por 0. Não existe uma notação comum para matrizes vazias, mas a maioria dos sistemas de álgebra de computador permite a criação e computação com elas. O determinante da matriz 0 por 0 é 1, conforme segue a respeito do produto vazio que ocorre na fórmula de Leibniz para o determinante como 1. Este valor também é consistente com o fato de que o mapa de identidade de qualquer espaço dimensional finito para si mesmo tem determinante 1, fato frequentemente utilizado como parte da caracterização dos determinantes.
Formulários

Existem inúmeras aplicações de matrizes, tanto em matemática como em outras ciências. Alguns deles apenas aproveitam a representação compacta de um conjunto de números em uma matriz. Por exemplo, em teoria e economia dos jogos, a matriz de payoff codifica o payoff para dois jogadores, dependendo de qual dentre um determinado conjunto (finito) de alternativas os jogadores escolhem. [57] A mineração de texto e a compilação automatizada do dicionário de sinônimos usam matrizes de termos de documentos, como tf-idf, para rastrear as frequências de certas palavras em vários documentos. [58]

Números complexos podem ser representados por matrizes 2 por 2 reais particulares por meio de

(a + ib leftrightarrow begin a & amp -b b & amp a end, )

sob o qual a adição e multiplicação de números complexos e matrizes correspondem entre si. Por exemplo, matrizes de rotação 2 por 2 representam a multiplicação com algum número complexo de valor absoluto 1, como acima. Uma interpretação semelhante é possível para quatérnios. [59]

As primeiras técnicas de criptografia, como a cifra de Hill, também usavam matrizes. No entanto, devido à natureza linear das matrizes, esses códigos são comparativamente fáceis de quebrar. [60] A computação gráfica usa matrizes tanto para representar objetos quanto para calcular transformações de objetos usando matrizes de rotação afins para realizar tarefas como projetar um objeto tridimensional em uma tela bidimensional, correspondendo a uma observação teórica de câmera. [61] Matrizes sobre um anel polinomial são importantes no estudo da teoria de controle.

A química faz uso de matrizes de várias maneiras, particularmente desde o uso da teoria quântica para discutir ligações moleculares e espectroscopia. Exemplos são a matriz de sobreposição e a matriz de Fock usadas na resolução das equações de Roothaan para obter os orbitais moleculares do método Hartree-Fock.
Teoria dos grafos
Um grafo não dirigido com matriz de adjacência ( begin 2 & amp 1 & amp 0 1 & amp 0 & amp 1 0 & amp 1 & amp 0 end. )

A matriz de adjacência de um grafo finito é uma noção básica da teoria dos grafos. [62] Ele salva quais vértices do gráfico estão conectados por uma aresta. As matrizes contendo apenas dois valores diferentes (0 e 1 significando, por exemplo, & quotipos & quot e & quotno & quot) são chamadas de matrizes lógicas. A matriz de distância (ou custo) contém informações sobre distâncias das bordas. [63] Esses conceitos podem ser aplicados a hiperlinks de sites conectados ou cidades conectadas por estradas, etc., caso em que (a menos que a rede de estradas seja extremamente densa) as matrizes tendem a ser esparsas, ou seja, contêm poucas entradas diferentes de zero. Portanto, algoritmos de matriz especificamente adaptados podem ser usados ​​na teoria de redes.
Análise e geometria

A matriz Hessiana de uma função diferenciável ƒ: Rn → R consiste nas segundas derivadas de ƒ com respeito às várias direções de coordenadas, ou seja, [64]

No ponto de sela (x = 0, y = 0) (vermelho) da função f (x, −y) = x2 - y2, a matriz Hessiana começa 2 & amp 0 0 & amp -2 end é indefinido.

Ele codifica informações sobre o comportamento de crescimento local da função: dado um ponto crítico x = (x1,. Xn), ou seja, um ponto onde as primeiras derivadas parciais parcial f / parcial x_i de ƒ desaparecem, a função tem um local mínimo se a matriz de Hessian for definida positiva. A programação quadrática pode ser usada para encontrar mínimos ou máximos globais de funções quadráticas intimamente relacionadas àquelas anexadas a matrizes (veja acima). [65]

Outra matriz frequentemente utilizada em situações geométricas é a matriz de Jacobi de uma aplicação diferenciável f: Rn → Rm. Se f1,. fm denotam os componentes de f, então a matriz de Jacobi é definida como [66]

Se n & gt m, e se a classificação da matriz de Jacobi atinge seu valor máximo m, f é localmente invertível nesse ponto, pelo teorema da função implícita. [67]

As equações diferenciais parciais podem ser classificadas considerando a matriz de coeficientes dos operadores diferenciais de ordem mais alta da equação. Para equações diferenciais parciais elípticas esta matriz é definida positiva, o que tem influência decisiva no conjunto de possíveis soluções da equação em questão. [68]

O método dos elementos finitos é um método numérico importante para resolver equações diferenciais parciais, amplamente aplicado na simulação de sistemas físicos complexos. Ele tenta aproximar a solução de alguma equação por funções lineares por partes, onde as peças são escolhidas em relação a uma grade suficientemente fina, que por sua vez pode ser reformulada como uma equação de matriz. [69]
Teoria de probabilidade e estatística
Duas cadeias de Markov diferentes. O gráfico mostra o número de partículas (de um total de 1000) no estado & quot2 & quot. Ambos os valores limite podem ser determinados a partir das matrizes de transição, que são fornecidas por begin.7 e amp0 . 3 e amp1 end (vermelho) e começar.7 e amp.2 . 3 e amp.8 end (Preto).

Matrizes estocásticas são matrizes quadradas cujas linhas são vetores de probabilidade, ou seja, cujas entradas somam um. Matrizes estocásticas são usadas para definir cadeias de Markov com um número finito de estados. [70] Uma linha da matriz estocástica fornece a distribuição de probabilidade para a próxima posição de alguma partícula atualmente no estado que corresponde à linha. Propriedades da cadeia de Markov, como estados de absorção, ou seja, estados que qualquer partícula atinge eventualmente, podem ser lidos a partir dos autovetores das matrizes de transição. [71]

A estatística também faz uso de matrizes em muitas formas diferentes. [72] A estatística descritiva se preocupa com a descrição de conjuntos de dados, que muitas vezes podem ser representados em forma de matriz, reduzindo a quantidade de dados. A matriz de covariância codifica a variância mútua de várias variáveis ​​aleatórias. [73] Outra técnica que usa matrizes são os mínimos quadrados lineares, um método que aproxima um conjunto finito de pares (x1, y1), (x2, y2),. (xN, yN), por uma função linear

que pode ser formulado em termos de matrizes, relacionadas com a decomposição em valor singular das matrizes. [74]

Matrizes aleatórias são matrizes cujas entradas são números aleatórios, sujeitos a distribuições de probabilidade adequadas, como a distribuição normal da matriz. Além da teoria da probabilidade, eles são aplicados em domínios que variam da teoria dos números à física. [75] [76]
Simetrias e transformações na física
Mais informações: Simetria em física

As transformações lineares e as simetrias associadas desempenham um papel fundamental na física moderna. Por exemplo, partículas elementares na teoria quântica de campos são classificadas como representações do grupo de Lorentz da relatividade especial e, mais especificamente, por seu comportamento sob o grupo de spin. Representações concretas envolvendo as matrizes de Pauli e matrizes gama mais gerais são parte integrante da descrição física dos férmions, que se comportam como espinores. [77] Para os três quarks mais leves, há uma representação teórica de grupo envolvendo o grupo unitário especial SU (3) para seus cálculos, os físicos usam uma representação de matriz conveniente conhecida como matrizes de Gell-Mann, que também são usadas para o SU (3) grupo de calibre que forma a base da descrição moderna de fortes interações nucleares, cromodinâmica quântica. A matriz Cabibbo-Kobayashi-Maskawa, por sua vez, expressa o fato de que os estados de quark básicos que são importantes para interações fracas não são os mesmos, mas estão linearmente relacionados aos estados de quark básicos que definem partículas com massas específicas e distintas. [78 ]
Combinações lineares de estados quânticos

O primeiro modelo da mecânica quântica (Heisenberg, 1925) representou os operadores da teoria por matrizes de dimensão infinita atuando em estados quânticos. [79] Isso também é conhecido como mecânica de matriz. Um exemplo particular é a matriz de densidade que caracteriza o estado "misto" de um sistema quântico como uma combinação linear de estados próprios "puros" elementares. [80]

Outra matriz serve como uma ferramenta-chave para descrever os experimentos de espalhamento que formam a pedra angular da física de partículas experimental: reações de colisão, como ocorrem em aceleradores de partículas, onde partículas não interagentes dirigem-se umas às outras e colidem em uma pequena zona de interação, com um novo conjunto de partículas não interagentes como o resultado, pode ser descrito como o produto escalar dos estados de partícula de saída e uma combinação linear de estados de partícula de entrada. A combinação linear é dada por uma matriz conhecida como matriz S, que codifica todas as informações sobre as possíveis interações entre as partículas. [81]
Modos normais

Uma aplicação geral de matrizes em física é a descrição de sistemas harmônicos linearmente acoplados. As equações de movimento de tais sistemas podem ser descritas em forma de matriz, com uma matriz de massa multiplicando uma velocidade generalizada para dar o termo cinético, e uma matriz de força multiplicando um vetor de deslocamento para caracterizar as interações. A melhor maneira de obter soluções é determinar os autovetores do sistema, seus modos normais, diagonalizando a equação da matriz. Técnicas como essa são cruciais quando se trata da dinâmica interna das moléculas: as vibrações internas de sistemas que consistem em átomos componentes mutuamente ligados. [82] Eles também são necessários para descrever vibrações mecânicas e oscilações em circuitos elétricos. [83]
Óptica geométrica

A óptica geométrica fornece outras aplicações de matriz. Nesta teoria aproximativa, a natureza ondulatória da luz é negligenciada. O resultado é um modelo em que os raios de luz são, na verdade, raios geométricos. Se a deflexão dos raios de luz por elementos ópticos for pequena, a ação de uma lente ou elemento reflexivo em um determinado raio de luz pode ser expressa como a multiplicação de um vetor de dois componentes com uma matriz dois por dois chamada matriz de transferência de raios: o Os componentes do vetor são a inclinação do raio de luz e sua distância do eixo óptico, enquanto a matriz codifica as propriedades do elemento óptico. Na verdade, existem dois tipos de matrizes, viz. uma matriz de refração que descreve a refração em uma superfície de lente e uma matriz de translação, que descreve a translação do plano de referência para a próxima superfície de refração, onde outra matriz de refração se aplica. O sistema óptico, constituído por uma combinação de lentes e / ou elementos reflexivos, é simplesmente descrito pela matriz resultante do produto das matrizes dos componentes. [84]
Eletrônicos

A análise de malha tradicional em eletrônica leva a um sistema de equações lineares que podem ser descritas com uma matriz.

O comportamento de muitos componentes eletrônicos pode ser descrito por meio de matrizes. Seja A um vetor bidimensional com a tensão de entrada v1 do componente e a corrente de entrada i1 como seus elementos, e seja B um vetor bidimensional com a tensão de saída v2 do componente e a corrente de saída i2 como seus elementos. Então, o comportamento do componente eletrônico pode ser descrito por B = H · A, onde H é uma matriz 2 x 2 contendo um elemento de impedância (h12), um elemento de admitância (h21) e dois elementos adimensionais (h11 e h22). Calcular um circuito agora se reduz a multiplicação de matrizes.
História

As matrizes têm uma longa história de aplicação na solução de equações lineares. O texto chinês Os Nove Capítulos sobre a Arte Matemática (Jiu Zhang Suan Shu), de 300 aC a 200 dC, é o primeiro exemplo do uso de métodos matriciais para resolver equações simultâneas, [85] incluindo o conceito de determinantes, sobre 1000 anos antes de sua publicação pelo matemático japonês Seki em 1683 [carece de fontes] e o matemático alemão Leibniz em 1693. Cramer apresentou sua regra em 1750.

A teoria da matriz inicial enfatizava os determinantes mais fortemente do que as matrizes e um conceito de matriz independente semelhante à noção moderna surgiu apenas em 1858, com o Memoir on the theory of matrices de Cayley. [86] [87] O termo "matriz" (latim para "útero", derivado de mãe-mãe [88]) foi cunhado por Sylvester, que entendeu uma matriz como um objeto que dá origem a uma série de determinantes hoje chamados de menores, ou seja, determinantes de matrizes menores que derivar do original removendo colunas e linhas. [89] Em um artigo de 1851, Sylvester explica:

Em artigos anteriores, defini uma & quot Matriz & quot como uma matriz retangular de termos, a partir da qual diferentes sistemas de determinantes podem ser engendrados a partir do útero de um pai comum. [90]

O estudo dos determinantes surgiu de várias fontes. [91] Problemas numéricos teóricos levaram Gauss a relacionar coeficientes de formas quadráticas, ou seja, expressões como x2 + xy - 2y2 e mapas lineares em três dimensões a matrizes. Eisenstein desenvolveu ainda mais essas noções, incluindo a observação de que, na linguagem moderna, os produtos de matriz são não comutativos. Cauchy foi o primeiro a provar afirmações gerais sobre determinantes, usando como definição do determinante de uma matriz A = [ai, j] o seguinte: substitua as potências ajk por ajk no polinômio

(a_1 a_2 cdots a_n prod_ (a_j - a_i) , )

onde Π denota o produto dos termos indicados. Ele também mostrou, em 1829, que os autovalores de matrizes simétricas são reais. [92] Jacobi estudou "determinantes funcionais" - mais tarde chamados de determinantes de Jacobi por Sylvester - que podem ser usados ​​para descrever transformações geométricas em um nível local (ou infinitesimal), ver Vorlesungen über die Theorie der Determinanten de Kronecker [93] e Zur Determinantheorie de Weierstrass, [94] ambos publicados em 1903, primeiro trataram os determinantes axiomaticamente, ao contrário de abordagens anteriores mais concretas, como a fórmula mencionada de Cauchy. Nesse ponto, os determinantes estavam firmemente estabelecidos.

Muitos teoremas foram inicialmente estabelecidos apenas para matrizes pequenas, por exemplo, o teorema de Cayley-Hamilton foi provado para matrizes 2 × 2 por Cayley nas memórias mencionadas anteriormente, e por Hamilton para matrizes 4 × 4. Frobenius, trabalhando em formas bilineares, generalizou o teorema para todas as dimensões (1898). Também no final do século 19, a eliminação de Gauss-Jordan (generalizando um caso especial agora conhecido como eliminação de Gauss) foi estabelecida por Jordan. No início do século 20, as matrizes alcançaram um papel central na álgebra linear. [95] parcialmente devido ao seu uso na classificação dos sistemas numéricos hipercomplexos do século anterior.

O início da mecânica da matriz por Heisenberg, Born e Jordan levou ao estudo de matrizes com infinitas linhas e colunas. [96] Posteriormente, von Neumann realizou a formulação matemática da mecânica quântica, desenvolvendo ainda mais noções analíticas funcionais, como operadores lineares em espaços de Hilbert, que, grosso modo, correspondem ao espaço euclidiano, mas com uma infinidade de direções independentes.
Outros usos históricos da palavra "matriz" em matemática

A palavra foi usada de maneiras incomuns por pelo menos dois autores de importância histórica.

Bertrand Russell e Alfred North Whitehead em seu Principia Mathematica (1910–1913) usam a palavra matriz no contexto de seu Axioma de redutibilidade. Eles propuseram este axioma como um meio de reduzir qualquer função a uma de tipo inferior, sucessivamente, de modo que no "fundo" (ordem 0) a função seja idêntica à sua extensão:

“Vamos dar o nome de matriz a qualquer função, de quantas variáveis, que não envolva nenhuma variável aparente. Então, qualquer função possível diferente de uma matriz é derivada de uma matriz por meio de generalização, ou seja, considerando a proposição que afirma que a função em questão é verdadeira com todos os valores possíveis ou com algum valor de um dos argumentos, o outro argumento ou argumentos que permanecem indeterminados ”. [97]

Por exemplo, uma função Φ (x, y) de duas variáveis ​​x e y pode ser reduzida a uma coleção de funções de uma única variável, por exemplo, y, "considerando" a função para todos os valores possíveis de "indivíduos" ai substituídos em lugar da variável x. E então a coleção resultante de funções da única variável y, ou seja, ∀ai: Φ (ai, y), pode ser reduzida a uma "matriz" de valores por "considerar" a função para todos os valores possíveis de "indivíduos" bi substituído no lugar da variável y:

Alfred Tarski em sua Introdução à Lógica de 1946 usou a palavra “matriz” como sinônimo da noção de tabela verdade conforme usada na lógica matemática. [98]
Veja também
Ícone do portal Portal da matemática

Multiplicidade algébrica
Multiplicidade geométrica
Processo Gram-Schmidt
Lista de matrizes
Cálculo matricial
Conjunto de matriz periódica
Tensor

^ Brown 1991, Capítulo I.1. Referências alternativas para este livro incluem Lang 1987b e Greub 1975
^ Oualline 2003, Ch. 5
^ Brown 1991, Definição I.2.1 (adição), Definição I.2.4 (multiplicação escalar) e Definição I.2.33 (transpor)
^ Brown 1991, Teorema I.2.6
^ Brown 1991, Definição I.2.20
^ Brown 1991, Teorema I.2.24
^ Horn & amp Johnson 1985, cap. 4 e 5
^ Brown 1991, I.2.21 e 22
^ Greub 1975, Seção III.2
^ Brown 1991, Definição II.3.3
^ Greub 1975, Seção III.1
^ Brown 1991, Teorema II.3.22
^ Brown 1991, Definição I.2.28
^ Brown 1991, Definição I.5.13
^ Isso é imediato a partir da definição de multiplicação de matrizes.

^ Brown 1991, Definição III.2.1
^ Brown 1991, Teorema III.2.12
^ Brown 1991, Corollary III.2.16
^ Mirsky 1990, Teorema 1.4.1
^ Brown 1991, Teorema III.3.18
^ Brown 1991, Definição III.4.1
^ Brown 1991, Definição III.4.9
^ Brown 1991, Corollary III.4.10
^ Horn & amp Johnson 1985, Teorema 2.5.6
^ Horn & amp Johnson 1985, Capítulo 7
^ Horn & amp Johnson 1985, Teorema 7.2.1
^ Horn & amp Johnson 1985, Exemplo 4.0.6, pág. 169
^ Bau III e Trefethen 1997
^ Householder 1975, Ch. 7
^ Golub e Van Loan 1996, Algorithm 1.3.1
^ Golub e Van Loan 1996, capítulos 9 e 10, esp. seção 10.2
^ Golub e Van Loan 1996, Capítulo 2.3
^ Por exemplo, Mathematica, consulte Wolfram 2003, cap. 3,7
^ Press, Flannery & amp Teukolsky 1992
^ Stoer & amp Bulirsch 2002, Seção 4.1
^ Horn & amp Johnson 1985, Teorema 2.5.4
^ Horn & amp Johnson 1985, cap. 3.1, 3.2
^ Arnold & amp Cooke 1992, Seções 14.5, 7, 8
^ Bronson 1989, Ch. 15
^ Coburn 1955, Ch. V
^ Lang 2002, Capítulo XIII
^ Lang 2002, XVII.1, p. 643
^ Lang 2002, Proposição XIII.4.16
^ Reichl 2004, Seção L.2
^ Greub 1975, Seção III.3
^ Greub 1975, Seção III.3.13
^ Veja qualquer referência padrão no grupo.
^ Baker 2003, Def. 1,30
^ Baker 2003, Teorema 1.2
^ Artin 1991, Capítulo 4.5
^ Artin 1991, Teorema 4.5.13
^ Rowen 2008, Exemplo 19.2, pág. 198
^ Veja qualquer referência na teoria da representação ou representação de grupo.
^ Veja o item & quotMatriz & quot em Itõ, ed. 1987
^ & quot Matriz vazia: uma matriz está vazia se a dimensão de sua linha ou coluna for zero & quot, Glossário, O-Matrix v6 Guia do usuário
^ & quotUma matriz com pelo menos uma dimensão igual a zero é chamada de matriz vazia & quot, MATLAB Data Structures
^ Fudenberg & amp Tirole 1983, Seção 1.1.1
^ Manning 1999, Seção 15.3.4
^ Ward 1997, Ch. 2,8
^ Stinson 2005, Ch. 1.1.5 e 1.2.4
^ Association for Computing Machinery 1979, Ch. 7
^ Godsil & amp Royle 2004, cap. 8,1
^ Punnen 2002
^ Lang 1987a, Ch. XVI.6
^ Nocedal 2006, Ch. 16
^ Lang 1987a, Ch. XVI.1
^ Lang 1987a, Ch. XVI.5. Para uma declaração mais avançada e geral, consulte Lang 1969, cap. VI.2
^ Gilbarg & amp Trudinger 2001
^ Šolin 2005, cap. 2,5. Veja também método de rigidez.
^ Latouche & amp Ramaswami 1999
^ Mehata e Srinivasan 1978, cap. 2,8
^ Healy, Michael (1986), Matrices for Statistics, Oxford University Press, ISBN 9780198507024
^ Krzanowski 1988, Ch. 2.2., Pág. 60
^ Krzanowski 1988, Ch. 4,1
^ Conrey 2007
^ Zabrodin, Brezin & amp Kazakov e outros. 2006
^ Itzykson & amp Zuber 1980, cap. 2
^ ver Burgess & amp Moore 2007, seção 1.6.3. (SU (3)), seção 2.4.3.2. (Matriz Kobayashi-Maskawa)
^ Schiff 1968, Ch. 6
^ Bohm 2001, seções II.4 e II.8
^ Weinberg 1995, Ch. 3
^ Wherrett 1987, parte II
^ Riley, Hobson & amp Bence 1997, 7.17
^ Guenther 1990, Ch. 5
^ Shen, Crossley & amp Lun 1999 citado por Bretscher 2005, p. 1
^ Cayley 1889, vol. II, p. 475-496
^ Dieudonné, ed. 1978, Vol. 1, cap. III, p. 96
^ Dicionário Merriam – Webster, Merriam – Webster, recuperado em 20 de abril de 2009
^ De acordo com o OED, o primeiro uso da palavra & quotmatriz & quot com respeito à matemática aparece em James J. Sylvester em Londres, Edinb. & amp Dublin Philos. Mag. 37 (1850), p. 369: & quotNós ‥ começamos ‥ com um arranjo oblongo de termos consistindo, suponha, de m linhas e n colunas. Isto não representará em si um determinante, mas é, por assim dizer, uma Matriz a partir da qual podemos formar vários sistemas de determinantes fixando sobre um número p, e selecionando à vontade p linhas ep colunas, os quadrados correspondentes aos quais podem ser denominados determinantes da ordem p.
^ The Collected Mathematical Papers of James Joseph Sylvester: 1837-1853, Paper 37, p. 247
^ Knobloch 1994
^ Hawkins 1975
^ Kronecker 1897
^ Weierstrass 1915, pp. 271-286
^ Bôcher 2004
^ Mehra & amp Rechenberg 1987
^ Whitehead, Alfred North e Russell, Bertrand (1913) Principia Mathematica a * 56, Cambridge na University Press, Cambridge UK (republicado em 1962) cf página 162ss.
^ Tarski, Alfred (1946) Introdução à Lógica e a Metodologia das Ciências Dedutivas, Dover Publications, Inc, New York NY, ISBN 0-486-28462-X.

^ Eigen significa & quotown & quot em alemão e em holandês.
^ Além disso, o grupo deve ser fechado no grupo linear geral.
^ “Não muito da teoria das matrizes se transfere para espaços de dimensão infinita, e o que acontece não é tão útil, mas às vezes ajuda.” Halmos 1982, p. 23, Capítulo 5

Arnold, Vladimir I. Cooke, Roger (1992), Equações diferenciais ordinárias, Berlin, DE New York, NY: Springer-Verlag, ISBN 978-3-540-54813-3
Artin, Michael (1991), Algebra, Prentice Hall, ISBN 978-0-89871-510-1
Association for Computing Machinery (1979), Computer Graphics, Tata McGraw – Hill, ISBN 978-0-07-059376-3
Baker, Andrew J. (2003), Matrix Groups: An Introduction to Lie Group Theory, Berlin, DE New York, NY: Springer-Verlag, ISBN 978-1-85233-470-3
Bau III, David Trefethen, Lloyd N. (1997), Numerical linear algebra, Philadelphia, PA: Society for Industrial and Applied Mathematics, ISBN 978-0-89871-361-9
Bretscher, Otto (2005), Linear Algebra with Applications (3ª ed.), Prentice Hall
Bronson, Richard (1989), esboço de teoria e problemas de operações de matriz de Schaum, Nova York: McGraw – Hill, ISBN 978-0-07-007978-6
Brown, William A. (1991), Matrices and vector spaces, New York, NY: M. Dekker, ISBN 978-0-8247-8419-5
Coburn, Nathaniel (1955), Vector and tensor analysis, New York, NY: Macmillan, OCLC 1029828
Conrey, J. Brian (2007), Ranks of eliptic curves and random matrix theory, Cambridge University Press, ISBN 978-0-521-69964-8
Fudenberg, Drew Tirole, Jean (1983), Game Theory, MIT Press
Gilbarg, David Trudinger, Neil S. (2001), Equações diferenciais parciais elípticas de segunda ordem (2ª ed.), Berlin, DE New York, NY: Springer-Verlag, ISBN 978-3-540-41160-4
Godsil, Chris Royle, Gordon (2004), Algebraic Graph Theory, Graduate Texts in Mathematics, 207, Berlin, DE New York, NY: Springer-Verlag, ISBN 978-0-387-95220-8
Golub, Gene H. Van Loan, Charles F. (1996), Matrix Computations (3ª ed.), Johns Hopkins, ISBN 978-0-8018-5414-9
Greub, Werner Hildbert (1975), Linear algebra, Graduate Texts in Mathematics, Berlin, DE New York, NY: Springer-Verlag, ISBN 978-0-387-90110-7
Halmos, Paul Richard (1982), A Hilbert space problem book, Graduate Texts in Mathematics, 19 (2ª ed.), Berlin, DE New York, NY: Springer-Verlag, ISBN 978-0-387-90685-0, MR675952
Horn, Roger A. Johnson, Charles R. (1985), Matrix Analysis, Cambridge University Press, ISBN 978-0-521-38632-6
Householder, Alston S. (1975), The theory of matrices in numical analysis, New York, NY: Dover Publications, MR0378371
Krzanowski, Wojtek J. (1988), Principles of multivariate analysis, Oxford Statistical Science Series, 3, The Clarendon Press Oxford University Press, ISBN 978-0-19-852211-9, MR969370
Itõ, Kiyosi, ed. (1987), Dicionário enciclopédico de matemática. Vol. I-IV (2ª ed.), MIT Press, ISBN 978-0-262-09026-1, MR901762
Lang, Serge (1969), Analysis II, Addison-Wesley
Lang, Serge (1987a), Calculus of various variables (3rd ed.), Berlin, DE New York, NY: Springer-Verlag, ISBN 978-0-387-96405-8
Lang, Serge (1987b), Linear algebra, Berlin, DE New York, NY: Springer-Verlag, ISBN 978-0-387-96412-6
Lang, Serge (2002), Algebra, Graduate Texts in Mathematics, 211 (revisado, terceira edição), Nova York: Springer-Verlag, ISBN 978-0-387-95385-4, MR1878556
Latouche, Guy Ramaswami, Vaidyanathan (1999), Introdução aos métodos analíticos de matriz em modelagem estocástica (1ª ed.), Filadélfia, PA: Society for Industrial and Applied Mathematics, ISBN 978-0-89871-425-8
Manning, Christopher D. Schütze, Hinrich (1999), Foundations of statistics natural language processing, MIT Press, ISBN 978-0-262-13360-9
Mehata, K. M. Srinivasan, S. K. (1978), processos Stochastic, New York, NY: McGraw – Hill, ISBN 978-0-07-096612-3
Mirsky, Leonid (1990), An Introduction to Linear Algebra, Courier Dover Publications, ISBN 978-0-486-66434-7
Nocedal, Jorge Wright, Stephen J. (2006), Numerical Optimization (2ª ed.), Berlin, DE New York, NY: Springer-Verlag, p. 449, ISBN 978-0-387-30303-1
Oualline, Steve (2003), Practical C ++ programming, O'Reilly, ISBN 978-0-596-00419-4
Press, William H. Flannery, Brian P. Teukolsky, Saul A. Vetterling, William T. (1992), & quotLU Decomposition and Its Applications & quot, Numerical Recipes in FORTRAN: The Art of Scientific Computing (2ª ed.), Cambridge University Press, pp. 34-42
Punnen, Abraham P. Gutin, Gregory (2002), O problema do caixeiro-viajante e suas variações, Boston, MA: Kluwer Academic Publishers, ISBN 978-1-4020-0664-7
Reichl, Linda E. (2004), A transição para o caos: sistemas clássicos conservadores e manifestações quânticas, Berlin, DE New York, NY: Springer-Verlag, ISBN 978-0-387-98788-0
Rowen, Louis Halle (2008), Graduate Algebra: noncomutative view, Providence, RI: American Mathematical Society, ISBN 978-0-8218-4153-2
Šolin, Pavel (2005), Partial Differential Equations and the Finite Element Method, Wiley-Interscience, ISBN 978-0-471-76409-0
Stinson, Douglas R. (2005), Cryptography, Discrete Mathematics and its Applications, Chapman & amp Hall / CRC, ISBN 978-1-58488-508-5
Stoer, Josef Bulirsch, Roland (2002), Introduction to Numerical Analysis (3rd ed.), Berlin, DE New York, NY: Springer-Verlag, ISBN 978-0-387-95452-3
Ward, J. P. (1997), Quaternions and Cayley numbers, Mathematics and its Applications, 403, Dordrecht, NL: Kluwer Academic Publishers Group, ISBN 978-0-7923-4513-8, MR1458894
Wolfram, Stephen (2003), The Mathematica Book (5ª ed.), Champaign, IL: Wolfram Media, ISBN 978-1-57955-022-6

Bohm, Arno (2001), Quantum Mechanics: Foundations and Applications, Springer, ISBN 0-387-95330-2
Burgess, Cliff Moore, Guy (2007), The Standard Model. A Primer, Cambridge University Press, ISBN 0-521-86036-9
Guenther, Robert D. (1990), Modern Optics, John Wiley, ISBN 0-471-60538-7
Itzykson, Claude Zuber, Jean-Bernard (1980), Quantum Field Theory, McGraw – Hill, ISBN 0-07-032071-3
Riley, Kenneth F. Hobson, Michael P. Bence, Stephen J. (1997), Métodos matemáticos para física e engenharia, Cambridge University Press, ISBN 0-521-55506-X
Schiff, Leonard I. (1968), Quantum Mechanics (3ª ed.), McGraw-Hill
Weinberg, Steven (1995), The Quantum Theory of Fields. Volume I: Foundations, Cambridge University Press, ISBN 0-521-55001-7
Wherrett, Brian S. (1987), Group Theory for Atoms, Molecules and Solids, Prentice – Hall International, ISBN 0-13-365461-3
Zabrodin, Anton Brezin, Édouard Kazakov, Vladimir Serban, Didina Wiegmann, Paul (2006), Applications of Random Matrices in Physics (NATO Science Series II: Mathematics, Physics and Chemistry), Berlin, DE New York, NY: Springer-Verlag, ISBN 978-1-4020-4530-1

Bôcher, Maxime (2004), Introdução à álgebra superior, Nova York, NY: Dover Publications, ISBN 978-0-486-49570-5, reimpressão da edição original de 1907
Cayley, Arthur (1889), Os artigos matemáticos coletados de Arthur Cayley, I (1841-1853), Cambridge University Press, pp. 123-126
Dieudonné, Jean, ed. (1978), Abrégé d'histoire des mathématiques 1700-1900, Paris, FR: Hermann
Hawkins, Thomas (1975), "Cauchy e a teoria espectral de matrizes", Historia Mathematica 2: 1-29, doi: 10.1016 / 0315-0860 (75) 90032-4, ISSN 0315-0860, MR0469635
Knobloch, Eberhard (1994), & quotFrom Gauss to Weierstrass: determinant teoria e suas avaliações históricas & quot, The intersection of history and mathematics, Science Networks Historical Studies, 15, Basel, Boston, Berlin: Birkhäuser, pp. 51-66, MR1308079
Kronecker, Leopold (1897), Hensel, Kurt, ed., Leopold Kronecker Werke, Teubner
Mehra, Jagdish Rechenberg, Helmut (1987), The Historical Development of Quantum Theory (1ª ed.), Berlin, DE New York, NY: Springer-Verlag, ISBN 978-0-387-96284-9
Shen, Kangshen Crossley, John N. Lun, Anthony Wah-Cheung (1999), Nine Chapters of the Mathematical Art, Companion and Commentary (2ª ed.), Oxford University Press, ISBN 978-0-19-853936-0
Weierstrass, Karl (1915), Obras coletadas, 3

links externos
O Wikibook Linear Algebra possui uma página sobre o tema
Matrizes
A Wikiversidade tem materiais de aprendizagem sobre Matrices em
Álgebra linear # Matrizes

MacTutor: Matrizes e determinantes
Matrizes e álgebra linear nas primeiras páginas de usos
Usos anteriores de símbolos para matrizes e vetores

Kaw, Autar K., ISBN 978-0-615-25126-4
The Matrix Cookbook, recuperado em 10 de dezembro de 2008
Brookes, Mike (2005), The Matrix Reference Manual, London: Imperial College, recuperado em 10 de dezembro de 2008

Calculadoras matriciais online

SuperiorMath (Calculadora Matriz)
Calculadora de matriz (DotNumerics)
Xiao, Gang, calculadora Matrix, recuperado em 10 de dezembro de 2008
Calculadora de matriz online, obtida em 10 de dezembro de 2008
Calculadora de matriz online (estrutura ZK), recuperada em 26 de novembro de 2009
Oehlert, Gary W. Bingham, Christopher, MacAnova, University of Minnesota, School of Statistics, recuperado em 10 de dezembro de 2008, um pacote freeware para álgebra de matriz e estatística
Calculadora de matriz online, obtida em 14 de dezembro de 2009
Operação com matrizes em R (determinante, trilha, inverso, adjunto, transposto)


Avaliando uma função usando uma matriz

Considere a função f (x) = x 2 - 4x + 3 e a matriz A

A tentativa inicial de avaliar f (A) seria substituir todo x por um A para obter f (A) = A 2 - 4A + 3. Porém, há um pequeno problema. A constante 3 não é uma matriz, e você não pode adicionar matrizes e escalares juntos. Então, multiplicamos a constante pela matriz de identidade.

Avalie cada termo na função e, em seguida, some-os.

A 2 = 1 2 * 1 2 = 7 10
3 4 3 4 15 22
-4 A = -4 1 2 = -4 -8
3 4 -12 -16
3I = 3 1 0 = 3 0
0 1 0 3
f (A) = 7 10 + -4 -8 + 3 0 = 6 2
15 22 -12 -16 0 3 3 9


Assista o vídeo: MATEMÁTICA - AULAS DE MATRIZES: Definição e Conceitos (Outubro 2021).