Artigos

7.7E: O Método de Frobenius II (Exercícios) - Matemática


Q7.6.1

Em Exercícios 7.6.1-7.6.11 encontrar um conjunto fundamental de soluções Frobenius. Opcionalmente, escreva um programa de computador para implementar as fórmulas de recorrência aplicáveis ​​e tome (N> 7 ).

1. (x ^ 2y '' - x (1-x) y '+ (1-x ^ 2) y = 0 )

2. (x ^ 2 (1 + x + 2x ^ 2) y '+ x (3 + 6x + 7x ^ 2) y' + (1 + 6x-3x ^ 2) y = 0 )

3. (x ^ 2 (1 + 2x + x ^ 2) y '' + x (1 + 3x + 4x ^ 2) y'-x (1-2x) y = 0 )

4. (4x ^ 2 (1 + x + x ^ 2) y '' + 12x ^ 2 (1 + x) y '+ (1 + 3x + 3x ^ 2) y = 0 )

5. (x ^ 2 (1 + x + x ^ 2) y '' - x (1-4x-2x ^ 2) y '+ y = 0 )

6. (9x ^ 2y '' + 3x (5 + 3x-2x ^ 2) y '+ (1 + 12x-14x ^ 2) y = 0 )

7. (x ^ 2y '' + x (1 + x + x ^ 2) y '+ x (2-x) y = 0 )

8. (x ^ 2 (1 + 2x) y '' + x (5 + 14x + 3x ^ 2) y '+ (4 + 18x + 12x ^ 2) y = 0 )

9. (4x ^ 2y '' + 2x (4 + x + x ^ 2) y '+ (1 + 5x + 3x ^ 2) y = 0 )

10. (16x ^ 2y '' + 4x (6 + x + 2x ^ 2) y '+ (1 + 5x + 18x ^ 2) y = 0 )

11. (9x ^ 2 (1 + x) y '' + 3x (5 + 11x-x ^ 2) y '+ (1 + 16x-7x ^ 2) y = 0 )

Q7.6.2

Em Exercícios 7.6.12-7.6.22 encontrar um conjunto fundamental de soluções Frobenius. Dê fórmulas explícitas para os coeficientes.

12. (4x ^ 2y '' + (1 + 4x) y = 0 )

13. (36x ^ 2 (1-2x) y '' + 24x (1-9x) y '+ (1-70x) y = 0 )

14. (x ^ 2 (1 + x) y '' - x (3-x) y '+ 4y = 0 )

15. (x ^ 2 (1-2x) y '' - x (5-4x) y '+ (9-4x) y = 0 )

16. (25x ^ 2y '' + x (15 + x) y '+ (1 + x) y = 0 )

17. (2x ^ 2 (2 + x) y '' + x ^ 2y '+ (1-x) y = 0 )

18. (x ^ 2 (9 + 4x) y '' + 3xy '+ (1 + x) y = 0 )

19. (x ^ 2y '' - x (3-2x) y '+ (4 + 3x) y = 0 )

20. (x ^ 2 (1-4x) y '' + 3x (1-6x) y '+ (1-12x) y = 0 )

21. (x ^ 2 (1 + 2x) y '' + x (3 + 5x) y '+ (1-2x) y = 0 )

22. (2x ^ 2 (1 + x) y '' - x (6-x) y '+ (8-x) y = 0 )

Q7.6.3

Em Exercícios 7.6.23-7.6.27 encontrar um conjunto fundamental de soluções Frobenius. Compare os termos envolvendo (x ^ {n + r_ {1}} ), onde (0 leq n leq N ) ( (N ) pelo menos (7 )) e (r_ { 1} ) é a raiz da equação indicial. Opcionalmente, escreva um programa de computador para implementar as fórmulas de recorrência aplicáveis ​​e tome (N> 7 ).

23. (x ^ 2 (1 + 2x) y '' + x (5 + 9x) y '+ (4 + 3x) y = 0 )

24. (x ^ 2 (1-2x) y '' - x (5 + 4x) y '+ (9 + 4x) y = 0 )

25. (x ^ 2 (1 + 4x) y '' - x (1-4x) y '+ (1 + x) y = 0 )

26. (x ^ 2 (1 + x) y '' + x (1 + 2x) y '+ xy = 0 )

27. (x ^ 2 (1-x) y '' + x (7 + x) y '+ (9-x) y = 0 )

Q7.6.4

Em Exercícios 7.6.28-7.6.38 encontrar um conjunto fundamental de soluções Frobenius. Dê fórmulas explícitas para os coeficientes.

28. (x ^ 2y '' - x (1-x ^ 2) y '+ (1 + x ^ 2) y = 0 )

29. (x ^ 2 (1 + x ^ 2) y '' - 3x (1-x ^ 2) y '+ 4y = 0 )

30. (4x ^ 2y '' + 2x ^ 3y '+ (1 + 3x ^ 2) y = 0 )

31. (x ^ 2 (1 + x ^ 2) y '' - x (1-2x ^ 2) y '+ y = 0 )

32. (2x ^ 2 (2 + x ^ 2) y '' + 7x ^ 3y '+ (1 + 3x ^ 2) y = 0 )

33. (x ^ 2 (1 + x ^ 2) y '' - x (1-4x ^ 2) y '+ (1 + 2x ^ 2) y = 0 )

34. (4x ^ 2 (4 + x ^ 2) y '' + 3x (8 + 3x ^ 2) y '+ (1-9x ^ 2) y = 0 )

35. (3x ^ 2 (3 + x ^ 2) y '' + x (3 + 11x ^ 2) y '+ (1 + 5x ^ 2) y = 0 )

36. (4x ^ 2 (1 + 4x ^ 2) y '' + 32x ^ 3y '+ y = 0 )

37. (9x ^ 2y '' - 3x (7-2x ^ 2) y '+ (25 + 2x ^ 2) y = 0 )

38. (x ^ 2 (1 + 2x ^ 2) y '' + x (3 + 7x ^ 2) y '+ (1-3x ^ 2) y = 0 )

Q7.6.5

Em Exercícios 7.6.39-7.6.43 encontrar um conjunto fundamental de soluções Frobenius. Calcule os termos envolvendo (x ^ {2m + r_ {1}} ), onde (0 ≤ m ≤ M ) ( (M ) pelo menos (3 )) e (r_ {1} ) é a raiz da equação indicial. Opcionalmente, escreva um programa de computador para implementar as fórmulas de recorrência aplicáveis ​​e tome (M> 3 ).

39. (x ^ 2 (1 + x ^ 2) y '' + x (3 + 8x ^ 2) y '+ (1 + 12x ^ 2) y )

40. (x ^ 2y '' - x (1-x ^ 2) y '+ (1 + x ^ 2) y = 0 )

41. (x ^ 2 (1-2x ^ 2) y '' + x (5-9x ^ 2) y '+ (4-3x ^ 2) y = 0 )

42. (x ^ 2 (2 + x ^ 2) y '' + x (14-x ^ 2) y '+ 2 (9 + x ^ 2) y = 0 )

43. (x ^ 2 (1 + x ^ 2) y '' + x (3 + 7x ^ 2) y '+ (1 + 8x ^ 2) y = 0 )

Q7.6.6

Em Exercícios 7.6.44-7.6.52 encontrar um conjunto fundamental de soluções Frobenius. Dê fórmulas explícitas para os coeficientes.

44. (x ^ 2 (1-2x) y '' + 3xy '+ (1 + 4x) y = 0 )

45. (x (1 + x) y '' + (1-x) y '+ y = 0 )

46. ​​ (x ^ 2 (1-x) y '' + x (3-2x) y '+ (1 + 2x) y = 0 )

47. (4x ^ 2 (1 + x) y '' - 4x ^ 2y '+ (1-5x) y = 0 )

48. (x ^ 2 (1-x) y '' - x (3-5x) y '+ (4-5x) y = 0 )

49. (x ^ 2 (1 + x ^ 2) y '' - x (1 + 9x ^ 2) y '+ (1 + 25x ^ 2) y = 0 )

50. (9x ^ 2y '' + 3x (1-x ^ 2) y '+ (1 + 7x ^ 2) y = 0 )

51. (x (1 + x ^ 2) y '' + (1-x ^ 2) y'-8xy = 0 )

52. (4x ^ 2y '' + 2x (4-x ^ 2) y '+ (1 + 7x ^ 2) y = 0 )

Q7.6.7

53. Sob as premissas do Teorema 7.6.2, suponha que a série de potências

[ sum_ {n = 0} ^ infty a_n (r_1) x ^ n quad mbox {e} quad sum_ {n = 1} ^ infty a_n '(r_1) x ^ n não numérico ]

convergem em ((- rho, rho) ).

  1. Mostre que [y_1 = x ^ {r_1} sum_ {n = 0} ^ infty a_n (r_1) x ^ n quad mbox {e} quad y_2 = y_1 ln x + x ^ {r_1} sum_ {n = 1} ^ infty a_n '(r_1) x ^ n nonumber ] são linearmente independentes em ((0, rho) ). SUGESTÃO: Mostre que se (c_ {1} ) e (c_ {2} ) são constantes tais que (c_ {1} y_ {1} + c_ {2} y_ {2} ≡0 ) em ((0, rho) ), então [(c_ {1} + c_ {2} ln x) sum_ {n = 0} ^ { infty} a_ {n} (r_ {1}) x ^ {n} + c_ {2} sum_ {n = 1} ^ { infty} a_ {n} '(r_ {1}) x ^ {n} = 0, quad 0
  2. Use o resultado de (a) para completar a prova do Teorema 7.6.2.

54. Vamos

[Ly = x ^ 2 ( alpha_0 + alpha_1x) y '' + x ( beta_0 + beta_1x) y '+ ( gamma_0 + gamma_1x) y nonumber ]

e definir

[p_0 (r) = alpha_0r (r-1) + beta_0r + gamma_0 quad mbox {e} quad p_1 (r) = alpha_1r (r-1) + beta_1r + gamma_1. nonumber ]

Teorema 7.6.1 e Exercício 7.5.55a

implica que se

[y (x, r) = x ^ r sum_ {n = 0} ^ infty a_n (r) x ^ n não numérico ]

Onde

[a_n (r) = (- 1) ^ n prod_ {j = 1} ^ n {p_1 (j + r-1) sobre p_0 (j + r)}, não numérico ]

então

[Ly (x, r) = p_0 (r) x ^ r. Nonumber ]

Agora suponha que (p_0 (r) = alpha_0 (r-r_1) ^ 2 ) e (p_1 (k + r_1) ne0 ) se (k ) for um inteiro não negativo.

  1. Mostre que (Ly = 0 ) tem a solução [y_1 = x ^ {r_1} sum_ {n = 0} ^ infty a_n (r_1) x ^ n, nonumber ] onde [a_n (r_1) = {(- 1) ^ n over alpha_0 ^ n (n!) ^ 2} prod_ {j = 1} ^ np_1 (j + r_1-1). Nonumber ]
  2. Mostre que (Ly = 0 ) tem a segunda solução [y_2 = y_1 ln x + x ^ {r_1} sum_ {n = 1} ^ infty a_n (r_1) J_nx ^ n, nonumber ] onde [J_n = sum_ {j = 1} ^ n {p_1 '(j + r_1-1) sobre p_1 (j + r_1-1)} - 2 sum_ {j = 1} ^ n {1 sobre j }. enhum número]
  3. Conclua de (a) e (b) que se ( gamma_1 ne0 ) então [y_1 = x ^ {r_1} sum_ {n = 0} ^ infty {(-1) ^ n over (n !) ^ 2} left ( gamma_1 over alpha_0 right) ^ nx ^ n nonumber ] e [y_2 = y_1 ln x-2x ^ {r_1} sum_ {n = 1} ^ infty {(-1) ^ n over (n!) ^ 2} left ( gamma_1 over alpha_0 right) ^ n left ( sum_ {j = 1} ^ n {1 over j} right ) x ^ n nonumber ] são soluções de [ alpha_0x ^ 2y '' + beta_0xy '+ ( gamma_0 + gamma_1x) y = 0. nonumber ] (A conclusão também é válida se ( gamma_1 = 0 ). Por quê?)

55. Deixe

[Ly = x ^ 2 ( alpha_0 + alpha_qx ^ q) y '' + x ( beta_0 + beta_qx ^ q) y '+ ( gamma_0 + gamma_qx ^ q) y nonumber ]

onde (q ) é um número inteiro positivo e define

[p_0 (r) = alpha_0r (r-1) + beta_0r + gamma_0 quad mbox {e} quad p_q (r) = alpha_qr (r-1) + beta_qr + gamma_q. nonumber ]

Suponha

[p_0 (r) = alpha_0 (r-r_1) ^ 2 quad mbox {e} quad p_q (r) não equiv0. nonumber ]

  1. Lembre-se de Exercício 7.5.59 que (Ly ~ = 0 ) tem a solução [y_1 = x ^ {r_1} sum_ {m = 0} ^ infty a_ {qm} (r_1) x ^ {qm}, nonumber ] onde [a_ {qm} (r_1) = {(- 1) ^ m over (q ^ 2 alpha_0) ^ m (m!) ^ 2} prod_ {j = 1} ^ mp_q left (q (j- 1) + r_1 right). Nonumber ]
  2. Mostre que (Ly = 0 ) tem a segunda solução [y_2 = y_1 ln x + x ^ {r_1} sum_ {m = 1} ^ infty a_ {qm} '(r_1) J_mx ^ {qm} , nonumber ] onde [J_m = sum_ {j = 1} ^ m {p_q ' left (q (j-1) + r_1 right) over p_q left (q (j-1) + r_1 right)} - ​​{2 over q} sum_ {j = 1} ^ m {1 over j}. nonumber ]
  3. Conclua de (a) e (b) que se ( gamma_q ne0 ) então [y_1 = x ^ {r_1} sum_ {m = 0} ^ infty {(-1) ^ m over (m !) ^ 2} left ( gamma_q over q ^ 2 alpha_0 right) ^ mx ^ {qm} nonumber ] e [y_2 = y_1 ln x- {2 over q} x ^ {r_1 } sum_ {m = 1} ^ infty {(-1) ^ m over (m!) ^ 2} left ( gamma_q over q ^ 2 alpha_0 right) ^ m left ( sum_ { j = 1} ^ m {1 over j} right) x ^ {qm} nonumber ] são soluções de [ alpha_0x ^ 2y '' + beta_0xy '+ ( gamma_0 + gamma_qx ^ q) y = 0. nonumber ]

56. A equação

[xy '' + y '+ xy = 0 não numérico ]

é Equação de Bessel de ordem zero. (Ver Exercício 7.5.53.) Encontre duas soluções de Frobenius linearmente independentes desta equação.

57. Suponha que as premissas de Exercício 7.5.53 espera, exceto que

[p_0 (r) = alpha_0 (r-r_1) ^ 2. nonumber ]

Mostra isso

[y_1 = {x ^ {r_1} over alpha_0 + alpha_1x + alpha_2x ^ 2} quad mbox {e} quad y_2 = {x ^ {r_1} ln x over alpha_0 + alpha_1x + alpha_2x ^ 2} nonumber ]

são soluções Frobenius linearmente independentes de

[x ^ 2 ( alpha_0 + alpha_1x + alpha_2 x ^ 2) y '' + x ( beta_0 + beta_1x + beta_2x ^ 2) y '+ ( gamma_0 + gamma_1x + gamma_2x ^ 2) y = 0 não numérico ]

em qualquer intervalo ((0, rho) ) no qual ( alpha_0 + alpha_1x + alpha_2x ^ 2 ) não tem zeros.

Q7.6.8

58. (4x ^ 2 (1 + x) y '' + 8x ^ 2y '+ (1 + x) y = 0 )

59. (9x ^ 2 (3 + x) y '' + 3x (3 + 7x) y '+ (3 + 4x) y = 0 )

60. (x ^ 2 (2-x ^ 2) y '' - x (2 + 3x ^ 2) y '+ (2-x ^ 2) y = 0 )

61. (16x ^ 2 (1 + x ^ 2) y '' + 8x (1 + 9x ^ 2) y '+ (1 + 49x ^ 2) y = 0 )

62. (x ^ 2 (4 + 3x) y '' - x (4-3x) y '+ 4y = 0 )

63. (4x ^ 2 (1 + 3x + x ^ 2) y '' + 8x ^ 2 (3 + 2x) y '+ (1 + 3x + 9x ^ 2) y = 0 )

64. (x ^ 2 (1-x) ^ 2y '' - x (1 + 2x-3x ^ 2) y '+ (1 + x ^ 2) y = 0 )

65. (9x ^ 2 (1 + x + x ^ 2) y '' + 3x (1 + 7x + 13x ^ 2) y '+ (1 + 4x + 25x ^ 2) y = 0 )

Q7.6.9

66.

  1. Seja (L ) e (y (x, r) ) como em Exercícios 7.5.57 e 7.5.58. Estenda o Teorema 7.6.1 mostrando que [L left ({ partial y over partial r} (x, r) right) = p'_0 (r) x ^ r + x ^ rp_0 (r) ln x. nonumber ]
  2. Mostre que se [p_0 (r) = alpha_0 (r-r_1) ^ 2 nonumber ] então [y_1 = y (x, r_1) quad text {e} quad y_2 = { parcial y sobre parcial r} (x, r_1) nonumber ] são soluções de (Ly = 0 ).

7.7E: O Método de Frobenius II (Exercícios) - Matemática

Manual de solução de cálculo 7e James Stewart [PDF]

Calculus Early Transcendentals (7E Solution) por James Stewart

MathSchoolinternational contém mais de 5000 livros em PDF gratuitos de matemática e livros em PDF gratuitos de física. Que cobrem quase todos os tópicos para alunos de Matemática, Física e Engenharia. Aqui está uma lista extensa de e-books de Cálculo. Esperamos que os alunos e professores gostem desses livros, notas e manuais de solução.

Como estudante de engenharia, economia, matemática ou física, você precisa fazer um curso de cálculo. mathschoolinternational fornece uma coleção abrangente dos seguintes melhores livros, melhores manuais de solução e notas resolvidas que serão úteis para você e aumentarão sua eficiência.
• Os 10 melhores cálculos de variável única
• Top 10 melhores cálculos mutivariáveis
• Top 5 melhores cálculos AP
• Os 7 melhores cálculos com geometria analítica
• Cálculo transcendental precoce
• 25 melhores cálculos resolvidos
• 50 melhores cálculos avançados

Parabéns, o link está disponível para download gratuito.

Como fazer o download de um livro ?,. Preciso de ajuda?

Sobre este livro :-
Cálculo transcendental precoce (7E) escrito por James Stewart.
O sucesso em seu curso de cálculo começa aqui! Os textos de James Stewart CALCULUS: EARLY TRANSCENDENTALS são best-sellers mundiais por uma razão: eles são claros, precisos e repletos de exemplos relevantes do mundo real. Com CALCULUS: EARLY TRANSCENDENTALS, oitava edição, Stewart transmite não apenas a utilidade do cálculo para ajudá-lo a desenvolver competência técnica, mas também dá a você uma apreciação da beleza intrínseca do assunto. Seus exemplos de pacientes e ajudas de aprendizagem integradas irão ajudá-lo a construir sua confiança matemática e atingir seus objetivos no curso

Detalhe do livro: -
Título: Cálculo transcendental precoce (solução)
Edição:
Autor (es): James Stewart
Editor: Brooks / Cole
Series:
Ano: 2015
Páginas: 1778
Modelo: PDF
Língua: inglês
ISBN: 1285741552,978-1-285-74155-0,978-1-305-27235-4
País: Canadá
Pegue este livro na Amazon

Sobre o autor :-
Cálculo transcendental precoce (solução 7E) escrito por James Stewart.
Ele recebeu seu M. S. (mestre em ciências) na Universidade de Stanford e seu Ph.D. (doutor em filosofia) pela Universidade de Toronto.
Ele trabalhou como pós-doutorado na Universidade de Londres, onde sua pesquisa se concentrou em análise harmônica e funcional. Stewart foi, mais recentemente, Professor de Matemática na Universidade McMaster, e seu campo de pesquisa foi a análise harmônica. Stewart foi o autor da melhor série de livros didáticos de cálculo publicada pela Cengage Learning, incluindo Calculus, Calculus: Early Transcendentals and Calculus: Concepts and Contexts, bem como uma série de textos pré-cálculo.

Junte-se às nossas novas atualizações, alertas: -
Para novas atualizações e alertas, junte-se ao nosso Grupo WhatsApp e Grupo Telegram (você também pode pedir qualquer livro / notas / manual de soluções [pdf]).
Junte-se ao Grupo WhatsApp
Junte-se ao Grupo Telegram

Conteúdo do livro: -
Cálculo transcendental precoce (solução 7E) escrito por James Stewart cobre os seguintes tópicos. 1. FUNÇÕES E MODELOS.
Quatro maneiras de representar uma função. Modelos matemáticos: um catálogo de funções essenciais. Novas funções de funções antigas. Calculadoras gráficas e computadores. Princípios de solução de problemas.
2. LIMITES.
Os problemas de tangente e velocidade. O limite de uma função. Cálculo de limites usando as leis de limite. A definição precisa de um limite. Continuidade.
3. DERIVADOS.
Derivados e taxas de variação. Projeto de redação: métodos iniciais para encontrar tangentes. A Derivada como Função. Fórmulas de diferenciação. Projeto aplicado: construindo uma montanha-russa melhor. Derivadas de funções trigonométricas. A regra da cadeia. Projeto aplicado: onde um piloto deve começar a descida ?. Diferenciação implícita. Taxas de variação nas ciências naturais e sociais. Taxas relacionadas. Aproximações lineares e diferenciais. Projeto de Laboratório: Polinômios de Taylor.
4. APLICAÇÕES DE DIFERENCIAÇÃO.
Valores máximo e mínimo. Projeto Aplicado: O Cálculo do Arco-íris. O Teorema do Valor Médio. Como os derivados afetam a forma de um gráfico. Limites nas assíntotas horizontais do infinito. Resumo do esboço da curva. Gráficos com cálculo e calculadoras. Problemas de otimização. Projeto aplicado: a forma de uma lata. Método de Newton. Antiderivativos.
5. INTEGRAIS.
Áreas e distâncias. O Integral Definido. Projeto de descoberta: Funções de área. O Teorema Fundamental do Cálculo. Integrais indefinidos e o teorema da mudança líquida. Projeto de redação: Newton, Leibniz e a invenção do cálculo. A regra da substituição.
6. APLICAÇÕES DE INTEGRAÇÃO.
Áreas entre curvas. Volume. Volumes por reservatórios cilíndricos. Trabalhar. Valor médio de uma função.
7. FUNÇÕES INVERSAS:
FUNÇÕES EXPONENCIAIS, LOGARÍTMICAS E TRIGONOMÉTRICAS INVERSAS. Funções inversas. (Os instrutores podem cobrir as seções 7.2-7.4 ou 7.2 * -7.4 *). Funções exponenciais e seus derivados. Funções logarítmicas. Derivadas de funções logarítmicas. * A função logarítmica natural. * A função exponencial natural. * Funções logarítmicas e exponenciais gerais. Crescimento exponencial e decadência. Funções trigonométricas inversas. Projeto aplicado: Onde sentar no cinema. Funções hiperbólicas. Formas indeterminadas e regra de L'Hospital. Projeto de redação: As origens da regra de L'Hospital.
8. TÉCNICAS DE INTEGRAÇÃO.
Integração por partes. Integrais trigonométricos. Substituição trigonométrica. Integração de funções racionais por frações parciais. Estratégia de Integração. Integração usando tabelas e sistemas de álgebra computacional. Projeto de descoberta: Padrões em integrais. Integração aproximada. Integrais impróprios.
9. OUTRAS APLICAÇÕES DE INTEGRAÇÃO.
Comprimento do arco. Projeto de descoberta: Concurso de comprimento de arco. Área de uma superfície de revolução. Projeto de descoberta: girando inclinado. Aplicações à Física e Engenharia. Projeto Descoberta: Copos de Café Complementares. Aplicações à Economia e Biologia. Probabilidade.
10. EQUAÇÕES DIFERENCIAIS.
Modelagem com Equações Diferenciais. Campos de direção e método de Euler. Equações separáveis. Projeto aplicado: o que é mais rápido, subindo ou descendo? Modelos de crescimento populacional. Projeto Aplicado: Cálculo e Beisebol. Equações lineares. Sistemas Predador-Presa. Equações PARAMÉTRICAS e Coordenadas Polares.
Curvas definidas por equações paramétricas. Projeto de Laboratório: Famílias de Hipociclóides. Cálculo com curvas paramétricas. Projeto de Laboratório: Curvas de Bézier. Coordenadas polares. Áreas e comprimentos em coordenadas polares. Seções cônicas. Seções cônicas em coordenadas polares.
11. SEQUÊNCIAS E SÉRIES INFINITAS.
Sequências. Projeto de Laboratório: Sequências Logísticas. Series. O teste integral e estimativas de somas. Os testes de comparação. Séries alternadas. Convergência absoluta e os testes de razão e raiz. Estratégia para séries de teste. Power Series. Representação de funções como séries de potência. Série Taylor e Maclaurin. Projeto de redação: Como Newton descobriu a série binomial. Aplicações de Polinômios de Taylor. Projeto Aplicado: Radiação das Estrelas.
12. VETORES E A GEOMETRIA DO ESPAÇO.
Sistemas de coordenadas tridimensionais. Vetores. O produto interno. O produto cruzado. Projeto de descoberta: a geometria de um tetraedro. Equações de linhas e planos. Cilindros e Superfícies Quádricas.
13. FUNÇÕES DE VETOR.
Funções vetoriais e curvas de espaço. Derivadas e integrais de funções vetoriais. Comprimento e curvatura do arco. Movimento no espaço: velocidade e aceleração. Projeto aplicado: Leis de Kepler.
14. DERIVADOS PARCIAIS.
Funções de várias variáveis. Limites e continuidade. Derivados parciais. Planos tangentes e aproximações lineares. A regra da cadeia. Derivados direcionais e o vetor gradiente. Valores máximo e mínimo. Projeto aplicado: projetando uma caçamba de lixo. Projeto de descoberta: aproximações quadráticas e pontos críticos. Multiplicadores de Lagrange. Projeto aplicado: Rocket Science. Projeto Aplicado: Otimização da Hidro-Turbina.
15. MÚLTIPLOS INTEGRAIS.
Integrais duplos sobre retângulos. Integrais iterados. Integrais duplos sobre regiões gerais. Integrais duplos em coordenadas polares. Aplicações de Integrais Duplos. Integrais triplos. Projeto Discovery: Volumes of Hyperspheres. Integrais triplos em cilíndricos. Projeto de descoberta: a intersecção de três cilindros. Integrais triplos em coordenadas esféricas. Projeto aplicado: Roller Derby. Mudança de variáveis ​​em integrais múltiplos. 17. CÁLCULO DO VETOR. Campos de vetor. Integrais de linha. O Teorema Fundamental para Integrais de Linha. Teorema de Green. Ondulação e Divergência. Superfícies paramétricas e suas áreas. Integrais de superfície. Teorema de Stokes. Projeto de Escrita: Três Homens e Dois Teoremas. O Teorema da Divergência. Resumo.
16. CÁLCULO DO VETOR
Campos Vetoriais, Integrais de Linha, Teorema Fundamental para Integrais de Linha, Teorema de Green, Ondulação e Divergência, Superfícies Paramétricas e suas Áreas, Integrais de Superfície, Teorema de Stokes, Projeto de Escrita • Três Homens e Dois Teoremas, Teorema da Divergência
17. EQUAÇÕES DIFERENCIAIS DE SEGUNDA ORDEM.
Equações lineares de segunda ordem. Equações lineares não homogêneas. Aplicações de equações diferenciais de segunda ordem. Soluções em série.
Apêndices.
R: Intervalos, desigualdades e valores absolutos. B: Coordenadas de geometria e linhas. C: Gráficos de equações de segundo grau. D: Trigonometria. E: Notação Sigma. F: Provas de Teoremas. G. Números complexos. H: Respostas a exercícios ímpares.

Não somos os proprietários deste livro / notas. Disponibilizamos já disponível na Internet. Para mais querries entre em contato conosco. Nós nunca APOIAMOS A PIRATARIA. Esta cópia foi fornecida para alunos com problemas financeiros, mas que desejam estudar para aprender. Se você acha que este material é útil, peça-o legalmente aos EDITORES. Obrigada.


Códigos Lineares

MinJia Shi,. Patrick Sole, em Codes and Rings, 2017

5.2 Independência Modular

Em geral, sobre um anel semilocal finito, não existe uma forma de matriz simples como na seção anterior. Uma forma padrão, usando o CRT, foi definida em [5] para o caso de anéis Z m, e generalizada para PIRs finitos em [1]. Nossas exposições seguem [1].

Exercício 5.6

Seja R = Z 4 [x] / (x 2). Mostra isso R é Frobenius local, mas não um anel de corrente.

Primeiro, defina independência modular sobre um anel Frobenius local R, com o ideal máximo M. Uma família de s vetores w 1, ..., w s é dito ser modular independente se houver qualquer relação de combinação linear

Nós definimos um base de um código sobre um anel de Frobenius finito como um sistema de vetores que é independente, modular independente e abrangente. Conforme observado em [1, Observação 2], as duas propriedades de independência e independência modular são logicamente independentes.

Exercício 5.7

Seja R = Z 12 e w 1 = (11, 7), w 2 = (3, 9). Mostre que o sistema é modular independente, mas não independente.

Exercício 5.8

Seja R = Z 12 e w 1 = (4, 0), w 2 = (0, 3). Mostre que o sistema é independente, mas não é independente modular.

O seguinte resultado é derivado de [4, Th. 25.4.6.B] e [4, Th. 25.3.3] em [1, Th. 4,4].

Se C é um código de comprimento n sobre um PIR R finito, então existe uma torre de ideais (d 1) ⊆ (d 2) ⊆ ⋯ ⊆ (d r) , de modo que temos o isomorfismo dos módulos R

Denotando o isomorfismo acima como ϕ, e por e i a imagem da base canônica de R r, no produto direto R / (d 1) × ⋯ × R / (d r), temos o seguinte resultado de existência para uma base.

Teorema 5.10

[1, Th. 4,6] Deixar v i = ϕ - 1 (e i) para i = 1, ..., r . O sistema v 1, ..., v r é uma base de C.


Livros Relacionados

Aspectos da teoria quântica de campos no espaço-tempo curvo

O que é uma teoria quântica de campos?

Uma primeira introdução para matemáticos

Teoria Quântica de Campos para Matemáticos

Solitons topológicos e não topológicos em teorias de campo escalar

Topologia, geometria e teoria quântica de campos

Anais do Simpósio de Oxford de 2002 em homenagem ao 60º aniversário de Graeme Segal

Novos rumos no Hopf Algebras


Autor (es)

Biografia

Kenneth B. Howell obteve o diploma de bacharel em matemática e física no Instituto de Tecnologia Rose-Hulman, e mestrado e doutorado em matemática na Universidade de Indiana. Por mais de trinta anos, ele foi professor do Departamento de Ciências Matemáticas da Universidade do Alabama em Huntsville (aposentando-se em 2014). Durante sua carreira acadêmica, o Dr. Howell publicou vários artigos de pesquisa em matemática aplicada e teórica em revistas de prestígio, atuou como cientista de pesquisa em consultoria para várias empresas e agências federais nas indústrias espacial e de defesa, e recebeu prêmios do College and University por se destacarem ensino. Ele também é o autor de Principles of Fourier Analysis (Chapman & amp Hall / CRC, 2001).


7.7E: O Método de Frobenius II (Exercícios) - Matemática

lógica matemática parte II, rene cori, daniel lascar [pdf]

Lógica matemática: um curso com exercícios Parte II por Rene Cori, Daniel Lascar, Donald H. Pelletier

MathSchoolinternational contém mais de 5000 livros em PDF gratuitos de matemática e livros em PDF gratuitos de física. Que cobrem quase todos os tópicos para alunos de Matemática, Física e Engenharia. Aqui está uma lista extensa de e-books de matemática básica. Esperamos que os alunos e professores gostem desses livros, notas e manuais de solução.

Parabéns, o link está disponível para download gratuito.

Como fazer o download de um livro ?,. Preciso de ajuda?

Sobre este livro :-
Lógica Matemática: Um Curso com Exercícios Parte II escrito por Rene Cori, Daniel Lascar, Donald H. Pelletier
Este livro é baseado na experiência de vários anos no ensino de lógica na UFR de Matemática da Universidade de Paris 7, no nível de graduação inicial, bem como no DEA de Lógica e nos Fundamentos da Ciência da Computação. Assim que o autor começou a preparar nossas primeiras palestras, percebeu que seria muito difícil apresentar aos nossos alunos trabalhos gerais sobre lógica escritos em (ou mesmo traduzidos para) francês. Os autores, portanto, decidiram aproveitar esta oportunidade para corrigir a situação. Assim, as primeiras versões dos oito capítulos que você está prestes a ler foram elaboradas ao mesmo tempo em que seu conteúdo estava sendo ensinado. Os autores insistem em agradecer calorosamente a todos os alunos que assim contribuíram para uma melhoria tangível da apresentação inicial.
A lógica forma a base da matemática e, portanto, é uma parte fundamental de qualquer curso de matemática. É um elemento importante na ciência da computação teórica e passou por um grande renascimento com a importância cada vez maior da ciência da computação. Este texto é baseado em um curso para alunos de graduação e fornece uma introdução clara e acessível à lógica matemática. O conceito de modelo fornece o tema subjacente, dando ao texto uma coerência teórica, mas ainda cobrindo uma ampla área da lógica. Tendo as bases sido estabelecidas na "Parte I", este livro começa com a teoria da recursão, um tópico essencial para o cientista completo. Em seguida, segue os teoremas da incompletude de Gõdel e a teoria axiomática dos conjuntos. O Capítulo 8 fornece uma introdução à teoria do modelo. Existem exemplos em cada seção e uma seleção variada de exercícios no final. As respostas aos exercícios são fornecidas no apêndice.
Rene Cori e Daniel Lascar, Equipe de Logique Mathematique, Universite Paris VII, Traduzido por Donald H. Pelletier, York University, Toronto

Detalhe do livro: -
Título: Lógica Matemática: Um Curso com Exercícios Parte II
Edição:
Autor (es): Rene Cori, Daniel Lascar, Donald H. Pelletier
Editor: imprensa da Universidade de Oxford
Series:
Ano: 2001
Páginas: 347
Modelo: PDF
Língua: inglês
ISBN: 0198500505,9780198500506
País: nós
Obtenha este livros na Amazon

Sobre o autor :-
O autor Rene Cori é um matemático francês.

Junte-se às nossas novas atualizações, alertas: -
Para novas atualizações e alertas, junte-se ao nosso Grupo WhatsApp e Grupo Telegram (você também pode pedir qualquer livro / notas / manual de soluções [pdf]).
Junte-se ao Grupo WhatsApp
Junte-se ao Grupo Telegram

Conteúdo do livro: - Lógica matemática: um curso com exercícios Parte II escrito por Rene Cori, Daniel Lascar, Donald H. Pelletier cobrem os seguintes tópicos.
Introdução
Parte I
1. Cálculo proposicional
2. Álgebras Booleanas
3. Cálculo de predicado
4. Os teoremas da completude
Soluções para os exercícios da Parte I
Parte II
5. Teoria da recursão
6. Formalização da aritmética, teoremas de Gõdel
7. Teoria dos conjuntos
8. Alguma teoria do modelo
Soluções para os exercícios da Parte II
Bibliografia
Índice

Não somos os proprietários deste livro / notas. Disponibilizamos já disponível na Internet. Para mais querries entre em contato conosco. Nós nunca APOIAMOS A PIRATARIA. Esta cópia foi fornecida para alunos com problemas financeiros, mas que desejam estudar para aprender. Se você acha que este material é útil, obtenha-o legalmente dos EDITORES. Obrigada.


7.7E: O Método de Frobenius II (Exercícios) - Matemática

O TEOREMA PERRON-FROBENIUS

Os projetos nesta coleção estão preocupados com modelos de muitas áreas diferentes que são parte de seu propósito, para mostrar que a álgebra linear é um ramo amplamente aplicável da matemática. Se forem revisados ​​como um todo, eles têm algumas características matemáticas comuns: os autovalores são muito úteis e as matrizes estudadas são quase todas não negativas (todas as entradas nelas são iguais ou maiores). Para ser um pouco mais preciso sobre o primeiro, geralmente é apenas o maior, ou dominante, autovalor que precisamos saber.

Isso torna a vida muito mais fácil. Calcular todos os valores próprios de uma matriz pode ser uma tarefa difícil. Para uma matriz 10x10 de um modelo populacional, o Maple freqüentemente tem problemas para computar todos eles. Ainda assim, precisamos apenas de um dos 10 e os métodos mostrados no Projeto # 10 funcionam de forma confiável.

A questão matemática que tudo isso levanta é: como sabemos se o autovalor dominante de uma matriz é positivo? Outra questão é: poderia haver autovalores positivos e negativos do mesmo tamanho? Nesse caso, o comportamento do sistema associado pode ser bem diferente. A resposta a esta pergunta é sim, conforme mostrado no problema 3 do Projeto # 10

Ambas as questões são respondidas pelo Teorema de Perron-Frobenius para matrizes não negativas. Os resultados do teorema dependem do tipo de matriz não negativa que se possui. O primeiro tipo que examinamos é chamado de irredutível.

DEFINIÇÃO Uma matriz nxn não negativa A é dita irredutível se não houver permutação de coordenadas tal que

onde P é uma matriz de permutação nxn (cada linha e cada coluna tem exatamente uma entrada 1 e todas as outras 0), A 11 é rxr e A 22 é (n-r) x (n-r). Esta não é uma definição particularmente inspiradora, visto que apenas nos diz o que NÃO é irredutível. Quase a única coisa que sabemos com certeza é que uma matriz com todas as entradas positivas é irredutível.

Para esclarecer a noção de irredutibilidade, nós a examinamos em três contextos diferentes:

1. Cadeias de Markov. Suponha que A seja a matriz de transição de uma cadeia de Markov. Então, é não negativo e suponha ainda que seja configurado de modo que

a ij = a probabilidade de ir do estado j para o estado i

Se olharmos, digamos, a quarta linha de A, veremos as probabilidades de ir do estado 4 para os vários outros estados (bem como de permanecer no estado 4). Qualquer entrada que seja zero indica que não se pode ir para esse estado a partir do estado 4, pelo menos em uma etapa.

Agora, se A é redutível, por exemplo,

então podemos ver que é possível ir dos estados 1,2 ou 3 para quaisquer estados, mas apenas dos estados 4 ou 5 para eles próprios. Esta é, obviamente, a definição tradicional de estados "absorventes" em uma Cadeia de Markov. A matriz de permutação P mencionada acima simplesmente equivale a rotular os estados de forma que os de absorção sejam os últimos.

2. Gráficos. Se considerarmos gráficos direcionados, então cada um tem associado a ele uma matriz não negativa com todas as entradas 0 ou 1 com

a ij = 1 se houver um arco do vértice i ao vértice j.

Se a matriz associada for irredutível, então pode-se ir de qualquer vértice para qualquer outro vértice (talvez em várias etapas) enquanto se for redutível então (como o caso da Cadeia de Markov), existem vértices dos quais não se pode viajar para todos os outros vértices.

O primeiro caso, no reino da teoria dos grafos, é chamado de gráfico & quot fortemente conectado & quot.

3. Sistemas Dinâmicos. Suponha que, como no caso da população, temos um sistema da forma

e que A é redutível como na definição acima. Então, na forma de matrizes particionadas, pode-se reescrever este sistema como

onde Y tem os primeiros r componentes de X e Z tem o último n-r, então, juntos, eles constituem o vetor original X. (O leitor que não trabalhou com matrizes particionadas ou está enferrujado no assunto deve esboçar os detalhes no nível do componente e verificar se o resultado deve seguir de uma maneira direta.) Embora isso possa não parecer útil à primeira vista , significa que a solução para Z pode ser obtida primeiro, sem referência ao sistema governando Y, e então a solução para Y obtida do sistema (não homogêneo) que trata Z como conhecido. Na linguagem inicial de tal problema, o sistema original foi "reduzido" a dois sistemas mais simples. Para os físicos, ele foi parcialmente desacoplado.

Dizer, então, que a matriz A é irredutível significa que o sistema não pode ser reduzido, ele deve ser tratado como um todo no estudo de seu comportamento.

Embora a discussão acima possa esclarecer a noção de uma matriz irredutível, não ajuda muito a verificar se uma dada matriz é realmente irredutível. Por exemplo, não é flagrantemente óbvio que das duas seguintes matrizes

o último é irredutível, enquanto o primeiro não é. Se fôssemos estritamente pela definição, teríamos que continuar tentando permutações e procurando o aparecimento da submatriz zero crítica. Mas para uma matriz nxn existem, é claro, n! possíveis tais matrizes P gerando uma grande quantidade de trabalho (se A é 10 x 10, então há mais de 3 milhões de possibilidades!).

O teorema a seguir é, portanto, bastante direto e útil.

TEOREMA. A é uma matriz nxn irredutível não negativa se e somente se

(I n + A) n-1 & gt 0. (consulte [12], p.6 para obter detalhes e provas)

Notamos que a potência na expressão acima contém o mesmo n do tamanho da matriz. Uma vez que o software de computador está prontamente disponível para calcular os poderes da matriz, o acima pode ser verificado prontamente. Observe que o resultado também é uma matriz nxn e, se qualquer entrada for zero, a contrapositiva do teorema diz que A é redutível. Referindo-nos às duas matrizes acima, descobrimos que por computação direta

Neste ponto, parece apropriado finalmente declarar o

TEOREMA PERRON-FROBENIUS PARA MATRIZES IRREDUÍVEIS

Se A for nxn, não negativo, irredutível, então

1 um de seus autovalores é positivo e maior ou igual a (em valor absoluto) todos os outros autovalores

2 há um autovetor positivo correspondente a esse autovalor

e 3. esse autovalor é uma raiz simples da equação característica de A.

Tal autovalor é chamado de "autovalor dominante" de A e assumimos daqui em diante que numeramos os autovalores de modo que seja o primeiro. Devemos ressaltar que outros autovalores podem ser positivos, negativos ou complexos (e se forem complexos então por "valor absoluto" queremos dizer módulo, ou distância no plano complexo da origem). Complex eigenvalues are a real possibility as only symmetric matrices are guaranteed to not have them, and very few of the matrices we have been discussing, in application, will be symmetric with the notable exception of undirected graphs. Part 3 of the theorem also merits brief comment. One ramification of it is that the dominant eigenvalue cannot be a multiple root. One will not be left with the classic situation of having more roots than corresponding linearly independent eigenvectors and hence having to worry about or calculate generalized eigenvectors and/or work with Jordan blocks. The same may not be said for the other eigenvalues of A but in the models here, they do not concern us.

Primitive Matrices and the Perron-Frobenius Theorem

Irreducible matrices are not the only nonnegative matrices of possible interest in the models we have looked at. Suppose we have a dynamical system of the form

(this matrix, while containing many suspicious looking zeroes, is indeed irreducible. The easiest way to see this is to construct the associated graph for it and check that you can get from any vertex to any other vertex.)We calculate that its dominant eigenvalue is 1.653 and that an associated eigenvector is (.29,.48,.29,.35,.5,.48) t so based upon the above discussion, we believe the long term behavior of the system to be of the form:

x (k) = c 1 (1.653) k (.29,.48,.29,.35,.5,.48) t (c 1 determined from initial conditions)

Simulation of the system is, of course, quite easy as one just needs to keep multiplying the current solution by A to get the solution one time period later. However, in this case, doing so does not seem to validate the predicted behavior and in fact does not even seem to show any sort of limit at all! (the reader is encouraged to fire up some software, pick an initial condition and see this behavior).

So what went wrong? If one calculates all of the eigenvalues for the matrix, they turn out to be: 1.653,0,0,+- .856i and -1.653. The latter is where the limit problem arises since we are taking integral powers of the eigenvalues, we get an algebraic "flip-flop" effect:

x (k) = c 1 (1.653) k e 1 + . + c 6 (-1.653) k e 6

(It is, by the way, a known result that an irreducible matrix cannot have two independent eigenvectors that are both nonnegative see [16], chapter 2. Thus e 6 in the above expansion has components of mixed sign.)

Thus 1.653 did not turn out to be as neatly "dominant" as we would have liked. If we look back at the statement of the Perron-Frobenius Theorem, we see it guaranteed a positive eigenvalue (with positive eigenvector) with absolute value greater than or equal to that of any other eigenvalue. In the example just considered, the equality was met.

So the question comes up: what stronger condition than irreducibility should one impose so that a nonnegative matrix has a truly dominant eigenvalue strictly greater in absolute value than any other eigenvalue? The answer is that the matrix needs to be "primitive". While there are several possible definitions of "primitive", most of which have a graphical context in terms of cycles, we will state a more general, algebraic definition as the models we may wish to look at are from a diverse group.

DEFINITION An nxn nonnegative matrix A is primitive iff A k > 0 for some power k.

We note the strict inequality all n 2 entries of A k have to be positive for some power. Such a condition, again considering the availability of computer software and ease of use, is easy to check. If one experiments with the 6x6 from the last example, one never finds a power where all 36 entries are positive. The question might come up: how many powers

of A does one have to look at before concluding it is not primitive? If A is primitive then the power which should have all positive entries is less than or equal to n 2 -2n +2 (this is due to Wielandt in 1950, see [ 17 ]). Also, it can be easily shown that if A is primitive than A is irreducible. Thus the class of primitive matrices has as a subset the class of irreducible matrices. Finally, primitive matrices indeed have the desired property in terms of a dominant eigenvalue:

PERRON-FROBENIUS THEOREM FOR PRIMITIVE MATRICES

If A is an nxn nonnegative primitive matrix then

1. one of its eigenvalues is positive and greater than (in absolute value) all other eigenvalues

2. there is a positive eigenvector corresponding to that eigenvalue

3. that eigenvalue is a simple root of the characteristic equation of A.

In addition to the various projects, some other applications which involve the Perron Frobenious Theorem desire mention:

Application #1: Ranking of Football Teams.

James P. Keener has developed several models of schemes for ranking college football teams which may be found in [6].

In general, it should be remarked that graph theory and nonnegative matrices have a very strong relationship and that the Perron-Frobenius Theorem is often a powerful tool in graph theory. The interested reader is referred to, for example, the excellent books by Minc and Varga for an in depth discussion.

As stated above, a graph (directed or not) has associated with it a nonnegative, "adjacency" matrix whose entries are 0s and 1s. A fundamental result about lengths of cycles in the graph may be obtained by determining whether the matrix is primitive or not. The very elegant result which occurs with the help of the Perron-Frobenius Theorem is this:

* if the matrix is primitive (hence a dominant eigenvalue with absolute value strictly greater than that of all other eigenvalues) then the greatest common divisor (gcd) of the lengths of all cycles is 1

* if the matrix is irreducible but not primitive then the greatest common divisor of the lengths of all cycles is the same as the number of eigenvalues with magnitude the same as the dominant eigenvalue (and including it).

It is common to refer to graphs with matrices which are irreducible but not primitive, naturally, as imprimitive and aforementioned gcd. as the index of the graph. It should also be mentioned that the collection of such eigenvalues lie equally spaced in the complex plane on a circle of radius equaling the dominant eigenvalue.

The interested reader is encouraged to examine the following pair of graphs in light of this result:

In the case of the first graph, the eigenvalues are 1,i,-i, and -1 while in the second graph they are 1.221, -.248 +/-1.034i, and -.724, consistent with the gcd of paths for graph 1 being 4 and the gcd of paths for graph 2 being 1.

The Perron-Frobenius Theorem has proven to be a consistently powerful result for examining certain nonnegative matrices arising in discrete models. It has been shown that careful consideration need be given to what hypothesis is used depending on whether one has an irreducible or primitive matrix. In applications, knowledge of the dominant eigenvalue and eigenvector is very helpful and also attainable while knowledge of the rest of the "spectrum" is both unnecessary and computationally extensive.

The author wishes to thank Dr. Kenneth Lane of KDLLabs, Satellite Beach, Florida, for many inspiring insights and conversations concerning the power and richness of the Perron-Frobenius Theorem.

1. Berman, A. and Plemmons R. 1979. Nonnegative Matrices in the Mathematical Sciences. New York: Academic Press.

2. Chartrand, G. 1977. Graphs as Mathematical Models . Boston: Prindle, Weber and Schmidt.

3. Gould, Peter. 1967. The Geographic Interpretation of Eigenvalues. Transactions of the Institute of British Geographers 42: 53-85.

4. Goulet, J. 1982. Mathematical Systems Analysis - A Course. The UMAP Journal 3 (4):395-406.

6. Keener, James P., 1993. The Perron-Frobenius Theorem and the Ranking of Football Teams. SIAM Review 35 (1): 80-93.

7. Kemeny, John and Snell, Laurie. 1960. Finite Markov Chains . New York: Van Nostrand Reinhold.

8. Lane,Kenneth D.. 1983. Computing the Index of a Graph .Congressus Numerantium, 40 ,143-154

9. Luenberger, D.G. 1979. Dynamic Systems . New York: John Wiley.

11. Maki, D.P. and Thompson, M. 1973. Mathematical Models and Applications . Englewood Cliffs, New Jersey: Prentice-Hall.

12. Minc, Henryk.1988. Nonnegative Matrices . New York: John Wiley and Sons.

14. Straffin, Philip D. 1980. Linear Algebra in Geography: Eigenvectors of Networks. Mathematics Magazine 53 (5): 269-276.

16. Varga, Richard S. 1962. Matrix Iterative Analysis . Englewood Cliffs N.J.: Prentice-Hall.

17. Wielandt,H. 1950. "Unzerlegbare nicht negativen Matrizen" Math. Z . 52 , 642-648.


Table of Contents

Conteúdo
Preface
Chapter I. Introduction To Partial Differential Equations
1. Introduction
2. The One-Dimensional Wave Equation
3. Method Of Separation Of Variables
4. The Two-Dimensional Wave Equation
5. Three-Dimensional Wave Equation
6. The Wave Equation In Plane And Cylindrical Polar Coordinates
A. Plane Polars
B. Cylindrical Polars
7. The Wave Equation In Spherical Polar Coordinates
8. Laplace's Equation In Two Dimensions
A. Cartesian Coordinates
B. Polar Coordinates
9. Laplace's Equation In Three Dimensions
10. The Diffusion Or Heat Flow Equation
10.1. Neutron Diffusion
11. A Fourth Order Partial Differential Equation
12. The Bending Of An Elastic Plate — The Biharmonic Equation
13. Characteristics
13.1. Cauchy's Problem
13.2. Reduction Of (13.1.1) To The Standard Form
13.3. Riemann's Method Of Solution Of (13.1.1)
13.4. Numerical Integration Of Hyperbolic Differential Equations
Problems
General References
Chapter II. Ordinary Differential Equations: Frobenius' And Other Methods Of Solution
1. Introduction
2. Solution In Series By The Method Of Frobenius
3. Bessel's Equation
4. Legendre's Equation
5. Hyper Geometric Equation
6. Series Solution About A Point Other Than The Origin
6.1. The Transformation X = (1 - ξ)/2
7. Series Solution In Descending Powers Of X
8. Confluent Hypergeometric Equation
8.1. Laguerre Polynomials
8.2. Hermite Polynomials
9. Asymptotic Or Semi-Convergent Series
10. Change Of Dependent Variable
11. Change Of The Independent Variable
12. Exact Equations
13. The Inhomogeneous Linear Equation
14. Perturbation Theory For Non-Linear Differential Equations
14.1. The Perturbation Method
14.2. Periodic Solutions
Problems
General References
Chapter III. Bessel And Legendre Functions
1. Definition Of Special Functions 127
2. Jn(X), The Bessel Function Of The First Kind Of Order N
2.1. Recurrence Relations: Jn(X)
3. Bessel Function Of The Second Kind Of Order N, Yn(X)
4. Equations Reducible To Bessel's Equation
5. Applications
6. Modified Bessel Functions: In(X), Kn(X)
6.1. Recurrence Relations For In(X) And Kn(X)
6.2. Equations Reducible To Bessel's Modified Equation
6.3. Bessel Functions Of The Third Kind (Hankel Functions)
7. Illustrations Involving Modified Bessel Functions
8. Orthogonal Properties
8.1. Expansion Of F(X) In Terms Of Jn(ξix)
8.2. Jn(X) As An Integral (Where N Is Zero Or An Integer)
8.3. Other Important Integrals
9. Integrals Involving The Modified Bessel Functions
10. Zeros Of The Bessel Functions
11. A Generating Function For The Legendre Polynomials
11.1. Recurrence Relations
11.2. Orthogonality Relations For The Legendre Polynomials
11.3. Associated Legendre Functions
12. Applications From Electromagnetism
13. Spherical Harmonics
14. The Addition Theorem For Spherical Harmonics
Problems
General References
Chapter IV. The Laplace And Other Transforms
1. Introduction
2. Laplace Transforms And Some General Properties
3. Solution Of Linear Differential Equations With Constant Coefficients
4. Further Theorems And Their Application
5. Solution Of The Equation Φ(D)x(t) = F(t) By Means Of The Convolution Theorem
6. Application To Partial Differential Equations
7. The Finite Sine Transform
8. The Simply Supported Rectangular Plate
9. Free Oscillations Of A Rectangular Plate
10. Plate Subject To Combined Lateral Load And A Uniform Compression
11. The Fourier Transform
Problems
Chapter V. Matrices
1. Introduction
1.1. Definitions
2. Determinants
2.1. Evaluation Of Determinants
3. Reciprocal Of A Square Matrix
3.1. Determinant Of The Adjoint Matrix
4. Solution Of Simultaneous Linear Equations
4.1. Choleski-Turing Method
4.2. A Special Case: The Matrix A Is Symmetric
5. Eigenvalues (Latent Roots)
5.1. The Cayley-Hamilton Theorem
5.2. Iterative Method For Determination Of Eigenvalues
5.3. Evaluation Of Subdominant Eigenvalue
6. Special Types Of Matrices
6.1. Orthogonal Matrix
6.2. Hermitian Matrix
7. Simultaneous Diagonalization Of Two Symmetric Matrices
Problems
General References
Chapter VI. Analytical Methods In Classical And Wave Mechanics
1. Introduction
2. Definitions
3. Lagrange's Equations Of Motion For Holonomic Systems
3.1. Derivation Of The Equations
3.2. Conservative Forces
3.3. Illustrative Examples
3.4. Energy Equation
3.5. Orbital Motion
3.6. The Symmetrical Top
3.7. The Two-Body Problem
3.8. Velocity-Dependent Potentials
3.9. The Relativistic Lagrangian
4. Hamilton's Equations Of Motion
5. Motion Of A Charged Particle In An Electromagnetic Field
6. The Solution Of The Schrödinger Equation
6.1. The Linear Harmonic Oscillator
6.2. Spherically Symmetric Potentials In Three Dimensions
6.3. Two-Body Problems
Problems
General References
Chapter VII. Calculus Of Variations
1. Introduction
2. The Fundamental Problem: Fixed End-Points
2.1. Special Cases
2.2. Variable End-Points
2.3. A Generalization Of The Fixed End-Point Problem
2.4. One Independent, Several Dependent Variables
2.5. One Dependent And Several Independent Variables
3. Isoperimetric Problems
4. Rayleigh-Ritz Method
4.1. Sturm-Liouville Theory For Fourth-Order Equations
5. Torsion And Viscous Flow Problems
5.1. Torsional Rigidity
5.2. Trefftz Method
5.3. Generalization To Three Dimensions
6. Variational Approach To Elastic Plate Problems
6.1. Boundary Conditions
6.2. Buckling Of Plates
7. Binding Energy Of The He4 Nucleus
8. The Approximate Solution Of Differential Equations
Problems
General References
Chapter VIII. Complex Variable Theory And Conformal Transformations
1. The Argand Diagram
2. Definitions Of Fundamental Operations
3. Function Of A Complex Variable
3.1. Cauchy-Riemann Equations
4. Geometry Of Complex Plane
5. Complex Potential
5.1. Uniform Stream
5.2. Source, Sink And Vortex
5.3. Doublet (Dipole)
5.4. Uniform Flow + Doublet -F Vortex. Flow Past A Cylinder
5.5. A Torsion Problem In Elasticity
6. Conformal Transformation
6.1. Bilinear (Möbius) Transformation
7. Schwarz-Christoffel Transformation
7.1. Applications
7.2. The Kirchhoff Plane
8. Transformation Of A Circle Into An Aerofoil
Problems
General References
Chapter IX. The Calculus Of Residues
1. Definition Of Integration
2. Cauchy's Theorem
3. Cauchy's Integral
3.1. Differentiation
4. Series Expansions
4.1. Laurent's Theorem
5. Zeros And Singularities
5.1. Residues
6. Cauchy Residue Theorem
6.1. Application Of Cauchy's Theorem
6.2. Flow Round A Cylinder
6.3. Definite Integrals. Integration Round Unit Circle
6.4. Infinite Integrals
6.5. Jordan's Lemma
6.6. Another Type Of Infinite Integral
7. Harnack's Theorem And Applications
7.1. The Schwarz And Poisson Formulas
7.2. Application Of Conformai Transformation To Solution Of A Torsion Problem
8. Location Of Zeros Of f(z)
8.1. Nyquist Stability Criterion
9. Summation Of Series By Contour Integration
10. Representation Of Functions By Contour Integrals
10.1. Gamma Function
10.2. Bessel Functions
10.3. Legendre's Function As A Contour Integral
11. Asymptotic Expansions
12. Saddle-Point Method
Problems
General References
Chapter X. Transform Theory
1. Introduction
1.1. Complex Fourier Transform
1.2. Laplace Transform
1.3. Hilbert Transform
1.4. Hankel Transform
1.5. Mellin Transform.
2. Fourier's Integral Theorem
3. Inversion Formulas
3.1. Complex Fourier Transform
3.2. Fourier Sine And Cosine Transforms
3.3. Convolution Theorems For Fourier Transforms
4. Laplace Transform
4.1. The Inversion Integral On The Infinite Circle
4.2. Exercises In The Use Of The Laplace Transform
4.3. Linear Approximation To Axially Symmetrical Supersonic Flow
4.4. Supersonic Flow Round A Slender Body Of Revolution
5. Mixed Transforms
5.1. Linearized Supersonic Flow Past Rectangular Symmetrical Aerofoil
5.2. Heat Conduction In A Wedge
6. Integral Equations
6.1. The Solution Of A Certain Type Of Integral Equation Of The First Kind
6.2. Poisson's Integral Equation
6.3. Abel's Integral Equation
7. Hilbert Transforms
7.1. Infinite Hilbert Transform
7.2. Finite Hilbert Transform
7.3. Alternative Forms Of The Finite Hilbert Transform
Problems
General References
Chapter XI. Numerical Methods
1. Introduction
1.1. Finite Difference Operators
2. Interpolation And Extrapolation
2.1. Linear Interpolation
2.2. Everett's And Bessel's Interpolation Formulas
2.3. Inverse Interpolation
2.4. Lagrange Interpolation Formula
2.5. Formulas Involving Forward Or Backward Differences
3. Some Basic Expansions
4. Numerical Differentiation
5. Numerical Evaluation Of Integrals
5.1. Note On Limits Of Integration
5.2. Evaluation Of Double Integrals
6. Euler-Maclaurin Integration Formula
6.1. Summation Of Series
7. Solution Of Ordinary Differential Equations By Means Of Taylor Series
8. Step-By-Step Method Of Integration For First-Order Equations
8.1. Simultaneous First-Order Equations And Second-Order Equations With The First Derivative Present
8.2. The Second-Order Equation y" = f(x,y)
8.3. Alternative Method For The Linear Equation y" = g(x)y + h(x)
9. Boundary Value Problems For Ordinary Differential Equations Of The Second Order
9.1. Approximate Solution Of Eigenvalue Problems By Finite Differences
9.2. Numerical Solution Of Eigenvalue Equations
10. Linear Difference Equations With Constant Coefficients
11. Finite Differences In Two Dimensions
Problems
General References
Chapter XII. Integral Equations
1. Introduction
1.1. Types Of Integral Equations
1.2. Some Simple Examples Of Linear Integral Equations
2. Volterra Integral Equation Form For A Differential Equation
2.1. Higher Order Equations
3. Fredholm Integral Equation Form For Sturm-Liouville Differential Equations
3.1. The Modified Green's Function
3.2. Green's Function For Fourth-Order Differential Equations
4. Numerical Solution
4.1. The Numerical Solution Of The Homogeneous Equation
4.2. The Volterra Equation
4.3. Iteration Method Of Solution
5. The Variation-Iteration Method For Eigenvalue Problems
Problems
General References
Appendix
1. Δ2Φ In Spherical And Cylindrical Polar Coordinates
1.1. Plane Polar Coordinates
1.2. Cylindrical Polar Coordinates
1.3. Spherical Polar Coordinates
2. Partial Fractions
3. Sequences, Series, And Products
3.1. Sequences
3.2. Series
3.3. Infinite Products
4. Maxima And Minima For Functions Of Two Variables
4.1. Euler's Theorem Of Homogeneous Functions
4.2. The Expansion Of (Sinh aU/)/(Sinh U) In Powers Of 2 Sinh (½)
5. Integration
5.1. Uniform Convergence Of Infinite Integrals
5.2. Change Of Variables In A Double Integral
5.3. Special Integrals
5.4. Elliptic Integrals
6. Principal Valued Integrals
7. Vector Algebra And Calculus
7.1. Curvilinear Coordinates
7.2. The Equation Of Heat Conduction
7.3. Components Of Velocity And Acceleration In Plane Polar Coordinates
7.4. Vectors, Dyads And Tensors
8. Legendre Functions Of Non-Integral Order
8.1. The Value Of Pv(0)
9. An Equivalent Form For F(a,bcx)
10. Integrals Involving Ln(k)(x)
Problems
General References
Solutions Of Problems
Chapter I
Chapter II
Chapter III
Chapter IV
Chapter V
Chapter VI
Chapter VII
Chapter VIII
Chapter IX
Chapter X
Chapter XI
Chapter XII
Appendix
Subject Index


Handbook of the Geometry of Banach Spaces

5 Invariant subspaces of positive operators

In this section we will discuss the Invariant Subspace Problem for operators that are either positive or closely associated with positive operators. The general theory concerning the invariant subspace problem will be presented in a separate article prepared for this volume by Enflo and Lomonosov.

The invariant subspace problem . Does a continuous linear operator T : XX on a Banach space have a non-trivial closed invariant subspace?

A vector subspace is “non-trivial” if it is different from <0>and X. A subspace V of X é T-invariant if T(V) ⊆ V. Se V is invariant under every continuous operator that commutes with T, then V is called T-hyperinvariant.

Se X is a finite dimensional complex Banach space of dimension greater than one, then each non-zero operator T has a non-trivial closed invariant subspace. On the other hand, if X is non-separable, then the closed vector subspace generated by the orbit < x , T x , T 2 x , … >of any non-zero vector x is a non-trivial closed T-invariant subspace. Thus, the “invariant subspace problem” is of substance only when X is an infinite dimensional separable Banach space. Accordingly, without any further mentioning, all Banach spaces under consideration in this section will be assumed to be infinite dimensional separable real or complex Banach spaces. The only exception will be made while discussing the Perron–Frobenius Theorem.

In 1976, Enflo [ 56 ] was the first to construct an example of a continuous operator on a separable Banach space without a non-trivial closed invariant subspace, and thus he demonstrated that in this general form the invariant subspace problem has a negative answer. Subsequently, Read [ 115–117 ] has constructed a class of bounded operators on ℓ1 without invariant subspaces. For operators on a Hilbert space, the existence of an invariant subspace is still unknown and is one of the famous unsolved problems of modern mathematics. Due to the above counterexamples, the present study of the invariant subspace problem for operators on Banach spaces has been focused on various classes of operators for which one can expect the existence of an invariant subspace.

We start our invariant subspace results with a version of the classical Perron–Frobenius theorem for positive matrices. As usual, we denote by r(T) the spectral radius of an operator T.

If A is a non-negative n × n matrix such that for some k ≥ 1 the matrix A k has strictly positive entries, then the spectral radius of A is a strictly positive eigenvalue of multiplicity one having a strictly positive eigenvector.

The proof of this theorem, discovered by Frobenius [ 60 ] and Perron [ 108 ], is available in practically every book treating non-negative matrices, for instance in [ 33,35,98 ]. One more proof of the Perron–Frobenius theorem as well as many interesting generalizations can be found in [ 112 ]. If all entries of UMA are strictly positive, then the sequence < 1 [ r ( A ) ] k A k u >converges to a unique strictly positive eigenvector corresponding to the eigenvalue r(UMA), no matter which initial vector você > 0 is chosen. This fact has numerous applications. A major step in extending the Perron–Frobenius Theorem to infinite dimensional settings was done by Krein and Rutman [ 82 ] who proved the following theorem.

For any positive operator T : XX on a Banach lattice r(T) ∈ σ(T), i.e., the spectral radius of T belongs to the spectrum of T. Furthermore, if T is also compact and r(T) > 0, then there exists some x > 0 such that T x = r(T)x.

Proof . We will sketch a proof. The inclusion r(T) ∈ σ(T) is caused merely by the positivity of T. Indeed, if we denote by R(λ) the resolvent operator of T, then clearly R(λ) > 0 for each λ > r(T), Also for each λ with |λ| > r(T) the inequality || R ( | λ | ) || ≥ || R ( λ ) || holds. Therefore, for λ n = r ( T ) + 1 n we have || R ( λ n ) || → ∞ , whence r(T) ∈ σ(T).

Assume further that T is compact and r(T) > 0. There exist unit vectors ynX+ such that || R ( λ n ) y n || → ∞ . Using the vectors yn, we introduce the unit vectors x n = R ( λ n ) y n / || R ( λ n ) y n || ∈ X + . Desde T is compact we can assume that TxnxX+. Finally, using the identities

The conclusion of the previous theorem remains valid if we replace the compactness of T by the compactness of some power of T. Indeed, assume that T k is compact for some k. Since r ( T k ) = [ r ( T ) ] k > 0 the previous theorem implies that there is a vector x > 0 such that T k x = [ r ( T ) ] k x . It remains to verify that the non-zero positive vector y = ∑ i = 0 k − 1 r i T k − 1 − i x is an eigenvector of T corresponding to the eigenvalue r(T).

The reader is referred to [ 121,123,144 ] for complete proofs and many pertinent results concerning the Krein–Rutman theorem. Some relevant results can be found in [ 4 ]. Note that the Krein–Rutman theorem holds not only for Banach lattices but for ordered Banach spaces as well. There is an interesting approach allowing to relax the compactness assumption. Namely, as shown by Zabre i ⌣ ko and Smickih [ 146 ] and independently by Nussbaum [ 102 ], instead of the compactness of T it is enough to assume only that the essential spectral radius re(T) is strictly less than the spectral radius r(T) A different type of relaxation is considered in [ 121 ], where the restriction of T para X+ is assumed to be compact, that is, T maps the positive part of the unit ball into a precompact set. A version of this result, given in terms of re(T), can be found in [ 102 ].

Another classical result by M. Krein [ 82 , Theorem 6.3] is the following.

Let T : C(Ω) → C(Ω) be a positive operator, where Ω is a compact Hausdorff space. Then T * , the adjoint of T, has a positive eigenvector corresponding to a non-negative eigenvalue.

Proof . Consider the set G = < f ∈ C ( Ω ) + * : f ( 1 ) = 1 >, where 1 denotes the constant function one on Ω. Clearly, G is a nonempty, convex, and C * -compact subset of C(Ω) * . Next, define the mapping F : GG de

A proof of Theorem 34 that does not use fixed point theorems can be found in [ 77 ].

Every positive operator on a C(Ω)-space (Onde Ω is Hausdorff, compact and not a singleton) which is not a multiple of the identity has a non-trivial hyperinvariant closed subspace.

Proof . Let T : C(Ω) → C(Ω) be a positive operator which is not a multiple of the identity. By Theorem 34 the adjoint operator T * has a positive eigenvector. If λ. denotes the corresponding eigenvalue, then the subspace ( T − λ I ) ( x ) ¯ has the desired properties.

Recall that a continuous operator T : XX on a Banach space is said to be quasinilpotent if its spectral radius is zero. It is well known that T is quasinilpotent if and only if lim n → ∞ || T n x || 1 / n = 0 for each xX. It can happen that a continuous operator T : XX is not quasinilpotent but, nevertheless, lim n → ∞ || T n x || 1 / n = 0 for some x ≠ 0. In this case we say that T é locally quasinilpotent at x. This property was introduced in [ 6 ], where it was found to be useful in the study of the invariant subspace problem. The set of points at which T is quasinilpotent is denoted by Q T, i.e., Q T = < x ∈ X : lim n → ∞ || T n x || 1 / n = 0 >.

It is easy to prove that the set Q T é um T-hyperinvariant vector subspace. We formulate below a few simple properties of the vector space Q T.

The operator T is quasinilpotent if and only if Q T = X.

Q T = <0>is possible — every isometry T satisfies Q T = <0>. Notice also that even a compact positive operator can fail to be locally quasinilpotent at every non-zero vector. For instance, consider the compact positive operator T : ℓ2 → ℓ2 defined by T ( x 1 , x 2 , … ) = ( x 1 , x 2 2 , x 3 3 , ⋯ ) . For each non-zero x ∈ ℓ2 pick some k para qual xk ≠ 0 and note that || T n x || 1 / n ≥ 1 k | x k | 1 / n for each n, from which it follows that T is not quasinilpotent at x.

Q T can be dense without being equal to X. For instance, the left shift S: ℓ2 → ℓ2, defined by S ( x 1 , x 2 , x 3 , … ) = ( x 2 , x 3 , … ) , has this property.

If Q T ≠ <0>and Q T ¯ ≠ X , then Q T ¯ is a non-trivial closed T-hyperinvariant subspace of X.

The above properties show that as far as the invariant subspace problem is concerned, we need only consider the two extreme cases: Q T = <0>and Q T ¯ = X .

We are now ready to state the main result about the existence of invariant subspaces of positive operators on ℓp-spaces. It implies, in particular, that if a positive operator is quasinilpotent at a non-zero positive vector, then the operator has an invariant subspace. This is an improvement of the main result in [ 6 ].

Let T : ℓ p → ℓ p ( 1 ≤ p < ∞ ) be a continuous operator with modulus. If there exists a non-zero positive operator S : ℓp → ℓp which is quasinilpotent at a non-zero positive vector and S|T| ≤ |T|S, then T has a non-trivial closed invariant ideal.

We do not know presently if an analogue of the previous result is true if the inequality S|T| ≤ |T|S is replaced by S|T| ≥ |T|S. However, if we assume additionally that S is quasinilpotent (rather than just being locally quasinilpotent), then such an analogue is true.

We now state several immediate consequences of the preceding results.

Assume that a positive matrix A = [umaij] defines an operator on anp-space (1 ≤ p < ∞) which is locally quasinilpotent at some non-zero positive vector. Se w = < w i j : i , j = 1 , 2 , … >is an arbitrary bounded double sequence of complex numbers, then the continuous operator defined by the weighted matrix A w = [ w i j a i j ] has a non-trivial closed invariant subspace. Moreover, all these operators AC have a common non-trivial closed invariant subspace.

Prova. By Theorem 36 , the operator UMA has a non-trivial closed invariant ideal J. Now if B = [bij] is a matrix such that |B| ≤ cA, then from | B x | ≤ | B | ( | x | ) ≤ c A ( | x | ) it follows that BxJ for each xJ, i.e., J é B-invariant. It remains to let B = UMAC.

It is worth mentioning that in the preceding corollary our assumption that the weights are bounded is not necessary. It suffices to assume only that the modulus of the matrix UMAC defines an operator on ℓp.

If the modulus of a bounded operator T : ℓ p → ℓ p ( 1 ≤ p < ∞ ) exists and is locally quasinilpotent at a non-zero positive vector, then T has a non-trivial closed invariant subspace.

Every positive operator on anp-space (1 ≤ p < ∞) which is locally quasinilpotent at a non-zero positive vector has a non-trivial closed invariant subspace.

For quasinilpotent positive operators on ℓ2, Corollary 39 was also obtained in [ 48 ]. Although Theorem 36 and its corollaries are new even for a quasinilpotent operator on ℓp, their main attractiveness is due to the fact that we do not really need to know that a positive operator T : ℓp → ℓp is quasinilpotent. The only thing needed is the existence of a single vector x0 > 0 for which || T n x 0 || 1 / n → 0 . This alone implies that T has a non-trivial closed invariant subspace of a simple geometric form. In view of this, the following important question arises. How can we recognize by “looking at” a matrix [tij] defining a positive operator T : ℓp → ℓp if the set of positive vectors at which T is locally quasinilpotent is non-trivial? This question is addressed in [ 9 ].

A very interesting open problem related to Corollary 39 is whether or not each positive operator on ℓ1 has a nontrivial closed invariant subspace. Since each continuous operator on ℓ1 has a modulus (see Theorem 10 ), a natural candidate to test this problem is the modulus of any operator on ℓ1 without a nontrivial closed invariant subspace. In particular, each operator on ℓ1 without invariant subspace constructed by Read [ 115,117 ] is such a candidate. Troitsky [ 131 ] has recently managed to handle the case of the quasinilpotent operator T constructed by Read in [ 117 ]. Not only does |T| have a nontrivial closed invariant subspace, but |T| also has a positive eigenvector.

In our previous discussion, we were considering only operators on ℓp-spaces. However, we only used the discreteness of ℓp-spaces, the above results remain true for operators on arbitrary discrete Banach lattices, 3 in particular, for operators on Lorentz and Orlicz sequence spaces. For instance, the following analogue of Theorem 36 is true.

Let T : XX be a continuous operator with modulus, where X is a discrete Banach lattice. If there exists a non-zero positive operator S: XX which is locally quasinilpotent at a non-zero positive vector and S|T| ≤ |T|S (in particular this holds if S commutes with |T|), then T has a non-trivial closed invariant subspace.

Generalizing the approach developed in [ 5–7 ] for individual operators, Drnovšek [ 53 ] and Jahandideh [ 69 ] considered various collections of positive operators (for instance semigroups of operators) and proved the existence of common invariant subspaces for such collections. The main result in [ 53 ] is given next.

Let S be a (multiplicative or additive) semigroup of positive operators on a Banach lattice X. If there exists a discrete element x0X such that each operator in S is locally quasinilpotent at x0, então S has a common non-trivial closed invariant ideal.

We refer to [ 8 ] for generalizations of some of the results in this section to Banach spaces with a Schauder basis. The situation with non-discrete spaces is considerably more complicated and will be discussed in the next section.


Frobenius Splitting Methods in Geometry and Representation Theory

The theory of Frobenius splittings has made a significant impact in the study of the geometry of flag varieties and representation theory. This work, unique in book literature, systematically develops the theory and covers all its major developments.

* Concise, efficient exposition unfolds from basic introductory material on Frobenius splittings—definitions, properties and examples—to cutting edge research

* Studies in detail the geometry of Schubert varieties, their syzygies, equivariant embeddings of reductive groups, Hilbert Schemes, canonical splittings, good filtrations, among other topics

* Applies Frobenius splitting methods to algebraic geometry and various problems in representation theory

* Many examples, exercises, and open problems suggested throughout

* Comprehensive bibliography and index

This book will be an excellent resource for mathematicians and graduate students in algebraic geometry and representation theory of algebraic groups.