Artigos

4.6: Teorema de Cauchy


O teorema de Cauchy é análogo ao teorema de Green para campos vetoriais livres de onda.

Teorema ( PageIndex {1} ) Teorema de Cauchy

Suponha que (A ) seja uma região simplesmente conectada, (f (z) ) seja analítica em (A ) e (C ) seja uma curva fechada simples em (A ). Então, as três coisas a seguir são válidas:

(i) ( int_ {C} f (z) dz = 0 )

(i ') Podemos descartar o requisito de que (C ) é simples na parte (i).

(ii) Integrais de (f ) em caminhos dentro de (A ) são independentes de caminho. Ou seja, dois caminhos com os mesmos terminais se integram ao mesmo valor.

(iii) (f ) tem uma antiderivada em (A ).

Prova

Vamos provar (i) usando o teorema de Green - poderíamos dar uma prova que não dependesse do teorema de Green, mas seria bastante semelhante em sabor à prova do teorema de Green.

Seja (R ) a região dentro da curva. E escreva (f = u + iv ). Agora escrevemos a integral da seguinte forma

[ int_ {C} f (z) dz = int_ {C} (u + iv) (dx + idy) = int_ {C} (u dx - v dy) + i (v dx + u dy). ]

Vamos aplicar o teorema de Green às peças reais e imaginárias separadamente. Primeiro a peça real:

[ int_ {C} u dx - v dy = int_ {R} (-v_x - u_y) dx dy = 0. ]

Da mesma forma para a peça imaginária:

[ int_ {C} v dx + u dy = int_R (u_x - v_y) dx dy = 0. ]

Obtemos 0 porque as equações de Cauchy-Riemann dizem (u_x = v_y ), então (u_x - v_y = 0 ).

Para ver a parte (i ′), você deve desenhar algumas curvas que se cruzam e se convencer de que podem ser quebradas em uma soma de curvas fechadas simples. Assim, (i ′) segue de (i). (Para provar verdadeiramente a parte (i ′), precisaríamos de uma definição mais tecnicamente precisa de simplesmente conectado, de modo que poderíamos dizer que todas as curvas fechadas dentro de (A ) podem ser continuamente deformadas entre si.)

A parte (ii) segue de (i) e Teorema 4.4.2.

Para ver (iii), escolha um ponto base (z_0 in A ) e deixe

[F (z) = int_ {z_0} ^ {z} f (w) dw. ]

Aqui, o itnegral está sobre qualquer caminho em (A ) conectando (z_0 ) a (z ). Pela parte (ii), (F (z) ) é bem definido. Se pudermos mostrar que (F '(z) = f (z) ), então terminaremos. Fazer isso equivale a gerenciar a notação para aplicar o teorema fundamental do cálculo e as equações de Cauchy-Riemann. Então, vamos escrever

[f (z) = u (x, y) + iv (x, y), F (z) = U (x, y) + iV (x, y). ]

Então podemos escrever

[ dfrac { partial f} { partial x} = u_x + iv_x, text {etc.} ]

Podemos formular as equações de Cauchy-Riemann para (F (z) ) como

[F '(z) = dfrac { parcial F} { parcial x} = dfrac {1} {i} dfrac { parcial F} { parcial y} ]

ou seja,

[F '(z) = U_x + iV_x = dfrac {1} {i} (U_y + i V_y) = V_y - i U_y. ]

Para referência, notamos que usando o caminho ( gamma (t) = x (t) + iy (t) ), com ( gamma (0) = z_0 ) e ( gamma (b) = z ) nós temos

[ begin {array} {rcl} {F (z) = int_ {z_0} ^ {z} f (w) dw} & = & { int_ {z_0} ^ {z} (u (x, y) + iv (x, y)) (dx + idy)} {} & = & { int_0 ^ b (u (x (t), y (t)) + iv (x (t), y (t)) (x '(t) + iy' (t)) dt.} end {array} ]

Nosso objetivo agora é provar que as equações de Cauchy-Riemann dadas na Equação 4.6.9 são válidas para (F (z) ). A figura abaixo mostra um caminho arbitrário de (z_0 ) para (z ), que pode ser usado para calcular (f (z) ). Para calcular as parciais de (F ), precisaremos das linhas retas que continuam (C ) a (z + h ) ou (z + ih ).


Caminhos para prova do teorema de Cauchy

Para preparar o resto do argumento, lembramos que o teorema fundamental do cálculo implica

[ lim_ {h to 0} dfrac { int_0 ^ h g (t) dt} {h} = g (0). ]

(Ou seja, a derivada da integral é a função original.)

Primeiro, veremos ( dfrac { partial F} { partial x} ). Portanto, fixe (z = x + iy ). Olhando para os caminhos na figura acima, temos

[F (z + h) - F (z) = int_ {C + C_x} f (w) dw - int_C f (w) dw = int_ {C_x} f (w) dw. ]

A curva (C_x ) é parametrizada por ( gamma (t) + x + t + iy ), com (0 le t le h ). Então,

[ begin {array} {rcl} { dfrac { partial F} { partial x} = lim_ {h to 0} dfrac {F (z + h) - F (z)} {h} } & = & { lim_ {h to 0} dfrac { int_ {C_x} f (w) dw} {h}} {} & = & { lim_ {h to 0} dfrac { int_ {0} ^ {h} u (x + t, y) + iv (x + t, y) dt} {h}} {} & = & {u (x, y) + iv (x, y)} {} & = & {f (z).} end {array} ]

A penúltima igualdade segue da Equação 4.6.10.

Da mesma forma, obtemos (lembre-se: (w = z + it ), então (dw = i dt ))

[ begin {array} {rcl} { dfrac {1} {i} dfrac { partial F} { partial y} = lim_ {h to 0} dfrac {F (z + ih) - F (z)} {ih}} & = & { lim_ {h to 0} dfrac { int_ {C_y} f (w) dw} {ih}} {} & = & { lim_ {h to 0} dfrac { int_ {0} ^ {h} u (x, y + t) + iv (x, y + t) i dt} {ih}} {} & = & {u (x, y) + iv (x, y)} {} & = & {f (z).} end {array} ]

Juntas, as Equações 4.6.12 e 4.6.13 mostram

[f (z) = dfrac { parcial F} { parcial x} = dfrac {1} {i} dfrac { parcial F} { parcial y} ]

Pela Equação 4.6.7, mostramos que (F ) é analítico e (F '= f ).


4.6: Teorema de Cauchy

Este é um curso de cálculo do quarto semestre. Os pré-requisitos são Cálculo I - III ou equivalente. Em particular, você deve estar familiarizado com as técnicas padrão de diferenciação e integração e com as propriedades básicas das funções de várias variáveis, incluindo derivadas parciais. A última parte do curso pressupõe alguma familiaridade com números complexos (embora estes sejam revisados), bem como com a série de Taylor.

O curso começa com integração de funções de duas e três variáveis. A seguir, estudamos o cálculo de campos vetoriais: os vários operadores diferenciais (grad, curl, div) que podem ser aplicados a uma função ou campo vetorial, tipos de integrais de campos vetoriais (integrais de linha, integrais de superfície) e os teoremas fundamentais (Green, Stokes, divergence ou Gauss) relacionando diferenciação e integração de campos vetoriais. A última parte do curso é uma introdução à teoria das funções de uma variável complexa. Esta teoria é importante em muitas aplicações da matemática, física e engenharia, e se baseia no material dos primeiros dois terços do curso.

Texto: James Stewart, Cálculo: primeiros transcendentais, sexta edição, Thomson Brooks Cole, 2008. Disponível na livraria da Universidade.

Trabalho de casa: Haverá conjuntos de problemas semanais, previstos para o início das aulas às segundas-feiras. O primeiro conjunto de problemas será entregue na segunda-feira, 28 de janeiro. Você deve tentar todos os problemas do dever de casa e, eventualmente, entender como fazer todos os problemas corretamente. A colaboração e a discussão com seus colegas são encorajadas, mas você deve escrever tarefas individualmente. Cálculo IV é muito mais exigente do que as aulas de cálculo anteriores. Os alunos que recorrem a copiar seus deveres de casa de seus colegas, um manual de solução ou a Web quase invariavelmente acabam sofrendo nos exames.

O dever de casa graduado estará disponível na mesa fora do 605 Matemática. Nenhum trabalho de casa atrasado será aceito.

Quizzes: Haverá cinco questionários em classe, dos quais o mais baixo será descartado. As datas provisórias para os questionários são 4 de fevereiro, 11 de fevereiro, 10 de março, 31 de março e 28 de abril (todas as datas são segundas-feiras).


3 respostas 3

Na seção 7 dessas notas sobre o teorema de Green, eu explico como o teorema de Green mais as equações de Cauchy-Riemann produzem imediatamente o teorema integral de Cauchy.

Muitos estudantes sérios de matemática percebem isso por conta própria em algum ponto, mas é surpreendente como poucos textos padrão fazem essa conexão. Em textos de graduação (especialmente americanos) sobre o Sujeito X, há uma tendência angustiante de ignorar educadamente a existência do Sujeito Y, mesmo quando qualquer aluno do Sujeito X quase certamente já terá estudado / estará estudando simultaneamente / em breve estará estudando o Sujeito Y.


Conteúdo

Se n & lt m então ([n] m) < displaystyle < tbinom <[n]>>> é o conjunto vazio, e a fórmula diz que det (AB) = 0 (seu lado direito é uma soma vazia) de fato, neste caso, a classificação do m×m matriz AB é no máximo n, o que implica que seu determinante é zero. Se n = m, o caso em que UMA e B são matrizes quadradas, ([n] m) = <[n]> < displaystyle < tbinom <[n]>> = <[n] >> (um conjunto singleton), então a soma envolve apenas S = [n], e a fórmula afirma que det (AB) = det (UMA) det (B).

Para m = 0, UMA e B são matrizes vazias (mas de formas diferentes se n & gt 0), como é seu produto AB o somatório envolve um único termo S = Ø, e a fórmula afirma 1 = 1, com ambos os lados dados pelo determinante da matriz 0 × 0. Para m = 1, o somatório varia sobre a coleção ([n] 1) < displaystyle < tbinom <[n]> <1> >> do n diferentes singletons retirados de [n], e ambos os lados da fórmula fornecem ∑ j = 1 n A 1, j B j, 1 < displaystyle textstyle sum _^A_ <1, j> B_>, o produto escalar do par de vetores representado pelas matrizes. O menor valor de m para o qual a fórmula afirma que uma igualdade não trivial é m = 2 é discutido no artigo sobre a identidade Binet-Cauchy.

Dentro do estojo n = 3 Editar

Dentro do estojo m & gt 3, o lado direito sempre é igual a 0.

A seguinte prova simples apresentada em [1] se baseia em dois fatos que podem ser provados de várias maneiras diferentes:

Existem vários tipos de provas que podem ser fornecidas para a fórmula de Cauchy-Binet. A prova abaixo é baseada apenas em manipulações formais e evita o uso de qualquer interpretação particular dos determinantes, que podem ser considerados definidos pela fórmula de Leibniz. Apenas sua multilinearidade com respeito a linhas e colunas, e sua propriedade alternada (desaparecendo na presença de linhas ou colunas iguais) são usadas em particular a propriedade multiplicativa de determinantes para matrizes quadradas não é usada, mas é bastante estabelecida (o caso n = m) A prova é válida para anéis de coeficientes comutativos arbitrários.

A fórmula pode ser comprovada em duas etapas:

  1. use o fato de que ambos os lados são multilineares (mais precisamente 2m-linear) no filas do UMA e a colunas do B, para reduzir ao caso que cada linha de UMA e cada coluna de B tem apenas uma entrada diferente de zero, que é 1.
  2. lidar com esse caso usando as funções [m] → [n] que mapeiam respectivamente os números das linhas de UMA ao número da coluna de sua entrada diferente de zero, e os números da coluna de B ao número da linha de sua entrada diferente de zero.

Para a etapa 1, observe que para cada linha de UMA ou coluna de B, e para cada m-combinação S, os valores de det (AB) e det (UMA[m],S) det (BS,[m]) de fato dependem linearmente da linha ou coluna. Para o último, isso é imediato da propriedade multilinear do determinante para o primeiro, deve-se, além disso, verificar que tomando uma combinação linear para a linha de UMA ou coluna de B enquanto deixar o resto inalterado afeta apenas a linha ou coluna correspondente do produto AB, e pela mesma combinação linear. Assim, pode-se calcular ambos os lados da fórmula de Cauchy-Binet por linearidade para cada linha de UMA e também todas as colunas de B, escrevendo cada uma das linhas e colunas como uma combinação linear de vetores de base padrão. As múltiplas somas resultantes são enormes, mas têm a mesma forma para ambos os lados: os termos correspondentes envolvem o mesmo fator escalar (cada um é um produto de entradas de UMA e de B), e esses termos diferem apenas por envolver duas expressões diferentes em termos de matrizes constantes do tipo descrito acima, cujas expressões devem ser iguais de acordo com a fórmula de Cauchy-Binet. Isso atinge a redução da primeira etapa.

Concretamente, as múltiplas somas podem ser agrupadas em duas somas, uma sobre todas as funções f:[m] → [n] que para cada índice de linha de UMA dá um índice de coluna correspondente e um sobre todas as funções g:[m] → [n] que para cada índice de coluna de B fornece um índice de linha correspondente. As matrizes associadas a f e g está

onde "δ < displaystyle delta>" é o delta de Kronecker, e a fórmula de Cauchy-Binet para provar foi reescrita como

Usando multilinearidade em relação a ambas as linhas de UMA e as colunas de B na prova não é necessário, pode-se usar apenas um deles, digamos o primeiro, e usar que um produto de matriz eufB qualquer um consiste em uma permutação das linhas de Bf([m]),[m] (E se f é injetiva), ou tem pelo menos duas linhas iguais.

Como vimos, a fórmula de Cauchy-Binet é equivalente ao seguinte:

Em termos de delta de Kronecker generalizado, podemos derivar a fórmula equivalente à fórmula de Cauchy-Binet:

Se UMA é um real m×n matriz, então det (UMA UMA T) é igual ao quadrado do mvolume dimensional do paralelotopo medido em R n pelo m linhas de UMA. A fórmula de Binet afirma que isso é igual à soma dos quadrados dos volumes que surgem se o paralelepípedo for projetado ortogonalmente sobre o mplanos de coordenadas dimensionais (dos quais existem (n m) < displaystyle < tbinom >> ).

Dentro do estojo m = 1 o paralelotopo é reduzido a um único vetor e seu volume é seu comprimento. A afirmação acima afirma então que o quadrado do comprimento de um vetor é a soma dos quadrados de suas coordenadas - esse é realmente o caso pela definição desse comprimento, que é baseado no teorema de Pitágoras.

A fórmula de Cauchy-Binet pode ser estendida de maneira direta a uma fórmula geral para os menores do produto de duas matrizes. O contexto para a fórmula é dado no artigo sobre menores, mas a ideia é que tanto a fórmula para a multiplicação da matriz comum quanto a fórmula de Cauchy-Binet para o determinante do produto de duas matrizes são casos especiais da seguinte afirmação geral sobre os menores de um produto de duas matrizes. Suponha que UMA é um m × n matriz, B é um n × p matriz, eu é um subconjunto de <1. m> com k elementos e J é um subconjunto de <1. p> com k elementos Então

onde a soma se estende por todos os subconjuntos K de <1. n> com k elementos

Uma versão contínua da fórmula de Cauchy-Binet, conhecida como Identidade Andréief-Heine ou Identidade Andréief aparece comumente na teoria da matriz aleatória. [2] É declarado da seguinte forma: deixe j = 0 N - 1 < displaystyle left <>(x) right > _^> e j = 0 N - 1 < displaystyle left <>(x) right > _^> ser duas sequências de funções integráveis, com suporte em I < displaystyle I>. Então

Forrester [3] descreve como recuperar a fórmula usual de Cauchy-Binet como uma discretização da identidade acima.


  1. Existem subgrupos Sylow: Para qualquer grupo finito e qualquer primo , tem um subgrupo cuja ordem é a maior potência de divisão . Esse subgrupo é denominado um -Sylow subgrupo.

Prova usando a existência de subgrupos Sylow

Dado: Um grupo finito , um divisor primo da ordem de .

Provar: tem um subgrupo de ordem exatamente .

Prova: De fato (1), tem um -Sylow subgrupo, digamos . Desde divide a ordem de , não é trivial. Escolha um elemento sem identidade . A ordem de divide a ordem de , e é, portanto, um poder de , dizer , Onde . Assim, o elemento é um elemento de ordem , e o subgrupo cíclico que ele gera, portanto, tem ordem exatamente .

Prova sem usar a existência de subgrupos Sylow

A ideia é considerar a ação de por permutações cíclicas no conjunto:

Primeiro, observe que a ação de fato envia o conjunto para si mesma: a permutação cíclica de uma palavra corresponde a uma operação de conjugação no produto, que preserva a identidade. Explicitamente:

Portanto, se a palavra original fornece o elemento de identidade, o mesmo ocorre com a nova palavra.

O conjunto tem tamanho . Usando a equação de classe de uma ação de grupo (ou de outra forma), observe que todas as órbitas têm tamanho 1 ou , então o número de órbitas de tamanho 1 (ou seja, o número de pontos fixos) é congruente com mod . O último número é um múltiplo de , portanto, o número de pontos fixos é um múltiplo de . Observe que o ponto com todas as coordenadas do elemento de identidade é um ponto fixo, portanto, há pelo menos um ponto fixo. Portanto, deve haver pelo menos pontos fixos. Qualquer ponto fixo diferente do "ponto fixo de identidade total" tem a forma Onde é o elemento de identidade e, portanto, obtemos um elemento de ordem .


Matemática 4220: Análise Complexa Aplicada

Este curso é uma introdução à análise complexa com ênfase nos aplicativos. Os tópicos incluem funções analíticas e harmônicas, integração de contorno, séries de Taylor e Laurent, resíduos, mapeamento conformado e as transformadas de Fourier e Laplace.

Livro didático:

Fundamentos da Análise Complexa por Saff e Snider, 3ª edição. Você pode comprá-lo por menos de US $ 20 neste link.

Classificação:

25%: lição de casa semanal
20%: Preliminar 1
20%: Preliminar 2
35%: exame final

A diretriz (voluntária) do Departamento de Matemática para a nota média em cursos desse nível é B +. Isso provavelmente será próximo à mediana para este curso.

Exames:

Preliminar 1 é na quinta-feira, dia 24 de setembro, em aula. Abrange todos os Capítulos 1-3, exceto as Seções 1.6, 2.7, 3.4 e 3.6. Exame prático. Soluções para praticar o exame. Exame e soluções reais.

Preliminar 2 é quinta-feira, 5 de novembro, em aula. Abrange todos os Capítulos 4-5, exceto as Seções 4.4a, 4.7, 5.4 e 5.8, e também cobre as Seções 6.1-6.4. Exame prático. Soluções para praticar o exame. Exame e soluções reais.

O Exame final é na sexta-feira, 11 de dezembro, das 14h às 16h30. O local é Malott Hall 253. Exceto a regra das 24 horas, você deve fazer o exame neste momento. Exame prático. Soluções para praticar o exame. Exame e soluções reais.

Tópicos abordados no exame final:

CH. 1-3: Geometria de números complexos função exponencial complexa diferenciação complexa funções analíticas linearização equações de Cauchy-Riemann funções harmônicas funções trigonométricas complexas logaritmo complexo funções multivaloradas e cortes de ramificação poderes complexos problema de Dirichlet em tiras e cunhas

CH. 4-6: Contornos e integrais de contorno de parametrização independência de caminho e existência de antiderivada Teorema de Cauchy Fórmula integral de Cauchy (incluindo versão generalizada) Cauchy estima a propriedade de valor médio do Teorema de Liouville para funções analíticas e harmônicas princípio de módulo máximo e princípios mínimos para funções harmônicas séries de potência e raio de convergência representação de funções analíticas pela série de Taylor Série de Laurent (existência, convergência em anulares, computação) classificação de zeros e singularidades Teorema de resíduos contornos semicirculares e contornos indentados do Lema de Jordan integrando ao longo de cortes de ramos Argumento Princípio Teorema de Rouche.

CH. 8: Transformada de Fourier da série de Fourier Fórmulas de inversão da transformada de Laplace resolvendo equações diferenciais usando as três transformadas.

Tópicos não coberto no exame final:

Projeção estereográfica definições epsilon-delta de limites e derivadas conexão entre o teorema de Cauchy e o teorema de Green, fórmula integral de Poisson, convergência uniforme de ponto de série na invariância infinita da equação de Laplace sob transformação conforme.

Integridade acadêmica:

Você é incentivado a trabalhar em conjunto na lição de casa semanal. Tudo o que você escreve deve estar em suas próprias palavras individuais. A cópia direta é proibida! Você não tem permissão para obter ajuda de qualquer outra pessoa ou fonte em um exame, incluindo o livro-texto, a menos que as instruções do exame o permitam especificamente.

Plano de estudos e lição de casa:

Para ser continuado e sujeito a alterações.

Semana 1 (25/8, 27/8): Seções 1.1-1.5. HW 1: Exercícios 1.1.8, 1.1.14, 1.2.4, 1.2.10, 1.3.6, 1.3.8, 1.3.12, 1.4.2, 1.4.10, 1.4.18, 1.5.4, 1.5. 10 Soluções. Vencimento na quinta-feira, dia 3 de setembro.

Semana 2 (9/1, 9/3): Seções 1.7-2.3. (A seção 1.6 foi ignorada.) HW 2: aqui. Soluções. Vencimento quinta-feira 09/10 em aula.

Semana 3 (8/9, 10/9): Seções 2.4-2.6. HW 3: Exercícios 2.4.1, 2.4.2, 2.4.8, 2.4.10, 2.5.1, 2.5.2, 2.5.3 (abf), 2.5.5, 2.5.8, 2.5.14, 2.5.20 , 2.6.1. Dica para 2.5.20 e problema de crédito extra. Soluções. Vencimento na quinta-feira, 17 de setembro.

Semana 4 (15/9, 17/9): Seções 3.1-3.3, 3.5. Sem lição de casa esta semana.

Semana 5 (22/9, 24/9): Revisão e Preliminar 1.

Semana 6 (29/09, 01/10): Seções 4.1-4.3, início de 4.4b. (A Seção 4.4a foi ignorada.) Suplemento ao Teorema de Cauchy. HW 4: aqui. Soluções. Vencimento quinta-feira 08/10 em aula.

Semana 7 (10/6, 10/8): Seções 4.4b-4.6. HW 5: Exercícios 4.4.12, 4.4.16, 4.5.1, 4.5.2, 4.5.3 (bdf), 4.5.4, 4.5.6, 4.6.1, 4.6.4, 4.6.9. Soluções. Vencimento na quinta-feira, 15/10, em aula.

Semana 8 (10/15): Seções 5.1-5.3. HW 6: Exercícios 5.1.20, 5.1.21, 5.2.1 (aef), 5.2.2 (aef), 5.2.4, 5.2.5 (abc), 5.2.14, 5.3.2, 5.3.3 (ade ), 5.3.4, 5.3.8. Dica para 5.1.20. Soluções. Vencimento quinta-feira, 22/10 em aula.

Semana 9 (20/10, 22/10): Seções 5.5-5.7. HW 7: aqui. Soluções. Vencimento quinta-feira, 29/10 em aula.

Semana 10 (27/10, 10.29): Seções 6.1-6.4. Sem lição de casa esta semana.

Semana 11 (11/3, 11/5): Revisão e Preliminar 2.

Semana 12 (11/10, 11/12): Seções 6.5-6.7. HW 8: Exercícios 6.5.2, 6.5.4, 6.5.5, 6.6.1, 6.6.2, 6.6.9, 6.7.2, 6.7.3, 6.7.6, 6.7.10, 6.7.21. Dicas: Para 6.5.4 e 6.5.5, escreva o integrando como a parte real de uma função complexa. Observe também que é uniforme. Para 6.7.10, consulte o Exemplo 3 no livro didático. Soluções. Vencimento na quinta-feira, 19 de novembro, em aula. Além disso, aqui está uma imagem estática e um traço animado da imagem sob a função f (z) = (zi) ^ 2 / [(z + 2) ^ 3 * (z-5)] do círculo anti-horário de raio 4 sobre a origem. As imagens foram criadas no Mathematica por Christopher Sund.

Semana 13 (17/11, 19/11): Seção 8.1, início de 8.2. HW 9: Exercícios 8.1.1, 8.1.6, 8.1.7a, 8.1.10, 8.1.11, 8.2.5. Soluções. Vencimento Terça-feira 24/11 em aula.

Semana 14 (24/11): Seção 8.2, início de 8.3. HW 10: aqui. Nota: Para 8.2.1 (d) e 8.2.3 (a), ao encontrar a transformada de Fourier, você pode usar integrais de valor principal. Soluções. Vencimento na quinta-feira, 03/12 em aula.

Semana 15 (12/1, 12/3): Concluir a Seção 8.3. Seções 3.4, 4.7, 7.1. HW 11 (OPCIONAL, NÃO DEVE SER ENVIADO): Exercícios 8.3.1 (ade), 8.3.3 (abc), 8.3.4, 8.3.5 (ac), 8.3.6 (a), 3.4.2, 3.4 .3, 4.7.1, 4.7.4, 4.7.11. Dicas: Para 8.3.3, use a tabela na página 479 do livro didático. Para 8.3.6 (a), na fórmula de inversão escolha a = 0 e faça a mudança das variáveis ​​s = iz para que você possa usar o Lema de Jordan. Soluções.


Teorema de Cauchy-Kovalevskaya


Um teorema que afirma que o problema de Cauchy tem uma solução analítica (única) localmente se as funções que ocorrem na equação diferencial (ou sistema de equações diferenciais) e todos os dados iniciais, junto com a superfície inicial não característica, são analíticos.

Para um sistema de $ k $ equações diferenciais parciais em $ k $ funções desconhecidas $ u _ <1> (x, x _ <0>) dots u _ (x, x _ <0>) $, da forma

$ tag <1> frac < partial ^ você _ > < parcial x _ <0> ^ > = F _ left (x _ <0>, x, u, frac < parcial ^ + dots m _ > u> < parcial x _ <0> ^ > dots parcial x _ ^ >> right), $

$ i = 1 dots k, x = (x _ <1> dots x _ ), u = (u _ <1> pontos u _ ), $

$ sum _ ^ m _ leq m, m _ <0> & lt m, m geq 1, $

o teorema de Cauchy-Kovalevskaya afirma o seguinte: O problema de Cauchy colocado pelos dados iniciais

$ tag <2> left. < frac < parcial ^ você _ > < parcial x _ <0> ^ >> right | _ sigma = phi _ (x), i = 1 pontos k j = 0 pontos m-1, $

onde $ sigma = <(x, x _ <0>)>: = 0, x in Omega _ <0>> > $ é a superfície inicial dos dados $ phi _ $, tem uma solução analítica única $ u (x, x _ <0>) $ em algum domínio $ Omega $ em $ (x _ <0>, x) $ - espaço contendo $ Omega _ <0> times > $, se $ F _ $ e $ phi _ $ são funções analíticas de todos os seus argumentos.

Considere um sistema linear de equações diferenciais

$ tag <3> P (x, D) u equiv sum _ <| alpha | leq m> A _ alpha (x) D ^ alpha u = B (x), $

onde $ alpha = ( alpha _ <0> dots alpha _ ) $ é um vetor com coordenadas inteiras não negativas

é a ordem do operador diferencial

$ D ^ alpha = D _ <0> ^ < alpha _ <0>> dots D _ ^ < alpha _ >, D _ = frac parcial < parcial x _ >, j = 0 pontos n $

$ A _ alpha (x) $, $ x = (x _ <0> dots x _ ) $, é uma dada matriz quadrada de ordem $ N $ $ u (x) = | você _ (x) | $, $ j = 1 dots N $, é o vetor coluna de funções desconhecidas e $ B (x) $ é um dado vetor $ N $.

De modo geral, o teorema de Cauchy-Kovalevskaya não exclui a possibilidade do problema de Cauchy ter soluções não analíticas além da solução analítica. No entanto, o problema de Cauchy para um sistema linear (3) com coeficientes analíticos $ A _ alpha (x) $ e condições de Cauchy em uma superfície analítica não característica $ sigma $ tem no máximo uma solução em uma certa vizinhança $ Omega _ <0> $ de $ sigma $. Esta afirmação é válida sem quaisquer suposições de analiticidade sobre os dados iniciais e a solução $ u (x) $.

Uma solução para o problema de Cauchy (1), (2), cuja existência é garantida pelo teorema de Cauchy-Kovalevskaya, pode se tornar instável (uma vez que uma pequena variação dos dados iniciais $ phi _ (x) $ pode induzir uma grande variação da solução). Por exemplo, este é o caso quando o sistema (1) é do tipo elíptico. Se os dados iniciais não forem analíticos, o problema de Cauchy (1), (2) pode perder o sentido, a menos que a atenção se limite aos sistemas hiperbólicos (1).

Para uma ampla classe de equações, o teorema de Cauchy-Kovalevskaya pode ser generalizado para o caso em que a variedade inicial é característica em todos os pontos (ver [1], [2]). Nesse caso, as funções iniciais não podem ser prescritas à vontade, elas devem satisfazer certas condições, ditadas pela equação diferencial.

Um problema característico de Cauchy (cf. problema característico de Cauchy) pode ter mais de uma solução. Em particular, um tem a seguinte proposição. Seja $ P (x, D) $ uma equação diferencial de ordem $ m $ com parte principal $ P _ (x, D) $ e com coeficientes analíticos reais, definidos em uma vizinhança $ Omega $ de um ponto $ x ^ <0> $ do espaço euclidiano $ mathbf R ^ $, e seja $ phi $ uma função analítica real em $ Omega $ de forma que

$ mathop < rm grad> phi (x ^ <0>) neq 0 textrm P _ (x, mathop < rm grad> phi) = 0, $

mas $ P _ ^ <(j)> (x, mathop < rm grad> phi) neq 0 $ em $ x = x ^ <0> $ para algum $ j $. Então existe um bairro $ Omega _ <0> $ de $ x ^ <0> $ e uma função $ u (x) $ da classe $ C ^ ( Omega _ <0>) $, analítico sempre que $ phi (x) neq phi (x ^ <0>) $, de modo que $ P (x, D) u = 0 $ e

Se a variedade inicial é característica ao longo de certas curvas, então, de modo geral, a solução do problema de Cauchy característico não é única em alguma vizinhança da superfície inicial e o grau de bifurcação é definido pela natureza geométrica das superfícies características correspondentes. O teorema foi provado pela primeira vez por S.V. Kovalevskaya (1875).

Referências

[1] L. Bers, F. John, M. Schechter, "Equações diferenciais parciais", Interscience (1964)
[2] A.V. Bitsadze, "Equations of mathematical physics", MIR (1980) (traduzido do russo)
[3] V.S. Vladimirov, "Equations of mathematical physics", MIR (1984) (traduzido do russo)
[4] R. Courant, D. Hilbert, "Métodos de física matemática. Equações diferenciais parciais", 2 , Interscience (1965) (traduzido do alemão)
[5] L. Hörmander, "Operadores diferenciais parciais lineares", Springer (1963)

Comentários

O resultado da unicidade no caso de dados não analíticos é o teorema de Holmgren (ver [5], Parte II, Cap. 5, ou [a2], Teorema 8.6.5). Uma prova moderna do teorema de Cauchy-Kovalevskaya no caso linear pode ser encontrada em [a2], Seção 9,4. Uma prova relativamente curta pode ser encontrada em [a1].

O teorema também é chamado de teorema de Cauchy-Kovalevski ou de Cauchy-Kowalewsky.


Receba o boletim informativo! Gostaria de receber um boletim informativo para mantê-lo atualizado com notícias, artigos, vídeos e eventos de matemática que você poderia perder? Então inscreva-se abaixo. (Sem spam e nunca compartilharei seus dados com mais ninguém.)

21 comentários

prova soberba!
Esta é a prova mais fácil de entender da integral de cauchy & # 8217s
teorema que eu já conheci.
Obrigada.

Esta prova me ajuda a obter uma compreensão mais profunda de
análise complexa. Muito obrigado.

Se eu fosse um aluno de sua classe quando você deu a prova, então eu & # 8217d teria saído imediatamente, ido ao escritório do Registrador, desistido do curso e dito a todos que o que você estava fazendo estava menos claro do que lama, matemática total. I & # 8217d upchuck.

Primeiro, o que diabos é C? Você precisa dizer. Eu usei C como um conjunto convexo, um conjunto fechado, um conjunto de restrição, etc. Talvez, eu & # 8217m supondo, você queira dizer que C é o conjunto de números complexos. DIGA ASSIM ou DEIXE-O cair.

A seguir, o que diabos é um & # 8216domínio & # 8217. Eu não deveria ter nem mesmo zip, zilch, zero idea e don & # 8217t. Qualquer suposição que eu fizesse seria descuidada, deixando-me vulnerável a ataques. Você precisa de uma definição. Um & # 8216domínio & # 8217 pode estar vazio? É convexo, conectado, simplesmente conectado, fechado na topologia usual de C ou o que diabos? Assim que você mencionou & # 8216domain & # 8217, estarei a caminho do escritório de registro & # 8217s. É necessário DEFINIR & # 8216domain & # 8217.

Em seguida, eu odiava e desprezava profundamente, profundamente, tudo o que ouvi sobre funções de uma variável complexa como auto-abuso mental totalmente inútil, de Hille, Ahlfors, Rudin, etc. e muito por causa da definição totalmente estúpida de diferenciação. E por que diabos eu me importaria com uma função de uma variável complexa? Na prática, eu nunca tive uma. Valor complexo, variável certamente complexa, nunca. E acho que não quero um.

Então, quando você menciona diferenciável, você DEVE dar uma definição para que o resto de nós saiba qual versão boba e maluca de diferenciação você está usando. Eu & # 8217 trabalhei com o gradiente, derivados de Frechet, derivados de Dini, sub-gradientes e hiperplanos de suporte & # 8212 o que diabos você quer dizer? Sem essa definição, direto, para o escritório de registro & # 8217s. Caso contrário, estou fazendo matemática desleixada e deixando-me vulnerável a ataques.

Em seguida, você disse que havia uma curva & # 8216fechada & # 8217. O que diabos você quer dizer com & # 8216closed & # 8217? & # 8216Fechado & # 8217 na topologia usual para C? Para ser claro, você deve definir o que entende por & # 8216curva & # 8217 & # 8212; estamos falando de uma função de valor C com domínio [0,1]? E a função é contínua? Diferenciável? Retificável? Um exemplo de caminho do movimento browniano? Alguma curva de preenchimento de espaço? Que diabos? Você apenas CONSEGUIU dizer.

Então você desenha aquelas caixinhas, e eu devo estar convencido de que isso é matemática? Não, obrigado. Fora para o escritório de registro & # 8217s. Se eu começar a fazer matemática desenhando pequenas caixas, então me deixarei vulnerável a erros e ataques terríveis. Sem caixas. E, sem fotos. As fotos NÃO são provas.

Deixe-me adivinhar: o resultado é devido à definição boba de diferenciabilidade em funções de uma variável complexa e não seria válido para a função f com domínio R ^ 2 em vez de C.

Definição pateta, resultado idiota.

Espero que você não prejudique os alunos que tentam aprender, arraste-os para uma terra sem sentido e dê-lhes aulas de matemática, omitindo as definições.

Eu responderei a este mais tarde! (Em um trem agora.)

Esta parece uma reação muito forte à prova. (E eu & # 8217 adoraria ver alguém & # 8216upchuck & # 8217 em minha classe por causa de uma prova.) De qualquer forma, se você tivesse participado da aula, teria visto as definições nas aulas anteriores. As definições são razoavelmente padronizadas em análises complexas introdutórias, então qualquer um que topasse com isso online não teria grandes problemas para entender a prova. E se eu tivesse um aluno que perguntasse qual definição eu estava usando, provavelmente voltaria todo o socrático para ele e perguntaria qual eles achavam que seria a melhor. Nesse caso, a definição não é boba. Simbolicamente, é igual à definição real por meio de limites, mas os números podem ser complexos.
Quanto a fazer desenhos, sou geômetra, então toda prova deveria ter uma foto. Seu objetivo é explicar. Não permitir imagens seria o mesmo que dizer que você não tem permissão para usar aqueles rabiscos engraçados de linhas e círculos que chamamos de escrita.
Muitas felicidades,
Kevin

Acho boa a sua seleção de instalações.
Eu acho que as hipóteses para o teorema de integração de Cauchy
deve ser ligeiramente geral. Quanto mais eles são gerais,
mais se torna difícil de entender. E geométrico
o significado se torna obscuro para iniciantes.
No nível de introdução, eles devem ser gerais apenas o suficiente
para o teorema de integração cauchy & # 8217s provado com eles
para ser usado para a prova de outros teoremas de análise complexa
(por exemplo, teorema do resíduo.)
Se uma prova sob pré-condições gerais a é necessária,
it should be learned after studenrs get a good knowledge
of topology.

Dear Hisashi,
Couldn’t agree more. The approach in my forthcoming book about complex analysis uses very little about topology. Of course, it should be noted that this approach does have the downside that students don’t realise just how much one can motivate topology using complex analysis because they have never seen it used in that context.
Kevin

I suppose that the best way to prove the cauchy’s integral theorem is to make a good choice of premises. (Here, “good” means that it is well adapted to for what the theorem will be used.)

I suppose that there can’t be one cauchy’s integral theorems
that can be used for all purposes.
The cauchy’s integral theorem should be tailored to its use.
Its preconditions may vary according to how the theorem will be used.

what does “formula does not parse” mean? Is that a bug of some sort?

Thanks for pointing that out. It is a bug. Maybe the latex program has changed. I’ll check this weekend.
Kevin

Sorted the problem. This seems to be a bug with WP Latex not parsing the less than symbol May 09

Obrigado. Looks a clear proof to me. Nice and concise.

Obrigado. I’ll update the pictures soon as I made proper versions for my forthcoming book on Complex Analysis.
Kevin

CommentComplex z plane can be expressed as
z = (x, y) = x + iy (Cartesian notation)
= (Polar notation)
where x and y respectively denote the x and y axes. θ is the argument of z and is defined as θ = arg(z) = .
The value of θ satisfying of 0 ≦ θ < 2π is the principal argument of z and is written and are possible contributions of prof dr mircea orasanu

“Since gamma is made of a finite number of lines and arcs C_j will itself be the union of a finite number of lines and arcs.”

Should we need to show that the Jordan curve gamma crosses only finitely many times each square S_j ? Surely it’s “obvious” that the local smoothness guarantees that.

Good question! It’s because there are many weird and wonderful functions out there. Consider the function f on R where f(x)=x^2*sin(1/x) for x not equal to 0 and f(0)=0 at x=0. This is differentiable at 0. Now, consider its graph. It meets the x axis infinitely often “near” 0. So if we were to consider the interval [0,1] as playing the role of the side of one of the squares in the proof of Cauchy’s Theorem, then we will have an infinite number of pieces of curve within our square. Hence we will have an infinite sum when we sum all the resulting integrals. And of course when you have an infinite sum you need to worry about whether it converges. Checking this convergence would add a lot more to the proof. By restricting to a finite number of arcs and lines we avoid this problem.

What is the definiton of a curve of “finite number of arcs and lines”, is it the same as the piecewise smooth curve?

Since every piecewise smooth curve if locally linear we can pick such a grid that the curve creates a x- or y-simple domain within every square, and therefore we can do that summation.

One possible idea for the general case is the following, but I haven’t found a reference for it:

1. It’s easy to prove that the integral of a continious and complex-valued function along a closed rectifiable curve can be approximated with a polygon. (see e.g. A Course in Mathematical Analysis, Volume 3 – Garling, p. 680.) And of course every closed and piecewise smooth curve is rectifiable.

2. It’s easy to show by induction that every simple polygon can be triangulated into finitely many triangles.

3. With Goursat’s method we prove the special case of Cauchy Theorem for triangles.

4. With induction we prove that the sum of the curve integrals along all the positively oriented triangles equals to the positive oriented boundary integral of the polygon, and we are done.

The definition of a curve with a finite number of arcs and lines is not the same as piecewise smooth curve. It is piecewise smooth curve where the pieces are either lines or arcs (the latter is some part of a circle).
I think your outline of a proof for the theorem will work. My reason for using my proof is its simplicity. It mostly relies on the Estimation Lemma and some intuitive geometrical results. Garling’s proof of approximation by polygons involves uniform continuity, density, and some not very obvious choices. It’s about a page and half and that’s before we get to triangulating the polygon, Goursat’s theorem and so on.
In my recent book on Complex Analysis (Plug: https://www.amazon.co.uk/Complex-Analysis-Introduction-Kevin-Houston/dp/1999795202/ref=sr_1_2?s=books&ie=UTF8&qid=1518471265&sr=1-2 ) I keep things simple and by restricting to lines and arcs the proof only takes a few pages. There is an appendix and some exercises that explain how to prove the more general version with any piecewise smooth curve.

Yes, we must value the simplicity. But with little extra efforts we have the following:

We can begin your proof by choosing such a grid that the size of the squares is so small that the piecewise smooth Jordan curve crosses at most two boundary points of every square that it meets (by local linear approximation and the fact that the curve is simple so there is a neighbourhood where it doesn’t cross itself). Then we prove the usual lemma and choose smaller squares if necessary, and then we can safely sum over all the squares and end up with a fairly general version of the Cauchy Theorem.


The Cauchy-Riemann Theorem

The extremely important inverse function theorem that is often taught in advanced calculus courses appears in many different forms. One of such forms arises for complex functions. We will state (but not prove) this theorem as it is significant nonetheless.

Theorem 2 (The Complex Inverse Function Theorem): Let $A subseteq mathbb$ be open and let $f : A o mathbb$ and $z_0 in A$ . If $f$ is analytic at $z_0$ and $f'(z_0) eq 0$ then there exists open neighbourhoods $U$ of $z_0$ and $V$ of $f(z_0)$ for which $f : U o V$ is a bijection and the inverse function (which exists since $f$ restricted to $U$ is bijective), $f^ <-1>: V o U$ is analytic at $f(z_0)$ with $displaystyle f^ <-1>(w) = frac<1>>$ where $w = f(z)$ .

It is important to note that the complex inverse function tells us that provided that $f'(z_0) eq 0$ then there exists a LOCAL analytic inverse function of $f$ . It may be that no global inverse function exists even if $f'(z_0) eq 0$ for every $z_0 in mathbb$ .


Polynomial interpolation

Polynomials can be used to approximate complicated curves, for example, the shapes of letters in typography, [ citation needed ] given a few points. A relevant application is the evaluation of the natural logarithm and trigonometric functions: pick a few known data points, create a lookup table, and interpolate between those data points. This results in significantly faster computations. [ specify ] Polynomial interpolation also forms the basis for algorithms in numerical quadrature and numerical ordinary differential equations and Secure Multi Party Computation, Secret Sharing schemes.

Polynomial interpolation is also essential to perform sub-quadratic multiplication and squaring such as Karatsuba multiplication and Toom–Cook multiplication, where an interpolation through points on a polynomial which defines the product yields the product itself. For example, given uma = f(x) = uma0x 0 + uma1x 1 + . e b = g(x) = b0x 0 + b1x 1 + . the product ab is equivalent to W(x) = f(x)g(x) Finding points along W(x) by substituting x for small values in f(x) and g(x) yields points on the curve. Interpolation based on those points will yield the terms of W(x) and subsequently the product ab. In the case of Karatsuba multiplication this technique is substantially faster than quadratic multiplication, even for modest-sized inputs. This is especially true when implemented in parallel hardware.

Proof Edit

Consider the Lagrange basis functions given by

is an interpolating polynomial of degree n .

Corollary Edit

Given a set of n + 1 data points (xi, yi) where no two xi are the same, one is looking for a polynomial p of degree at most n with the property

The unisolvence theorem states that such a polynomial p exists and is unique, and can be proved by the Vandermonde matrix, as described below.

The theorem states that for n + 1 interpolation nodes (xi) , polynomial interpolation defines a linear bijection

where Πn is the vector space of polynomials (defined on any interval containing the nodes) of degree at most n .

Suppose that the interpolation polynomial is in the form

The statement that p interpolates the data points means that

If we substitute equation (1) in here, we get a system of linear equations in the coefficients umak . The system in matrix-vector form reads the following multiplication:

We have to solve this system for umak to construct the interpolant p(x) The matrix on the left is commonly referred to as a Vandermonde matrix.

The condition number of the Vandermonde matrix may be large, [4] causing large errors when computing the coefficients umai if the system of equations is solved using Gaussian elimination.

Several authors have therefore proposed algorithms which exploit the structure of the Vandermonde matrix to compute numerically stable solutions in O(n 2 ) operations instead of the O(n 3 ) required by Gaussian elimination. [5] [6] [7] These methods rely on constructing first a Newton interpolation of the polynomial and then converting it to the monomial form above.

Alternatively, we may write down the polynomial immediately in terms of Lagrange polynomials:

For matrix arguments, this formula is called Sylvester's formula and the matrix-valued Lagrange polynomials are the Frobenius covariants.

Proof 1 Edit

Suppose we interpolate through n + 1 data points with an at-most n degree polynomial p(x) (we need at least n + 1 datapoints or else the polynomial cannot be fully solved for). Suppose also another polynomial exists also of degree at most n that also interpolates the n + 1 points call it q(x).

  1. r(x) is a polynomial
  2. r(x) has degree at most n , since p(x) and q(x) are no higher than this and we are just subtracting them.
  3. At the n + 1 data points, r ( x i ) = p ( x i ) − q ( x i ) = y i − y i = 0 )=p(x_)-q(x_)=y_-y_=0> . Portanto, r(x) has n + 1 roots.

r ( x ) = 0 = p ( x ) − q ( x ) ⟹ p ( x ) = q ( x )

Então q(x) (which could be any polynomial, so long as it interpolates the points) is identical with p(x), and q(x) is unique.

Proof 2 Edit

Given the Vandermonde matrix used above to construct the interpolant, we can set up the system

To prove that V is nonsingular we use the Vandermonde determinant formula:

Either way this means that no matter what method we use to do our interpolation: direct, Lagrange etc., (assuming we can do all our calculations perfectly) we will always get the same polynomial.

We are trying to construct our unique interpolation polynomial in the vector space Πn of polynomials of degree n . When using a monomial basis for Πn we have to solve the Vandermonde matrix to construct the coefficients umak for the interpolation polynomial. This can be a very costly operation (as counted in clock cycles of a computer trying to do the job). By choosing another basis for Πn we can simplify the calculation of the coefficients but then we have to do additional calculations when we want to express the interpolation polynomial in terms of a monomial basis.

One method is to write the interpolation polynomial in the Newton form and use the method of divided differences to construct the coefficients, e.g. Neville's algorithm. The cost is O(n 2 ) operations, while Gaussian elimination costs O(n 3 ) operations. Furthermore, you only need to do O(n) extra work if an extra point is added to the data set, while for the other methods, you have to redo the whole computation.

Another method is to use the Lagrange form of the interpolation polynomial. The resulting formula immediately shows that the interpolation polynomial exists under the conditions stated in the above theorem. Lagrange formula is to be preferred to Vandermonde formula when we are not interested in computing the coefficients of the polynomial, but in computing the value of p(x) in a given x not in the original data set. In this case, we can reduce complexity to O(n 2 ). [8]

The Bernstein form was used in a constructive proof of the Weierstrass approximation theorem by Bernstein and has gained great importance in computer graphics in the form of Bézier curves.

The interpolation polynomial in the Lagrange form is the linear combination

In the above polynomial interpolations using a linear combination of the given values, the coefficients were determined using the Lagrange method. In some scenarios, the coefficients can be more easily determined using other methods. Examples follow.

1 Row n = 0
1 −1 Row n = 1 or d = 0
1 −2 1 Row n = 2 or d = 1
1 −3 3 −1 Row n = 3 or d = 2
1 −4 6 −4 1 Row n = 4 or d = 3
1 −5 10 −10 5 −1 Row n = 5 or d = 4
1 −6 15 −20 15 −6 1 Row n = 6 or d = 5
1 −7 21 −35 35 −21 7 −1 Row n = 7 or d = 6

The BTC triangle can also be used to derive other polynomial interpolations. For example, the above quadratic interpolation

Similar to other uses of linear equations, the above derivation scales and adds vectors of coefficients. In polynomial interpolation as a linear combination of values, the elements of a vector correspond to a contiguous sequence of regularly spaced positions. O p non-zero elements of a vector are the p coefficients in a linear equation obeyed by any sequence of p data points from any degree d polynomial on any regularly spaced grid, where d is noted by the subscript of the vector. For any vector of coefficients, the subscript obeys d ≤ p − 2 . When adding vectors with various subscript values, the lowest subscript applies for the resulting vector. So, starting with the vector of row d = 3 and the vector of row d = 2 of the BTC triangle, the above quadratic interpolation for y 1.5 > is derived by the vector calculation

( 1 , − 4 , 6 , − 4 , 1 ) 3 + 4 ( 0 , 1 , − 3 , 3 , − 1 ) 2 = ( 1 , 0 , − 6 , + 8 , − 3 ) 2 +4(0,1,-3,3,-1)_<2>=(1,0,-6,+8,-3)_<2>>

Similarly, the cubic interpolation typical in the Multigrid method,

can be derived by a vector calculation starting with the vector of row d = 5 and the vector of row d = 3 of the BTC triangle.

( 1 , − 6 , 15 , − 20 , 15 , − 6 , 1 ) 5 + 6 ( 0 , 1 , − 4 , 6 , − 4 , 1 , 0 ) 3 = ( 1 , 0 , − 9 , 16 , − 9 , 0 , 1 ) 3 +6(0,1,-4,6,-4,1,0)_<3>=(1,0,-9,16,-9,0,1)_<3>>

When interpolating a given function f by a polynomial of degree n at the nodes x0. xn we get the error

The above error bound suggests choosing the interpolation points xi such that the product | ∏ ( x − x i ) | , ) ight|,> is as small as possible. The Chebyshev nodes achieve this.

Proof Edit

and set up an auxiliary function:

Since ξ is the root of Y ( n + 1 ) ( t ) (t)> , so

Thus the remainder term in the Lagrange form of the Taylor theorem is a special case of interpolation error when all interpolation nodes xi are identical. [11] Note that the error will be zero when x = x i > for any i. Thus, the maximum error will occur at some point in the interval between two successive nodes.

For equally spaced intervals Edit

Thus the error bound can be given as

| R n ( x ) | ≤ h n + 1 4 ( n + 1 ) max ξ ∈ [ a , b ] | f ( n + 1 ) ( ξ ) | (x) ight|leq ><4(n+1)>>max _left|f^<(n+1)>(xi ) ight|>

We fix the interpolation nodes x0, . xn and an interval [uma, b] containing all the interpolation nodes. The process of interpolation maps the function f to a polynomial p. This defines a mapping X from the space C([uma, b]) of all continuous functions on [uma, b] to itself. The map X is linear and it is a projection on the subspace Πn of polynomials of degree n or less.

The Lebesgue constant eu is defined as the operator norm of X. One has (a special case of Lebesgue's lemma):

In other words, the interpolation polynomial is at most a factor (eu + 1) worse than the best possible approximation. This suggests that we look for a set of interpolation nodes that makes eu small. In particular, we have for Chebyshev nodes:

We conclude again that Chebyshev nodes are a very good choice for polynomial interpolation, as the growth in n is exponential for equidistant nodes. However, those nodes are not optimal.

It is natural to ask, for which classes of functions and for which interpolation nodes the sequence of interpolating polynomials converges to the interpolated function as n → ∞ ? Convergence may be understood in different ways, e.g. pointwise, uniform or in some integral norm.

The situation is rather bad for equidistant nodes, in that uniform convergence is not even guaranteed for infinitely differentiable functions. One classical example, due to Carl Runge, is the function f(x) = 1 / (1 + x 2 ) on the interval [−5, 5] . The interpolation error || fpn|| grows without bound as n → ∞ . Another example is the function f(x) = |x| on the interval [−1, 1] , for which the interpolating polynomials do not even converge pointwise except at the three points x = ±1, 0. [13]

One might think that better convergence properties may be obtained by choosing different interpolation nodes. The following result seems to give a rather encouraging answer:

Theorem. For any function f(x) continuous on an interval [uma,b] there exists a table of nodes for which the sequence of interpolating polynomials p n ( x ) (x)> converges to f(x) uniformly on [uma,b].

Prova. It's clear that the sequence of polynomials of best approximation p n ∗ ( x ) ^<*>(x)> converges to f(x) uniformly (due to Weierstrass approximation theorem). Now we have only to show that each p n ∗ ( x ) ^<*>(x)> may be obtained by means of interpolation on certain nodes. But this is true due to a special property of polynomials of best approximation known from the equioscillation theorem. Specifically, we know that such polynomials should intersect f(x) at least n + 1 times. Choosing the points of intersection as interpolation nodes we obtain the interpolating polynomial coinciding with the best approximation polynomial.

The defect of this method, however, is that interpolation nodes should be calculated anew for each new function f(x), but the algorithm is hard to be implemented numerically. Does there exist a single table of nodes for which the sequence of interpolating polynomials converge to any continuous function f(x)? The answer is unfortunately negative:

Theorem. For any table of nodes there is a continuous function f(x) on an interval [uma, b] for which the sequence of interpolating polynomials diverges on [uma,b]. [14]

The proof essentially uses the lower bound estimation of the Lebesgue constant, which we defined above to be the operator norm of Xn (where Xn is the projection operator on Πn) Now we seek a table of nodes for which

Due to the Banach–Steinhaus theorem, this is only possible when norms of Xn are uniformly bounded, which cannot be true since we know that

For example, if equidistant points are chosen as interpolation nodes, the function from Runge's phenomenon demonstrates divergence of such interpolation. Note that this function is not only continuous but even infinitely differentiable on [−1, 1] . For better Chebyshev nodes, however, such an example is much harder to find due to the following result:

Theorem. For every absolutely continuous function on [−1, 1] the sequence of interpolating polynomials constructed on Chebyshev nodes converges to f(x) uniformly. [15]

Runge's phenomenon shows that for high values of n , the interpolation polynomial may oscillate wildly between the data points. This problem is commonly resolved by the use of spline interpolation. Here, the interpolant is not a polynomial but a spline: a chain of several polynomials of a lower degree.

Interpolation of periodic functions by harmonic functions is accomplished by Fourier transform. This can be seen as a form of polynomial interpolation with harmonic base functions, see trigonometric interpolation and trigonometric polynomial.

Hermite interpolation problems are those where not only the values of the polynomial p at the nodes are given, but also all derivatives up to a given order. This turns out to be equivalent to a system of simultaneous polynomial congruences, and may be solved by means of the Chinese remainder theorem for polynomials. Birkhoff interpolation is a further generalization where only derivatives of some orders are prescribed, not necessarily all orders from 0 to a k.

Collocation methods for the solution of differential and integral equations are based on polynomial interpolation.

The technique of rational function modeling is a generalization that considers ratios of polynomial functions.


Complex Analysis : An Introduction to The Theory of Analytic Functions of One Complex Variable

The Basic Library List Committee considers this book essential for undergraduate mathematics libraries.

This classic text is revered by many mathematicians, although it seems less so by students. It is concise, clear, and thorough, and is still fresh today, thirty-five years after its last revision. Its main weakness today is its ridiculous cover price: nearly $300.

In present-day terms the book works best as a graduate text: it&rsquos not especially difficult, nor does it go very deep, but there&rsquos not much handholding and there are hardly any worked examples. Most of the exercise sections start with two or three relatively easy exercises, covering the kinds of results that would otherwise be worked examples. The remainder of the exercises are quite challenging and prove a lot of standard results. The prerequisites are modest, being mostly calculus and an introduction to real analysis. The book develops the properties of complex numbers, the line integral, and the needed point-set topology.

The book is slanted toward the geometric side, with a lot of material on conformal mapping, the Riemann mapping theorem, Dirichlet&rsquos problem (the existence of a harmonic function having given boundary values), the monodromy theorem, and considerations of the kinds of regions that the Cauchy integral theorem holds for. It has relatively less coverage of power series, contour integrals, and infinite products. The coverage of special functions is concise but reasonably complete.

This is a pure-math book aimed at math majors and generally omits any applications, even to math. For example, it has a very nice section on the Riemann zeta function, but mentions only in passing that it is useful in analytic number theory, and nowhere uses the term &ldquoprime number theorem&rdquo.

The book concludes with two chapters on more specialized topics. One chapter is on elliptic (doubly-periodic) functions in general, and the Weierstrass (wp)-function in particular. The other is on global analytic functions, that is, a way of formalizing multi-valued functions the approach here is through sheaves. (Despite the geometric emphasis, the book makes only modest use of Riemann surfaces.)

I recommend against using this book as the text for a course, because of its high price. Wonderful though it is, you are only going to cover a small portion of the text in any course, and there are much cheaper though less comprehensive texts that do just as well for an introductory text. Needham&rsquos Visual Complex Analysis is well-regarded by many people and also emphasizes the geometric perspective, although it is very different from any other text on the market. There are lots and lots of introductory complex analysis texts that lean toward the power series and integral side. Of these, I like Bak & Newman&rsquos Complex Analysis and Fisher&rsquos Complex Variables (the latter a bargain at under $20). Another well-regarded modern book, that I have not seen, is Boas&rsquos Invitation to Complex Analysis.

Allen Stenger is a math hobbyist and retired software developer. He is an editor of the Missouri Journal of Mathematical Sciences. His mathematical interests are number theory and classical analysis.


Assista o vídeo: Teorema de Cauchy - Análisis Matemático UNM (Outubro 2021).