Artigos

6.3: Operadores diferenciais lineares - Matemática


Sua aula de cálculo se tornou muito mais fácil quando você parou de usar a definição de limite da derivada, aprendeu a regra de potência e começou a usar a linearidade do operador derivado.

Exemplo 64

Seja (V ) o espaço vetorial de polinômios de grau 2 ou menos com adição padrão e multiplicação escalar.

[V = {a_ {0} cdot1 + a_ {1} x + a_ {2} x ^ {2} | a_ {0}, a_ {1}, a_ {2} in Re } nonumber ]

Seja ( frac {d} {dx} dois pontos V rightarrow V ) o operador derivado. As três equações a seguir, junto com a linearidade do operador derivado, permitem tirar a derivada de qualquer polinômio de 2º grau:

[
frac {d} {dx} 1 = 0, ~ frac {d} {dx} x = 1, ~ frac {d} {dx} x ^ {2} = 2x ,. enhum número
]

Em particular

[
frac {d} {dx} (a_ {0} cdot1 + a_ {1} x + a_ {2} x ^ {2}) =
a_ {0} frac {d} {dx} cdot1 + a_ {1} frac {d} {dx} x + a_ {2} frac {d} {dx} x ^ {2}
= 0 + a_ {1} + 2a_ {2}. Não número
]

Assim, a derivada atuando em qualquer um dos infinitos polinômios de segunda ordem é determinada por sua ação para apenas três entradas.


Operador diferencial linear

Aqui $ a _ dots i _ > $ são funções com valores no mesmo campo, chamados de coeficientes de $ A $. Se os coeficientes assumem valores no conjunto de $ (t times s) $ - matrizes dimensionais sobre $ k $, então o operador diferencial linear $ A $ é definido nas funções de valor vetorial $ u = (u _ <1> pontos u _ ) $ e os transforma em funções com valor vetorial $ v = (v _ <1> dots v _ ) $. No caso $ n = 1 $, é denominado operador diferencial linear ordinário e, no caso $ n & gt 1 $, denominado operador diferencial parcial linear.

Seja $ X $ uma variedade diferenciável e seja $ E $ e $ F $ pacotes vetoriais de dimensão finita em $ X $ (todos da classe $ C ^ infty $, cf. Pacote vetorial). Deixe $ widetilde rightarrow widetilde $ ser os feixes (cf. Feixe) de germes de seções desses feixes da classe de suavidade correspondente. Um operador diferencial linear no sentido amplo $ A: E rightarrow F $ é um feixe de mapeamento $ widetilde rightarrow widetilde $ satisfazendo a seguinte condição: Todo ponto $ x em X $ tem uma vizinhança coordenada $ U $ dentro da qual os pacotes são triviais, enquanto o mapeamento

$ A: Gamma (U, E) rightarrow Gamma (U, F), $

onde $ Gamma (U, E) $ é o espaço das seções de $ E $ sobre $ U $, atua de acordo com (1), em que as coordenadas locais $ x _ <1> dots x _ $ e as trivializações

$ E mid _ cong U times k ^ , F mid _ cong U times k ^ $

são usados. O menor número $ m $ tal que (1) seja adequado em todos os pontos $ x em X $ é chamado de ordem do operador diferencial linear $ A $. Por exemplo, toda conexão diferente de zero em $ E $ é um operador diferencial linear $ d: E rightarrow E otimes Omega ^ <1> (X) $ de primeira ordem. Outra definição equivalente de um operador diferencial linear $ A: E rightarrow F $ é a seguinte: É um operador linear $ A: Gamma (X, E) rightarrow Gamma (X, F) $ satisfazendo a condição $ supp Au subset supp u $, onde $ supp u $ é o suporte de $ u $.

Um operador diferencial linear pode ser definido em espaços de função mais amplos. Por exemplo, se uma métrica positiva é definida em $ X $ e um produto escalar é definido nos pacotes $ E $ e $ F $, então os espaços das seções quadradas integráveis ​​desses pacotes são definidos. Um operador diferencial linear definido pelas expressões locais (1) determina um operador linear ilimitado $ A: L _ <2> (E) rightarrow L _ <2> (F) $. Sob certas suposições fracas, o último pode ser fechado como um operador em espaços de Hilbert. Este fechamento também é chamado de operador diferencial linear. Da mesma forma, pode-se construir um operador que atue nos espaços de Sobolev ou em espaços de escalas mais gerais.

Um operador diferencial linear da classe $ C ^ infty $ pode ser estendido a um operador em espaços de seções generalizadas. Tal extensão pode ser construída por meio de um operador formalmente adjacente. Seja $ E ^ prime $ o pacote dual para $ E $ (ou seja, $ E ^ prime = mathop < rm Hom> (E, I) $, onde $ I $ é o pacote unidimensional trivial ) e seja $ Omega $ o pacote de formas diferenciais em $ X $ do grau máximo. É definido um mapeamento bilinear

$ ( cdot, cdot) _ : Gamma (X, E) times Gamma _ <0> (X, E ^ prime otimes Omega) rightarrow k, $

que envolve integração acima de $ X $. Aqui $ Gamma _ <0> ( cdot) $ é o espaço das seções com suporte compacto. A fórmula

define exclusivamente um operador linear

$ <> ^ A: Gamma _ <0> (X, F ^ prime otimes Omega) rightarrow Gamma _ <0> (X, E ^ prime otimes Omega). $

É induzido pelo operador diferencial linear $ <> ^ A: F ^ < prime> otimes Omega rightarrow E ^ prime otimes Omega $ que dentro da vizinhança de coordenada $ U $ tem a expressão

$ <> ^ A u = sum (- 1) ^ + dots + i _ > frac < parcial ^ + dots + i _ > ( <> ^ uma _ dots i _ > u)> < parcial x _ <1> ^ > dots parcial x _ ^ > > , $

se o pacote $ Omega $ é trivializado pela escolha da seção $ d x _ <1> wedge dots wedge d x _ $. O operador diferencial linear $ <> ^ Diz-se que A $ é formalmente adjacente em relação a $ A $.

No espaço $ Gamma _ <0> (X, E ^ prime otimes Omega) $ convergência é definida de acordo com a seguinte regra: $ f _ rightarrow f $ se a união dos suportes das seções $ f _ $ pertence a um conjunto compacto e se em qualquer vizinhança de coordenada $ U subconjunto X $ sobre a qual há uma trivialização de $ E $, as funções de valor vetorial $ f _ $ convergem uniformemente para $ f $ junto com todas as derivadas parciais em relação às coordenadas locais. O espaço de todos os funcionais lineares é chamado de espaço de seções generalizadas de $ E $ e é denotado por $ D ^ prime (E) $. O operador $ <> ^ A $ leva sequências convergentes para sequências convergentes e, portanto, gera um operador adjunto $ D ^ prime (E) rightarrow D ^ prime (F) $. Este último coincide com $ A $ no subespaço $ Gamma (X, E) $ e é chamado de extensão do dado operador diferencial linear para o espaço de seções generalizadas. Também se consideram outras extensões de operadores diferenciais lineares, para espaços de seções generalizadas de ordem infinita, para o espaço de hiperfunções, etc.

Um operador diferencial linear de ordem infinita é entendido como um operador que atua em algum espaço de funções analíticas (seções) e é definido por (1), em que a soma é sobre um conjunto infinito de índices $ i _ <1> pontos i _ , dots $.

A propriedade a seguir caracteriza os operadores diferenciais lineares. Uma sequência $ > subset Gamma (X, E) $ converge para uma seção $ f $ if $ f _ $ tende uniformemente para $ f $ junto com todas as derivadas parciais em qualquer vizinhança coordenada que tenha fechamento compacto. Um operador linear $ A: Gamma _ <0> (X, E) rightarrow Gamma (X, F) $ que leva sequências convergentes para sequências convergentes é um operador diferencial linear de ordem no máximo $ m $ se e somente se para qualquer $ f, g in C ^ infty (X) $ a função

$ tag <2> mathop < rm exp> (- i lambda g) A (f mathop < rm exp> (i lambda g)) $

é um polinômio no parâmetro $ lambda $ de grau no máximo $ m $. Se essa condição for substituída pela suposição de que (2) é representada por uma série de potências assintóticas, obtém-se a definição de um operador pseudo-diferencial linear.

Suponha que a variedade $ X $ e também os pacotes $ E $ e $ F $ sejam dotados de uma estrutura $ G $, onde $ G $ é um grupo. Então, a ação deste grupo em qualquer operador diferencial linear $ A: E rightarrow F $ é definida pela fórmula

Um operador diferencial linear $ A $ é invariante em relação a $ G $ se $ g ^ <*> (A) = A $ para todos os $ g em G $.

Um feixe de jatos é um objeto dual ao espaço de um operador diferencial linear. Novamente, suponha que $ E $ seja um pacote vetorial em uma variedade $ X $ da classe $ C ^ infty $. Um pacote de $ m $ - jatos de seções de $ E $ é um pacote vetorial $ J _ (E) $ em $ X $ cuja fibra sobre um ponto $ x $ é igual a $ widetilde _ / widetilde _ (m) $, onde $ widetilde _ $ é uma fibra do pacote $ widetilde $ de germes das seções de $ E $ e $ widetilde _ (m) $ é o subespaço desta fibra consistindo de germes de seções para as quais todos os derivados até $ m $ inclusive desaparecem em $ x $. O operador diferencial linear $ d _ : E rightarrow J _ (E) $ que atua de acordo com a regra: o valor da seção $ d _ (u) $ em $ x $ é igual à imagem da seção $ u $ no espaço quociente $ widetilde _ / widetilde _ (m) $, é considerado universal. Em seguida, suponha que $ F $ seja um pacote em $ X $ e que $ A: J _ (E) rightarrow F $ é um homomorfismo de bundle, ou seja, um operador diferencial linear de ordem zero. O composto

$ tag <3> E rightarrow ^ < > J _ (E) rightarrow ^ F $

é um operador diferencial linear de ordem no máximo $ m $. Por outro lado, cada operador diferencial linear de ordem no máximo $ m $ pode ser representado exclusivamente como uma composição (3).

O símbolo (sistema principal) de um operador diferencial linear $ A: E rightarrow F $ é a família de mapeamentos lineares

dependendo de um ponto $ (x, xi) $ do pacote cotangente $ T ^ <*> (X) $. Eles agem de acordo com a fórmula $ e rightarrow a ( xi ^ e) / m! $, onde $ a $ é o homomorfismo envolvido em (3), $ e in widetilde _ $ e $ xi ^ e $ é o elemento de $ J _ (E) _ $ igual à imagem de $ f ^ e $, onde $ f $ é o germe de uma função da classe $ C ^ infty $ tal que $ f (x) = 0 $, $ df (x) = xi $. Se $ A $ tiver a forma (1), então

onde $ xi _ <1> dots xi _ $ são as coordenadas em uma fibra do pacote $ T ^ <*> (U) cong U times k ^ $ assim, o símbolo é uma forma de grau $ m $, homogêneo em $ xi $. De acordo com essa construção do símbolo, introduz-se o conceito de característica. Uma característica de um operador diferencial linear $ A $ é um ponto $ (x, xi) in T ^ <*> (X) $ no qual o símbolo $ sigma _ $ tem kernel diferente de zero.

A classificação adotada na teoria dos operadores diferenciais lineares refere-se principalmente aos operadores diferenciais lineares que atuam em feixes da mesma dimensão, na verdade a operadores da forma (1) onde os coeficientes são matrizes quadradas. Um operador diferencial linear é considerado elíptico se não tiver características reais $ (x, xi) $ com $ xi neq 0 $ (cf. também Equação diferencial parcial elíptica). Esta classe é caracterizada pelas melhores propriedades locais de soluções da equação $ Au = w $, e também pelo fato de que os problemas de valor de contorno em domínios limitados são bem colocados. A classe de operadores diferenciais lineares hiperbólicos também é distinguida por uma condição imposta apenas sobre as características (cf. Equação diferencial parcial hiperbólica). A propriedade de ser hiperbólica está intimamente ligada à boa colocação do problema de Cauchy com dados não analíticos. A classe de operadores diferenciais lineares do tipo principal é especificada por uma condição imposta apenas no símbolo (cf. Tipo principal, operador diferencial parcial de). Uma teoria de solubilidade local e suavidade de soluções foi desenvolvida para tais operadores. A classe de operadores diferenciais lineares parabólicos é distinguida por uma condição relacionada não apenas ao símbolo, mas também a alguns termos de ordem inferior (cf. Equação diferencial parcial parabólica). Típicos para operadores diferenciais lineares parabólicos são o problema misto e o problema de Cauchy com condições no infinito. A classe dos operadores diferenciais lineares hipoelípticos é especificada pela seguinte condição informal: Cada solução generalizada a priori da equação $ Au = w $ com o lado direito de $ C ^ infty $ ela própria pertence a $ C ^ infty $. São conhecidas várias condições formais da expressão (1) que garantem que o operador é hipoelíptico.

Além desses tipos fundamentais de operadores diferenciais lineares, às vezes se fala em operadores diferenciais lineares de tipo misto ou variável (cf. também equação diferencial de tipo misto), de operadores diferenciais lineares de tipo composto, etc. Também se consideram problemas em domínios ilimitados com condições no infinito, problemas de valor de contorno com um contorno livre, problemas de teoria espectral, problemas de controle ótimo, etc.

Um complexo de operadores diferenciais lineares é uma sequência de operadores diferenciais lineares

$ E ^ <*>: dots rightarrow E _ rightarrow ^ < > E _ 1 rightarrow ^ < 1> E _ 2 rightarrow dots $

em que $ A _ 1 A _ = 0 $ para todos os $ k $. A cohomologia de um complexo de operadores diferenciais lineares $ E ^ <*> $ é a cohomologia do complexo de espaços vetoriais $ Gamma (X, E ^ <*>) $. Deixe $ H ^ $ seja a cohomologia deste complexo no $ k $ - ésimo termo. A soma $ sum (- 1) ^ mathop < rm dim> H ^ $ é chamado de índice do complexo de operadores diferenciais lineares. Assim, o índice de um complexo elíptico de operadores diferenciais lineares (isto é, tal que apenas finitamente muitos $ E _ $ são diferentes de zero, e o complexo formado pelos símbolos dos operadores diferenciais lineares $ A _ $ é exato em todos os pontos $ (x, xi) in T ^ <*> (X), $ $ xi neq 0 $) é finito no caso do compacto $ X $, e a busca por fórmulas que expressar o índice de tal complexo em termos de seu símbolo é o conteúdo de uma série de investigações que combinam a teoria dos operadores diferenciais lineares com geometria algébrica e topologia algébrica (consulte Fórmulas de índice).

$ tag <4> D (F) rightarrow ^ < > D (E) rightarrow ^

M (A) rightarrow 0, $

e $ O (X) $ - submódulos $ M _ equiv p (D _ (E)) $, $ k = 0, 1 dots $ formam uma filtragem crescente em $ M (A) $. O módulo $ O (X) $ avaliado

$ mathop < rm gr> M (A) = oplus _ <0> ^ infty M _ / M _ 1, M _ <-> 1 = 0, $

é chamado de módulo de símbolo do operador diferencial linear $ A $. Uma vez que para qualquer $ k $ e $ l $ a ação de $ D _ $ em $ M (A) $ leva $ M _ $ em $ M _ k $, em $ mathop < rm gr> M (A) $ há uma estrutura de um módulo graduado sobre a álgebra graduada $ mathop < rm gr> D equiv oplus _ <0> ^ infty D _ / D _ 1 $. O aniquilador deste módulo é um ideal homogêneo em $ mathop < rm gr> D $. A variedade característica do operador $ A $ é o conjunto de zeros desse ideal. Como a álgebra $ mathop < rm gr> D $ é isomórfica à álgebra simétrica do feixe tangente $ T (X) $, a variedade característica é canonicamente embutida em $ T ^ <*> (X) $, e seu a intersecção com cada fibra é um cone algébrico.

Se a variedade $ X $ e os pacotes fornecidos têm estrutura analítica real ou complexa, então a variedade característica coincide com o conjunto de raízes do $ mathop < rm gr> ideal ( mathop < rm ann> M (A) ) $. Nesse caso, é um subconjunto analítico fechado de $ T ^ <*> (X) $ e, se não estiver vazio, sua dimensão é de pelo menos $ mathop < rm dim> X $. No caso em que esta dimensão é igual a $ mathop < rm dim> X $, o operador diferencial linear $ A $ é considerado maximamente sobredeterminado ou holonômico.

A teoria formal dos operadores diferenciais lineares gerais preocupa-se com os conceitos de integrabilidade formal e o resolvente. A propriedade de integrabilidade formal, formalizada na terminologia dual dos jatos, é equivalente à condição de que $ O (X) $ - módulo $ mathop < rm gr> M (A) $ seja localmente gratuito. O resolvente de um operador diferencial linear $ A $ é entendido como a sequência, estendendo (4),

$ dots rightarrow D (F _ <1>) rightarrow ^ < ^ prime> D (F) mathop rightarrow limits ^ < > D (E) rightarrow M (A), $

em que todos os $ A _ $, $ k = 1, 2 dots $ são operadores diferenciais lineares. Em particular, $ A _ <1> $ é chamado de operador de compatibilidade para $ A $. A integrabilidade formal garante a existência local do resolvente.

Na literatura são usados ​​os termos "sobredeterminado" e "subdeterminado" para sistemas de equações diferenciais, entretanto, não há uma definição geral satisfatória. O seguinte pode servir como uma aproximação para tal definição: Há um operador diferencial linear diferente de zero $ B $ tal que $ BA = 0 $ (sobredeterminação), $ AB = 0 $ (subdeterminação). Por exemplo, o operador diferencial linear $ d $ igual à restrição do operador de diferenciação exterior a formas de grau $ k $ em uma variedade $ X $ de dimensão $ n $ é subdeterminado para $ k & gt 0 $, sobredeterminado para $ k & lt n $ e holonômico para $ k = 0 $.

Os principais problemas estudados para operadores diferenciais lineares gerais são os seguintes: A solubilidade de uma equação com o lado direito $ Au = w $ se uma condição de compatibilidade $ A _ <1> u = 0 $ for satisfeita a possibilidade de estender soluções de a equação $ Au = 0 $ para um domínio maior (um efeito conectado com sobredeterminação) e a representação da solução geral em termos de uma solução de forma especial. O último problema pode ser declarado mais especificamente para operadores invariantes, por exemplo para operadores diferenciais lineares em $ mathbf R ^ $ com coeficientes constantes ou periódicos: Para descrever uma representação de um grupo $ G $ no espaço de soluções como uma integral (em algum sentido) sobre todas as sub-representações indecomponíveis. Na determinação de operadores com coeficientes constantes, tal representação é especificada por uma integral em relação aos expoentes (representação exponencial) e, para operadores com coeficientes periódicos, por uma integral em relação às soluções generalizadas de Floquet.

Operadores diferenciais lineares também são definidos em estruturas algébricas arbitrárias. Seja $ R $ um anel comutativo e seja $ E $ e $ F $ $ R $ - módulos. Um mapeamento dos conjuntos $ A: E rightarrow F $ é chamado de operador diferencial linear de ordem no máximo $ m $ se for aditivo e para qualquer elemento $ a in R $ o mapeamento $ aA- Aa $ é um diferencial linear operador de pedido no máximo $ m- 1 $. Um operador diferencial linear de ordem no máximo $ - 1 $ significa o mapeamento zero. Em particular, um operador diferencial linear de ordem zero é um homomorfismo de $ R $ - módulos, e vice-versa. Cada derivação (cf. Derivação em um anel) $ v: R rightarrow F $ é um operador diferencial linear de primeira ordem (ou igual a zero). Se $ R $ é uma álgebra sobre um campo $ k $, então um operador diferencial linear sobre $ R $ é um operador diferencial linear sobre o anel $ R $ que é um $ k $ - mapeamento linear. Esse operador diferencial linear tem várias propriedades formais dos operadores diferenciais lineares comuns. Se $ R $ é a álgebra de todas as séries de potências formais acima de $ k $ ou a álgebra de séries de potências convergentes acima de $ k $, e se $ E $ e $ F $ são $ R $ livres - módulos de tipo finito, então todos operador diferencial linear $ A: E rightarrow F $ de ordem no máximo $ m $ pode ser escrito exclusivamente na forma (1).

Seja $ (X, < mathcal O>) $ um espaço anelado e seja $ E $ e $ F $ $ < mathcal O> $ - módulos. Um operador diferencial linear $ A: E rightarrow F $ é qualquer morfismo de feixe que atua nas fibras sobre cada ponto $ x em X $ como um operador diferencial linear sobre o anel (álgebra) $ < mathcal O> _ $. Operadores diferenciais lineares que atuam em módulos ou feixes de módulos têm sido usados ​​em várias questões em geometria algébrica.


2. Equações diferenciais lineares com um operador ilimitado.

Suponha que $ A _ <0> (t) $ seja invertível para cada $ t $, de modo que (1) pode ser resolvido para a derivada e assume a forma

e suponha que aqui $ A (t) $ é um operador ilimitado em um espaço $ E $, com domínio denso de definição $ D (A (t)) $ em $ E $ e com conjunto resolvente não vazio, e suponha que $ f (t) $ é uma função dada e $ u (t) $ uma função desconhecida, ambas com valores em $ E $.

Mesmo para a equação mais simples $ dot = Au $ com um operador ilimitado, as soluções do problema de Cauchy $ u (0) = u _ <0> $ não precisam existir, podem não ser únicas e podem ser não extensíveis a todo o semieixo, assim, as principais investigações são dedicadas às questões de existência e singularidade das soluções. Uma solução da equação $ dot = Au $ no intervalo $ [0, T] $ é entendida como uma função que assume valores em $ D (A) $, é diferenciável em $ [0, T] $ e satisfaz a equação. Às vezes, essa definição é muito rígida e introduz-se o conceito de solução fraca como uma função que tem as mesmas propriedades em $ (0, T] $ e é contínua apenas em $ 0 $.

Suponha que o operador $ A $ tenha um resolvente

$ R ( lambda, A) = (A - lambda I) ^ <-> 1 $

para todos os $ lambda $ positivos suficientemente grandes e que

Então, a solução fraca do problema

é único em $ [0, T - h] $ e pode ser ramificado para $ t = T - h $. Se $ h = 0 $, então a solução é única em todo o semieixo. Esta afirmação é precisa no que diz respeito ao comportamento de $ R ( lambda, A) $ como $ lambda rightarrow infty $.

Se para cada $ u _ <0> em D (A) $ existe uma solução única para o problema (10) que é continuamente diferenciável em $ [0, T] $, então esta solução pode ser estendida para todo o semi -eixo e pode ser representado na forma $ u (t) = U (t) u _ <0> $, onde $ U (t) $ é um semi-grupo fortemente contínuo de operadores limitados em $ [0, infty) $, $ U (0) = I $, para o qual a estimativa $ | U (t) | leq M e ^ < omega t> $ retém. Para que a equação tenha esta propriedade é necessário e suficiente que

$ tag <11> | ( lambda - omega) ^ R ^ ( lambda, A) | leq M $

para todos os $ lambda & gt omega $ e $ m = 1, 2 dots $ onde $ M $ não depende de $ lambda $ e $ m $. Essas condições são difíceis de verificar. Eles ficarão satisfeitos se $ | ( lambda - omega) R ( lambda, A) | leq 1 $ e, em seguida, $ | U (t) | leq e ^ < omega t> $. Se $ omega = 0 $, então $ U (t) $ é um semigrupo de contração. Isso é verdade se e somente se $ A $ for um operador dissipativo máximo. Se $ u _ <0> notin D (A) $, então a função $ U (t) u _ <0> $ não é diferenciável (em qualquer caso para $ t = 0 $) é frequentemente chamada de solução generalizada de (10). Soluções da equação $ dot = Au $ pode ser construído como o limite, como $ n rightarrow infty $, das soluções da equação $ dot = A _ u $ com operadores limitados, nas mesmas condições iniciais. Para isso é suficiente que os operadores $ A _ $ commute, convergem fortemente para $ A $ em $ D (A) $ e que

Se as condições (11) forem satisfeitas, os operadores $ A _ = - nI - n ^ <2> R ( lambda, A) $ (operadores Yosida) têm essas propriedades.

Outro método para construir soluções da equação $ dot = A u $ é baseado na transformação de Laplace. Se o resolvente de $ A $ é definido em algum contorno $ Gamma $, então a função

$ tag <12> u (t) = - frac <1> <2 pi i> int limits _ Gamma e ^ < lambda t> R ( lambda, A) u _ <0> d lambda $

satisfaz formalmente a equação

$ ponto = A u + frac <1> <2 pi i> int limits _ Gamma e ^ < lambda t> d lambda u _ <0>. $

Se a convergência das integrais, a validade da diferenciação sob o sinal da integral e o desaparecimento da última integral são garantidos, então $ u (t) $ satisfaz a equação. A dificuldade reside no fato de que a norma do resolvente não pode diminuir mais rápido do que $ | lambda | ^ <-> 1 $ no infinito. No entanto, em alguns elementos, diminui mais rápido. Por exemplo, se $ R ( lambda, A) $ é definido para $ mathop < rm Re> lambda geq alpha $ e se

$ | R ( lambda, A) | leq M | lambda | ^ , k geq - 1, $

para $ suficientemente grande | lambda | $, então, para $ Gamma = (- i infty, i infty) $ formula (12) fornece uma solução para qualquer $ u _ <0> in D (A ^ <[k] + 3>) $. Em um caso "menos bom", quando a desigualdade anterior é satisfeita apenas no domínio

(equações fracamente hiperbólicas), e $ Gamma $ é a fronteira deste domínio, obtém-se uma solução apenas para um $ u _ <0> $ pertencente à intersecção dos domínios de definição de todas as potências de $ A $, com comportamento definido de $ | A ^ u _ <0> | $ as $ n rightarrow infty $.

Soluções significativamente mais fracas são obtidas no caso em que $ Gamma $ vai para o semiplano esquerdo, e pode-se usar a diminuição da função $ | e ^ < lambda t> | $ nele. Como regra, as soluções aumentaram a suavidade por $ t & gt 0 $. Se o resolvente estiver limitado ao contorno $ Gamma $: $ mathop < rm Re> lambda = - psi (| mathop < rm Im> lambda |) $, onde $ psi ( tau) $ é uma função côncava não decrescente suave que aumenta como $ mathop < rm ln> tau $ em $ infty $, então para qualquer $ u _ <0> em E $ a função (12) é diferenciável e satisfaz a equação, começando com algum $ t _ <0> $ à medida que $ t $ aumenta ainda mais, sua suavidade aumenta. Se $ psi ( tau) $ aumenta como uma potência de $ tau $ com expoente menor que um, então a função (12) é infinitamente diferenciável para $ t & gt 0 $ se $ psi ( tau) $ aumenta como $ tau / mathop < rm ln> tau $, então $ u (t) $ pertence a uma classe quase analítica de funções se aumentar como uma função linear, então $ u (t) $ é analítico. Em todos esses casos, ele satisfaz a equação $ dot = A u $.

A existência do resolvente nos contornos que vão para o semiplano esquerdo pode ser obtida, usando a expansão em série, a partir das estimativas correspondentes nas linhas verticais. Se por $ mathop < rm Re> lambda geq gamma $,

$ tag <13> | R ( lambda, A) | leq M (1 + | mathop < rm Im> lambda |) ^ <- beta>, 0 & lt beta & lt 1, $

então, para cada $ u _ <0> em D (A) $, há uma solução do problema (10). Todas essas soluções são infinitamente diferenciáveis ​​por $ t & gt 0 $. Eles podem ser representados na forma $ u (t) = U (t) u _ <0> $, onde $ U (t) $ é um semigrupo infinitamente diferenciável para $ t & gt 0 $ tendo, em geral, uma singularidade em $ t = 0 $. Para seus derivados tem-se as estimativas

Se a estimativa (13) for satisfeita para $ beta = 1 $, então todas as soluções generalizadas da equação $ ponto = Au $ são analíticos em algum setor contendo o semieixo positivo.

A equação $ dot = Au $ é chamado de equação parabólica abstrata se houver uma solução única fraca em $ [0, infty] $ satisfazendo a condição inicial $ u (0) = u _ <0> $ para qualquer $ u _ <0> em E $. Se

$ tag <14> | R ( lambda, A) | leq M | lambda - omega | ^ <-> 1 textrm mathop < rm Re> lambda & gt omega, $

então a equação é uma equação parabólica abstrata. Todas as suas soluções generalizadas são analíticas em algum setor contendo o semieixo positivo, e

onde $ C $ não depende de $ u _ <0> $. Por outro lado, se a equação tem as propriedades listadas, então (14) é satisfeita para o operador $ A $.

Se o problema (10) tem uma solução única fraca para qualquer $ u _ <0> em D (A) $ para o qual a derivada é integrável em cada intervalo finito, então essas soluções podem ser representadas na forma $ u (t) = U (t) u _ <0> $, onde $ U (t) $ é um semigrupo fortemente contínuo em $ (0, infty) $, e cada solução fraca da equação não homogênea $ ponto = Av + ​​f (t) $ com condição inicial $ v (0) = 0 $ pode ser representado na forma

$ tag <15> v (t) = int limits _ <0> ^ U (t- s) f (s) ds. $

A função $ v (t) $ é definida para qualquer $ f (t) $ contínuo, portanto, é chamada de solução generalizada da equação não homogênea. Para garantir que seja diferenciável, impõe-se condições de suavidade em $ f (t) $, e quanto "pior" o semigrupo $ U (t) $, mais "altos" eles deveriam ser. Assim, nas condições anteriores, (15) é uma solução fraca da equação não homogênea se $ f (t) $ é duas vezes continuamente diferenciável se (11) for satisfeito, então (15) é uma solução se $ f (t) $ é continuamente diferenciável se (13) for satisfeito com $ beta & gt 2/3 $, então $ v (t) $ é uma solução fraca se $ f (t) $ satisfizer uma condição de Hölder com expoente $ gamma & gt 2 (1 - 1 / beta) $. Em vez da suavidade de $ f (t) $ com respeito a $ t $, pode-se exigir que os valores de $ f (t) $ pertençam ao domínio de definição da potência correspondente de $ A $.

Para uma equação com operador variável

$ tag <16> ponto = A (t) u, 0 leq t leq T, $

existem alguns teoremas de existência e unicidade fundamentais sobre soluções (soluções fracas) do problema de Cauchy $ u (s) = u _ <0> $ no intervalo $ s leq t leq T $. Se o domínio de definição de $ A (t) $ não depende de $ t $,

se o operador $ A (t) $ é fortemente contínuo em relação a $ t $ em $ D (A) $ e se

$ | lambda R ( lambda, A (t)) | leq 1 $

para $ lambda & gt 0 $, então a solução do problema de Cauchy é única. Além disso, se $ A (t) $ é fortemente continuamente diferenciável em $ D (A) $, então, para cada $ u _ <0> em D (A) $, uma solução existe e pode ser representada na forma

onde $ U (t, s) $ é um operador de evolução com as seguintes propriedades:

1) $ U (t, s) $ é fortemente contínuo no triângulo $ T _ Delta $: $ 0 leq s leq t leq T $

2) $ U (t, s) = U (t, tau) U ( tau, s) $, $ 0 leq s leq tau leq t leq T $, $ U (s, s) = I $

3) $ U (t, s) $ mapeia $ D (A) $ em si mesmo e no operador

é limitado e fortemente contínuo em $ T _ Delta $

4) em $ D (A) $, o operador $ U (t, s) $ é fortemente diferenciável em relação a $ t $ e $ s $ e

A construção do operador $ U (t, s) $ é realizada aproximando $ A (t) $ pelos operadores limitados $ A _ (t) $ e substituindo o último por operadores de constantes por partes.

Em muitos problemas importantes, as condições anteriores do operador $ A (t) $ não são satisfeitas. Suponha que para o operador $ A (t) $ existam constantes $ M $ e $ omega $ tais que

$ | R ( lambda, A (t _ )) dots R ( lambda, A (t _ <1>)) | leq M ( lambda - omega) ^ <-> k $

para todos $ lambda & gt omega $, $ 0 leq t _ <1> leq dots leq t _ leq T $, $ k = 1, 2,. . . $. Suponha que em $ E $ haja um espaço de Banach densamente embutido $ F $ contido em todos os $ D (A (t)) $ e tendo as seguintes propriedades: a) o operador $ A (t) $ age de forma limitada a partir de $ F $ para $ E $ e é contínuo em relação a $ t $ na norma como um operador limitado de $ F $ para $ E $ eb) há um isomorfismo $ S $ de $ F $ para $ E $ tal que

onde $ B (t) $ é uma função de operador limitada em $ E $ e fortemente mensurável, e para a qual $ | B (t) | $ é integrável em $ [0, T] $. Então existe um operador de evolução $ U (t, s) $ com as propriedades: 1) 2) 3 ') $ U (t, s) F subconjunto F $ e $ U (t, s) $ é fortemente contínuo em $ F $ em $ T _ Delta $ e 4 ') em $ F $ o operador $ U (t, s) $ é fortemente diferenciável no sentido da norma de $ E $ e $ parcial U / parcial t = A (t) U $, $ parcial U / parcial s = - UA (s) $. Esta afirmação torna possível obter teoremas de existência para as equações quase lineares fundamentais da física matemática de tipo hiperbólico.

O método dos coeficientes congelados é usado na teoria das equações parabólicas. Suponha que, para cada $ t _ <0> in [0, T] $, para a equação $ ponto = A ( t _ <0>) u $ corresponds an operator semi-group $ U _ ) > ( t) $. The unknown evolution operator formally satisfies the integral equations

$ + intlimits _ < s >^ < t >U _ ( t - s ) [ A ( au ) - A ( t) ] U ( au , s ) d au , $

$ + intlimits _ < s >^ < t >U ( t , au ) [ A ( au ) - A ( s) ] U _ ( au - s ) d au . $

When the kernels of these equations have weak singularities, one can prove that the equation has solutions and also that $ U ( t , s ) $ is an evolution operator. The following statement has the most applications: If

$ D ( A ( t) ) equiv D ( A) , | R ( lambda , A ( t) ) | < M ( 1 + | lambda | ) ^ <->1 $

for $ mathop < m Re>lambda geq 0 $ and

$ | [ A ( t) - A ( s) ] A ^ <->1 ( 0) | leq C | t - s | ^ ho $

(a Hölder condition), then there is an evolution operator $ U ( t , s ) $ that gives a weak solution $ U ( t , s ) u _ <0>$ of the Cauchy problem for every $ u _ <0>in E $. Uniqueness of the solution holds under the single condition that the operator $ A ( t) A ^ <->1 ( 0) $ is continuous (in a Hilbert space). An existence theorem similar to the one given above holds for the operator $ A ( t) $ with a condition of type (13) and for a certain relation between $ eta $ and $ ho $.

The assumption that $ D ( A ( t) ) $ is constant does not make it possible in applications to consider boundary value problems with boundary conditions depending on $ t $. Suponha que

$ | R ( lambda , A ( t) ) | leq M ( 1 + | lambda | ) ^ <->1 , mathop < m Re>lambda > 0 $

$ left | frac 1 ( t) >

- frac 1 ( s) > ight | leq K | t - s | ^ alpha , 0 < alpha < 1 $

$ left | frac partial R ( lambda , A ( t) ) ight | leq N | lambda | ^ < ho - 1 >, 0 leq ho leq 1 , $

in the sector $ | mathop < m arg>lambda | leq pi - phi $, $ phi < pi / 2 $ then there is an evolution operator $ U ( t , s ) $. Here it is not assumed that $ D ( A ( t) ) $ is constant. There is a version of the last statement adapted to the consideration of parabolic problems in non-cylindrical domains, in which $ D ( A ( t) ) $ for every $ t $ lies in some subspace $ E ( t) $ of $ E $.

The operator $ U ( t , s ) $ for equation (16) formally satisfies the integral equation

$ ag <17 >U ( t , s ) = I + intlimits _ < s >^ < t >A ( au ) U ( au , s ) d au . $

Since $ A ( t) $ is unbounded, this equation cannot be solved by the method of successive approximation (cf. Sequential approximation, method of). Suppose that there is a family of Banach spaces $ E _ alpha $, $ 0 leq alpha leq 1 $, having the property that $ E _ eta subset E _ alpha $ and $ | x | _ alpha leq | x | _ eta $ for $ alpha < eta $. Suppose that $ A ( t) $ is bounded as an operator from $ E _ eta $ to $ E _ alpha $:

and that $ A ( t) $ is continuous with respect to $ t $ in the norm of the space of bounded operators from $ E _ eta $ to $ E _ alpha $. Then in this space the method of successive approximation for equation (17) will converge for $ | t - s | leq ( eta - alpha ) ( Ce ) ^ <->1 $. In this way one can locally construct an operator $ U ( t , s ) $ as a bounded operator from $ E _ eta $ to $ E _ alpha $. In applications this approach gives theorems of Cauchy–Kovalevskaya type (cf. Cauchy–Kovalevskaya theorem).

For the inhomogeneous equation (9) with known evolution operator, for the equation $ dot = A ( t) u $ the solution of the Cauchy problem is formally written in the form

$ u ( t) = U ( t , s ) u _ <0>+ intlimits _ < s >^ < t >U ( t , au ) f ( au ) d au . $

This formula can be justified in various cases under certain smoothness conditions on $ f ( t) $.


Differential operator


A generalization of the concept of a differentiation operator. A differential operator (which is generally discontinuous, unbounded and non-linear on its domain) is an operator defined by some differential expression, and acting on a space of (usually vector-valued) functions (or sections of a differentiable vector bundle) on differentiable manifolds or else on a space dual to a space of this type. A differential expression is a mapping $ lambda $ of a set $ Omega $ in the space of sections of a vector bundle $ xi $ with base $ M $ into the space of sections of a vector bundle $ eta $ with the same base such that for any point $ p in M $ and arbitrary sections $ f , g in Omega $ the coincidence of their $ k $- jets (cf. Jet) at $ p $ entails the coincidence of $ lambda f $ and $ lambda g $ at that point. The smallest number $ k $ which meets this condition for all $ p in M $ is said to be the order of the differential expression and the order of the differential operator defined by this expression.

A differential operator on a manifold $ M $ without boundary often proves to be an extension of an operator which is defined in a natural manner by a fixed differential expression on some set, open in an appropriate topology, of infinitely (or sufficiently often) differentiable sections of a given vector bundle $ xi $ with base $ M $, and thus permits a natural extension to the case of sheaves of germs of sections of differentiable vector bundles. A differential operator $ L $ on a manifold $ M $ with boundary $ partial M $ is often defined as an extension of an analogous operator which is naturally defined by a differential expression on the set of differentiable functions (or sections of a vector bundle), the restrictions of which to $ partial M $ lie in the kernel of some differential operator $ l $ on $ partial M $( or satisfies some other conditions definable by some requirements to be satisfied in the domain of values of an operator $ l $ on the restrictions of the functions from the domain of definition of $ L $, such as inequalities) the differential operator $ l $ is said to define the boundary conditions for the differential operator $ L $. Linear differential operators on spaces dual to spaces of functions (or sections) are defined as operators dual to the differential operators of the above type on these spaces.

Exemplos.

1) Let $ F $ be a real-valued function of $ k+ 2 $ variables $ x , y _ <0>dots y _ $, defined in some rectangle $ Delta = I imes J _ <0> imes dots imes J _ $ the differential expression

$ D u = F left ( x , u , frac dots frac u > > ight ) $

(where $ F $ usually satisfies some regularity conditions such as measurability, continuity, differentiability, etc.) defines a differential operator $ D $ on the manifold $ I $, the domain of definition $ Omega $ of which consists of all functions $ u in C ^ ( I ) $ satisfying the condition $ u ^ <(>i) ( x) in J _ $ for $ i = 1 , 2 ,dots $. If $ F $ is continuous, $ D $ may be considered as an operator on $ C ( I) $ with domain of definition $ Omega $ the differential operator $ D $ is said to be a general ordinary differential operator. If $ F $ depends on $ y _ $, the order of $ D $ is $ k $. $ D $ is said to be quasi-linear if it depends linearly on $ y _ $ it is linear if $ F $ depends linearly on $ y _ <0>dots y _ $ it is said to be linear with constant coefficients if $ F $ is independent of $ x $ and if $ D $ is a linear differential operator. The remaining differential operators are said to be non-linear. If certain conditions as to the regularity of $ F $ are satisfied, a quasi-linear operator may be extended to a differential operator from one Sobolev space into another.

2) Let $ x = ( x ^ <1>dots x ^ ) $ run through a domain $ $ in $ mathbf R ^ $, let $ F = ( x , u , D ^ <(>n) ( u) ) $ be a differential expression defined by a real-valued function $ F $ on the product of $ $ and some open rectangle $ omega $, where $ D ^ <(>n) ( u) $ is a set of partial derivatives of the type $ D ^ alpha u = partial ^ + dots + alpha _ > u / ( partial x ^ <1>) ^ > dots ( partial x ^ ) ^ > $, where $ alpha _ <1>+ dots + alpha _ leq n $, and, as in example 1), let the function $ F $ satisfy certain regularity conditions. The differential operator defined by this expression on the space of sufficiently often differentiable functions on $ $ is known as a general partial differential operator. As in example 1), one defines non-linear, quasi-linear and linear partial differential operators and the order of a partial differential operator a differential operator is said to be elliptic, hyperbolic or parabolic if it is defined by a differential expression of the respective type. One sometimes considers functions $ F $ depending on derivatives of all orders (e.g. as their formal linear combination) such differential expressions, although not defining a differential operator in the ordinary sense, can nevertheless be brought into correspondence with certain operators (e.g. on spaces of germs of analytic functions), and are known as differential operators of infinite order.

3) The previous examples may be extended to include the complex-valued case or the case of functions with values in a locally compact, totally disconnected field and (at least in the case of linear differential operators) even to a more general situation (cf. Differential algebra).

4) Systems of differential expressions define differential operators on spaces of vector functions. For example, the Cauchy–Riemann differential operator, defined by the expression $ < partial u / partial x - partial v / partial y, partial u / partial y + partial v / partial x >$, converts the space of pairs of harmonic functions on the plane into itself.

In the definition of a differential operator and of its generalizations one often employs (besides ordinary derivatives) generalized derivatives, which appear in a natural manner when considering extensions of differential operators defined on differentiable functions, and weak derivatives, related to the transition to the adjoint operator. Moreover, derivatives of fractional and negative orders appear when the differentiation is defined by means of a Fourier transform (or some other integral transform), applicable to the domain of definition and range of such a generalized differential operator (cf. Pseudo-differential operator). This is done in order to obtain the simplest possible representation of the corresponding differential operator of a function $ F $ and to attain a reasonable generality in the formulation of problems and satisfactory properties of the objects considered. In this way, a functional or operational calculus is obtained, extending the correspondence between the differentiation operator and the operator of multiplication by the independent variable as realized in the Fourier transform.

Problems in the theory of differential equations — such as problems of existence, uniqueness, regularity, continuous dependence of the solutions on the initial data or on the right-hand side, the explicit form of a solution of a differential equation defined by a given differential expression — are readily interpreted in the theory of operators as problems on the corresponding differential operator defined on suitable function spaces — viz. as problems on kernels, images, the structure of the domain of definition of a given differential operator $ L $ or of its extension, continuity of the inverse of the given differential operator and explicit construction of this inverse operator. Problems of the approximation of solutions and of the construction of approximate solutions of differential equations are also readily generalized and improved as problems on the corresponding differential operators, viz. — selection of natural topologies in the domain of definition and in the range such that the operator $ L $( if the solutions are unique) realizes a homeomorphism of the domains of definition and ranges in these topologies (this theory is connected with the theory of interpolation and scales (grading) of function spaces, in particular for linear and quasi-linear differential operators). Another example is the selection of differential operators close to a given operator in some definite sense (which makes it possible by using appropriate topologies in the space of differential operators, to justify methods of approximation of equations, such as the regularization and the penalty method, and iterated regularization methods). The theory of differential operators makes it possible to apply classical methods in the theory of operators, e.g. the theory of compact operators, and the method of contraction mappings in various existence and uniqueness theorems for differential equations, in the theory of bifurcation of solutions and in non-linear eigen value problems. Other applications utilize a natural order structure present in function spaces on which a differential operator is defined (in particular, the theory of monotone operators), or use methods of linear analysis (the theory of duality, convex sets, dual or dissipative operators). Again, variational methods and the theory of extremal problems or the presence of certain supplementary structures (e.g. complex, symplectic, etc.) can be used in order to clarify the structure of the kernel and range of the differential operator, i.e. to obtain information on the solution space of the respective equations. Many problems connected with differential expressions necessitate a study of differential inequalities, which are closely connected with multi-valued differential operators.

Thus, the theory of differential operators makes it possible to eliminate a number of difficulties involved in the classical theory of differential equations. The utilization of various extensions of classical differential operators leads to the concept of generalized solutions of the corresponding differential equations (which necessarily proved to be classical in several cases connected with, say, elliptic problems), while the utilization of the linear structure makes it possible to introduce the concept of weak solutions of differential equations. In choosing a suitable extension of a differential operator as defined by a differential expression, a priori estimates of solutions connected with such an expression are of importance, since they permit one to identify function spaces on which the extended operator is continuous or bounded.

Moreover, the theory of differential operators also makes it possible to formulate and solve many new problems, which are qualitatively different from the classical problems in the theory of differential equations. Thus, in the study of non-linear operators it is of interest to study the structure of the set of its stationary points and the action of the operator in a neighbourhood of them, as well as the classification of these singular points, and the stability of the type of the singular point when the respective differential operator is perturbed. Other subjects of interest in the theory of linear differential operators are the description and the study of the spectrum of a differential operator, the calculation of its index, the structure of invariant subspaces of the differential operator, the harmonic analysis of a given differential operator (in particular, the decomposition, which requires a preliminary study of the completeness of the system of eigen functions and associated functions). There is also the study of linear and non-linear perturbations of a given differential operator. These results are of special interest for elliptic differential operators generated by symmetric differential expressions in the context of the theory of self-adjoint operators on a Hilbert space (in particular, in the spectral theory of these operators and the theory of extensions of symmetric operators). The theory of various hyperbolic and parabolic (not necessarily linear) differential operators is connected with the theory of groups and semi-groups of operators on locally convex spaces.

Next to the linear class of differential operators, perhaps the most intensively studied class are differential operators which are either invariant or which vary according to a specific law when certain transformations constituting a group (or a semi-group) $ G $ are acting in their domain of definition, and hence also on the differential expression. These include, for instance, invariant differential operators connected with the representations of a group $ G $ the covariant derivative or, more generally, differential operators on spaces of differentiable tensor fields, where $ G $ is the group of all diffeomorphisms (the so-called atomization) many examples of operators in theoretical physics, etc. Such functional-geometric methods are also useful in the study of differential operators with so-called hidden symmetry (see, for example, Korteweg–de Vries equation).


Conteúdo

The most common differential operator is the action of taking the derivative. Common notations for taking the first derivative with respect to a variable x include:

When taking higher, nth order derivatives, the operator may be written:

The derivative of a function f of an argument x is sometimes given as either of the following:

O D notation's use and creation is credited to Oliver Heaviside, who considered differential operators of the form

One of the most frequently seen differential operators is the Laplacian operator, defined by

Another differential operator is the Θ operator, or theta operator, defined by [1]

This is sometimes also called the homogeneity operator, because its eigenfunctions are the monomials in z:

Dentro n variables the homogeneity operator is given by

As in one variable, the eigenspaces of Θ are the spaces of homogeneous polynomials.

In writing, following common mathematical convention, the argument of a differential operator is usually placed on the right side of the operator itself. Sometimes an alternative notation is used: The result of applying the operator to the function on the left side of the operator and on the right side of the operator, and the difference obtained when applying the differential operator to the functions on both sides, are denoted by arrows as follows:

Such a bidirectional-arrow notation is frequently used for describing the probability current of quantum mechanics.

The differential operator del, also called nabla, is an important vector differential operator. It appears frequently in physics in places like the differential form of Maxwell's equations. In three-dimensional Cartesian coordinates, del is defined as

Del defines the gradient, and is used to calculate the curl, divergence, and Laplacian of various objects.

Given a linear differential operator T

the adjoint of this operator is defined as the operator T ∗ > such that

where the notation ⟨ ⋅ , ⋅ ⟩ is used for the scalar product or inner product. This definition therefore depends on the definition of the scalar product.

Formal adjoint in one variable Edit

In the functional space of square-integrable functions on a real interval (uma, b) , the scalar product is defined by

where the line over f(x) denotes the complex conjugate of f(x) If one moreover adds the condition that f ou g vanishes as x → a and x → b , one can also define the adjoint of T de

This formula does not explicitly depend on the definition of the scalar product. It is therefore sometimes chosen as a definition of the adjoint operator. When T ∗ > is defined according to this formula, it is called the formal adjoint de T.

A (formally) auto-adjunto operator is an operator equal to its own (formal) adjoint.

Several variables Edit

If Ω is a domain in R n , e P a differential operator on Ω, then the adjoint of P is defined in eu 2 (Ω) by duality in the analogous manner:

for all smooth eu 2 functions f, g. Since smooth functions are dense in eu 2 , this defines the adjoint on a dense subset of eu 2 : P * is a densely defined operator.

Example Edit

The Sturm–Liouville operator is a well-known example of a formal self-adjoint operator. This second-order linear differential operator eu can be written in the form

L u = − ( p u ′ ) ′ + q u = − ( p u ″ + p ′ u ′ ) + q u = − p u ″ − p ′ u ′ + q u = ( − p ) D 2 u + ( − p ′ ) D u + ( q ) u . u+(-p')Du+(q)u.!>

This property can be proven using the formal adjoint definition above.

This operator is central to Sturm–Liouville theory where the eigenfunctions (analogues to eigenvectors) of this operator are considered.

Onde f e g are functions, and uma is a constant.

Any polynomial in D with function coefficients is also a differential operator. We may also compose differential operators by the rule

Some care is then required: firstly any function coefficients in the operator D2 must be differentiable as many times as the application of D1 requires. To get a ring of such operators we must assume derivatives of all orders of the coefficients used. Secondly, this ring will not be commutative: an operator gD isn't the same in general as Dg. For example we have the relation basic in quantum mechanics:

The subring of operators that are polynomials in D with constant coefficients is, by contrast, commutative. It can be characterised another way: it consists of the translation-invariant operators.

The differential operators also obey the shift theorem.

The same constructions can be carried out with partial derivatives, differentiation with respect to different variables giving rise to operators that commute (see symmetry of second derivatives).

Ring of univariate polynomial differential operators Edit

Se R is a ring, let R ⟨ D , X ⟩ be the non-commutative polynomial ring over R in the variables D e X, e eu the two-sided ideal generated by DXXD − 1. Then the ring of univariate polynomial differential operators over R is the quotient ring R ⟨ D , X ⟩ / I . This is a non-commutative simple ring. Every element can be written in a unique way as a R-linear combination of monomials of the form X a D b mod I < ext< mod >>I> . It supports an analogue of Euclidean division of polynomials.

Ring of multivariate polynomial differential operators Edit

for all 1 ≤ i , j ≤ n , where δ is Kronecker delta. Then the ring of multivariate polynomial differential operators over R is the quotient ring R ⟨ D 1 , … , D n , X 1 , … , X n ⟩ / I ,ldots ,D_,X_<1>,ldots ,X_ angle /I> .

This is a non-commutative simple ring. Every element can be written in a unique way as a R-linear combination of monomials of the form X 1 a 1 … X n a n D 1 b 1 … D n b n ^>ldots X_^<>>D_<1>^>ldots D_^<>>> .

In differential geometry and algebraic geometry it is often convenient to have a coordinate-independent description of differential operators between two vector bundles. Deixar E e F be two vector bundles over a differentiable manifold M. A R-linear mapping of sections P : Γ(E) → Γ(F) is said to be a kth-order linear differential operator if it factors through the jet bundle J k (E) In other words, there exists a linear mapping of vector bundles

Onde j k : Γ(E) → Γ(J k (E)) is the prolongation that associates to any section of E its k-jet.

This just means that for a given section s de E, o valor de P(s) at a point xM is fully determined by the kth-order infinitesimal behavior of s dentro x. In particular this implies that P(s)(x) is determined by the germ of s dentro x, which is expressed by saying that differential operators are local. A foundational result is the Peetre theorem showing that the converse is also true: any (linear) local operator is differential.

Relation to commutative algebra Edit

An equivalent, but purely algebraic description of linear differential operators is as follows: an R-linear map P é um kth-order linear differential operator, if for any k + 1 smooth functions f 0 , … , f k ∈ C ∞ ( M ) ,ldots ,f_in C^(M)> we have

[ f , P ] ( s ) = P ( f ⋅ s ) − f ⋅ P ( s ) .

This characterization of linear differential operators shows that they are particular mappings between modules over a commutative algebra, allowing the concept to be seen as a part of commutative algebra.

  • In applications to the physical sciences, operators such as the Laplace operator play a major role in setting up and solving partial differential equations.
  • In differential topology, the exterior derivative and Lie derivative operators have intrinsic meaning.
  • In abstract algebra, the concept of a derivation allows for generalizations of differential operators, which do not require the use of calculus. Frequently such generalizations are employed in algebraic geometry and commutative algebra. See also Jet (mathematics).
  • In the development of holomorphic functions of a complex variablez = x + i y, sometimes a complex function is considered to be a function of two real variables x e y. Use is made of the Wirtinger derivatives, which are partial differential operators:

The conceptual step of writing a differential operator as something free-standing is attributed to Louis François Antoine Arbogast in 1800. [2]


Classics in Applied Mathematics

Don't let the title fool you! If you are interested in numerical analysis, applied mathematics, or the solution procedures for differential equations, you will find this book useful. Because of Lanczos' unique style of describing mathematical facts in nonmathematical language, Linear Differential Operators also will be helpful to nonmathematicians interested in applying the methods and techniques described.

Originally published in 1961, this Classics edition continues to be appealing because it describes a large number of techniques still useful today. Although the primary focus is on the analytical theory, concrete cases are cited to forge the link between theory and practice. Considerable manipulative skill in the practice of differential equations is to be developed by solving the 350 problems in the text. The problems are intended as stimulating corollaries linking theory with application and providing the reader with the foundation for tackling more difficult problems.

Lanczos begins with three introductory chapters that explore some of the technical tools needed later in the book, and then goes on to discuss interpolation, harmonic analysis, matrix calculus, the concept of the function space, boundary value problems, and the numerical solution of trajectory problems, among other things. The emphasis is constantly on one question: “What are the basic and characteristic properties of linear differential operators?”

In the author's words, this book is written for those “to whom a problem in ordinary or partial differential equations is not a problem of logical acrobatism, but a problem in the exploration of the physical universe. To get an explicit solution of a given boundary value problem is in this age of large electronic computers no longer a basic question. But of what value is the numerical answer if the scientist does not understand the peculiar analytical properties and idiosyncrasies of the given operator? The author hopes that this book will help in this task by telling something about the manifold aspects of a fascinating field.”

In one of the (unfortunately lost) comedies of Aristophanes the Voice of the Mathematician appeared, as it descended from a snow-capped mountain peak, pronouncing in a ponderous sing-song—and words which to the audience sounded like complete gibberish—his eternal Theorems, Lemmas, and Corollaries. The laughter of the listeners was enhanced by the implication that in fifty years' time another Candidate of Eternity would pronounce from the same snow-capped mountain peak exactly the same theorems, although in a modified but scarcely less ponderous and incomprehensible language.

Since the days of antiquity it has been the privilege of the mathematician to engrave his conclusions, expressed in a rarefied and esoteric language, upon the rocks of eternity. While this method is excellent for the codification of mathematical results, it is not so acceptable to the many addicts of mathematics, for whom the science of mathematics is not a logical game, but the language in which the physical universe speaks to us, and whose mastery is inevitable for the comprehension of natural phenomena.

In his previous books the author endeavoured to establish a more discursive manner of presentation in which the esoteric shorthand formulation of mathematical deductions and results was replaced by a more philosophic exposition, putting the emphasis on ideas and concepts and their mutual interrelations, rather than on the mere manipulation of formulae. Our symbolic mechanism is eminently useful and powerful, but the danger is ever-present that we become drowned in a language which has its well-defined grammatical rules but eventually loses all content and becomes a nebulous sham. Hence the author's constant desire to penetrate below the manipulative surface and comprehend the hidden springs of mathematical equations.

To the author's surprise this method (which, of course, is not his monopoly) was well received and made many friends and few enemies. It is thus his hope that the present book, which is devoted to the fundamental aspects of the theory of Linear Differential Operators, will likewise find its adherents. The book is written at advanced level but does not require any specific knowledge which goes beyond the boundaries of the customary introductory courses, since the necessary tools of the subject are developed as the narration proceeds.


Differential and Integral Calculus on Manifolds

5.2.2 Differential operators and point distributions

(I) D ifferential operators Deixar B be a pure q-dimensional manifold that is locally compact and countable at infinity and MB, NB two complex vector bundles of finite ranks m e n, respectively ( section 3.4.1 , Definition 3.22 ). The space Γ(Β, M) of sections of class C ∞ of M is a Fréchet nuclear space, like ℰ U itself whenever você is an open subset of ℝ q ([P2], sections 4.3.1 (I) and 4.3.2 (III)) Hence, this space is separable ([P2], section 3.11.3(I)).

Definition 5.5

A linear differential operator of class Cfrom M into N is a continuous linear mapping P : fP. f from Γ(Β, M) para dentro Γ(Β, N) that satisfies the following condition:

(eu) For every open subset U of Β and every morphic section f ∈ Γ(Β, M) such that f |você = 0, temos (P.f)|você = 0.

The condition (L) expresses the local nature of the operator P. Write Diff (B M, N) for the set of these differential operators this is an ℰ B -module.

The local trivialization condition (V) of the vector bundles M e N ( Definition 3.22 (i)) implies that, for every bΒ, there exists an open neighborhood você de b that is the domain of a chart c = (você, ξ, q) de Β over which these two fibers can be identified with the trivial bundles U × ℂ m and U × ℂ n , respectively. Hence, for every section f ∈ Γ(Β, M), there exist a mapping g V ∈ ℰ V , with V = ξ (você), and a linear differential operator Q : ℰ V m → ℰ V n such that both squares of the following diagram commute (the rows of this diagram are not compositions):

We say that Q is the local expression of P corresponding to the chart c (and the local trivializations specified above). Given the topology of ℰ V ([P2], section 4.3.1 (I)), with the notation of section 1.2.4 (IV) , the operator Q is of the form

Onde xUMAα (x)(x = ξ (b)) is a mapping of class C ∞ from V = ξ (você) into Hom ℂ m ℂ n ≅ ℂ m × n (exercise*: see [DIE 93] , Volume 3, (17.13.3)). O order of the differential operator P at the point b is defined as the greatest integer | α | de tal modo que UMAα ≠ 0.

Se M e N are both equal to the trivial bundle B × ℂ , then Γ(Β, M) and Γ(Β, N) can both be identified with ℰ B , in which case Diff (B M, N) is simply written as Diff(B).

(II) S heaf of differential operators For every bΒ and every open neighborhood você de b, deixar M |você e N |você be the vector bundles induced by M e N, respectively, on você ( section 3.3.1 , Lemma-Definition 3.4 (4)). Let h ∈ ℰ B be a mapping such that supp(h) ⊂ você e h is equal to 1 in a neighborhood Cvocê de b (the existence of such a function follows from Theorem 2.13 and Corollary 2.17 ). Deixar f ∈ Γ(você, M) e P ∈ Diff (B M, N) h.f, extended by 0 outside of supp (h), is an element of Γ(Β M) Hence, we can form P. (h.f) This quantity is independent of h, e fP. (h.f) is called the restriction P |você ∈ Diff (você M |você, N |você) de P para você.

Let ℰ be the sheaf of rings U ↦ ℰ U . The mapping você ↦ Diff(você M |você, N |você) is clearly a sheaf of ℰ -Modules ([P2], section 5.3.1 ).

(III) P oint distributions Deixar P ∈ Diff (B) For every bΒ, f ↦ (P.f) (b) is a distribution with support in <b>, written as P (b) We say that it is a point distribution no b, and so Diff (B) is said to be a field of point distributions. The local expression (see (I)) of a point distribution at b of order p é

The set of point distributions at b is an ℰ B -module, written as T b ∞ B , and T ∞ B = ⊕ b ∈ B T b ∞ B is the ℰ B -module of distributions with finite support in B. The above shows that T ∞ B = Γ B Diff B . We have the following result ( [SCH 66] , Chapter 3 , section 10, Theorem 35):

Any distribution on ℝ n whose support is contained in <0>is a finite linear combination of the Dirac distribution and its derivatives.

We can extend the notion of a finitely supported distribution to the case where Β is a Banach K -manifold of class C r ( [BOU 82a] , section 13). It might seem tempting to define a compactly supported distribution more generally as a continuous linear form on ℰ B but this would require us to define a “good” locally convex topology on the latter space, which is surprisingly difficult (see [KRE 76] ).


Book Description

Aims to construct the inverse problem theory for ordinary non-self-adjoint differential operators of arbitary order on the half-line and on a finite interval. The book consists of two parts: in the first part the author presents a general inverse problem of recovering differential equations with integrable coefficients when the behaviour of the spectrum is arbitrary. The Weyl matrix is introduced and studied as a spectral characteristic. The second part of the book is devoted to solving incomplete inverse problems when a priori information about the operator or its spectrum is available and these problems are significant in applications.


1 Answer 1

The two notions are equivalent in the characteristic zero (smooth! as pointed out by Mariano in the comments) case. The reason they're equivalent basically boils down to the Leibniz rule: $xpartial_x-partial_xx=1$ in the ring of differential operators. Here's a sketch of the proof for the case of the $n$-dimensional Weyl algebra, defined by $W_2=klangle x_1,dots,x_n,y_1,dots,y_n angle/([x_i,y_i]-1,[x_i,x_j],[y_i,y_j]),$ which is the ring of differential operators on $A=k[x_1,dots,x_n]$:

Let $Tin mathrm_k(A)$ such that the $m+1$-fold commutator with any $m+1$ elements of $A$ is zero, but the $m$-fold commutator is not. Pick the following basis of $W$ as a left $A$-algebra: $y_1^y_2^cdots y_n^$. Use the list of basis vectors such that $sum i_j=n$ to determine the $A$-coefficients of each of these terms in $T$ by setting the first $i_1$ of $a_j$ to be $x_1$, and so forth. Subtract the resulting linear combination of differential operators from $T$ to obtain a differential operator of order $leq n-1$, and repeat. Eventually you have $T$ written as an element of the subalgebra of $mathrm_k(A)$ generated by $A$ and $mathrm(A)$.


Assista o vídeo: EQUAÇÕES DIFERENCIAIS #13 - Método dos Operadores para Resolução de Sistemas Lineares 13 (Outubro 2021).