Artigos

7.3.2: Problemas de valor limite: Problema de Neumann


O Problema de Neumann (segundo problema de valor limite) é encontrar uma solução (u in C ^ 2 ( Omega) cap C ^ 1 ( overline { Omega}) ) de
begin {eqnarray}
label {N1} tag {7.3.2.1}
triângulo u & = & 0 mbox {in} Omega
label {N2} tag {7.3.2.2}
frac { parcial u} { parcial n} & = & Phi mbox {on} parcial Omega,
end {eqnarray}
onde ( Phi ) é fornecido e contínuo em ( partial Omega ).

Proposição 7.5. Suponha que ( Omega ) seja limitado, então uma solução para o problema de Dirichlet está na classe (u in C ^ 2 ( overline { Omega}) ) exclusivamente determinada até uma constante.

Prova. Exercício. Dica: Multiplique a equação diferencial ( triangle w = 0 ) por (w ) e integre o resultado em ( Omega ).
Outra prova sob a suposição mais fraca (u in C ^ 1 ( overline { Omega}) cap C ^ 2 ( Omega) ) segue do lema do ponto de fronteira de Hopf, consulte Notas de aula: Equações elípticas lineares do segundo Ordem, por exemplo.


7.3.2: Problemas de valor limite: Problema de Neumann

Antes de iniciarmos esta seção, precisamos deixar bem claro que iremos apenas arranhar a superfície do tópico dos problemas de valor de contorno. Há material suficiente no tópico de problemas de valor de fronteira para que possamos dedicar uma classe inteira a ele. A intenção desta seção é dar uma breve (e queremos dizer muito breve) olhar para a ideia dos problemas de valor de contorno e fornecer informações suficientes para nos permitir fazer algumas equações diferenciais parciais básicas no próximo capítulo.

Agora, com isso resolvido, a primeira coisa que precisamos fazer é definir exatamente o que queremos dizer com um problema de valor de contorno (BVP para abreviar). Com os problemas de valor inicial, tínhamos uma equação diferencial e especificamos o valor da solução e um número apropriado de derivadas no mesmo ponto (chamadas coletivamente de condições iniciais). Por exemplo, para uma equação diferencial de segunda ordem, as condições iniciais são,

Com problemas de valor limite, teremos uma equação diferencial e especificaremos a função e / ou derivadas em diferente pontos, que chamaremos de valores de limite. Para equações diferenciais de segunda ordem, que serão examinadas quase exclusivamente aqui, qualquer um dos itens a seguir pode, e será, usado para condições de contorno.

Conforme mencionado acima, estaremos olhando quase exclusivamente para as equações diferenciais de segunda ordem. Também estaremos nos restringindo a equações diferenciais lineares. Assim, para o propósito de nossa discussão aqui, estaremos olhando quase exclusivamente para as equações diferenciais na forma,

[começary '' + p left (x right) y '+ q left (x right) y = g left (x right) labelfim]

junto com um dos conjuntos de condições de contorno dados em ( eqref) - ( eqref). Iremos, na ocasião, olhar para algumas condições de contorno diferentes, mas a equação diferencial sempre estará presente e pode ser escrita desta forma.

Como veremos em breve, muito do que sabemos sobre os problemas de valor inicial não se aplica aqui. Podemos, é claro, resolver ( eqref) desde que os coeficientes sejam constantes e para alguns casos em que não são. Nada disso vai mudar. As mudanças (e talvez os problemas) surgem quando passamos das condições iniciais para as condições de contorno.

Uma das primeiras mudanças é uma definição que vimos o tempo todo nos capítulos anteriores. Nos capítulos anteriores, dissemos que uma equação diferencial era homogênea se (g left (x right) = 0 ) para todos (x ). Aqui diremos que um problema de valor limite é homogêneo se além de (g left (x right) = 0 ) também temos ( = 0 ) e ( = 0 ) (independentemente das condições de contorno que usamos). Se algum desses não for zero, chamaremos o BVP não homogêneo.

É importante lembrar agora que quando dizemos homogêneo (ou não homogêneo), estamos dizendo algo não apenas sobre a própria equação diferencial, mas também sobre as condições de contorno.

A maior mudança que veremos aqui vem quando vamos resolver o problema do valor limite. Ao resolver problemas de valor inicial linear, uma solução única será garantida em condições muito suaves. Nós apenas examinamos esta ideia para IVP de primeira ordem, mas a ideia se estende a IVP de ordem superior. Nessa seção, vimos que tudo o que precisávamos para garantir uma solução única eram algumas condições básicas de continuidade. Com problemas de valor de contorno, muitas vezes não teremos solução ou infinitas soluções, mesmo para equações diferenciais muito boas, que produziriam uma solução única se tivéssemos condições iniciais em vez de condições de contorno.

Antes de resolvermos alguns desses, vamos abordar a questão de por que estamos falando sobre eles em primeiro lugar. Como veremos no próximo capítulo, no processo de resolução de algumas equações diferenciais parciais, encontraremos problemas de valor limite que também precisarão ser resolvidos. Na verdade, grande parte do processo de solução será lidar com a solução para o BVP. Nesses casos, as condições de contorno representarão coisas como a temperatura nas extremidades de uma barra ou o fluxo de calor para dentro / fora de uma das extremidades de uma barra. Ou talvez representem a localização das pontas de uma corda vibrando. Portanto, as condições de contorno realmente haverá condições de contorno de algum processo.

Então, com algumas coisas básicas fora do caminho, vamos encontrar algumas soluções para alguns problemas de valor limite. Observe também que realmente não há nada de novo aqui ainda. Sabemos como resolver a equação diferencial e sabemos como encontrar as constantes aplicando as condições. A única diferença é que aqui estaremos aplicando condições de contorno em vez de condições iniciais.

Ok, esta é uma equação diferencial simples para resolver e então deixaremos para você verificar se a solução geral para isso é,

[y left (x right) = cos left (<2x> right) + sin left (<2x> right) ]

Agora, tudo o que precisamos fazer é aplicar as condições de contorno.

[y left (x right) = - 2 cos left (<2x> right) + 10 sin left (<2x> right) ]

Mencionamos acima que alguns problemas de valor de contorno podem não ter soluções ou soluções infinitas. É melhor fazer alguns exemplos deles também aqui. O próximo conjunto de exemplos também mostrará quão pequena é a mudança no BVP para se mover para essas outras possibilidades.

Estamos trabalhando com a mesma equação diferencial do primeiro exemplo, então ainda temos,

[y left (x right) = cos left (<2x> right) + sin left (<2x> right) ]

Ao aplicar as condições de limite, obtemos,

[começar - 2 & = y left (0 right) = - 2 & = y left (<2 pi> right) = fim]

Então, neste caso, ao contrário do exemplo anterior, ambas as condições de contorno nos dizem que temos que ter ( = - 2 ) e nenhum deles nos diz nada sobre (). Lembre-se, no entanto, de que tudo o que estamos pedindo é uma solução para a equação diferencial que satisfaça as duas condições de contorno fornecidas e a função a seguir fará isso,

[y left (x right) = - 2 cos left (<2x> right) + sin left (<2x> right) ]

Em outras palavras, independentemente do valor de () obtemos uma solução e, portanto, neste caso, obtemos infinitas soluções para o problema do valor de contorno.

Novamente, temos a seguinte solução geral,

[y left (x right) = cos left (<2x> right) + sin left (<2x> right) ]

Desta vez, as condições de contorno nos dão,

[começar - 2 & = y left (0 right) = 3 & = y left (<2 pi> right) = fim]

Neste caso, temos um conjunto de condições de contorno, cada uma das quais requer um valor diferente de () para ficar satisfeito. Isso, no entanto, não é possível e, portanto, neste caso, nenhuma solução.

Assim, com os Exemplos 2 e 3, podemos ver que apenas uma pequena mudança nas condições de contorno, em relação umas às outras e ao Exemplo 1, pode mudar completamente a natureza da solução. Todos os três exemplos usaram a mesma equação diferencial e, ainda assim, um conjunto diferente de condições iniciais resultou, nenhuma solução, uma solução ou infinitas soluções.

Observe que esse tipo de comportamento nem sempre é imprevisível. Se usarmos as condições (y left (0 right) ) e (y left (<2 pi> right) ) a única maneira de obtermos uma solução para o problema do valor limite é se tiver-mos,

[y left (0 right) = a hspace <0.25in> y left (<2 pi> right) = a ]

para qualquer valor de (a ). Além disso, observe que, se tivermos essas condições de contorno, teremos de fato um número infinito de soluções.

Todos os exemplos que trabalhamos até este ponto envolveram a mesma equação diferencial e o mesmo tipo de condições de contorno, então vamos trabalhar um pouco mais apenas para ter certeza de que temos mais alguns exemplos aqui. Além disso, observe que com cada um deles podemos ajustar um pouco as condições de contorno para que qualquer um dos comportamentos de solução possíveis apareça (ou seja, zero, uma ou infinitas soluções).

A solução geral para esta equação diferencial é,

A aplicação das condições de contorno dá,

Neste caso, obtemos uma única solução,

[y left (x right) = 7 cos left (< sqrt 3 , x> right) - 7 cot left (<2 sqrt 3 , pi> right) sin left (< sqrt 3 , x> right) ]

Aqui, a solução geral é,

[y left (x right) = cos left (<5x> right) + sin left (<5x> right) ]

e precisaremos da derivada para aplicar as condições de contorno,

[y ' left (x right) = - 5 sin left (<5x> right) + 5 cos left (<5x> right) ]

A aplicação das condições de contorno dá,

[começar6 & = y ' left (0 right) = 5 hspace <0.25in> Rightarrow hspace <0.25in> = frac <6> <5> - 9 & = y ' left ( pi right) = - 5 hspace <0.25in> Rightarrow hspace <0.25in> = frac <9> <5> end]

Isso não é possível e, portanto, neste caso, nenhuma solução.

Todos os exemplos trabalhados até este ponto foram não homogêneos porque pelo menos uma das condições de contorno foi diferente de zero. Vamos trabalhar um exemplo não homogêneo onde a equação diferencial também é não homogênea antes de trabalharmos com alguns exemplos homogêneos.

A solução complementar para esta equação diferencial é,

[ left (x right) = cos left (<3 , x> right) + sin left (<3 , x> right) ]

Usando coeficientes indeterminados ou variação de parâmetros, é fácil mostrar (deixaremos os detalhes para você verificar) que uma solução específica é,

A solução geral e sua derivada (uma vez que vamos precisar disso para as condições de contorno) são,

[começary left (x right) & = cos left (<3 , x> right) + sin left (<3 , x> right) + frac <1> <8> cos x y ' left (x right) & = - 3 sin left (<3 , x> right) + 3 cos left (<3 , x> right) - frac <1> <8> sin x end]

A aplicação das condições de contorno dá,

As condições de contorno, então, nos dizem que devemos ter ( = frac <5> <3> ) e eles não nos dizem nada sobre () e, portanto, pode ser escolhido arbitrariamente. A solução é então,

[y left (x right) = cos left (<3 , x> right) + frac <5> <3> sin left (<3 , x> right) + frac <1> <8> cos x ]

e haverá infinitas soluções para o BVP.

Vamos agora trabalhar alguns exemplos homogêneos que também serão úteis para trabalhar assim que chegarmos à próxima seção.

Aqui, a solução geral é,

[y left (x right) = cos left (<2x> right) + sin left (<2x> right) ]

A aplicação das condições de contorno dá,

Então () é arbitrário e a solução é,

[y left (x right) = sin left (<2x> right) ]

e, neste caso, obteremos infinitas soluções.

A solução geral neste caso é,

A aplicação das condições de contorno dá,

[começar0 & = y left (0 right) = 0 & = y left (<2 pi> right) = sin left (<2 sqrt 3 , pi> right) hspace <0.25in> Rightarrow hspace <0.25in> = 0 fim]

Neste caso, descobrimos que ambas as constantes são zero e, portanto, a solução é,

No exemplo anterior, a solução era (y left (x right) = 0 ). Observe, entretanto, que esta sempre será uma solução para qualquer sistema homogêneo dado por ( eqref) e qualquer uma das condições de contorno (homogêneas) fornecidas por ( eqref) - ( eqref). Por isso, costumamos chamar essa solução de solução trivial. Às vezes, como no caso do último exemplo, a solução trivial é a única solução, mas geralmente preferimos que as soluções não sejam triviais. Essa será uma ideia importante na próxima seção.

Antes de deixarmos esta seção, um ponto importante precisa ser feito. Em cada um dos exemplos, com uma exceção, a equação diferencial que resolvemos estava na forma,

A única exceção a isso ainda resolvia essa equação diferencial, exceto que não era uma equação diferencial homogênea e, portanto, ainda estávamos resolvendo essa equação diferencial básica de alguma maneira.

Portanto, provavelmente existem várias questões naturais que podem surgir neste ponto. Todos os BVP envolvem esta equação diferencial e se não, por que gastamos tanto tempo resolvendo esta com a exclusão de todas as outras equações diferenciais possíveis?

As respostas a essas perguntas são bastante simples. Primeiro, essa equação diferencial definitivamente não é a única usada em problemas de valor de contorno. No entanto, ele exibe todos os comportamentos sobre os quais gostaríamos de falar aqui e tem a vantagem adicional de ser muito fácil de resolver. Portanto, usando essa equação diferencial quase exclusivamente, podemos ver e discutir o comportamento importante que precisamos discutir e nos liberta de muitos detalhes de solução potencialmente confusos e / ou soluções confusas. Veremos, ocasionalmente, outras equações diferenciais no restante deste capítulo, mas ainda estaremos trabalhando quase exclusivamente com esta.

Há outra razão importante para examinar essa equação diferencial. Quando chegarmos ao próximo capítulo e dermos uma breve olhada na resolução de equações diferenciais parciais, veremos que quase todos os exemplos que trabalharemos lá se resumem exatamente a esta equação diferencial. Além disso, nesses problemas estaremos trabalhando alguns problemas “reais” que são realmente resolvidos em alguns lugares e, portanto, não são apenas problemas “inventados” para fins de exemplos. É certo que eles terão algumas simplificações, mas eles chegam perto de um problema realista em alguns casos.


Amrouche, C., Girault, V., Giroire, J .: Problemas exteriores de Dirichlet e Neumann para o noperador de Laplace dimensional: uma abordagem em espaços de Sobolev ponderados. J. Math. Pures Appl. 76, 55–81 (1997)

Attouch, H., Buttazzo, G., Michaille, G .: Variational Analysis in Sobolev and BV Spaces. SIAM, Filadélfia (2006)

Auchmuty, G .: Steklov autoproblemas e a representação de soluções de problemas de valor de contorno elíptico. Numer. Funct. Anal. Otim. 25, 321–348 (2004)

Auchmuty, G .: Desigualdades ótimas de coercividade em C 1,p (Ω) Proc. R. Soc. Edinb. UMA 135, 915–933 (2005)

Auchmuty, G .: Caracterizações espectrais dos espaços de rastreamento H s (∂Ω) SIAM J. Math. Anal. 38, 894–905 (2006)

Auchmuty, G .: Bases e resultados de comparação para autoproblemas elípticos lineares. J. Math. Anal. Appl. 390, 394–406 (2012)

Auchmuty, G., Han, Q .: Representações espectrais de soluções de equações elípticas lineares em regiões exteriores. J. Math. Anal. Appl. 398, 1–10 (2013)

Brezis, H .: Análise Funcional, Espaços de Sobolev e Equações Diferenciais Parciais. Springer, Nova York (2011)

Dautray, R., Lions, J.-L .: Análise Matemática e Métodos Numéricos para Ciência e Tecnologia. Vol I. Springer, Nova York (1990)

DiBenedetto, E .: Análise Real. Birkhäuser Boston, Boston (2002)

Evans, L.C .: Partial Differential Equations, 2nd edn. American Mathematical Society, Providence (2010)

Evans, L.C., Gariepy, R.F .: Measure Theory and Fine Properties of Functions. CRC Press, Boca Raton (1992)

Folland, G .: Introdução às Equações Diferenciais Parciais, 2ª ed. Princeton University Press, Princeton (1995)

Girioire, J., Nédélec, J.-C .: Solução numérica de um problema de Neumann exterior usando um potencial de camada dupla. Matemática. Comput. 32, 973–990 (1978)

Grisvard, P .: Elliptic Problems in Nonsmooth Domains. Pitman, Boston (1985)

Kellogg, O.D .: Foundations of Potential Theory. Springer, Berlim (1967)

Lieb, E., Loss, M .: Analysis, 2ª ed. American Mathematical Society, Providence (2001)

Maz’ya, V.G., Poborchi, S.V .: Differentiable Functions on Bad Domains. World Scientific, River Edge (1997)

McLean, W .: Sistemas fortemente elípticos e equações integrais de fronteira. Cambridge University Press, Cambridge (2000)

Medková, D .: Problema de transmissão para a equação de Laplace e o método da equação integral. J. Math. Anal. Appl. 387, 837–843 (2012)

Nédélec, J.-C .: Equações Acústicas e Eletromagnéticas. Springer, Nova York (2001)

Simader, C.G., Sohr, H .: The Dirichlet Problem for the Laplacian in Bounded and Unbounded Domains. Uma nova abordagem para fracos, fortes e (2+k) -Soluções em espaços do tipo Sobolev. Longman, Harlow (1996)

Varnhorn, W .: A equação de Poisson com pesos em domínios exteriores de R n . Appl. Anal. 43, 135–145 (1992)


3 Físico

Perguntas sobre a física implementada (condições de contorno e semelhantes)

3.1 Geral

3.1.1 Qual é o significado do Campo X

Uma tabela dos campos mais comumente escritos por solucionadores de OpenFOAM pode ser encontrada aqui.

3.1.2 Onde eu insiro a densidade do fluido para icoFoam, turbFoam e outros solucionadores incompressíveis?

Você não. Em vez da viscosidade dinâmica a viscosidade cinemática é usado pelos solucionadores do OpenFOAM.

Nota: a pressão também deve ser normalizada com a densidade. Uma consequência disso é que as dimensões da pressão tornam-se pressão dividida pela densidade.

3.1.3 O que é o campo phi que o solucionador está escrevendo

O fluxo de massa através das faces das células ( com área do rosto). Veja também esta tabela

3.2 Condições Limite

3.2.1 Qual é a diferença entre o symmetryPlane e as condições de contorno zeroGradient?

O zeroGradient a condição de limite define o valor de limite para o valor da célula da parede próxima.

UMA symmetryPlane condição de contorno é um plano de simetria que é equivalente a um zeroGradient para escalares, mas não para vetores ou tensores.

3.2.2 O que significa o parâmetro lInf na condição de limite pressão Transmissiva?

lInf é a escala de comprimento de relaxamento (em m) para que as ondas de pressão de saída retornem a pInf. Isso impede que a pressão no domínio flutue se a pressão de entrada não for especificada. (fonte: [11])

3.3 Modelagem de turbulência

3.3.1 Como as funções de parede para RANS são desabilitadas e habilitadas?

Todos os modelos de turbulência RANS de alto Re incluem funções de parede porque não é apropriado usá-las sem. Apenas os modelos low-Re operam sem funções de parede, pois incluem tratamentos de parede específicos do modelo.

3.4 Modelos adicionais

O OpenFOAM foi usado para calcular esse tipo de problema?

3.4.1 Modelo Euleriano de dois fluidos e fluxo granular

Eles são implementados em twoPhaseEulerFoam.

3.4.2 Escoamentos viscoelásticos?

Foi feito. Será lançado. Para obter detalhes, consulte este tópico no quadro de mensagens.


Comandos Matlab

Suponha que desejamos resolver o sistema de n equações, d y d x = f (x, y), com condições aplicadas em dois pontos diferentes x = a e x = b.

Para usar os solucionadores embutidos do MATLAB ODE, você precisa seguir as etapas abaixo:

    Construir uma função (aqui chamado deriv) que tem argumentos de entrada x MathType @ CFMP @ 5 @ 5 @ + = feaafiart1ev1aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq = Jc9vqaqpepm0xbba9pwe9Q8fs0 = yqaqpepae9pg0FirpepeKkFr0xfr = xfr = xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamiEaaaa @ 36EA @ e y = (y 1, ⋯, yn) MathType @ CFMP @ 5 @ 5 @ + = feaafiart1ev1aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq = Jc9vqaqpepm0xbba9pwe9Q8fs0 = yqaqpepae9pg0FirpepeKkFr0xfr = xfr = xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaaCyEaiabg2da9iaacIcacaWG5bWaaSbaaSqaaiaaigdaaeqaaOGaaiilaiabl + UimjaacYcacaWG5bWaaSbaaSqaaiaad6gaaeqaaOGaaiykaaaa @ 40B2 @ e devolve o valor do dydx derivado MathType @ CFMP @ 5 @ 5 @ + = feaafiart1ev1aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4 rqqrFfpeea0xe9Lq = Jc9vqaqpepm0xbba9pwe9Q8fs0 = yqaqpepae9pg0FirpepeKkFr0xfr = xfr = xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaWaaSaaaeaacaWGKbGaaCyEaaqaaiaadsgacaWG4baaaaaa @ 39CE @, que é f (x, y) MathType @ CFMP @ 5 @ 5 @ + = feaafiart1ev1aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq = Jc9vqaqpepm0xbba9pwe9Q8fs0 = yqaqpepae9pg0FirpepeKkFr0xfr = xfr = xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaaCOzaiaacIcacaWG4bGaaiilaiaahMhacaGGPaaaaa @ 3AE4 @.

Construir uma função (aqui chamado BCS) que tem argumentos de entrada y (a) MathType @ CFMP @ 5 @ 5 @ + = feaafiart1ev1aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq = Jc9vqaqpepm0xbba9pwe9Q8fs0 = yqaqpepae9pg0FirpepeKkFr0xfr = xfr = xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaaCyEaiaacIcacaWGHbGaaiykaaaa @ 392E @ e y (b) MathType @ CFMP @ 5 @ 5 @ + = feaafiart1ev1aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq = Jc9vqaqpepm0xbba9pwe9Q8fs0 = yqaqpepae9pg0FirpepeKkFr0xfr = xfr = xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaaCyEaiaacIcacaWGIbGaaiykaaaa @ 392F @ e devolve o valor do residual para cada condição de limite especificado. Por exemplo, para aplicar y 1 (um) = 1 MathType @ CFMP @ 5 @ 5 @ + = feaafiart1ev1aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq = Jc9vqaqpepm0xbba9pwe9Q8fs0 = yqaqpepae9pg0FirpepeKkFr0xfr = xfr = xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamyEamaaBaaaleaacaaIXaaabeaakiaacIcacaWGHbGaaiykaiabg2da9iaaigdaaaa @ 3BDC @ e y 1 (b) = 0 MathType @ CFMP @ 5 @ 5 @ + = feaafiart1ev1aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq = Jc9vqaqpepm0xbba9pwe9Q8fs0 = yqaqpepae9pg0FirpepeKkFr0xfr = xfr = xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamyEamaaBaaaleaacaaIXaaabeaakiaacIcacaWGIbGaaiykaiabg2da9iaaicdaaaa @ 3BDC @ uso

Para aplicar as condições para as outras variáveis, y 2 MathType @ CFMP @ 5 @ 5 @ + = feaafiart1ev1aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq = Jc9vqaqpepm0xbba9pwe9Q8fs0 = yqaqpepae9pg0FirpepeKkFr0xfr = xfr = xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamyEamaaBaaaleaacaaIYaaabeaaaaa @ 37D3 @, etc. mudam o índice de ya (2) ou YB (2), para exemplo.

Defina o domínio da solução e forneça uma estimativa inicial para a solução no domínio da solução. Use o comando

Isso define o domínio para solução como [a, b], e a estimativa inicial para a solução nos pontos especificados no domínio como [0,0]. (Observe que poderíamos usar uma estimativa inicial mais precisa, que é definir o domínio usando linspace (a, b, 100) e, em seguida, definir a solução nesses pontos.)

Os vários parâmetros são:

  • @deriv, um identificador para uma função que dado x MathType @ CFMP @ 5 @ 5 @ + = feaafiart1ev1aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq = Jc9vqaqpepm0xbba9pwe9Q8fs0 = yqaqpepae9pg0FirpepeKkFr0xfr = xfr = xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamiEaaaa @ 36EA @ e Y @ MathType CFMP @ 5 @ 5 @ + = feaafiart1ev1aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq = Jc9vqaqpepm0xbba9pwe9Q8fs0 = yqaqpepae9pg0FirpepeKkFr0xfr = xfr = xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaaCyEaaaa @ 36EF @ devolve o valor do dydx derivado MathType @ CFMP @ 5 @ 5 @ + = feaafiart1ev1aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq = Jc9vqaqpepm0xbba9pwe9Q8fs0 = yqaqpepae9pg0FirpepeKkFr0xfr = xfr = xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaWaaSaaaeaacaWGKbGaaCyEaaqaaiaadsgacaW G4baaaaaa @ 39CE @
  • @bcs, um identificador para uma função que define as condições de limite
  • solinit, a estrutura que define o domínio da solução e a estimativa inicial da solução e
  • sol, uma estrutura que contém a solução.

Isso é mostrado no seguinte exemplo de explicação passo a passo.

Passo a passo

Suponha que desejamos resolver o seguinte problema de valor limite.

sujeito a y '(0) = 1 ey (π) = 0.

A solução exata é y = sin ⁡ (x).

Para resolver isso numericamente, primeiro precisamos reduzir a equação de segunda ordem a um sistema de equações de primeira ordem,

com z (0) = 1 e y (π) = 0.

O código de exemplo para resolver isso é fornecido por

Para executar este código, baixe-o para o diretório de trabalho atual e use o seguinte comando

Os principais elementos deste código são

  • solinit = bvpinit ([0, pi], [0,0])
    que define o domínio para solução através de [0, π] e a estimativa inicial para a solução nos pontos especificados no domínio, [0, 0].
  • sol = bvp4c (@ deriv, @ bcs, solinit)
    que é a chamada para o solucionador bvp4c, os vários parâmetros são:
    • @deriv, um identificador para uma função que devolve o valor do derivado dydx MathType @ CFMP @ 5 @ 5 @ + = feaafiart1ev1aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq = Jc9vqaqpepm0xbba9pwe9Q8fs0 = yqaqpepae9pg0FirpepeKkFr0xfr = xfr = xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaWaaSaaaeaacaWGKbGaamyEaaqaaiaadsgacaWG4baaaaaa @ 39CA @ para um dado x MathType @ CFMP @ 5 @ 5 @ + = feaafiart1ev1aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq = Jc9vqaqpepm0xbba9pwe9Q8fs0 = yqaqpepae9pg0FirpepeKkFr0xfr = xfr = xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamiEaaaa @ 36EA @ e Y @ MathType CFMP @ 5 @ 5 @ + = feaafiart1ev1aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq = Jc9vqaqpepm0xbba9pwe9Q8fs0 = yqaqpepae9pg0FirpepeKkFr0xfr = xfr = xb9adbaqaaeGaciGaaiaabeqaamaabaaba aGcbaGaamyEaaaa @ 36EB @
    • @bcs é um identificador para uma função que define as condições de contorno e
    • solinit é a estrutura que define o domínio da solução e a estimativa inicial.

    Executar o código (usando SolveBVP) produz o seguinte gráfico

    Isso é plotado contra a solução exata, y = sin ⁡ (x), na próxima figura.

    A linha vermelha representa a solução real e as cruzes azuis mostram a solução numérica de bvp4c.


    Conteúdo

    A mecânica quântica permite o cálculo de propriedades e comportamento de sistemas físicos. É normalmente aplicado a sistemas microscópicos: moléculas, átomos e partículas subatômicas. Foi demonstrado que é válido para moléculas complexas com milhares de átomos, [4] mas sua aplicação a seres humanos levanta problemas filosóficos, como o amigo de Wigner, e sua aplicação ao universo como um todo permanece especulativa. [5] As previsões da mecânica quântica foram verificadas experimentalmente com um grau de precisão extremamente alto. [nota 1]

    Uma característica fundamental da teoria é que ela geralmente não pode prever com certeza o que acontecerá, mas apenas fornecer probabilidades. Matematicamente, uma probabilidade é encontrada tomando o quadrado do valor absoluto de um número complexo, conhecido como amplitude de probabilidade. Isso é conhecido como a regra de Born, em homenagem ao físico Max Born. Por exemplo, uma partícula quântica como um elétron pode ser descrita por uma função de onda, que associa a cada ponto no espaço uma amplitude de probabilidade. Aplicar a regra de Born a essas amplitudes fornece uma função de densidade de probabilidade para a posição que o elétron terá quando for realizado um experimento para medi-lo. Isso é o melhor que a teoria pode fazer; não se pode dizer com certeza onde o elétron será encontrado. A equação de Schrödinger relaciona a coleção de amplitudes de probabilidade que pertencem a um momento do tempo à coleção de amplitudes de probabilidade que pertencem a outro.

    Uma consequência das regras matemáticas da mecânica quântica é uma compensação na previsibilidade entre diferentes quantidades mensuráveis. A forma mais famosa deste princípio de incerteza diz que não importa como uma partícula quântica é preparada ou quão cuidadosamente os experimentos sobre ela são organizados, é impossível ter uma previsão precisa para uma medição de sua posição e, ao mesmo tempo, para uma medição. de seu impulso.

    Outra consequência das regras matemáticas da mecânica quântica é o fenômeno da interferência quântica, que costuma ser ilustrado com o experimento da dupla fenda. Na versão básica desse experimento, uma fonte de luz coerente, como um feixe de laser, ilumina uma placa perfurada por duas fendas paralelas, e a luz que passa pelas fendas é observada em uma tela atrás da placa. [6]: 102-111 [2]: 1.1-1.8 A natureza ondulatória da luz faz com que as ondas de luz que passam pelas duas fendas interfiram, produzindo faixas claras e escuras na tela - um resultado que não seria esperado se a luz consistisse de partículas clássicas. [6] No entanto, a luz é sempre absorvida na tela em pontos discretos, como partículas individuais, em vez de ondas, o padrão de interferência aparece por meio da densidade variável dessas partículas que atingem a tela. Além disso, as versões do experimento que incluem detectores nas fendas descobrem que cada fóton detectado passa por uma fenda (como faria uma partícula clássica), e não por ambas as fendas (como faria uma onda). [6]: 109 [7] [8] No entanto, tais experimentos demonstram que as partículas não formam o padrão de interferência se for detectado por qual fenda elas passam. Outras entidades em escala atômica, como elétrons, exibem o mesmo comportamento quando disparadas em direção a uma fenda dupla. [2] Esse comportamento é conhecido como dualidade onda-partícula.

    Outro fenômeno contra-intuitivo previsto pela mecânica quântica é o tunelamento quântico: uma partícula que vai contra uma barreira de potencial pode cruzá-la, mesmo que sua energia cinética seja menor que o máximo do potencial. [9] Na mecânica clássica, esta partícula seria capturada. O tunelamento quântico tem várias consequências importantes, permitindo o decaimento radioativo, a fusão nuclear em estrelas e aplicações como a microscopia de tunelamento de varredura e o diodo túnel. [10]

    Quando os sistemas quânticos interagem, o resultado pode ser a criação do emaranhamento quântico: suas propriedades tornam-se tão entrelaçadas que uma descrição do todo apenas em termos das partes individuais não é mais possível. Erwin Schrödinger chamou o entrelaçamento ". a traço característico da mecânica quântica, aquele que impõe seu afastamento total das linhas clássicas de pensamento ". [11] O emaranhamento quântico permite as propriedades contra-intuitivas da pseudotelepatia quântica e pode ser um recurso valioso em protocolos de comunicação, como o quântico distribuição de chaves e codificação superdensa. [12] Ao contrário do equívoco popular, o emaranhamento não permite o envio de sinais mais rápido que a luz, conforme demonstrado pelo teorema da não comunicação. [12]

    Outra possibilidade aberta pelo emaranhamento é o teste de "variáveis ​​ocultas", propriedades hipotéticas mais fundamentais do que as quantidades tratadas na própria teoria quântica, cujo conhecimento permitiria previsões mais exatas do que a teoria quântica pode fornecer. Uma coleção de resultados, mais significativamente o teorema de Bell, demonstrou que amplas classes de tais teorias de variáveis ​​ocultas são de fato incompatíveis com a física quântica. De acordo com o teorema de Bell, se a natureza realmente opera de acordo com qualquer teoria de local hidden variables, then the results of a Bell test will be constrained in a particular, quantifiable way. Many Bell tests have been performed, using entangled particles, and they have shown results incompatible with the constraints imposed by local hidden variables. [13] [14]

    It is not possible to present these concepts in more than a superficial way without introducing the actual mathematics involved understanding quantum mechanics requires not only manipulating complex numbers, but also linear algebra, differential equations, group theory, and other more advanced subjects. [note 2] Accordingly, this article will present a mathematical formulation of quantum mechanics and survey its application to some useful and oft-studied examples.

    Physical quantities of interest — position, momentum, energy, spin — are represented by observables, which are Hermitian (more precisely, self-adjoint) linear operators acting on the Hilbert space. A quantum state can be an eigenvector of an observable, in which case it is called an eigenstate, and the associated eigenvalue corresponds to the value of the observable in that eigenstate. More generally, a quantum state will be a linear combination of the eigenstates, known as a quantum superposition. When an observable is measured, the result will be one of its eigenvalues with probability given by the Born rule: in the simplest case the eigenvalue λ is non-degenerate and the probability is given by | ⟨ λ → , ψ ⟩ | 2 >,psi angle |^<2>> , where λ → >> is its associated eigenvector. More generally, the eigenvalue is degenerate and the probability is given by ⟨ ψ , P λ ψ ⟩ psi angle > , where P λ > is the projector onto its associated eigenspace. In the continuous case, these formulas give instead the probability density.

    After the measurement, if result λ was obtained, the quantum state is postulated to collapse to λ → >> , in the non-degenerate case, or to P λ ψ / ⟨ ψ , P λ ψ ⟩ psi /psi angle >>> , in the general case. The probabilistic nature of quantum mechanics thus stems from the act of measurement. This is one of the most difficult aspects of quantum systems to understand. It was the central topic in the famous Bohr–Einstein debates, in which the two scientists attempted to clarify these fundamental principles by way of thought experiments. In the decades after the formulation of quantum mechanics, the question of what constitutes a "measurement" has been extensively studied. Newer interpretations of quantum mechanics have been formulated that do away with the concept of "wave function collapse" (see, for example, the many-worlds interpretation). The basic idea is that when a quantum system interacts with a measuring apparatus, their respective wave functions become entangled so that the original quantum system ceases to exist as an independent entity. For details, see the article on measurement in quantum mechanics. [17]

    The time evolution of a quantum state is described by the Schrödinger equation:

    Here H denotes the Hamiltonian, the observable corresponding to the total energy of the system, and ℏ is the reduced Planck constant. The constant i ℏ is introduced so that the Hamiltonian is reduced to the classical Hamiltonian in cases where the quantum system can be approximated by a classical system the ability to make such an approximation in certain limits is called the correspondence principle.

    The solution of this differential equation is given by

    Some wave functions produce probability distributions that are independent of time, such as eigenstates of the Hamiltonian. Many systems that are treated dynamically in classical mechanics are described by such "static" wave functions. For example, a single electron in an unexcited atom is pictured classically as a particle moving in a circular trajectory around the atomic nucleus, whereas in quantum mechanics, it is described by a static wave function surrounding the nucleus. For example, the electron wave function for an unexcited hydrogen atom is a spherically symmetric function known as an s orbital (Fig. 1).

    Analytic solutions of the Schrödinger equation are known for very few relatively simple model Hamiltonians including the quantum harmonic oscillator, the particle in a box, the dihydrogen cation, and the hydrogen atom. Even the helium atom – which contains just two electrons – has defied all attempts at a fully analytic treatment.

    However, there are techniques for finding approximate solutions. One method, called perturbation theory, uses the analytic result for a simple quantum mechanical model to create a result for a related but more complicated model by (for example) the addition of a weak potential energy. Another method is called "semi-classical equation of motion", which applies to systems for which quantum mechanics produces only small deviations from classical behavior. These deviations can then be computed based on the classical motion. This approach is particularly important in the field of quantum chaos.

    Uncertainty principle

    One consequence of the basic quantum formalism is the uncertainty principle. In its most familiar form, this states that no preparation of a quantum particle can imply simultaneously precise predictions both for a measurement of its position and for a measurement of its momentum. [19] [20] Both position and momentum are observables, meaning that they are represented by Hermitian operators. The position operator X ^ >> and momentum operator P ^ >> do not commute, but rather satisfy the canonical commutation relation:

    and likewise for the momentum:

    The uncertainty principle states that

    Either standard deviation can in principle be made arbitrarily small, but not both simultaneously. [21] This inequality generalizes to arbitrary pairs of self-adjoint operators A and B . The commutator of these two operators is

    and this provides the lower bound on the product of standard deviations:

    Another consequence of the canonical commutation relation is that the position and momentum operators are Fourier transforms of each other, so that a description of an object according to its momentum is the Fourier transform of its description according to its position. The fact that dependence in momentum is the Fourier transform of the dependence in position means that the momentum operator is equivalent (up to an i / ℏ factor) to taking the derivative according to the position, since in Fourier analysis differentiation corresponds to multiplication in the dual space. This is why in quantum equations in position space, the momentum p i > is replaced by − i ℏ ∂ ∂ x >> , and in particular in the non-relativistic Schrödinger equation in position space the momentum-squared term is replaced with a Laplacian times − ℏ 2 > . [19]

    Composite systems and entanglement

    When two different quantum systems are considered together, the Hilbert space of the combined system is the tensor product of the Hilbert spaces of the two components. For example, let A and B be two quantum systems, with Hilbert spaces H A >_> and H B >_> , respectively. The Hilbert space of the composite system is then

    is a valid joint state that is not separable. States that are not separable are called entangled. [22] [23]

    If the state for a composite system is entangled, it is impossible to describe either component system A or system B by a state vector. One can instead define reduced density matrices that describe the statistics that can be obtained by making measurements on either component system alone. This necessarily causes a loss of information, though: knowing the reduced density matrices of the individual systems is not enough to reconstruct the state of the composite system. [22] [23] Just as density matrices specify the state of a subsystem of a larger system, analogously, positive operator-valued measures (POVMs) describe the effect on a subsystem of a measurement performed on a larger system. POVMs are extensively used in quantum information theory. [22] [24]

    As described above, entanglement is a key feature of models of measurement processes in which an apparatus becomes entangled with the system being measured. Systems interacting with the environment in which they reside generally become entangled with that environment, a phenomenon known as quantum decoherence. This can explain why, in practice, quantum effects are difficult to observe in systems larger than microscopic. [25]

    Equivalence between formulations

    There are many mathematically equivalent formulations of quantum mechanics. One of the oldest and most common is the "transformation theory" proposed by Paul Dirac, which unifies and generalizes the two earliest formulations of quantum mechanics – matrix mechanics (invented by Werner Heisenberg) and wave mechanics (invented by Erwin Schrödinger). [26] An alternative formulation of quantum mechanics is Feynman's path integral formulation, in which a quantum-mechanical amplitude is considered as a sum over all possible classical and non-classical paths between the initial and final states. This is the quantum-mechanical counterpart of the action principle in classical mechanics.


    Assista o vídeo: Dochodzenie prawdy - odc. 39 - Marcin Celiński i goście (Outubro 2021).