SIMULAÇÃO SOB INCERTEZA DE CONDUÇÃO DE CALOR EM MEIOS HETEROGÊNEOS COMBINANDO TRANSFORMAÇÃO INTEGRAL E CAOS POLINOMIAL Thiago Maioli Campos Dissertação de Mestrado apresentada ao Programa de Pós-graduação em Engenharia Mecânica, COPPE, da Universidade Federal do Rio de Janeiro, como parte dos requisitos necessários à obtenção do título de Mestre em Engenharia Mecânica. Orientadores: Renato Machado Cotta Marcelo José Colaço Rio de Janeiro Outubro de 2013
137
Embed
SIMULAÇÃO SOB INCERTEZA DE CONDUÇÃO DE CALOR EM …w2.files.scire.net.br/atrio/ufrj-pem_upl/THESIS/... · SIMULAÇÃO SOB INCERTEZA DE CONDUÇÃO DE CALOR EM MEIOS HETEROGÊNEOS
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
SIMULAÇÃO SOB INCERTEZA DE CONDUÇÃO DE CALOR EM MEIOS
HETEROGÊNEOS COMBINANDO TRANSFORMAÇÃO INTEGRAL E CAOS
POLINOMIAL
Thiago Maioli Campos
Dissertação de Mestrado apresentada ao
Programa de Pós-graduação em Engenharia
Mecânica, COPPE, da Universidade Federal do
Rio de Janeiro, como parte dos requisitos
necessários à obtenção do título de Mestre em
Engenharia Mecânica.
Orientadores: Renato Machado Cotta
Marcelo José Colaço
Rio de Janeiro
Outubro de 2013
SIMULAÇÃO SOB INCERTEZA DE CONDUÇÃO DE CALOR EM MEIOS
HETEROGÊNEOS COMBINANDO TRANSFORMAÇÃO INTEGRAL E CAOS
POLINOMIAL
Thiago Maioli Campos
DISSERTAÇÃO SUBMETIDA AO CORPO DOCENTE DO INSTITUTO ALBERTO
LUIZ COIMBRA DE PÓS-GRADUAÇÃO E PESQUISA DE ENGENHARIA
(COPPE) DA UNIVERSIDADE FEDERAL DO RIO DE JANEIRO COMO PARTE
DOS REQUISITOS NECESSÁRIOS PARA A OBTENÇÃO DO GRAU DE MESTRE
EM CIÊNCIAS EM ENGENHARIA MECÂNICA.
Examinada por:
________________________________________________
Prof. Renato Machado Cotta, Ph.D.
________________________________________________ Prof. Marcelo José Colaço, D.Sc.
________________________________________________ Dr. Carlos Frederico Trotta Matt, D.Sc.
________________________________________________ Dr. Henrique Massard da Fonseca, D.Sc.
RIO DE JANEIRO, RJ - BRASIL
OUTUBRO DE 2013
iii
Campos, Thiago Maioli
Simulação Sob Incerteza de Condução de Calor em
Meios Heterogêneos Combinando Transformação Integral
e Caos Polinomial / Thiago Maioli Campos. – Rio de
Cotta, 1998, Cotta e Mikhailov, 2006), que contorna diversas dificuldades com os
problemas ditos não transformáveis, permitindo a obtenção de um sistema de E.D.O.’s
infinito acoplado para ser truncado e resolvido numericamente, além de soluções
numéricas para determinados problemas de autovalor e, portanto, incorporando
elementos numéricos em sua formulação híbrida.
Problemas possíveis de serem resolvidos com a GITT incluem: coeficientes da
equação ou das condições de contorno variáveis tanto no espaço quanto no tempo;
domínio variável no espaço ou tempo; problemas auxiliares complicados; e problemas
não-lineares onde os termos fonte dependem também do potencial.
A seguir será apresentado o procedimento geral desta técnica, assim como
algumas particularidades aplicáveis aos desenvolvimentos contidos neste trabalho.
19
3.1.1 – Abordagem Geral da GITT
A etapas básicas envolvidas no procedimento geral da GITT podem ser
resumidas como:
1) Escolha do problema auxiliar associado. Nos casos mais gerais do problema auxiliar
com dependência funcional complicada dos coeficientes, a GITT permite a
simplificação dos mesmos para facilitar a solução do ponto de vista computacional, ao
invés de restringir ao uso do problema original, como na CITT. Alternativamente,
dentre outros métodos, a própria GITT pode ser usada como um método eficiente para
encontrar uma solução precisa do problema de autovalor original, como será
demonstrado mais adiante.
2) Desenvolvimento do par transformada e inversa a partir do problema auxiliar.
3) Aplicar a transformação integral à equação diferencial parcial original e fazer uso das
condições de contorno. Essa etapa resulta em um sistema infinito de E.D.O.’s acopladas
para os casos não-transformáveis, diferente do caso da CITT onde as equações são
desacopladas.
4) Resolver o sistema de E.D.O.’s. O sistema deve ser truncado em uma ordem
suficientemente grande para garantir a precisão requerida e resolvido numericamente.
Em alguns casos especiais é possível obter solução analítica fechada.
5) Invocar a fórmula de inversão previamente estabelecida em 2) para construir o
potencial completo desejado, T(x,t).
Para ilustrar a aplicação do método, será usado um problema geral típico de
difusão transiente em meio heterogêneo com termos fonte não-lineares. O potencial
T(x,t) depende da posição x e do tempo t e é definido na região V, com superfície de
contorno S. Nesta formulação, os coeficientes w(x), k(x) e d(x) da equação governante e
α(x) e β(x) da condição de contorno variam apenas espacialmente.
20
A equação de difusão e as condições, inicial e de contorno, são dadas por:
, = ∇. ∇, − , + , , , ∈ , > 0 3.1a
, 0 = , ∈ 3.1b
, + , = ϕ, , , ∈ 3.1c
onde n representa o vetor unitário normal à superfície S.
O problema auxiliar é escolhido com base na separação de variáveis da versão
linear homogênea do problema (3.1) acima:
∇. ∗∇"# + [%#&∗ − ∗]"# = 0, ∈ 3.2a
com condições de contorno:
"# + ∗ "# = 0, ∈ 3.2b
onde os coeficientes k*(x), w*(x), e d*(x) são formas simplificadas dos coeficientes
originais, escolhidas arbitrariamente de modo a permitir soluções analíticas exatas ou
aplicação de métodos computacionais para problemas de Sturm-Liouville para as
autofunções Ψi(x) e autovalores %# (Cotta, 1993, Cotta e Mikhailov, 1997). Obviamente,
quanto mais próximos dos coeficientes originais, melhor será a convergência da
expansão da solução final em termos das autofunções Ψi(x).
Para que o lado esquerdo da equação fique desacoplado após a integração, a
equação (3.1a) pode ser reescrita em termos da função peso w*(x) do problema de
autovalor escolhido como:
∗ , = )∗ − * , + ∇. ∇, − , + , , , ∈ , > 0 3.3
A propriedade de ortogonalidade das autofunções permite definir o par de
transformação integral do problema (3.2a,b):
+# = , ∗"-#, ./ , transformada 3.4a
, = ∑ "-#+#2#34 , inversa 3.4b
21
onde foi feita uma normalização das autofunções:
"-# = "#56# , autofunções normalizadas 3.5a
6# = , ∗"#&./ , integrais de normalização 3.5b
Observe que o cerne da ideia da técnica de transformação integral está na
equação (3.4b), que busca representar a solução como uma expansão em termos de
autofunções dependentes apenas da posição e potenciais transformados que dependem
apenas do tempo, estrutura herdada do método clássico de separação de variáveis para
problemas homogêneos.
A transformação integral é então realizada operando a equação (3.3) com 8 "-# _ ./ , obtendo-se um sistema de equações diferenciais ordinárias na variável
fazendo uso de (3.4b) e das condições de contorno não homogêneas pela fórmula de
Green. As condições iniciais transformadas são dadas por:
+#0 = # = , ∗"-#./ 3.6c
O sistema infinito de E.D.O.’s acopladas deve ser truncado em uma ordem N e,
em geral, resolvido numericamente para os potenciais transformados, +#, = =1,2, … , 6. A ordem de truncamento é determinada de acordo com a precisão requerida.
Após a solução do campo transformado, utiliza-se a fórmula de inversão (3.4b) para
reconstruir o campo de temperatura completo desejado, T(x,t).
22
3.1.2 – Problema Linear e Coeficientes com Dependência Apenas da Posição
Após apresentar a metodologia geral para formulações não-lineares, ilustra-se
agora o procedimento particularizado para a situação de problema difusivo linear com
coeficientes dependentes apenas da posição. Neste caso, o procedimento acima resulta
em um sistema transformado desacoplado, conforme aplicação da Técnica de
Transformação Integral Clássica, usando o problema auxiliar original da versão
homogênea. Entretanto, para formulações mais gerais dos coeficientes, é necessário
utilizar alguma aproximação numérica para obter valores acurados para os autovalores e
autofunções. Dentre os métodos disponíveis, a própria GITT pode ser usada para esse
fim, conforme demonstrado nos próximos parágrafos.
A formulação considerada inclui o termo transiente, o operador difusivo, o termo
de dissipação linear e o termo fonte linear, sendo um exemplo de problema de classe I
de acordo com a classificação de Mikhailov e Ozisik (1984). A equação de difusão e as
condições, iniciais e de contorno, são dadas por:
, = ∇. ∇, − , + , , ∈ , > 0 3.7a
, 0 = , ∈ 3.7b
, + , = ϕ, , ∈ 3.7c
Após transformação integral, o problema acima resulta em um sistema
desacoplado passível de solução analítica (Mikhailov e Ozisik, 1984), e a solução exata
para o potencial é dada por:
, = D "-# E#FGHIJK + , :#FGHIJKGKLMKN O2
#34 3.8
onde as autofunções "# e autovalores %# são obtidos a partir do problema de Sturm-
Liouville associado que carrega a informação de heterogeneidade do meio, dado por:
A solução do problema (3.9) permite computar as demais quantidades:
"-# = "#56# , autofunções normalizadas 3.10a
6# = , ∗"#&./ , integrais de normalização 3.10b
# = , "-#./ , condição inicial transformada 3.10c
:# = , , "-#. + /
+ , ϕ, T"-# − "-# + U V , termo fonte transformado 3.10dX
3.1.2.1 – Problema de Autovalor Auxiliar Usando GITT
Para lidar com problemas de autovalor com coeficientes variáveis
arbitrariamente, o uso da GITT é demonstrado a seguir (Cotta, 1993, Naveira-Cotta et
al., 2009). Tal procedimento consiste em propor um problema de autovalor auxiliar
mais simples, e expandir as autofunções desconhecidas em termos da base escolhida. A
solução do problema de Sturm-Liouville (3.9) é então proposta como uma expansão em
autofunções do seguinte problema simplificado, com equação e condições de contorno
dadas por:
∇. ∗∇ΩZ + [[Z& ∗ − ∗]ΩZ = 0, ∈ 3.11a
∗ΩZ + ∗∗ ΩZ = 0, ∈ 3.11b
Os coeficientes ∗, ∗ e ∗ são formas simplificadas dos coeficientes
da equação original, escolhidos de modo a permitir solução analítica do problema
auxiliar. Além disso, os coeficientes e das condições de contorno originais podem
ser modificados convenientemente, de modo a simplificar ainda mais a solução do
problema (3.11).
Após obtenção analítica dos autovalores [Z e autofunções ΩZ a expansão é
proposta como:
24
"\#,Z = , ∗Ω-Z"#./ , transformada 3.12a
"# = D Ω-Z"\#,Z2
Z34 , inversa 3.12b
A equação (3.9a) é então transformada aplicando o operador integral 8 Ω-Z _ ./ e, em seguida, é usada a 2a fórmula de Green, para levar em conta as
diferenças nas condições de contorno dos dois problemas de autovalor:
, "# ]∇. ∇Ω-Z^ ./ + , E"# ∂Ω-Z∂ − Ω-Z ∂"#∂ O V +X
, Ω-Z ]%#& − ^ "#./ = 0 3.13
A integral de superfície acima pode ser reescrita combinando as condições de
contorno (3.9b) e (3.11b) para obter a forma que seja mais conveniente em termos de "# e Ω-Z ou Ω-Z′ , como por exemplo:
, E1 − ∗∗αα∗ O E"# ∂Ω-Z∂ O V X 3.14
onde normalmente é possível escolher as condições de contorno do problema auxiliar de
modo a zerar a integral. A equação (3.13) é então reescrita na forma:
, "# ]∇. ∇Ω-Z^ ./ + , E1 − ∗∗αα∗ O E"# ∂Ω-Z∂ O V X
+ , Ω-Z ]%#& − ^ "#./ = 0 3.15
Substituindo-se a fórmula da inversa (3.12b) em (3.15) e explicitando-se "\#,b,
chega-se ao seguinte problema de autovalor algébrico:
25
D "\#,b A, Ω-b ]∇. ∇Ω-Z^ ./2
b34+ , E1 − ∗∗αα∗ O EΩ-b ∂Ω-Z∂ O VX+ , Ω-Z ]%#& − ^ Ω-b./ c = 0 3.16
que em forma matricial é concisamente dado por:
d − %&ef\ = 0 3.17 onde,
f\ = g"\Z,bh 3.18a
e = giZ,bh, iZ,b = − , Ω-ZΩ-b./ 3.18b
d = gjZ,bh, jZ,b = , Ω-b ]∇. ∇Ω-Z^ . +/
, k − ∗αα∗ ∗l EΩ-b ∂Ω-Z∂ O VX − , Ω-ZΩ-b./ 3.18c
O problema matricial algébrico de autovalor (3.17) pode ser resolvido
numericamente (Wolfram, 2003) para os autovalores %& e autovetores f\ , que permitem
reconstruir as autofunções originais através da fórmula da inversa (3.12b).
26
3.1.3 – Coeficientes da Equação com Dependência na Variável Não Eliminada
Outro caso de particular interesse que será útil nos desenvolvimentos
subsequentes deste trabalho, decorre da situação em que os coeficientes da equação
original também exibem uma dependência geral na variável independente que não é
eliminada pelo processo de transformação integral (Cotta, 1993).
Considera-se a seguinte formulação para o problema linear:
, , = ∇. , ∇, − , + , , ∈ , > 0 3.19a
, 0 = , ∈ 3.19b
, + , , = ϕ, , ∈ 3.19c
Por questão de simplicidade será analisado o caso para cada coeficiente
separadamente, sendo omitido o caso com , t cujo desenvolvimento é análogo.
3.1.3.1 – Problema com w(x,t)
Para aplicar a técnica de transformação integral generalizada, escreve-se o
coeficiente , t como sendo a soma de um termo dependente apenas de x e outro
com dependência em x e t:
, t = 4 + &, t 3.20
e o problema de autovalor apropriado é tomado empregando-se 4: ∇. ∇"# + [%#&4 − ]"# = 0, ∈ 3.21a
"# + "# = 0, ∈ 3.21b
que permite obter o seguinte par de transformação integral:
27
+# = , 4"-#, ./ , transformada 3.22a
, = D "-#+#2#34 , inversa 3.22b
Opera-se então a equação (3.19a) (com usando o operador 8 "-# _ ./ , e
empregando as condições de contorno (3.19c) e (3.21b) através da fórmula de Green,
para obter:
+# + , &, t"-# , ./ = −%#&+# + :# 3.23a
onde:
:# = , ["-# , − , "-# ]VX + , "-#, . 3.23b/
O termo não transformado em (3.23a) pode então ser reescrito usando (3.22b),
como:
D[, &, t"-#"-<./ ] +<2<34 3.24
A equação (3.23a) é então reescrita, juntamente com a condição inicial
transformada, como:
+# + D n#< +<2<34 + %#&+# = :# 3.25a
+#0 = # = , 4"-#./ 3.25b
onde:
n#< = , &, t"-#"-<./ 3.25c
28
As equações (3.25) formam um sistema infinito e acoplado de equações
diferenciais lineares de primeira ordem, que se torna desacoplado para o caso em que w&, é identicamente zero, reduzindo o problema ao tratado na seção 3.1.2.
3.1.3.2 – Problema com k(x,t)
Da mesma forma escreve-se:
, t = 4 + &, t 3.26
e o problema de autovalor apropriado é tomado com 4:
∇. 4∇"# + [%#& − ]"# = 0, ∈ 3.27a
"# + 4 "# = 0, ∈ 3.27b
O par de transformação integral é dado por:
+# = , "-#, ./ , transformada 3.28a
, = D "-#+#2#34 , inversa 3.28b
A equação (3.19a) (com é integrada usando o operador 8 "-# _ ./ ,
fazendo em seguida uso da fórmula de Green e combinando (3.19c) e (3.27b), para
obter:
+# = −%#&+# + , "-#∇. [&, ∇, ]./ + :#∗ 3.29a
onde:
:#∗ = , 4["-# , − , "-# ]VX + , "-#, . / 3.29b
29
O termo não transformado em (3.29a) pode ser reescrito alternativamente,
utilizando (3.28b) para a primeira integral resultante, como:
D[, "-<∇. [&, ∇"-#]./ ] \<2<34
+ , &, ["-# , − , "-# ]VX 3.30
A equação (3.29a) é então reescrita, juntamente com a condição inicial
transformada, como:
+# + %#&+# − D p#< \<2<34 = :# 3.31a
+#0 = # = , "-#./ 3.31b
onde:
p#< = , "-<∇. [&, ∇"-#]./ 3.31c
:# = , , ["-# , − , "-# ]VX + , "-#, . 3.31d/
Como no caso anterior, o sistema acoplado infinito (3.31) torna-se desacoplado
para o caso em que &, é identicamente zero, resultando no mesmo problema da
seção 3.1.2.
O caso mais geral com , e , pode ser imediatamente obtido pela
combinação dos dois problemas anteriores. Os sistemas acoplados infinitos resultantes
podem ser truncados em uma determinada ordem suficientemente grande para garantir a
precisão requerida e resolvidos numericamente, ou em casos raros, para uma classe de
equações comutativas, podem ser encontradas formas analíticas fechadas para as
soluções (Cotta, 1993). Esta classe inclui o caso especial de sistemas com coeficientes
constantes, que estará presente no procedimento proposto no capítulo 4. Uma vez obtida
a solução do campo transformado, o campo de temperatura completo é reconstruído
pela respectiva fórmula de inversão.
30
3.2 – Representação de Processos Randômicos: Expansão de Karhunen-Loeve
Uma das etapas mais importantes, que antecede a busca da solução para o
problema estocástico, é a representação adequada dos dados de entrada aleatórios, de
uma forma que permita sua manipulação algébrica, reduzindo o espaço de probabilidade
de dimensão infinita para um espaço de dimensão finita através de um conjunto finito
de variáveis randômicas.
Em alguns casos, quando os próprios parâmetros do problema são as variáveis
aleatórias, como por exemplo, constante de decaimento, taxa de reação, etc, essa tarefa é
facilitada. Entretanto, muitas vezes estamos interessados em caracterizar processos
randômicos. Um processo randômico pode ser visto como uma função cuja dependência
espacial ou temporal varia a cada evento aleatório, ao invés de apenas um número como
no caso de uma variável randômica. Cada ponto tomado isoladamente no domínio
espacial ou temporal deste processo pode visto como uma variável randômica e, neste
sentido, o processo poderia ser descrito como um conjunto infinito de variáveis
randômicas ou, numa aproximação, um conjunto finito suficientemente grande, o que
ficaria proibitivo computacionalmente.
Alternativamente, pode ser introduzida uma discretização espectral, em termos
de uma expansão usando funções determinísticas. É exatamente isso que propõe a
expansão de Karhunen-Loeve, que fornece um meio eficaz de reduzir a
dimensionalidade do espaço randômico, com um número finito de variáveis randômicas
não-correlacionadas (Loeve, 1977), sendo uma das técnicas mais usadas para esse fim.
A base determinística e sua magnitude são, respectivamente, as autofunções e
autovalores da função de covariância do processo. O uso dessa expansão é, portanto,
limitado apenas aos processos randômicos dos dados de entrada, uma vez que a função
de covariância do processo randômico da solução do problema não é conhecido a priori.
Para o processo que descreve a solução será necessário o uso de outro tipo de
representação, conforme será visto adiante.
Seja x; s um processo randômico, função da variável x definida no domínio
D, com s pertencente ao espaço de eventos aleatórios Ω. Seja +x a média do processo
e tx4, x& = uv.x4; s, x&; s sua função de covariância. A expansão de
Karhunen-Loeve de w; s é dada por:
31
x; s = +x + D 5[# x#x2#34 y#s 3.32
onde y#s são variáveis randômicas não-correlacionadas com média zero e variância
unitária, e x#x e [# são as autofunções ortogonais e os autovalores correspondentes
obtidos do problema de autovalor dado pela equação integral homogênea de Fredholm
do segundo tipo:
, tx4, x&z x#x4x4 = [# x#x&, x ∈ D 3.33
que permitem decompor espectralmente a função de covariância como:
tx4, x& = D [# x#x4 x#x&2#34 3.34
Naturalmente, a forma da equação (3.32) deve ser truncada para ser usada nas
computações, resultando na aproximação:
x; s ≈ +x + D 5[# x#x#34 y#s 3.35
Essa aproximação é possível devido à importante propriedade de decaimento dos
autovalores, e o número de termos na expansão após truncamento é determinado
controlando-se o erro da série. A taxa de decaimento fornece uma diretriz para o
truncamento da expansão. Cada termo adicional introduz mais uma variável randômica,
portanto é desejável que esse número seja o menor possível.
Naturalmente, um processo mais fortemente correlacionado permite uma
expansão de Karhunen-Loeve com menos termos, ou seja, menor número de variáveis
randômicas. O número necessário para caracterizar o processo adequadamente será
tanto maior quanto menos correlacionado for o processo, ou seja, quanto maior for o
conteúdo de frequência do mesmo, conforme será exemplificado adiante.
32
A expansão de Karhunen-Loeve possui a propriedade de ser ótima no sentido de
minimizar o erro quadrático médio associado ao uso de um número finito de termos
(Ghanem e Spanos, 1991).
As variáveis y#s na expansão são não-correlacionadas. Apenas para variáveis
Gaussianas, isso implica também em independência. O requisito de independência entre
as variáveis da parametrização do problema é essencial no contexto de simulações
estocásticas, pois, matematicamente, permite definir os espaços funcionais através de
produto tensorial. Assim para processos com distribuição Gaussiana, que são
completamente determinados pela média e covariância, a expansão de Karhunen-Loeve
fornece um meio natural de parametrização em variáveis gaussianas independentes.
O caso de processos não Gaussianos oferece um desafio maior, sendo ainda um
campo ativo de pesquisa (Sakamoto e Ghanem, 2002), uma vez que a média e
covariância não são suficientes para descrever o processo, e a não-correlação das
variáveis da expansão de Karhunen-Loeve não implica em independência. Uma prática
comum nestes casos é empregar a expansão e ainda assumir que o conjunto resultante
de variáveis não-correlacionadas é também mutuamente independente (Xiu, 2009).
Apesar de não corresponder completamente ao processo original do ponto de vista de
distribuição, as aproximações da média e função de covariância são retidas. Embora não
seja uma abordagem rigorosa, no momento não existem muitos métodos práticos para
este problema de parametrização. Esta abordagem será também empregada neste
trabalho, uma vez que o foco reside no procedimento subsequente de tratamento das
equações estocásticas e não na parametrização dos processos de entrada.
Em casos gerais, a equação integral (3.33) pode ser resolvida por algum
procedimento numérico. Existe, entretanto, solução analítica para algumas formas
especiais importantes e de uso prático da função de covariância (Van Trees, 1968,
Ghanem e Spanos, 1991, Xiu, 2010). A seguir será ilustrado um destes casos, que será
empregado neste trabalho.
33
3.2.1 – Função de Covariância Exponencial
Uma função de covariância importante, sendo a mais comumente usada para
modelar processos randômicos em diversas aplicações (Xiu e Karniadakis, 2002b, Xiu e
Karniadakis, 2003b), é a função de covariância exponencial, dada por:
tx4, x& = ~&eG|GJ|/ 3.36
onde ~ é o desvio padrão do processo e a é denominado de comprimento de correlação.
Este processo pertence à classe de processos estacionários, e sua função de covariância
depende apenas da distância relativa entre dois pontos. Esta função será utilizada neste
trabalho por permitir solução analítica (Van Trees, 1968) da equação integral (3.33)
quando o domínio do problema é dado pelo segmento unidimensional [-b, b]. Os
autovalores deste problema são então dados por:
[# = ~& 2n1 + n&#& 3.37
e as autofunções correspondentes são:
x#x = sin#x p − sin2#p2# , se i é par
cos#x p + sin2#p2# , se i é impar 3.38
onde # é dado pela solução das equações transcendentais:
n # + tan# p = 0, se i é par1 − n #tan# p = 0, se i é impar 3.39
Um critério que pode ser usado para avaliar o truncamento advém do fato de que
a variância do processo, utilizando (3.34) e (3.36), é dada por:
34
nx = D [# x#x&2#34 = ~& 3.40
Integrando no domínio D e usando a ortonormalidade de x#x, temos:
~& , wz = D [# 2#34 3.41
Dessa forma, a fração retida da variância ou do desvio padrão, após o
truncamento em N termos, pode ser estimada, respectivamente, como:
Para valores crescentes de =, # tende para = − 1/2p e, portanto, [# tende
para:
lim#→2 [# = ~& 2n1 + n&)= − 1/2p*& 3.43
que pode ser usado para estimar as relações em (3.42).
A figura 3.1 exibe as 4 primeiras autofunções definidas por (3.38) para o
intervalo [-1, 1] e n = 0.5, onde se observa uma estrutura mais fina quanto mais
elevado o modo (maior índice). Os 8 primeiros autovalores são mostrados na figura 3.2
em escala logarítmica para diversos comprimentos de correlação a diferentes e ~& = 1.
Quanto maior o comprimento de correlação, maior a taxa de decaimento dos
autovalores. Para a muito pequeno, o decaimento é pouco visível.
35
Figura 3.1 – Primeiras quatro autofunções da função de covariância exponencial
Figura 3.2 – Primeiros 8 autovalores para diferentes comprimentos de correlação
No limite de processo não correlacionado, com comprimento de correlação zero
(ruído branco) não ocorre decaimento dos autovalores. O outro extremo ocorre no caso
em que a função de covariância é dada por tx4, x& = ~&, o que implica em processo
plenamente correlacionado, com comprimento de correlação infinito. Esse é o caso
trivial em que o processo depende de apenas uma variável randômica, sendo que apenas
o primeiro autovalor é não nulo, correspondendo a uma autofunção constante.
36
3.3 – Análise Estocástica Baseada em Caos Polinomial
A análise estocástica via Caos Polinomial teve origem no trabalho seminal de
Ghanem e Spanos (1991) com base na teoria do caos homogêneo de Wiener (1938),
combinando a expansão em termos de polinômios ortogonais de Hermite para variáveis
aleatórias Gaussianas ao método de elementos finitos, para modelar diversos problemas
estocásticos em mecânica dos sólidos. Mais tarde esta ideia foi estendida por Xiu e
Karniadakis (2002a) para um quadro mais geral, empregando outros polinômios
ortogonais hipergeométricos do esquema de Askey e Wilson (1985), do qual os
polinômios de Hermite são um subconjunto, sendo denominado Caos Polinomial
Generalizado (gPC).
Uma vez que os diferentes tipos de polinômio dessa família possuem funções
peso específicas, que coincidem com a forma de diferentes tipos de funções de
densidade de probabilidade além da Gaussiana, o método é capaz de representar
também processos estocásticos mais gerais não-gaussianos de forma mais eficiente,
obtendo convergência exponencial do erro.
O problema a ser resolvido nesta abordagem consiste em determinar os
coeficientes determinísticos da expansão de Caos Polinomial que representa o processo
randômico da solução. Tal tarefa pode ser realizada através da abordagem clássica de
projeção de Galerkin apresentada na seção 3.3.2 ou por uma abordagem prática de
colocação estocástica, apresentada na seção 3.3.3.
3.3.1 – Representação de Processos Randômicos: Caos Polinomial Generalizado
A expansão por caos polinomial generalizado é outro meio de representar um
processo randômico de segunda ordem, isto é, um processo que possui variância finita,
como a maioria dos processos físicos. Tal processo é uma função ∈ &Ω, onde Ω é o
espaço de probabilidades definido apropriadamente. Um processo randômico geral de
segunda ordem s, onde s representa o evento randômico, pode então ser expresso
como uma expansão em termos de um somatório infinito de polinômios ortogonais nas
variáveis randômicas como:
37
s = uNΨN + D u#Ψ4 ]y#s^2#34 + D D u##JΨ& ]y#s, y#Js^#
#J342
#34+ D D D u##J#Ψ ]y#s, y#Js, y#s^#J
#34#
#J342
#34+ ⋯ , 3.44
onde ΨN=1 e ΨZ)y# , … , y#¢* denota o caos polinomial generalizado de ordem n em
termos das infinitas variáveis aleatórias y4s, … , yZs, … . Os polinômios
multidimensionais ΨZ pertencem à família Askey de polinômios hipergeométricos e são
definidos pelo produto tensorial dos polinômios unidimensionais ortogonais
correspondentes. A equação acima é baseada na versão discreta do Caos Polinomial
original, onde as integrais contínuas são substituídas por somatórios. Por conveniência,
a equação (3.44) é geralmente reescrita para apenas um índice, como:
s = D n<Φ<)ys*2<34 3.45
onde existe uma correspondência direta entre as funções-base e coeficientes em (3.44) e
(3.45) e ys = y4s, … , yZs, … é o vetor de variáveis randômicas. A
abordagem aqui apresentada é diretamente extensível a variáveis discretas (Xiu e
Karniadakis, 2002a), entretanto, o desenvolvimento subsequente focará em variáveis
randômicas contínuas. Daqui em diante, por questão de simplificação, será omitido o
símbolo s que foi usado para enfatizar a natureza aleatória das variáveis.
Estamos interessados aqui no caso em que o problema pode ser apropriadamente
parametrizado por um conjunto finito de variáveis randômicas independentes, de forma
a ser tratável computacionalmente, conforme discutido na seção anterior. Assim
definimos y = y4, … , y como um vetor randômico de dimensão N com componentes
independentes no espaço de probabilidades Ω.
Seja ¤#: Γ# → ℝ¨ a função densidade de probabilidade (FDP) da variável y#s, s ∈ Ω, cuja imagem é Γ# ≜ y#Ω ⊂ ℝ para = = 1, … , 6. Então, dada a independência
das variáveis randômicas, temos que a densidade de probabilidade conjunta do vetor
randômico y = y4, … , y e o seu suporte são dados por:
38
¤y = « ¤#y##34 3.46a
Γ ≜ « Γ# ⊂ ℝ#34 3.46b
o que define portanto o espaço randômico N-dimensional. Embora não seja um
requerimento, normalmente é empregado o mesmo suporte para cada variável y#, de
modo que o espaço probabilístico de dimensão finita é geralmente definido como um
dos três tipos:
hipercubo: −1,1, 0, +∞ ou ℝ 3.47
No caso unidimensional, os polinômios xby#b3N2 de grau m, que formam a
base para o caos polinomial generalizado, são os polinômios ortogonais em relação à
quantidade ¤#y#y# em Γ# que satisfazem a relação de ortogonalidade:
¯[xby#xZy#] = , xby#xZy#¤#y#y# = °b±bZ ²I 3.48a
onde: °b = ¯[xb& ] = 8 xb& ¤#y#²I 3.48b
são os fatores de normalização, ±bZ é o delta de Kronecker e xNy# = 1. O operador
é chamado de operador de expectativa em teoria de probabilidade e estatística.
A função densidade de probabilidade ¤#y# na relação de ortogonalidade acima
é, portanto, a função peso dos polinômios ortogonais xby#, o que define o tipo de
polinômio diretamente relacionado ao tipo de distribuição da variável randômica y#. De
fato, para a maioria das distribuições de probabilidade conhecidas, existe um polinômio
ortogonal correspondente conhecido. Essa correspondência é listada na tabela 3.1.
A base multidimensional Φ³y correspondente, para o caso de N variáveis, é
dada pela combinação das bases unidimensionais xbIy# através do produto tensorial
de todas as combinações possíveis do índice múltiplo ³ = ´4 , … , ´ ∈ ℕN. Em
aplicações práticas, a base polinomial é limitada a polinômios de grau P, assim são
tomadas todas as combinações que satisfazem |³| ≤ , onde |³| = ´4 + ⋯ + ´.
39
Tabela 3.1: Correspondência entre tipo de base polinomial ortogonal e distribuição de probabilidade. Distribuição Base polinomial
Portanto, a base Φ³y da expansão gPC de grau P em N variáveis é construída como
o produto dos polinômios unidimensionais de grau menor ou igual a P:
Φ³y = xby4xbJy& … xb·y, 0 ≤ |³| ≤ 3.49 O número total M de polinômios da base acima é dado por:
¸ = ]6 + 6 ^ = 6 + !6! ! 3.50 Da mesma forma que no caso unidimensional (3.48a), a relação de
ortogonalidade segue imediatamente:
¯[Φ³yΦy] = ,Φ³yΦy¤yy = °³±³ ² 3.51a
onde: °³ = ¯[Φ³& ] = °b°bJ … °b· 3.51b
são os fatores de normalização e ±³ = ±bZ±bJZJ … ±b·Z· é a função delta de
Kronecker N-dimensional.
O índice múltiplo, apesar de tornar clara a apresentação, é inconveniente para
manipulações práticas e geralmente é ordenado e substituído por um índice simples,
sendo a escolha mais comum a ordem lexicográfica graduada (Xiu, 2010), onde ³ >
se e somente se |³| ≥ || e o primeiro componente diferente de zero na diferença − ³ é positivo. A ordem lexicográfica graduada é mostrada na tabela 3.2 para N = 3.
40
Tabela 3.2: Exemplo de ordenação lexicográfica graduada do índice múltiplo ³ para N = 3 dimensões. |³| Índice múltiplo ³ Índice único m
0 1
(0,0,0) (1,0,0) (0,1,0) (0,0,1)
1 2 3 4
2 (2,0,0) (1,1,0) (1,0,1) (0,2,0) (0,1,1) (0,0,2)
5 6 7 8 9 10
3 (3,0,0) (2,1,0)
...
11 12 ...
A tabela 3.3 mostra os polinômios de Hermite para ≤ 3 e 6 = 1,2,3.
Tabela 3.3: Base Φb com polinômios de Hermite até grau 3 para diferentes números de dimensões 6. 6 = 1
m Grau P Φb
1 0 1
2 1 y4
3 2 y4& − 1
4 3 y4 − 3y4
6 = 2
m Grau P Φb
1 0 1
2 3
1
y4 y&
4 5 6
2
y4& − 1 y4y& y&& − 1
7 8 9 10
3
y4 − 3y4 y4&y& − y& y4y&& − y4 y& − 3y&
6 = 3
m Grau P Φb
1 0 1
2 3 4
1
y4 y& y
5 6 7 8 9 10
2
y4& − 1 y4y& y4y y&& − 1 y&y y & − 1
11 12 13 14 15 16 17 18 19 20
3
y4 − 3y4 y4&y& − y& y4&y − y y4y&& − y4 y4y&y y4y & − y4 y& − 3y& y&&y − y y&y & − y& y − 3y
41
Assim, adotando uma notação semelhante a (3.45) com o índice único definido
acima, um processo randômico geral »x, , y, x ∈ D ⊂ ℝ¼, = 1,2,3, > 0 e y ∈ Γ,
pode ser aproximado por uma expansão gPC de ordem P através de sua projeção no
espaço polinomial N-dimensional definido pela base Φby, ∀x ∈ D, > 0, como:
»¾ x, , y = D »bx, ¿b34 Φby, ¸ = ]6 + 6 ^ 3.52
onde »bx, são os coeficientes de Fourier determinísticos definidos como:
É interessante observar que os primeiros dois termos da equação (3.44)
representam o componente Gaussiano do processo randômico. Portanto, para um
processo Gaussiano, essa expansão se reduz a uma expansão de primeira ordem que
coincide com a expansão de Karhunen-Loeve (Ghanem e Spanos, 1991), onde os
coeficientes podem ser obtidos da maneira descrita na seção 3.2.
42
3.3.2 – Método Galerkin Estocástico
Uma vez definida a base polinomial em função das variáveis randômicas, é
necessário encontrar os coeficientes determinísticos da expansão gPC na forma de
(3.52) da solução do problema estudado. A definição (3.53) não pode ser aplicada
diretamente, uma vez que envolve a solução desconhecida ».
Seja D ⊂ ℝ¼, = 1,2,3, o domínio físico com contorno D e = x4, … , x as
coordenadas espaciais. Considere a seguinte formulação geral para equações
diferenciais parciais estocásticas:
Æℒ, , »; y = 0, ∈ D, t > 0, y ∈ Γ ℬ, , »; y = 0, ∈ D, t > 0, y ∈ Γ 3.55» = »N; y, ∈ D, t = 0, y ∈ Γ
onde ℒ é o operador diferencial da equação, ℬ o operador das condições de contorno e » ∶= », ; y é a solução. O operador ℒ envolve diferenciações no espaço/tempo de
forma geral e pode ser não-linear. São assumidas condições de contorno e inicial
apropriadas. As variáveis randômicas y = y4, … , y caracterizam a incerteza no
sistema, introduzida pelas propriedades do material, condições de contorno, condição
inicial, etc. A solução » consiste, portanto, de um processo randômico, e buscamos uma
expansão gPC aproximada da solução na forma:
.¾, , y = D .b, ¿b34 Φby, ¸ = ]6 + 6 ^ 3.56
Aqui é usada a notação .¾ para distinguir da expansão exata »¾ definida em
(3.52). Substituindo (3.56) nas equações (3.55), e realizando uma projeção de Galerkin
pela integração, em relação à função peso, do produto das equações por cada base,
obtém-se as equações na forma fraca para os coeficientes .b, :
o que é equivalente a resolver Q problemas determinísticos onde a variável randômica Z
é fixada, obtendo um conjunto de soluções determinísticas »<<34Ï , que pode ser pós-
processado para extrair informações úteis sobre », , y.
O método de simulação de Monte Carlo, por exemplo, é o tipo mais simples de
método de colocação onde o conjunto de pontos é gerado aleatoriamente baseado na
distribuição de probabilidade de Z. Recentemente, entretanto, a partir do trabalho de Xiu
e Hesthaven (2005) e posteriormente de Xiu (2007), foram propostos métodos de
colocação que fazem uso das ideias da teoria de aproximação polinomial para a escolha
estratégica dos nós, de modo a construir uma aproximação polinomial da solução.
45
Comparado ao método de Galerkin, os métodos de colocação são de implementação
mais fácil e direta, porém geralmente resultam em um número maior de equações.
Entretanto, essas equações são mais fáceis de resolver, pois são completamente
desacopladas e requerem apenas execuções repetitivas de soluções determinísticas do
problema original.
O primeiro desses métodos proposto por Xiu e Hesthaven (2005) consiste em
utilizar uma interpolação de Lagrange da solução na forma:
Ñ», , y = D »), , y#*Ï#34 #y 3.63a
onde #)y<* = ±#< , 1 ≤ =, > ≤ Ð 3.63b
são os polinômios de Lagrange e »), , y#* é a solução obtida em cada nó y#. Depois de obtida a representação da solução na forma (3.63), as informações
estatísticas da solução podem ser obtidas, como por exemplo:
onde y#, ##34Ï são os pontos de colocação e pesos correspondentes a uma regra de
cubatura apropriada e »), , y#* é a solução do problema (3.62) para cada ponto y# fixado. Portanto a projeção contínua exata definida em (3.52) e (3.53) é aproximada por
uma “projeção discreta”, utilizando a teoria de aproximação polinomial para o problema
de integração multidimensional. Comparado à interpolação multidimensional da
abordagem anterior, existem relativamente mais resultados na área de integração
múltipla.
A escolha dos pontos e pesos é feita de tal modo que, para integrandos
suficientemente suaves, Òb converge para o valor exato »b à medida que Ð → ∞, e
portanto, Ò¾ converge para »¾ . O erro quadrático médio entre a projeção contínua
exata e a projeção discreta, chamado de “aliasing error” por Xiu (2007) ou numa
tradução próxima “erro de resolução”, é causado pela precisão finita da regra de
cubatura usada e definido como:
ÂÏ ≜ ‖Ò¾ − »¾ ‖ÄÅJ ² = k D Òb − »b&°b¿
b34 l4/& 3.67
47
O erro total induzido pela projeção discreta Ò¾ é então composto pelo erro
acima e pelo erro induzido por usar uma expansão de ordem finita P, conforme definido
em (3.54), e pode ser expresso pela desigualdade triangular como:
ÂÎ ≤ ¾ + ÂÏ 3.68
A principal tarefa computacional reside na avaliação repetitiva da solução nos
nós. A avaliação dos coeficientes (3.66) e reconstrução da expansão gPC discreta (3.65)
são etapas de pós-processamento e não requerem soluções adicionais do sistema.
Assim obtém-se novamente uma expressão analítica para a solução, da mesma
forma que no método de Galerkin, e as informações estatísticas de interesse podem ser
facilmente computadas conforme discutido na seção 3.3.4. Nesse aspecto, a gPC
discreta é mais vantajosa do que a abordagem via interpolação de Lagrange.
Outra característica vantajosa é que os coeficientes (3.66) da expansão podem
ser computados independentemente, e de acordo com a necessidade. A obtenção de
expansões gPC de maior ordem não afeta de forma significativa o custo do método, o
que contrasta com o método de Galerkin, onde todos os coeficientes são acoplados e
resolvidos simultaneamente, impactando diretamente o seu custo para ordens
superiores.
3.3.3.1 – Regras de Cubatura e Escolha dos Pontos de Colocação
Uma regra de cubatura é uma extensão para o caso multidimensional da ideia da
regra de quadratura, ou seja, é uma regra de integração que busca aproximar uma
integral múltipla:
, ¤ , ∈ ℝ , 6 > 1 3.69
por
ÓÏ[] = D #Ï#34 #, Ð ≥ 1 3.70
onde #, #<34Ï são os nós definidos no espaço N-dimensional e seus respectivos
pesos associados.
48
A escolha de uma boa da regra de cubatura é um fator chave para garantir a
precisão do método da gPC discreta, e irá definir os pontos de colocação para os quais o
sistema original deve ser resolvido. Assim é desejável que, para uma determinada
precisão, medida em termos do grau de exatidão polinomial, uma regra de integração
use o menor número possível de pontos. Uma regra de integração de grau n implica em
valor exato da integral para qualquer f que seja um polinômio de grau até n e não exata
para pelo menos um polinômio de grau n+1.
A obtenção de regras de cubatura eficientes em espaços multidimensionais é um
problema não trivial e um campo de pesquisa ativo. No caso de domínios simples,
regras unidimensionais bem estabelecidas para cada direção podem ser estendidas para
todas as direções através de uma construção via produto tensorial, as chamadas “regras
produto” (Stroud, 1971). Muitas opções são disponíveis para o caso unidimensional e a
escolha que fornece a maior precisão, para um dado número de pontos, é a quadratura
de Gauss, baseada nos zeros de polinômios ortogonais, que oferece grau 2q-1, onde q é
o número de pontos. Esta opção é também uma escolha natural para o método aqui
apresentado, uma vez que pode ser formulada uma quadratura de Gauss baseada no tipo
de polinômio ortogonal usado xZy# e que emprega o peso ¤#y# e suporte Γ# da
variável randômica correspondente.
Para cada variável y# de y = y4, … , y podemos construir uma quadratura de
Gauss como:
ÔÕI[] = D ]y#<^ ∙ #<ÕI<34 3.71
baseada no conjunto de nós Θ4ÕI = y#4, … , y#ÕI ⊂ Γ#. Esta quadratura é exata para
qualquer polinômio em ℙ&ÕIG4(y#, o espaço de polinômios de grau até 2Ù# − 1.
Existem várias referências, como por exemplo, o trabalho de Stroud e Secrest (1966),
onde são apresentados valores tabelados para os pontos e pesos das quadraturas
gaussianas, que podem também ser obtidos através de procedimentos numéricos. No
caso de polinômios de Hermite, por exemplo, os pontos em uma quadratura de q pontos
são dados pelas q raízes reais do polinômio de Hermite de ordem q, ÚÕy#:
y#<: ÚÕ ]y#<^ = 0, > = 1, … , Ù 3.72a
49
e os pesos podem ser obtidos (Stroud e Secrest, 1966) pela fórmula:
#< = 2Õ¨4Ù! √ÜÚÕ¨4 ]y#<^Ý& , > = 1, … , Ù 3.72b
Vale observar que neste caso, entretanto, a função peso do polinômio acima é FGÞIJ, diferente da versão do polinômio de Hermite usado aqui para as expansões gPC,
onde ¤#y# = FGÞIJ/&/√2, igual à FDP da distribuição Gaussiana padrão. Assim é
necessário introduzir um fator de correção nos pesos para compensar esta diferença, e a
regra de cubatura (3.71) corrigida é dada por:
ÔÕI[] = D ]y#<^ ∙ ßFÞIàJ&√2 á #<ÕI<34
= D ]y#<^ ∙ +#<ÕI<34 3.73
Para estender a fórmula (3.71) a todas as direções y#, a fórmula produto é
construída através do produto tensorial como:
ÔÏ[] ≡ ÔÕ ⊗ ⋯ ⊗ ÔÕ·[]= D ⋯ D y4<, ⋯ ,Õ·
<·34 y<· ∙ 4< ⋯ <·Õ<34 3.74
O conjunto total de pontos, argumentos da função f na formulação acima é,
portanto, obtido pela combinação dos pontos em cada direção, ΘÏ = Θ4Õ ⊗ ⋯ ⊗ Θ4Õ·,
onde o número total é dado por Ð = Ù4 × ⋯ × Ù. Esta cubatura é exata para todo
polinômio multidimensional em ℙ&ÕG4y# ⊗ ⋯ ⊗ ℙ&Õ·G4y. A formulação acima é fácil de ser construída e fornece cubaturas de alta
precisão. Deve-se ressaltar, entretanto, que para dimensões mais altas, o número de nós
cresce rapidamente. Se for usado o mesmo número q de pontos em cada direção, o
número total de pontos no espaço N-dimensional será Ð = Ù, que para 6 ≫ 1 pode ser
imenso. Portanto, a regra de cubatura baseada em produto tensorial é geralmente usada
50
apenas para dimensões mais baixas, como 6 ≤ 5. Entretanto, quando sua aplicação é
viável, é capaz de fornecer a maior precisão possível dentre as regras de cubatura
conhecidas. Esta opção de cubatura é empregada neste trabalho, dada sua facilidade de
construção e alta precisão, uma vez que o número de variáveis é mantido baixo nos
problemas aqui tratados, onde o foco é demonstrar a aplicação dos diferentes métodos.
Como alternativa para altas dimensões, pode ser usado o conceito de “malha
esparsa”, baseada no algoritmo de Smolyak (1963), conforme proposto por Xiu e
Hesthaven (2005) e Xiu (2007) no contexto de métodos de colocação estocástica. A
malha esparsa pode ser entendida como uma regra de cubatura que consiste em um
subconjunto da malha completa do produto tensorial apresentado anteriormente,
utilizando um algoritmo sofisticado de modo que o conjunto reduzido de pontos é
escolhido estrategicamente para preservar ao máximo possível a precisão da integração.
Dependendo da escolha da quadratura Gaussiana em uma dimensão, existe uma
variedade de construções com malha esparsa, com diferentes graus de precisão (Xiu,
2010).
Além das fórmulas produto que usam pontos estruturados, existem outros tipos
de cubatura baseados em considerações geométricas, que são dados como fórmulas
explícitas, no tocante à localização dos nós e seus pesos. Quando existentes, tais
fórmulas geralmente utilizam menos pontos do que fórmulas produto para uma mesma
precisão, principalmente para graus mais baixos. Este é um campo de pesquisas ativo,
onde muitos aspectos são ainda desconhecidos. Uma revisão exaustiva destas regras é
dada por Stroud (1971) e Cools (2003). Podem ser destacadas, por exemplo, duas regras
de baixo grau, sendo a primeira de grau 2 que utiliza apenas N+1 pontos em N
dimensões, e outra de grau 3 que usa apenas 2N pontos, ambas propostas por A.H.
Stroud. Estas regras podem ser muito eficientes para casos de dimensão elevada, devido
ao número extremamente pequeno de nós e, em muitos casos, podem fornecer bons
resultados, apesar do grau relativamente baixo.
51
3.3.4 – Obtenção das Informações Estatísticas
Uma vez obtida a expansão gPC com precisão satisfatória (3.56) ou (3.65),
através de um dos dois métodos apresentados, obtém-se de fato uma expressão analítica
da solução u em termos das variáveis randômicas Z do problema (3.55), através da base
polinomial usada. Isso permite obter as informações estatísticas de interesse de uma
forma direta e simplificada.
Para maior simplificação, iremos assumir que os polinômios ortogonais usados
na expansão gPC já foram apropriadamente normalizados, de forma que æΦ- b& ç = 1,
onde Φ- b são os polinômios normalizados, obtidos como Φ- b = Φb/5¯[Φb& ]. Assim, fazendo uso da ortogonalidade dos polinômios, a média (ou valor
esperado) da solução, por exemplo, pode ser obtida como:
¯[»] ≈ ¯[»¾ ] = , è D »b¿
b34 Φ- byé ¤yy² = »4 3.73
O segundo momento, isto é, a função de covariância, pode ser estimada na
variável espacial, para um determinado tempo t como:
Para polinômios não normalizados, as expressões acima sofrem pequenas
modificações, para levar em conta os fatores de normalização. Outras quantidades
estatísticas podem ser obtidas de modo semelhante, aplicando a expansão gPC da
solução u (Xiu, 2009).
52
3.4 – Simulação de Monte Carlo
Aqui será apresentado rapidamente o método de simulação de Monte Carlo, que
será utilizado na análise e comparação dos resultados.
Simulação de Monte Carlo é um dos métodos mais desenvolvidos e utilizados
para resolver problemas com equações diferenciais estocásticas. O procedimento geral é
simples e consiste das seguintes etapas:
1. Para um número prescrito de realizações M, gerar um conjunto de M pontos
aleatórios y# = ]y4#, … , y#^, = = 1, … , ¸, no espaço randômico das N
variáveis independentes do problema, de acordo com a distribuição de
probabilidade especificada.
2. Para cada = = 1, … , ¸, resolver o problema determinístico (3.55) com y = y#, obtendo um conjunto de soluções »#x, ≜ »x, , y#.
3. Pós-processar os resultados para estimar as estatísticas da solução. Por
exemplo, a média pode ser estimada como:
¯[»x, , y] ≈ 1 D »#x, ¿#34 3.76
Da mesma forma, outras informações estatísticas podem ser estimadas
diretamente, aplicando a definição apropriada sobre conjunto de soluções.
Fica claro, portanto, que a parte principal, responsável pelo custo computacional
do método, etapa 2, envolve solucionar repetitivamente M versões determinísticas do
problema original. Como »# são variáveis aleatórias independentes e identicamente
distribuídas, o Teorema do Limite Central afirma que a distribuição do estimador da
média na expressão acima converge, no limite ¸ → ∞, para uma distribuição gaussiana ê¯[»] , ~ë&/¸, cujo desvio padrão é ~ë/√¸, onde ~ë é o desvio padrão da solução
exata. Por este motivo é adotado amplamente o conceito de que a taxa de convergência
do erro na simulação de Monte Carlo é inversamente proporcional à raiz quadrada do
número de realizações.
Esta taxa de convergência é relativamente baixa. De modo geral, para o aumento
em um dígito na precisão requerida, é necessário aproximadamente 100 vezes mais
simulações. Por outro lado, esta convergência é independente do número de variáveis,
característica que nenhum outro método possui, o que, aliado à facilidade de
implementação, tornam o método bastante eficaz e flexível.
53
CAPÍTULO 4 MÉTODO PROPOSTO: GITTgPC
A seguir será apresentada uma nova abordagem proposta, baseada na junção da
técnica de Transformação Integral generalizada e do método de Caos Polinomial para a
solução específica de problemas estocásticos de condução de calor em meio
heterogêneo, onde a incerteza está presente nos coeficientes da equação. Esta
abordagem proposta será referida aqui como GITTgPC.
4.1 – Formulação do Problema
O problema a ser tratado é dado pelo seguinte sistema de equações diferenciais
parciais estocásticas, semelhante ao problema determinístico equivalente (3.7):
; y , ; y = ∂∂w ì; y ∂, ; y∂w í − , ; y + , ; y, ∈ , > 0 4.1a , 0; y = ; y, ∈ 4.1b
, ; y + ; y , ; y = ϕ, ; y, ∈ 4.1c
onde o potencial , ; y depende da posição x definida na região ⊂ ℝ¼, = 1,2,3,
com superfície de contorno S, do tempo t e do vetor de variáveis randômicas y ∈ Γ ⊂ℝ.
Aqui considera-se a incerteza presente apenas nos coeficientes e da equação
e nos termos fonte. O procedimento é prontamente extensível também para o caso com
incerteza no coeficiente d do termo de dissipação linear, porém, por questão de
simplicidade, este caso não será considerado neste trabalho.
Considera-se que os processos randômicos dos dados de entrada do sistema já
tenham sido adequadamente parametrizados, de modo que a dependência funcional dos
mesmos em relação ao conjunto de N variáveis randômicas independentes y =y4, … , y é conhecida, por exemplo, através do uso da expansão de Karhunen-Loeve,
54
conforme discutido na seção 3.2. De forma geral, podemos considerar que os processos
podem ser independentes um do outro, então 6 = 6î + 6Ê + 6ïëKðïñ , onde 6î é o
número de variáveis que caracterizam , 6Ê o número de variáveis de k e o último
termo representa as demais variáveis randômicas independentes do problema.
4.2 – Procedimento de Solução
Aplicando as ideias da Técnica de Transformação Integral, podemos fazer um
pré-tratamento das equações (4.1), antes de aplicar os métodos estocásticos
propriamente ditos, de modo a buscar obter um sistema de equações ordinárias
estocásticas mais simples, que pode então ser resolvido pelas técnicas convencionais
apresentadas.
Com base nas considerações anteriores, os processos e podem ser descritos
na forma dada por (3.32), separados em uma parte determinística, a média do processo,
e outra estocástica, como:
, y = \ + ò ; y , , y = + + ò ; y 4.2a,b
onde: ò ; y = ∑ #ó#34 y#î, ò ; y = ∑ #ô#34 y#Ê 4.3a, b
e o sistema (4.1) pode ser reescrito na forma:
\ + ò ; y = ∂∂w Ì+ ∂∂wÍ + ∂∂w Ìò ; y ∂∂wÍ − + , ; y, ∈ , > 0 4.4a = ; y, ∈ , = 0 4.4b
+ ; y = ϕ, ; y, ∈ , > 0 4.4c
Assim, podemos propor um problema de autovalor tomando apenas as médias
determinísticas dos coeficientes, como:
55
∇. +∇"# + [%#&\ − ]"# = 0, ∈ 4.5a
"# + + "# = 0, ∈ 4.5b
O problema acima pode ser prontamente resolvido, dentre outros meios, usando
a GITT, conforme procedimento descrito na seção 3.1.2.1, para obter os autovalores e
autofunções.
Após a obtenção dos autovalores e autofunções, procede-se à transformação
integral do sistema (4.4) fazendo uso do par transformada-inversa:
+#; y = , \"-#, ; y./ , transformada 4.6a
, ; y = D "-#+#; y2#34 , inversa 4.6b
Aqui o problema torna-se semelhante à situação descrita na seção 3.1.3, onde no
caso a variável randômica y faz o papel de variável não eliminada no processo de
transformação integral. Portanto, repetindo as manipulações algébricas descritas na
seção 3.1.3 para o caso simultâneo de dependência em e em , a integração da
equação (4.4a) e da condição inicial (4.4b) usando o operador 8 "-# _ ./ resulta no
seguinte sistema diferencial ordinário estocástico, de primeira ordem e acoplado:
+#; y + D n#<y +<2<34 − D p#<y +<
2<34 + %#&+# = :#; y 4.7a
+#0; y = #y = , \"-#; y./ 4.7b
onde:
:#; y = , ; y["-# − "-# ]VX + , "-#, ; y. 4.7c/
n#<y = , ò ; y"-#"-<./ 4.7d
p#<y = , "-<∇. [ò ; y∇"-#]./ 4.7e
56
Portanto, o problema estocástico é transferido para o campo transformado, onde
o sistema de EDO’s acoplado acima pode ser truncado em uma ordem 6õ
suficientemente grande para garantir a precisão requerida e resolvido para +#; y por
um dos métodos baseados em Caos Polinomial apresentados anteriormente, a fim de
obter os potenciais transformados na forma de expansões gPC de ordem P:
+#; y = D ö#,b¿b34 Φby, ¸ = ]6 + 6 ^ , = = 1, … , 6õ 4.8
Uma vez obtidos os campos transformados estocásticos, a solução final para o
campo de temperatura estocástico pode ser reconstruída utilizando a fórmula da inversa
(4.6b):
, ; y = D "-#+#; y÷#34 = D "-# D ö#,b¿
b34 Φby÷#34 4.9
A solução para o caso unidimensional do problema acima pode ser obtida
imediatamente, através da restrição apropriada do domínio do problema para apenas
uma variável espacial. Assim o problema pode ser reescrito como:
w; y w, ; y = ∂∂w Ìw; y ∂∂wÍ − w + w, ; y, wN < w < w4 , > 0 4.10a = w; y, wN < w < w4, = 0 4.10b
ð − −1ððw; y w = ϕw, ; y, w = wð , = 0,1, > 0 4.10c
com problema auxiliar de autovalor dado por:
w E+w "#ww O + [%#&\w − w]"#w = 0, wN < w < w4 4.11a
ð"#wð − −1ðð+wð "#wðw = 0, = 0,1 4.11b
57
e o par transformada-inversa é dado por:
+#; y = , \w"-#ww, ; ywùùú , transformada 4.12a
w, ; y = D "-#w+#; y2#34 , inversa 4.12b
Após o procedimento de transformação integral obtém-se o sistema:
+#; y + D n#<y +<2<34 − D p#<y +<
2<34 + %#&+# = :#; y 4.13a
+#0; y = #y = , \w"-#ww; ywùùú 4.13b
onde:
:#; y = D wð; y−1ð¨4 ["-# w − "-#w ]ûùü4
ð3N + , "-#ww, ; yw 4.13cùùú
n#<y = , ò w; y"-#w"-<wwùùú 4.13d
p#<y = , "-<w∇. [ò w; y∇"-#w]wùùú 4.13e
Novamente, após o truncamento em uma ordem 6õ, o sistema estocástico acima
pode ser resolvido, obtendo (4.8), que permite reconstruir o campo de temperatura final
usando (4.12b) como:
w, ; y = D "-#w+#; y÷#34 = D "-#w D ö#,b¿
b34 Φby÷#34 4.14
Portanto, após o pré-tratamento das equações através de transformação integral,
a análise estocástica é reduzida a um sistema de EDO’s estocástico dado por (4.7) ou
(4.13). As matrizes de coeficientes n#<y e p#<y possuem 6õ × 6õ termos na forma
de integrais que devem ser computadas, entretanto, podem ser, em geral, calculadas de
58
forma rápida e eficiente, desde que as autofunções "-# e expansões Karhunen-Loeve ò e ò , do tipo considerado, possuam forma analítica simples e então a tarefa pode ser
resumida em poucas famílias de integrais, cuja forma analítica pode ser prontamente
obtida com o auxílio de computação simbólica.
4.2.1 – Solução do Campo Transformado Estocástico
O sistema de EDO’s estocástico dado por (4.7) ou (4.13) pode ser prontamente
resolvido por um dos métodos estocásticos apresentados no capítulo 3. A aplicação do
método de Galerkin sobre o sistema já acoplado e truncado em 6õ equações usando
uma expansão gPC de ¸ termos, irá aumentar o tamanho do sistema para 6õ × ¸
equações acopladas, com a tarefa adicional de avaliar as matrizes de coeficientes finais
do sistema, consistindo de 6õ × ¸ × 6õ × ¸ termos, cujas integrais podem ser
calculadas analiticamente via computação simbólica. Entretanto, essa tarefa pode ter
elevado custo computacional, uma vez que as integrais neste caso não podem ser
reduzidas a poucas famílias.
Alternativamente, o método da gPC discreta utilizando Ð pontos de colocação
mostra-se de aplicação simples e direta, pois apenas requer Ð soluções repetitivas do
sistema de EDO’s original de 6õ equações e os coeficientes da expansão gPC são dados
por:
ö#,b = D +#); y<*Φb)y<*<Ï<34 , ´ = 1, … , ¸ 4.15
Além disso, esse sistema possui uma propriedade especial que pode ser
explorada para aumentar ainda mais a eficiência na obtenção da solução, conforme
mencionado no final da seção 3.1.3: os coeficientes são constantes, isto é, não
dependem de t, mas apenas de Z cujo valor é fixado em cada ponto de colocação. Esta
condição permite desacoplar o sistema para a obtenção de soluções analíticas explícitas.
O sistema pode ser expresso na forma matricial:
ý\M = d ý\ + þ, > 0 4.16a ý\0 = 4.16b
59
A matriz 6õ × 6õ de coeficientes constantes d possui um conjunto de 6õ
autovetores linearmente independentes # e autovalores correspondentes [#, dados
pelo problema de autovalor: d − [## = 0, = = 1, … , 6õ 4.17
Uma matriz de transformação , capaz de transformar a matriz d em uma matriz
diagonal, pode ser construída como:
= g4, … , ÷h 4.18a
e definindo uma nova variável:
ý\ = 4.18b
o sistema (4.16) pode ser reescrito como:
M = d + þ 4.19a
ou, M = Gd + Gþ = + 4.19b
0 = ∗ = G 4.19c
onde é uma matriz diagonal formada pelos autovalores [4, … , [÷.
O sistema desacoplado (4.19) permite solução analítica na forma:
v = FK Ev0 + , FGKLhM ′KN O , i = 1, … , 6õ 4.20
e a solução para o sistema original pode então ser reconstruída como:
ý\ = D ÷34 v 4.21
Assim a solução analítica do campo transformado é facilmente obtida a partir da
solução numérica do sistema algébrico (4.17), o que permite a obtenção do campo de
temperatura final também totalmente analítico.
60
4.3 – Obtenção das Informações Estatísticas
Uma vez obtido o campo de temperatura na forma de (4.9) ou (4.14), as
informações estatísticas de interesse podem ser prontamente obtidas. Novamente iremos
assumir que a base polinomial foi normalizada.
Assim, fazendo uso da ortogonalidade dos polinômios, a média da solução pode
ser obtida como:
¯$, ; y] ≈ , èD "-# D ö#,b¿b34 Φby÷
#34 é ¤yy² = D "-# ö#,4÷#34 4.22
O segundo momento, isto é, a função de covariância, pode ser estimada na
variável espacial, para um determinado tempo t, como:
tK4, & ≜ ¯[ 4, − ¯[4, ] &, − ¯[&, ] ] ≈ D D "-#4"-<&÷
<34÷#34 D ö#,bö<,b¿
b3& 4.23
e, portanto, a variância é dada por:
nK = ¯[ , − ¯[, ] & ] = tK, ≈ D D "-#"-<÷
<34÷#34 D ö#,bö<,b¿
b3& 4.24
61
CAPÍTULO 5 APLICAÇÕES E RESULTADOS
Nesta seção são apresentados os resultados numéricos obtidos com a aplicação
dos métodos discutidos nos capítulos anteriores. Foram escolhidos três problemas com
nível crescente de sofisticação, de modo a verificar a metodologia e exemplificar as
diferentes aplicações e particularidades. O primeiro consiste na análise de uma equação
diferencial ordinária estocástica, focando na verificação dos métodos clássicos
implementados com resultados da literatura, demonstrando a convergência do erro para
ordens crescentes da expansão gPC. A segunda aplicação já é um problema estocástico
de condução em meio heterogêneo, também obtido na literatura, e cuja solução exata é
conhecida. Este problema é parametrizado por apenas uma variável randômica. Por fim,
propõe-se um problema multivariável mais geral, onde os processos são parametrizados
por uma expansão de Karhunen-Loeve.
Para desenvolvimento e aplicação dos algoritmos foi utilizada a plataforma de
computação simbólica Mathematica v.7.0 (Wolfram, 2003), particularmente útil nos
algebrismos necessários no método de transformação integral, facilitando também a
implementação dos outros métodos e proporcionando uma interface gráfica adequada
para visualização e apresentação dos resultados. As etapas de solução numérica de
equações diferenciais parciais nos métodos de Galerkin e Projeção Discreta são
executadas utilizando a rotina NDSolve do Mathematica.
62
5.1 – Equação Diferencial Ordinária
Para efeito de demonstração e verificação dos métodos baseados em Caos
Polinomial pelas duas abordagens, Galerkin e Projeção Discreta via colocação, foi
utilizado o exemplo apresentado por Xiu e Karniadakis (2002a) para uma equação
diferencial ordinária. Este exemplo demonstra a convergência exponencial do erro em
relação à ordem da expansão gPC da solução com a escolha ótima da base polinomial.
O problema é dado por:
= −, 0 = # 5.1
onde o coeficiente de decaimento é a variável randômica do problema com uma certa
distribuição e média +.
A solução determinística é dada por:
= #FGÊ+ K 5.2
A média da solução estocástica exata é dada por:
+ùK = ¯[] = # ,FGÊKX 5.3
e sua variância é definida como:
~ùK& = ¯ Ü) − +*&Ý = ,]#FGÊK − +^&X 5.4
onde é a função densidade de probabilidade (FDP) e a integração é tomada no
suporte definido pela distribuição correspondente.
A solução pode então ser aproximada por uma expansão gPC de ordem P,
como:
≈ D b¿b34 Φb, ¸ = + 1 5.5
63
São definidas duas medidas de erro para a média e variância da expansão (5.5):
bé# = û+¾ − +ùK+ùK û, ð = û~¾& − ~ùK&
~ùK& û 5.6a, b
A abordagem de Galerkin consiste em substituir (5.5) nas equações (5.1) e em
seguida integrar o produto das equações por cada base, em relação à função peso,
obtendo as equações para os coeficientes da expansão:
b = − 1¯[Φb& ] D #¿#34 ¯[ Φ#Φb], ´ = 1, … , ¸ 5.7a
40 = #, &0, … , ¿0 = 0 5.7b
Os resultados de Xiu e Karniadakis (2002a) foram obtidos apenas com a
abordagem de Galerkin acima. Entretanto será empregado aqui também o método da
Projeção Discreta para comparação. Na abordagem de projeção discreta, resolve-se o
sistema (5.1) em cada ponto de colocação #, = = 1, … , Ð, cada qual com seu peso
correspondente #, obtendo a solução #. Os coeficientes da expansão gPC (5.5)
são então dados pela integral discreta:
b = 1¯[Φb& ] D #Ï#34 Φb)#*#, ´ = 1, … , ¸ 5.8
A seguir são apresentados os resultados numéricos obtidos para diferentes tipos
de distribuição de , utilizando a base polinomial correspondente. A condição inicial é
fixada em # = 1 e os erros são calculados em = 1.
5.1.1 – Distribuição Uniforme e Polinômio de Legendre
A variável é definida como uma variável randômica com distribuição
uniforme e média zero no intervalo [−1,1], cuja FDP é = 1/2.
A média e variância da solução estocástica exata neste caso são dadas por:
64
+ùK = sinh , ~ùK& = cosh sinh
− sinh&t& 5.9a, b
Dado o tipo de distribuição, uniforme, é empregado o polinômio de Legendre
para a expansão gPC, conforme tabela 3.1.
A figura 5.1 mostra a variação com o tempo de cada coeficiente determinístico
da expansão (5.5) de grau P=4, obtidos pelo método de Galerkin. Observa-se que a
solução determinística (5.2) é constante e igual a 1, já que + = 0, entretanto, a média da
solução estocástica (primeiro coeficiente da expansão, conforme equação (3.73)) cresce
com o tempo. Resultado semelhante foi exibido por Xiu e Karniadakis (2002a).
Figura 5.1 – Coeficientes da expansão (Legendre, P = 4) e solução determinística
A figura 5.2 mostra a convergência exponencial do erro da média e variância
(5.6a,b) à medida que o grau P da expansão aumenta, onde o valor do erro é plotado em
escala logarítmica. Observa-se a excelente concordância gráfica em relação aos valores
sobrepostos do trabalho de Xiu e Karniadakis (2002a).
65
Figura 5.2 – Convergência do erro da média e variância (gPC-Legendre)
Figura 5.3 – Comparação erro Galerkin vs erro Projeção Discreta com 6 pontos de
colocação (gPC-Legendre)
A figura 5.3 apresenta uma comparação com o método de colocação de Projeção
Discreta. Com apenas 6 pontos de colocação, este método apresenta menor erro para a
variância até o quarto grau da expansão, e até o terceiro grau para a média.
Observa-se que a média possui erro constante independente do grau da expansão
gPC. Isso ocorre pois a média depende apenas do primeiro coeficiente da expansão,
cujo erro neste caso é determinado apenas pela regra de cubatura e número de pontos de
colocação usados na aproximação da integral discreta, não dependendo do grau P. Este
erro, chamado de “aliasing error”, foi discutido na seção 3.3.3 e é definido pela equação
66
(3.67). A figura 5.4 ilustra o efeito do “aliasing error” sobre o erro quadrático médio da
expansão gPC discreta obtida neste exemplo, para 3, 4 e 6 pontos de colocação. O erro
quadrático médio é dado por:
 = )¯æ¾ − ùK&ç*4/& 5.10
Observa-se que, à medida que a ordem da expansão aumenta, o erro converge
apenas se um número suficiente de nós de integração for usado. Para 6 pontos de
colocação o “aliasing error” é pequeno e a convergência é exponencial até o quarto grau
do polinômio. Com 4 pontos o erro mostra-se saturado e com apenas 3 pontos deteriora
com o aumento da ordem da expansão.
Figura 5.4 – Erro quadrático médio com o aumento da ordem da expansão e diferentes
números de pontos de colocação (gPC-Legendre)
5.1.2 – Distribuição Gaussiana e Polinômio de Hermite
Aqui a variável é definida como uma variável randômica Gaussiana com
distribuição normal padrão, ou seja, média zero e variância unitária, cuja FDP é dada
por = FGÊJ/&/√2 . A média e variância da solução estocástica exata neste caso são dadas por:
+ùK = FKJ/& , ~ùK& = F&KJ − FKJ 5.11a, b
67
O polinômio ortogonal correspondente a essa distribuição é o polinômio de
Hermite, conforme tabela 3.1.
A figura 5.5 mostra os coeficientes da expansão gPC. Como no caso anterior, a
solução determinística é constante, entretanto a média da solução estocástica cresce com
o tempo. Resultado semelhante foi exibido por Xiu e Karniadakis (2002a).
Figura 5.5 – Coeficientes da expansão (Hermite, P = 4) e solução determinística
Novamente observa-se a excelente concordância gráfica em relação aos
resultados de Xiu e Karniadakis (2002a) para a convergência exponencial do erro da
média e variância com valores crescentes do grau P da expansão na figura 5.6.
Figura 5.6 – Convergência do erro da média e variância (gPC-Hermite)
68
A figura 5.7 apresenta uma comparação com o método de colocação de Projeção
Discreta com 14 pontos de colocação. Neste caso observa-se que tanto a média quanto a
variância apresentam menor erro em relação ao método de Galerkin para todos os graus
considerados. Novamente observa-se o comportamento do erro da média, independente
do grau da expansão.
Figura 5.7 – Comparação erro Galerkin vs erro Projeção Discreta com 14 pontos de
colocação (gPC-Hermite)
A figura 5.8 ilustra o efeito do “aliasing error” sobre o erro quadrático médio da
expansão gPC discreta para diferentes números de pontos de colocação. À medida que o
número de pontos diminui, a convergência deteriora.
Figura 5.8 – Erro quadrático médio com o aumento da ordem da expansão e diferentes
números de pontos de colocação (gPC-Hermite)
69
5.1.3 – Distribuição Exponencial e Polinômio de Laguerre
Neste último exemplo consideramos a variável como tendo distribuição
exponencial, com FDP = FGÊ, e será mostrada apenas a concordância com o
resultado apresentado por Xiu e Karniadakis (2002a). A média e variância de são
+ = 1 e ~Ê& = 1.
A média e variância da solução estocástica exata neste caso são dadas por:
+ùK = 1 + 1 , ~ùK& = 1
2 + 1 − 1 + 1& 5.12a, b
A distribuição exponencial é um caso particular da distribuição gamma e, neste
caso, o polinômio correspondente é o polinômio de Laguerre, conforme tabela 3.1.
A figura 5.9 mostra os coeficientes da expansão gPC. Novamente observa-se
diferença considerável entre a solução determinística e a média da solução estocástica.
Resultado semelhante foi exibido por Xiu e Karniadakis (2002a).
Figura 5.9 – Coeficientes da expansão (Laguerre, P = 4) e solução determinística
A figura 5.10 mostra o resultado obtido para a convergência exponencial do erro
da média e variância com valores crescentes do grau P, verificado com o resultado
apresentado por Xiu e Karniadakis (2002a) através da ótima concordância gráfica.
70
Figura 5.10 – Convergência do erro da média e variância (gPC-Laguerre)
71
5.2 – Problema Modelo de Condução de Calor em Uma Variável
Aqui é analisado um exemplo que permite aplicar o método proposto GITTgPC.
O problema tratado é o de condução de calor unidimensional em apenas uma variável
randômica y, com solução exata disponível, apresentado por Xiu e Karniadakis (2003a).
São comparados os resultados obtidos pelas abordagens convencionais de Galerkin e
Projeção Discreta e pela abordagem proposta de GITTgPC, usando como referência a
solução exata e simulações de Monte Carlo.
O problema é dado por:
w; y w, ; y = ∂
∂w Ìw; y ∂∂w w, ; yÍ + w, ; y, w ∈ [0,1] 5.13a
0, ; y = 1, ; y = cos[Ây] 5.13b w, 0; y = cos2w 5.13c
onde y é uma variável randômica com média zero e definida no intervalo [-1,1], no caso
de distribuição uniforme, ou com desvio padrão unitário, no caso de distribuição
Gaussiana padrão. A variável auxiliar Ây = ~y é definida de modo a permitir
controlar a amplitude total ou desvio padrão através do parâmetro ~.
A condutividade térmica, capacidade térmica e termo fonte, randômicos, tem a
forma:
w; y = 1 + Ây[1 + Ây]w, w; y = 2[1 + Ây] w, ; y = 4&w; y cos[Ây + 2w] 5.14a,b,c
A solução exata deste problema é dada por:
w, ; y = cos[Ây + 2w] 5.15
São demonstrados dois casos de distribuição diferentes para a variável
randômica y: distribuição uniforme, com ~ = 0.2 e ~ = 0.4 e distribuição Gaussiana
com desvio padrão ~ = 0.2, suficientemente pequeno de modo a permitir existência de
solução com valores não negativos das propriedades físicas. Intuitivamente é possível
72
assumir esta situação, embora, rigorosamente a variável possa assumir valores muito
negativos com probabilidade não nula, ainda que muito pequena. Os polinômios
ortogonais correspondentes para a expansão gPC são, respectivamente, o polinômio de
Legendre e o polinômio de Hermite, conforme tabela 3.1.
Para distribuição uniforme U(-1,1) da variável, com FDP = 1/2, a média da
solução exata é dada por:
+w, = cos$2w' sin$~'~ 5.16
e para distribuição Gaussiana normal padrão ê(0,1), com FDP = FGJJ √2 :
+w, = F−122~2 cos$2w' 5.17
No contexto da abordagem baseada em transformação integral GITTgPC, é
interessante utilizar um filtro para homogeneizar as condições de contorno, de modo a
permitir a convergência da solução próxima dos contornos, uma vez que as condições
do contorno do problema auxiliar são também homogêneas. Assim, pode-se utilizar um
filtro linear que reproduz o valor da temperatura nos contornos. Neste caso, como as
condições de contorno são iguais, o filtro é uma reta paralela ao eixo w:
Primeiramente foi aplicado o método de Galerkin ao sistema de equações
estocásticas (5.13), empregando uma expansão gPC de ordem = 1 com polinômios de
Legendre, que resulta em uma expansão com apenas 2 termos, de acordo com (3.50),
para número de variáveis 6 = 1.
Após empregar a expansão gPC e aplicar a projeção de Galerkin ao sistema de
equações, o sistema acoplado resultante para os coeficientes determinísticos foi
resolvido numericamente utilizando a função NDSolve do Mathematica.
Apesar da aproximação de baixa ordem no espaço randômico, a figura 5.11
mostra boa convergência para a média da solução em = 1, comparada à média da
solução exata e à solução determinística do problema. Para este caso de desvio pequeno
a solução determinística apresenta-se muito próximo à média.
Figura 5.11 – Média da solução com expansão gPC-Legendre Galerkin de primeira
ordem comparada à média exata e à solução determinística (~ = 0.2)
O resultado obtido para o desvio padrão em = 1 é mostrado na figura 5.12(a).
Observa-se boa concordância com o valor exato mesmo para a baixa ordem da
expansão, com pequenas diferenças visíveis.
74
(a)
(b)
Figura 5.12 – Desvio padrão da solução com expansão gPC-Legendre Galerkin
comparado ao valor exato para = 1 (a) e = 2 (b) (~ = 0.2).
Para uma convergência ainda melhor, pode-se empregar uma expansão de ordem = 2, que resulta em 3 termos. O novo resultado obtido é mostrado na figura 5.12(b).
Observa-se agora que a curva obtida e a exata estão completamente coincidentes
graficamente em todos os pontos.
O erro quadrático médio da solução numérica com a expansão gPC em relação à
solução exata é computado como:
Âx, = ‖¾ − ‖ÄÅJ ² = ¯[¾x, , y − x, , y&]4/& 5.20
75
A figura 5.13 demonstra a convergência da norma do erro em = 1 para valores
crescentes da ordem P da expansão, em escala logarítmica. À medida que a ordem
aumenta, o erro decresce exponencialmente, como esperado, e de acordo com os
resultados demonstrados na seção 5.1.
Figura 5.13 – Erro quadrático médio da solução para ordens crescentes da expansão
gPC-Legendre Galerkin (~ = 0.2)
5.2.1.2 – Método de Projeção Discreta
Como no caso anterior, primeiramente foi aplicado o método de Projeção
Discreta ao sistema de equações estocásticas (5.13), empregando uma expansão gPC de
ordem = 1 com polinômios de Legendre.
Este método possui a vantagem de que a escolha da ordem P não afeta de forma
significativa seu custo computacional, uma vez que a computação dos coeficientes
adicionais para ordens superiores é uma etapa de pós-processamento e não incorre em
mais avaliações do sistema original.
Foi verificado que resultados com precisão satisfatória são obtidos para 4 pontos
de colocação, o que neste caso com 6 = 1, significa apenas 4 soluções repetitivas do
sistema determinístico correspondente a (5.13) em cada ponto de colocação. O efeito da
utilização de menos pontos de colocação será apresentado mais adiante.
76
A figura 5.14 mostra o resultado obtido para a média da solução em = 1, que
já apresenta boa convergência com expansão de primeira ordem. Como esperado, o
resultado é semelhante ao obtido na figura 5.11 com o método de Galerkin.
Figura 5.14 – Média com expansão gPC-Legendre Discreta (4 pontos de colocação) de
primeira ordem comparada à média exata e à solução determinística (~ = 0.2)
Uma análise do desvio padrão, figura 5.15(a), revela um pequeno distanciamento
em alguns pontos em relação aos valores exatos. Novamente, uma concordância mais
precisa é obtida empregando-se uma expansão de segunda ordem, com 3 termos,
conforme mostrado na figura 5.15(b).
Estes resultados estão em concordância com o que foi observado para o método
de Galerkin, o que é esperado, uma vez que os dois métodos diferem apenas na
abordagem utilizada para computar os coeficientes determinísticos da expansão
proposta.
A figura 5.16 demonstra a convergência em escala logarítmica da norma do erro
em = 1, conforme definido em (5.20), para valores crescentes da ordem P da
expansão. É demonstrado também o efeito introduzido por utilizar um número
insuficiente de pontos de colocação, devido ao “aliasing error” na aproximação dos
coeficientes por integração discreta. À medida que a ordem aumenta, o erro converge
exponencialmente apenas se utilizado um número suficiente de pontos, caso contrário o
“aliasing error” torna-se dominante, podendo levar a resultados muito ruins com o
aumento da ordem da expansão.
77
(a)
(b)
Figura 5.15 – Desvio padrão da solução com expansão gPC-Legendre Discreta
comparado ao valor exato para = 1 (a) e = 2 (b) (4 pontos de colocação) (~ = 0.2)
Figura 5.16 – Erro quadrático médio da solução para ordens crescentes da expansão
gPC-Legendre Discreta e diferentes números de pontos de colocação (~ = 0.2).
78
5.2.1.3 – Método GITTgPC
Aqui são apresentados os resultados obtidos com o novo método proposto.
Primeiramente foi feita uma análise de convergência para o número 6õ de termos
necessários na expansão GITT conforme equação (4.14), isto é, o número de
autofunções e campos transformados, para que a solução seja representada com precisão
satisfatória. Isso pode ser verificado através da análise convencional do problema
determinístico via transformação integral, verificando a convergência da solução para o
número crescente de termos.
(a)
(b)
Figura 5.17 – Demonstração do efeito de poucos termos na expansão GITT (a). Detalhe mostrando a convergência com número crescente de termos (b).
Foi verificado que para a presente análise, um número de termos 6õ = 30 já se
mostra suficiente, de modo que o erro associado a esta representação seja subdominante
79
em relação aos erros associados aos parâmetros da análise estocástica. A figura 5.17(a)
ilustra o efeito da utilização de uma expansão GITT “pobre”, para o caso extremo de
apenas 3 termos para facilitar a visualização. A figura 5.17(b) mostra em maior detalhe
a convergência para números crescentes de termos.
A figura 5.18 mostra o resultado para a média da solução GITTgPC obtida,
utilizando uma expansão de primeira ordem para o campo transformado e apenas 4
pontos de colocação. Assim como nos dois métodos anteriores, o resultado para a média
já se apresenta bem convergido para a expansão gPC do campo transformado de grau 1.
Para este método, entretanto, o resultado obtido para o desvio padrão já exibe
concordância em todos os pontos sem ser necessário usar uma expansão de segunda
ordem. Este resultado é mostrado na figura 5.19.
Figura 5.18 – Média com expansão GITTgPC-Legendre Discreta (4 pontos de
colocação) de ordem 1 comparada à média exata e à solução determinística (~ = 0.2)
(b)
Figura 5.19 –Desvio padrão com GITTgPC-Legendre Discreta (4 pontos de colocação) de ordem 1 comparado aos valores exatos (σ = 0.2)
80
A figura 5.20 mostra a convergência do erro em = 1, para valores crescentes
da ordem P da expansão gPC do campo transformado, demonstrando também o efeito
devido ao “aliasing error”, conforme discutido anteriormente para o método de Projeção
Discreta.
Figura 5.20 – Erro quadrático médio para ordens crescentes da expansão gPC Discreta
do campo transformado e diferentes números de pontos de colocação (~ = 0.2).
5.2.1.4 – Comparação entre os métodos e simulação de Monte Carlo
A figura 5.21 exibe a comparação do erro obtido para cada método. Percebe-se
valores e comportamento semelhantes, com aparente maior taxa de convergência para o
método GITTgPC, apesar do erro inicial estar maior.
Figura 5.21 – Erro quadrático médio para os diferentes métodos (Uniforme, ~ = 0.2)
81
Apenas para efeito de comparação, foram executadas também simulações de
Monte Carlo. O resultado para a variância (quadrado do desvio padrão), cuja
convergência é mais lenta do que a média, é exibido na figura 5.22(a) e em maior
detalhe na figura 5.22(b). Observa-se a convergência da solução por Monte Carlo para
as soluções encontradas com os outros métodos à medida que o número de avaliações
aumenta. Uma boa concordância é atingida após 50000 avaliações.
(a)
(b)
Figura 5.22 – Comparação dos métodos com simulação de Monte Carlo. (a) Variância em todo o domínio (b) Detalhe mostrando a convergência (Uniforme, ~ = 0.2)
82
Ainda assim, o erro absoluto da diferença entre a variância obtida por Monte
Carlo e a variância exata é da ordem de 10-5, enquanto o erro absoluto dos outros
métodos é da ordem de 10-7. Uma comparação direta com o método de Projeção
Discreta que utilizou apenas 4 pontos de colocação mostra uma aceleração em torno de
12500 vezes (50000/4). Razões na mesma ordem de grandeza são esperadas para o
método de Galerkin com apenas 3 termos e o método GITTgPC com também 4 pontos
de colocação.
A figura 5.23 exibe a distribuição da solução convergida para = 1, onde as
barras de erro são centradas na média, com comprimento de um desvio padrão para
cima e um para baixo.
Figura 5.23 – Distribuição em torno da média da solução com dispersão de um desvio padrão para cada lado (Uniforme, ~ = 0.2)
83
5.2.2 – Distribuição Uniforme com σ = 0.4
Resultados semelhantes foram obtidos para o caso de ~ = 0.4, que consiste em
um valor de incerteza relativamente alto, fora da abrangência típica dos métodos de
perturbação para problemas estocásticos.
5.2.2.1 – Método de Galerkin
O resultado obtido para a média mostra-se visualmente bem convergido para
uma expansão de primeira ordem, conforme figura 5.24. Neste exemplo, devido ao
maior valor da incerteza, a curva da solução determinística destoa de forma mais
perceptível em relação à média.
Assim como no caso anterior, o uso de uma expansão de ordem 1, embora
adequado para a média, mostra-se insuficiente para uma concordância mais precisa dos
momentos superiores. Na figura 5.25(a) pode-se observar diferença perceptível para o
desvio padrão em relação ao valor exato. Novamente o uso de uma expansão de ordem
2 resolve o problema, e a nova curva convergida pode ser vista na figura 5.25(b).
Finalmente, na figura 5.26 percebe-se o decaimento exponencial do erro
quadrático médio com o aumento da ordem da expansão.
Figura 5.24 – Média da solução com expansão gPC-Legendre Galerkin de primeira
ordem comparada à média exata e à solução determinística (~ = 0.4)
84
(a)
(b)
Figura 5.25 – Desvio padrão da solução com expansão gPC-Legendre Galerkin comparado ao valor exato para = 1 (a) e = 2 (b) (~ = 0.4)
85
Figura 5.26 – Erro quadrático médio da solução para ordens crescentes da expansão
gPC-Legendre Galerkin (~ = 0.4)
5.2.2.2 – Método de Projeção Discreta
Para este caso foi novamente constatado o uso suficiente de 4 pontos de
colocação na obtenção de resultados com boa precisão. A figura 5.27 exibe o resultado
obtido para a média convergida com uma expansão de primeira ordem (2 termos).
Figura 5.27 – Média da solução com gPC-Legendre Discreta (4 pontos de colocação) de
primeira ordem comparada à média exata e à solução determinística (~ = 0.4)
86
A figura 5.28(a) exibe o desvio padrão da solução de primeira ordem da
expansão gPC, onde percebe-se diferença em relação ao valor exato. Já a figura 5.28(b)
exibe o desvio padrão da solução de grau 2 (3 termos) da expansão gPC, onde a curva
agora se mostra coincidente com a curva exata.
(a)
(b)
Figura 5.28 – Desvio padrão da solução com expansão gPC-Legendre Discreta comparado ao valor exato para = 1 (a) e = 2 (b) (4 pontos de colocação) (~ = 0.4)
87
A convergência exponencial do erro é ilustrada graficamente na figura 5.29,
onde é mostrado também o efeito negativo sobre o erro ao se utilizar menos pontos de
colocação (“aliasing error”).
Figura 5.29 – Erro quadrático médio da solução para ordens crescentes da expansão
gPC-Legendre Discreta e diferentes números de pontos de colocação (~ = 0.4)
5.2.2.3 – Método GITTgPC
Novamente foram usados 30 termos para a expansão GITT, como discutido no
caso anterior.
Figura 5.30 – Média com expansão GITTgPC-Legendre Discreta (4 pontos de
colocação) de ordem 1 comparada à média exata e à solução determinística (~ = 0.4)
88
Novamente, apenas 4 pontos de colocação se mostraram suficientes. A figura
5.30 mostra a boa convergência da média para expansão gPC de primeira ordem no
campo transformado.
A figura 5.31(a) mostra bom resultado para o desvio padrão, entretanto uma
melhor convergência em todo o domínio é possível com o uso de uma expansão de
ordem 2, conforme figura 5.31(b).
(a)
(b)
Figura 5.31 – Desvio padrão da solução com GITTgPC-Legendre Discreta comparado ao valor exato para = 1 (a) e = 2 (b) (4 pontos de colocação) (~ = 0.4)
89
O erro quadrático médio, juntamente com o efeito do “aliasing error” é mostrado
na figura 5.32.
Figura 5.32 – Erro quadrático médio para ordens crescentes da expansão gPC Discreta
do campo transformado e diferentes números de pontos de colocação (~ = 0.4)
5.2.2.4 – Comparação entre os métodos e simulação de Monte Carlo
A figura 5.33 exibe a comparação do erro obtido para cada método. Percebe-se
valores e comportamento semelhantes.
Figura 5.33 – Erro quadrático médio para os diferentes métodos (Uniforme, ~ = 0.4)
90
A figura 5.34 compara os métodos usados com simulações de Monte Carlo para
a variância. Novamente obtém-se boa concordância para 50000 avaliações. Neste caso o
erro absoluto por Monte Carlo é da ordem de 10-5, enquanto o erro absoluto dos outros
métodos é da ordem de 10-6. São válidas as demais considerações feitas anteriormente.
(a)
(b)
Figura 5.34 – Comparação dos métodos com simulação de Monte Carlo. (a) Variância em todo o domínio (b) Detalhe mostrando a convergência (Uniforme, ~ = 0.4)
91
A figura 5.35 exibe a distribuição da solução convergida para = 1, onde as
barras de erro são centradas na média, com comprimento de um desvio padrão para
cima e um para baixo.
Figura 5.35 – Distribuição em torno da média da solução com dispersão de um desvio
padrão para cada lado (Uniforme, ~ = 0.4)
92
5.2.3 – Distribuição Gaussiana com σ = 0.2
5.2.3.1 – Método de Galerkin
O resultado obtido para a média mostra-se visualmente bem convergido para
uma expansão gPC-Hermite de primeira ordem, com apenas 2 termos, conforme figura
5.36. Percebe-se também pequena diferença da solução média para a determinística para
o desvio pequeno considerado. Para permitir aplicação da distribuição Gaussiana, o
valor do parâmetro ~, que neste caso é o desvio padrão da variável randômica, deve ser
limitado a valores pequenos o suficiente de modo que a probabilidade das propriedades
randômicas assumirem valores negativos e sem significado físico seja desprezível.
Na figura 5.37(a) observa-se discrepância significativa entre a curva obtida do
desvio padrão e a curva exata. O uso de uma expansão de segunda ordem e apenas 3
termos novamente corrige essa distorção, obtendo um resultado com ótima
concordância gráfica, conforme mostrado na figura 5.37(b).
Finalmente, na figura 5.38 percebe-se o decaimento exponencial do erro
quadrático médio com o aumento da ordem da expansão.
Figura 5.36 – Média da solução com expansão gPC-Hermite Galerkin de primeira
ordem comparada à média exata e à solução determinística
93
(a)
(b)
Figura 5.37 – Desvio padrão da solução com expansão gPC-Hermite Galerkin comparado ao valor exato para = 1 (a) e = 2 (b) (~ = 0.2)
Figura 5.38 – Erro quadrático médio da solução para ordens crescentes da expansão
gPC-Hermite
94
5.2.3.2 – Método de Projeção Discreta
Para este caso foram usados 11 pontos de colocação para obtenção de resultados
com boa precisão. A figura 5.39 exibe o resultado obtido para a média convergida com
uma expansão gPC-Hermite Discreta de primeira ordem.
Figura 5.39 – Média da solução com gPC-Hermite Discreta (11 pontos de colocação) de
primeira ordem comparada à média exata e à solução determinística
A figura 5.40(a) exibe o desvio padrão da solução de primeira ordem da
expansão gPC, onde percebe-se diferença perceptível em relação ao valor exato. Já a
figura 5.40(b) exibe o desvio padrão da solução de segunda ordem, onde as curvas agora
se mostram coincidentes graficamente.
A convergência exponencial do erro é ilustrada graficamente na figura 5.41,
onde é mostrado também o efeito negativo sobre o erro ao se utilizar menos pontos de
colocação (“aliasing error”).
95
(a)
(b)
Figura 5.40 – Desvio padrão da solução com expansão gPC-Hermite Discreta comparado ao valor exato para = 1 (a) e = 2 (b) (11 nós de colocação) (~ = 0.2)
Figura 5.41 – Erro quadrático médio da solução para ordens crescentes da expansão
gPC-Hermite Discreta e diferentes números de pontos de colocação
96
5.2.3.3 – Método GITTgPC
Os resultados foram obtidos novamente com 30 termos na expansão GITT,
número suficiente para garantir a precisão necessária. Aqui também foram usados 11
pontos de colocação.
Como nos casos anteriores, foi obtida boa convergência da média para grau 1 da
expansão gPC do campo transformado, conforme figura 5.42. O resultado nesse caso
para o desvio padrão é mostrado na figura 5.43(a). A figura 5.43(b) mostra uma melhor
convergência com o uso de uma expansão gPC de segundo grau.
O erro quadrático médio, juntamente com o efeito do “aliasing error” é mostrado
na figura 5.44.
Figura 5.42 – Média com expansão GITTgPC-Hermite Discreta (11 pontos de
colocação) de ordem 1 comparada à média exata e à solução determinística
97
(a)
(b)
Figura 5.43 – Desvio padrão da solução com GITTgPC-Hermite Discreta comparado ao valor exato para = 1 (a) e = 2 (b) (11 pontos de colocação) (~ = 0.2)
Figura 5.44 – Erro quadrático médio para ordens crescentes da expansão gPC Discreta
do campo transformado e diferentes números de pontos de colocação
98
5.2.3.4 – Comparação entre os métodos e simulação de Monte Carlo
A figura 5.45 exibe a comparação do erro obtido para cada método. Observa-se
que os valores são próximos, apresentando boa concordância.
Figura 5.45 – Erro quadrático médio para os diferentes métodos (Gaussiana, ~ = 0.2)
A figura 5.46 compara os métodos usados com simulações de Monte Carlo.
Obtém-se boa concordância para 90000 avaliações. Comparando diretamente com o
método de Projeção Discreta que utilizou 11 pontos de colocação, tem-se uma razão da
ordem de (90000/11) ~ 8200 vezes mais avaliações necessárias para obtenção de
resultado semelhante. Razões com ordem de grandeza semelhante são esperadas com os
outros métodos.
Além do custo computacional bem maior, o resultado convergido com 90000
avaliações para a variância apresenta erro absoluto da ordem de 10-4, enquanto que com
os outros métodos este erro é da ordem de 10-5.
A figura 5.47 exibe a distribuição da solução convergida para = 1, onde as
barras de erro são centradas na média, com comprimento de um desvio padrão para
cima e um para baixo.
99
(a)
(b)
Figura 5.46 – Comparação dos métodos com simulação de Monte Carlo. (a) Variância em todo o domínio (b) Detalhe mostrando a convergência (Gaussiana, ~ = 0.2)
Figura 5.47 – Distribuição em torno da média da solução com dispersão de um desvio
padrão para cada lado (Gaussiana, ~ = 0.2)
100
5.3 – Problema Geral Multivariável
Para ilustrar a aplicação dos métodos apresentados a um problema mais geral,
propõe-se aqui a análise de um problema de condução de calor semelhante ao problema
estudado por Naveira-Cotta (2009). Essa é uma aplicação de interesse sob a luz dos
recentes desenvolvimentos na fabricação de novos materiais, que têm suas propriedades
moldadas de uma forma pré-projetada, como os FGM (functionally graded materials) e
os nanocompósitos, quando as propriedades do material são estabelecidas a priori de
modo a atender uma determinada aplicação térmica.
Neste problema, o meio heterogêneo consiste de uma placa de nanocompósito de
nanopartículas de óxido metálico dispersas em matriz polimérica, onde o controle da
concentração das nanopartículas x(w) permite obter a distribuição espacial desejada das
propriedades termofísicas (w) e (w). Iremos assumir a presença de incerteza na
configuração espacial destas duas propriedades.
A placa é submetida a um fluxo de calor prescrito Ùî() em uma das faces, em
apenas uma porção, e perdas por convecção natural e radiação na face oposta, com os
demais contornos isolados, conforme apresentado esquematicamente na figura 5.48. A
placa é termicamente fina, o que permite modelar o problema como unidimensional na
dimensão x, usando parâmetros concentrados na direção transversal.
A formulação matemática do problema estocástico é então dada por:
(w;ω) (w, ; ω) = ∂
∂w Ì(w;ω) ∂∂wÍ −ℎ(w)( − b)
Þ+ Ùî(w, )
Þ,
0 < w < , > 0 (5.21a) (w, 0;ω) = b , 0 < w < (5.21b)
wù3N= 0, wù3Ä
= 0 (5.21c)
onde Þ = 1´´ é a espessura da placa, = 12u´ seu comprimento e a temperatura
ambiente é b = 23.4 °t.
101
Figura 5.48 – Esquema do modelo físico do problema estudado
O fluxo de calor é modelado como:
Ùî(w, ) = !Ùðñ () 0 < w < /30 /3 < w <
(5.22)
onde Ùðñ é o fluxo de calor proveniente de uma resistência elétrica. Para este problema
considerou-se Ùðñ = 1610,82 "/´& e () = 1 − 0,7FGN,NN#K. Para obtenção do
coeficiente ℎ(w), devido à convecção natural e radiação, foram usadas as mesmas
correlações e considerações feitas em Naveira-Cotta (2009), sendo aqui omitidas.
A relação entre a condutividade térmica e a concentração de nanopartículas,
pode ser estimada pelo modelo de Lewis e Nielsen (1970) como:
= b Ì1 + jix1 − ix$Í (5.23a)
i = (/b) − 1(/b) + j , $ = 1 + %1 − xñ
xñ&&x (5.23b)
onde x(w) é a concentração volumétrica de nanopartículas, é a condutividade efetiva
do nanocompósito, é a condutividade da nanopartícula e b a condutividade da
matriz polimérica. j e xñ são fatores geométricos sugeridos. Para partículas esféricas
com acomodação randômica, tem-se j = 1,5 e xñ = 0,637. A matriz polimérica
considerada tem capacidade e condutividade térmicas de b = 2,2264 × 10' ( ´ ⁄
102
e b = 0,545 "/´, respectivamente, enquanto as partículas de óxido de alumínio
tem propriedades dadas por = 3,0172 × 10' ( ´ ⁄ e = 36 "/´.
Iremos assumir que a condutividade térmica, definida a priori e obtida na
fabricação do material, possui a forma exponencial dada por:
+(w) = 9,0FG4#(ÄGù) (5.24)
Dessa forma, tem-se que x(0) = 35,28% e x() = 59,95%. Utilizando a
teoria de misturas para a capacidade térmica, (w) = x(w) + b(1 − x(w)), temos
que (0) = 2,5 × 10' ( ´ ⁄ e () = 2,7 × 10' ( ´ ⁄ , o que define a forma
exponencial da capacidade térmica como:
\(w) = 2,7 × 10'FGN.',(ÄGù) (5.25)
Podemos então aplicar uma expansão de Karhunen-Loeve para parametrizar os
processos randômicos (w;ω) e (w;ω), que possuem distribuição em torno de suas
médias, dadas pelas equações (5.24) e (5.25), respectivamente. Será utilizada a função
de covariância exponencial discutida na seção 3.2.1, empregando um comprimento de
correlação n = 6u´, relativamente alto, de modo a manter baixa a dimensionalidade do
problema. A figura 5.49(a) mostra as primeiras 4 autofunções obtidas, e o decaimento
dos autovalores é mostrado na figura 5.49(b).
(a) (b)
Figura 5.49 – Primeiras 4 autofunções(a) e decaimento dos autovalores (b)
Por simplicidade, iremos assumir ainda que os processos (w;ω) e (w;ω) são
plenamente interligados, isto é, possuem dependência nas mesmas variáveis
randômicas. Utilizaremos, portanto, apenas os primeiros 3 termos da expansão,
resultando em um espaço randômico com 3 variáveis. Esse truncamento implica em
103
uma retenção de 92% do desvio padrão total do processo, conforme (3.42), o que é
aceitável.
Definindo novamente um parâmetro ~, o desvio padrão de (w;ω), ou sua
amplitude de variação, no caso de distribuição uniforme das variáveis, será definido
como uma fração do valor em w = 0, dado por ~Ê = ~+(0). Uma análise de
sensibilidade da influência da variação da concentração x(w) sobre a variação relativa
de (w) e (w), possibilitou determinar um fator mais realista para o desvio padrão, ou
amplitude, de (w;ω), que será considerado como ~î = (0.073)~\(0). As figuras 5.50(a) e (b) mostram a média, juntamente com 2 realizações
aleatórias dos processos (w;ω) e (w;ω), respectivamente.
(a) (b)
Figura 5.50 – Média (linha cheia) e 2 realizações aleatórias de (a) (w;ω) e (b) (w;ω)
Com o problema adequadamente parametrizado, podemos proceder à sua análise
estocástica. Uma vez que não há uma solução analítica disponível, será empregada a
simulação de Monte Carlo para verificar de forma qualitativa e visual a solução pelos
métodos analíticos usados. As simulações de Monte Carlo são também realizadas sobre
o sistema já parametrizado, com a base dimensional reduzida após a expansão de
Karhunen-Loeve. Assim exclui-se o erro introduzido pela expansão de Karhunen-Loeve
truncada, que é bem compreendido.
Apesar de não consistir em uma análise quantitativa rigorosa, o que não faria
muito sentido dada a natureza não exata da simulação de Monte Carlo, a apresentação
gráfica é suficiente para demonstrar a concordância dos resultados. Esta abordagem de
apresentação qualitativa visual é muito comum em trabalhos nesta área (Xiu e
Karniadakis, 2002b, Xiu e Karniadakis, 2003a, Xiu e Karniadakis 2003b, Xiu, 2007) e
será também aqui empregada, sendo adequada para os objetivos propostos.
104
5.3.1 – Distribuição Uniforme com σ = 0.2
De modo semelhante ao problema anterior, serão apresentados os resultados
obtidos utilizando os três métodos. Neste caso será utilizado como referência o método
de simulação de Monte Carlo, para verificar graficamente a convergência dos métodos,
uma vez que não existe solução analítica exata disponível para este problema.
5.3.1.1 – Método de Galerkin
Primeiramente foi aplicado o método de Galerkin ao sistema de equações (5.21),
com (w;ω) e (w;ω) parametrizados pela expansão de Karhunen-Loeve com 3
variáveis randômicas. Foi empregada a base polinomial ortogonal de Legendre
relacionada à distribuição Uniforme das variáveis randômicas. A figura 5.51 mostra o
resultado da média da solução obtida, comparada à simulação de Monte Carlo com
100000 realizações. Observa-se que as curvas coincidem. Foi utilizada neste caso uma
expansão de ordem 1 para a expansão gPC, com 4 termos no total, que já se mostrou
suficiente. A solução determinística também é muito próxima da média neste problema.
Figura 5.51 – Média da solução com gPC Galerkin de ordem 1, comparada à simulação
de Monte Carlo (100000 avaliações) e à solução determinística
A figura 5.52 mostra o resultado para a convergência do desvio padrão em
relação à solução de Monte Carlo para 100000 realizações.
105
Figura 5.52 – Desvio padrão com gPC Galerkin de ordem 1, comparada à simulação de
Monte Carlo (100000 avaliações) e à solução determinística
Na figura 5.53 é mostrada a distribuição final encontrada, centrada em torno da
média e com um desvio padrão para cada lado.
Figura 5.53 – Distribuição em torno da média, com amplitude de um desvio padrão
5.3.1.2 – Método de Projeção Discreta
Resultado semelhante para a gPC Discreta de ordem 1 e apenas 2 pontos de
colocação (nós) em cada dimensão, 8 no total, podem ser vistos nas figuras 5.54 – 5.56.
106
Figura 5.54 – Média da solução com gPC Discreta de ordem 1, total 8 nós, comparada à
simulação de Monte Carlo (100000 avaliações) e à solução determinística
Figura 5.55 – Desvio padrão com gPC Discreta de ordem 1, total 8 nós, comparada à
simulação de Monte Carlo (100000 avaliações) e à solução determinística
Figura 5.56 – Distribuição em torno da média, com amplitude de um desvio padrão
107
5.3.1.3 – Método GITTgPC
Primeiramente buscou-se tornar subdominante o efeito de distorção introduzido
pelo uso de poucos termos na expansão GITT deste método. Para isso o número de
termos foi aumentando gradativamente, para o caso do problema determinístico, e
observada a convergência da solução. Foi determinado que o número de termos
6õ = 30 é suficiente, garantindo boa precisão para esta aplicação, sem aumentar
demasiadamente o custo computacional. A figura 5.57(a) ilustra o efeito de distorção
com o uso de poucos termos. A figura 5.57(b) mostra uma visão em maior detalhe
mostrando a convergência em relação à solução numérica com alta precisão gerada pela
função NDSolve do Mathematica.
(a) (b)
Figura 5.57 – Ilustração do efeito do número de termos na expansão GITT.(a) Distorção
com número insuficiente, (b) detalhe mostrando convergência com NDSolve
Figura 5.58 – Média da solução com GITTgPC de ordem 1, total 8 nós, comparada à
simulação de Monte Carlo (100000 avaliações) e à solução determinística
108
A figura 5.58 mostra a média convergida utilizando uma expansão gPC para o
campo transformado de primeira ordem (4 termos) e com apenas 8 pontos de colocação
no total, 2 nós em cada variável randômica.
A figura 5.59 mostra o resultado para o desvio padrão convergido com a
expansão de primeira ordem utilizada, que fornece um resultado com boa concordância
em relação à simulação de Monte Carlo com 100000 avaliações.
Na figura 5.60 pode ser vista a distribuição final, com resultado semelhante ao
obtido pelos outros métodos.
Figura 5.59 – Desvio padrão com GITTgPC de ordem 1, total 8 nós, comparada a
simulação de Monte Carlo (100000 avaliações) e solução determinística
Figura 5.60 – Distribuição em torno da média, com amplitude de um desvio padrão
109
5.3.2 – Distribuição Uniforme com σ = 0.4
Nesta seção são apresentados os resultados obtidos para σ = 0.4, que, do ponto
de vista de problemas estocásticos já é um valor alto, tipicamente acima dos casos
normalmente possíveis de ser tratados pelos métodos de perturbação, por exemplo.
5.3.2.1 – Método de Galerkin
A figura 5.61 apresenta o bom resultado para a média convergida já com uma
expansão gPC via Galerkin de ordem 1, com 4 termos. Observe que a média continua
sendo muito próxima da solução determinística.
Figura 5.61 – Média da solução com gPC Galerkin de ordem 1, comparada à simulação
de Monte Carlo (100000 avaliações) e à solução determinística
Figura 5.62 – Desvio padrão com gPC Galerkin de ordem 1, comparada à simulação de
Monte Carlo (100000 avaliações) e à solução determinística
110
A figura 5.62 mostra a boa concordância para o desvio padrão e na figura 5.63 é
mostrada a distribuição final com um desvio padrão para cada lado.
Figura 5.63 – Distribuição em torno da média, com amplitude de um desvio padrão
5.3.2.2 – Método de Projeção Discreta
Novamente obteve-se um bom resultado já para ordem de apenas 1 da expansão
gPC Discreta e com apenas 2 pontos de colocação em cada dimensão, totalizando 8
pontos apenas. A figura 5.64 exibe a concordância obtida para a média.
Figura 5.64 – Média da solução com gPC Discreta de ordem 1, total 8 nós, comparada à
simulação de Monte Carlo (100000 avaliações) e à solução determinística
111
O resultado para o desvio padrão é mostrado na figura 5.65 e a distribuição final
na figura 5.66.
Figura 5.65 – Desvio padrão com gPC Discreta de ordem 1, total 8 nós, comparada à
simulação de Monte Carlo (100000 avaliações) e à solução determinística
Figura 5.66 – Distribuição em torno da média, com amplitude de um desvio padrão
5.3.2.3 – Método GITTgPC
Resultados semelhantes, com boa concordância, foram obtidos para uma
expansão GITTgPC com 30 termos e de ordem 1, também utilizando apenas 8 pontos de
colocação no total, 2 em cada dimensão estocástica.
Os resultados são exibidos nas figuras 5.67 – 5.69.
112
Figura 5.67 – Média da solução com GITTgPC de ordem 1, total 8 nós, comparada à
simulação de Monte Carlo (100000 avaliações) e à solução determinística
Figura 5.68 – Desvio padrão com GITTgPC de ordem 1, total 8 nós, comparada à
simulação de Monte Carlo (100000 avaliações) e à solução determinística
Figura 5.69 – Distribuição em torno da média, com amplitude de um desvio padrão
113
5.3.3 – Distribuição Uniforme com σ = 0.8
Para demonstrar a versatilidade e abrangência de aplicação dos métodos aqui
apresentados, será tratado o caso σ = 0.8, que representa um valor bastante elevado de
incerteza, próximo do limite para condutividade não negativa (σ < 1), normalmente não
possível de ser tratado com outros métodos que não sejam baseados em Caos
Polinomial.
5.3.3.1 – Método de Galerkin
Dessa vez, devido ao valor mais elevado da incerteza, foi necessário empregar
uma expansão de ordem 2, que apresenta 10 termos, para obter resultados mais precisos
para o desvio padrão, em concordância com a simulação de Monte Carlo com 100000
avaliações. Esse aspecto, todavia, não foi observado para a média, que converge mais
facilmente e bons resultados já são obtidos mesmo com expansão de primeira ordem.
Isso contrasta também com os outros métodos, baseados em colocação, que obtiveram
resultados aceitáveis já com expansão de primeira ordem. Os resultados obtidos para a
solução de segunda ordem da expansão gPC via Galerkin são vistos nas figuras 5.70 –
5.72, para a média, desvio padrão e distribuição final com um desvio padrão.
Figura 5.70 – Média da solução com gPC Galerkin de ordem 2, comparada à simulação
de Monte Carlo (100000 avaliações) e à solução determinística
114
Figura 5.71 – Desvio padrão com gPC Galerkin de ordem 2, comparada à simulação de
Monte Carlo (100000 avaliações) e à solução determinística
Figura 5.72 – Distribuição em torno da média, com amplitude de um desvio padrão
5.3.3.2 – Método de Projeção Discreta
Em contraste com o caso anterior, para a Projeção discreta foi possível obter um
bom resultado concordante com a simulação de Monte Carlo para expansão gPC de
primeira ordem (4 termos). Além disso, devido ao maior nível de incerteza, constatou-se
ser necessário aumentar o número de nós de colocação para 3 pontos em cada variável,
totalizando 27 pontos para avaliação do sistema determinístico correspondente.
As figuras 5.73 – 5.75 trazem os resultados obtidos para a média, desvio padrão
e distribuição.
115
Figura 5.73 – Média da solução com gPC Discreta de ordem 1, total 27 nós, comparada
à simulação de Monte Carlo (100000 avaliações) e à solução determinística
Figura 5.74 – Desvio padrão com gPC Discreta de ordem 1, total 27 nós, comparada à
simulação de Monte Carlo (100000 avaliações) e à solução determinística
Figura 5.75 – Distribuição em torno da média, com amplitude de um desvio padrão
116
5.3.3.3 – Método GITTgPC
Os resultados para média, desvio padrão e distribuição, obtidos com GITTgPC
de 30 termos, com ordem 1 da expansão gPC e 27 pontos de colocação (3 em cada
variável randômica), são mostrados nas figuras 5.76 – 5.78.
Figura 5.76 – Média da solução com GITTgPC de ordem 1, total 27 nós, comparada à
simulação de Monte Carlo (100000 avaliações) e à solução determinística
Figura 5.77 – Desvio padrão com GITTgPC de ordem 1, total 27 nós, comparada à
simulação de Monte Carlo (100000 avaliações) e à solução determinística
117
Figura 5.78 – Distribuição em torno da média, com amplitude de um desvio padrão
118
5.3.4 – Distribuição Gaussiana com σ = 0.2
Será agora empregada uma distribuição Gaussiana para as variáveis randômicas
do problema, de modo a ilustrar a aplicação dos métodos também com outros tipos de
probabilidade, empregando-se a base polinomial correspondente. Neste caso são
empregados polinômios ortogonais de Hermite. O valor do parâmetro σ = 0.2 que
controla a magnitude da incerteza foi mantido baixo de modo a assegurar existência de
soluções, com valores não negativos da condutividade térmica.
5.3.4.1 – Método de Galerkin
A figura 5.79 mostra o resultado convergido para a média da solução com
expansão gPC de primeira ordem (4 termos), comparado à solução de Monte Carlo com
100000 realizações e à solução determinística.
O resultado para a distribuição do desvio padrão encontrado é visto na figura
5.80, onde percebe-se a boa concordância com a simulação de Monte Carlo.
A distribuição em torno da média, com um desvio padrão para cada lado, é
mostrada na figura 5.81.
Figura 5.79 – Média da solução com gPC Galerkin de ordem 1, comparada à simulação
de Monte Carlo (100000 avaliações) e à solução determinística
119
Figura 5.80 – Desvio padrão com gPC Galerkin de ordem 1, comparada à simulação de
Monte Carlo (100000 avaliações) e à solução determinística
Figura 5.81 – Distribuição em torno da média, com amplitude de um desvio padrão
5.3.4.2 – Método de Projeção Discreta
No caso da Projeção Discreta, para esta distribuição, apesar do valor baixo da
incerteza envolvida, foi necessário utilizar mais pontos de colocação do que nos casos
anteriores para distribuição uniforme. Foi verificado que bons resultados podem ser
obtidos com pelo menos 7 pontos de colocação em cada variável estocástica, o que no
total para as 3 variáveis, resulta em 343 pontos, ou seja, 343 avaliações do sistema
original.
120
Para ilustrar como o efeito de se usar um número insuficiente de pontos pode ser
significativo, a figura 5.82 mostra o resultado obtido para a média e desvio padrão, com
3 pontos apenas, semelhante ao que foi usado para distribuição uniforme com σ = 0.8.
(a) (b)
Figura 5.82 – Efeito do uso de poucos nós para distribuição Gaussiana, σ = 0.2. Número
de pontos em cada variável:3; requerido:7. (a) Média, (b) desvio padrão
A figura 5.83 exibe o resultado com boa concordância da média da solução, com
expansão gPC Discreta de ordem 1 e 7 pontos de colocação em cada variável.
Figura 5.83 – Média da solução com gPC Discreta de ordem 1, total 343 nós,
comparada à simulação de Monte Carlo (100000 avaliações) e à solução determinística
O desvio padrão mostrado na figura 5.84 apresenta também boa concordância
com a simulação de Monte Carlo com 100000 avaliações. A figura 5.85 exibe a
distribuição com um desvio padrão em torno da média.
121
Figura 5.84 – Desvio padrão com gPC Discreta de ordem 1, total 343 nós, comparada à
simulação de Monte Carlo (100000 avaliações) e à solução determinística
Figura 5.85 – Distribuição em torno da média, com amplitude de um desvio padrão
5.3.4.3 – Método GITTgPC
Assim como no caso anterior, a solução com GITTgPC de 30 termos também
exigiu pelo menos 7 nós de colocação em cada dimensão, 343 avaliações do campo
transformado no total.
Os resultados obtidos são exibidos nas figuras 5.86 – 5.88.
122
Figura 5.86 – Média da solução com GITTgPC de ordem 1, total 343 nós, comparada à
simulação de Monte Carlo (100000 avaliações) e à solução determinística
Figura 5.87 – Desvio padrão com GITTgPC de ordem 1, total 343 nós, comparada à
simulação de Monte Carlo (100000 avaliações) e à solução determinística
Figura 5.88 – Distribuição em torno da média, com amplitude de um desvio padrão
123
5.3.5 – Considerações Gerais
Como pode ser observado, foram obtidos resultados semelhantes com todos os
métodos usados, o que além de verificar os métodos convencionais de Galerkin e
Projeção Discreta, demonstrou também o bom funcionamento e coerência matemática
da abordagem proposta GITTgPC, tanto para o caso mais simples em uma variável
randômica da seção 5.2 quanto para o caso multivariável mais geral aqui apresentado.
De modo geral percebe-se a clara vantagem dos métodos analíticos sobre o
método estatístico de Monte Carlo, para o baixo número de variáveis analisado.
Fazendo uma comparação direta com o método de Projeção Discreta, que também
envolve apenas avaliações repetitivas do sistema original, o ganho apresentado neste
exemplo para o pior caso foi da ordem de 300 vezes (100000/343), enquanto que em
outros casos chegou a 12500 vezes (100000/8). Ganhos com ordem de grandeza
semelhante são obtidos pelo método GITTgPC, desde que não exija um refinamento
muito grande do problema de autovalor, caso em que seu custo pode aumentar
significativamente. Grosso modo, o custo de pré-processamento para obtenção do
campo transformado é proporcional à quarta potência do número de termos usados na
expansão GITT. Entre os três métodos, o de menor custo esperado é o de Galerkin, uma
vez que o custo para o sistema acoplado é aproximadamente o produto do custo do
sistema original vezes o número de termos da expansão gPC, que neste caso foi apenas
4 para a maioria dos casos (P = 1 e N = 3). Isso é ainda mais significativo para o caso
não abordado aqui de alta dimensionalidade, onde para uma mesma precisão, em termos
da ordem da expansão, todos os métodos de colocação envolvem a solução de muito
mais equações que o método de Galerkin. Neste sentido, o método de Monte Carlo é o
único cuja taxa de convergência é independente da dimensionalidade do problema.
Outro fator importante nos métodos de colocação é o efeito do “aliasing error”,
que pode ser bastante significativo, como foi demonstrado. Tal efeito é mais
problemático quanto maior o número de dimensões estocásticas do problema, podendo
tornar-se uma grande fonte de erro. Nos exemplos de baixa dimensionalidade
considerados, foi possível utilizar produto tensorial de quadraturas de alta precisão,
mantendo razoavelmente baixo o número de nós de avaliação. Para altas dimensões,
entretanto, tal opção torna-se inviável devido ao crescimento exponencial do número de
nós. Para estes casos existem outras opções discutidas anteriormente, como a malha
esparsa e regras de cubatura.
124
CAPÍTULO 6 CONCLUSÕES E SUGESTÕES
No presente trabalho foi feita uma revisão do método de Transformação Integral
para problemas de condução de calor e estabelecidas as bases fundamentais da análise
de problemas estocásticos, através de uma revisão geral dos métodos analíticos mais
difundidos e proeminentes, baseados em Caos Polinomial.
No contexto da análise estocástica, foram primeiramente apresentados os
fundamentos para representação espectral de processos randômicos através da expansão
de Karhunen-Loeve e da expansão de Caos Polinomial Generalizado. A expansão de
Karhunen-Loeve foi apresentada como um meio eficiente de parametrizar as entradas
randômicas em um conjunto reduzido de variáveis, conhecendo-se a função de
covariância do processo. Foram apresentadas e aplicadas neste trabalho as duas
principais abordagens distintas para tratamento de equações estocásticas utilizando a
expansão de Caos Polinomial: o método de Galerkin estocástico e Projeção Discreta
através de colocação estocástica. De modo geral, o método de Galerkin é de
implementação mais envolvida e complicada, gerando um sistema acoplado, porém
normalmente mais eficiente para uma mesma precisão do que o método de colocação
que, todavia, é de implementação mais simples e direta, envolvendo apenas soluções
repetitivas do problema determinístico original.
Após a apresentação dos métodos separadamente, como contribuição diferencial
deste trabalho, prosseguiu-se então à apresentação de um novo procedimento para
solução de problemas estocásticos de condução de calor em meios heterogêneos,
combinando um pré-tratamento das equações, via Transformação Integral, à solução
posterior, via Caos Polinomial, do problema estocástico resultante no campo
transformado, após integração nas variáveis espaciais. Assim o problema estocástico
original, nas equações parciais, é transferido para um problema de ordem inferior, de
equações ordinárias. Este método revelou uma característica interessante de ser passível
de solução totalmente analítica, tanto para o problema de autovalor, quanto para a
solução do campo transformado, ambos transformados em problemas matriciais
algébricos. Apesar da sua elegância matemática em relação a essa última característica
citada, não foi possível depreender, em termos práticos para os problemas analisados,
um ganho expressivo em custo computacional comparado aos outros métodos diretos
considerados. Entretanto, esse desenvolvimento foi válido como um trabalho
125
investigativo das possibilidades para incorporar a análise de incertezas na solução de
problemas de condução de calor com o uso de Transformação Integral, possibilitando
compreender melhor os conceitos envolvidos na análise estocástica. Além disso,
contribuiu para gerar novas ideias e possibilidades de refinamento dos
desenvolvimentos.
Todos os métodos apresentados foram verificados e demonstrados, quanto à sua
convergência, utilizando referências da literatura e problemas propostos. Para todos os
métodos foi demonstrada a convergência exponencial do erro com a escolha adequada
da base polinomial ortogonal, baseada na distribuição de probabilidade das variáveis
randômicas do problema. A rápida convergência dos métodos foi observada mesmo
para valores elevados das incertezas, em contraste com a limitação dos tradicionais
métodos de perturbação. Os resultados obtidos foram comparados com soluções exatas,
quando disponíveis, e também com simulações de Monte Carlo. Em relação ao método
de simulação de Monte Carlo, ficou claro o ganho expressivo em aceleração dos três
métodos analíticos propostos.
Os métodos foram aplicados inicialmente para o caso de apenas uma variável
randômica e depois generalizados para o caso multivariável. O número de variáveis foi
mantido baixo, evitando as complicações inerentes a problemas de alta
dimensionalidade, que constituem o maior desafio no campo de análise estocástica.
O presente trabalho abre o caminho para incorporar a análise de incertezas ao
método GITT, aumentando ainda mais sua versatilidade e aplicabilidade. Como
sugestão futura, pode ser investigada a solução do próprio problema de autovalor
estocástico, que permitiria reduzir o problema estocástico a um problema matricial
algébrico estocástico, estendendo o procedimento apresentado neste trabalho para a
solução do problema de autovalor via GITT. Este problema poderia ser resolvido de
forma eficiente com um esquema de colocação, bastando soluções repetitivas do
problema matricial algébrico. Isso permitiria obter, após a transformação integral das
equações originais, um sistema desacoplado para o campo transformado determinístico,
como ocorre na Transformaçao Integral Clássica. Os resultados obtidos dessa linha de
pesquisa podem ser futuramente incorporados ao código UNIT, possibilitando
simulações sob incerteza de forma automática e ao alcance de usuários menos
experientes. Ao incorporar a incerteza desde o início dos cálculos, estamos um passo
mais perto do objetivo final da computação científica: prever a verdadeira física.
126
REFERÊNCIAS BIBLIOGRÁFICAS
Askey, R. e J. Wilson (1985), Some Basic Hypergeometric Polynomials that Generalize Jacobi Polynomials, Memoirs of American Mathematical Society, AMS, Providence RI, 319. Babuska, I., Nobile, F., e Tempone, R (2007), “A Stochastic Collocation Method for Elliptic Partial Differential Equations with Random Input Data”, SIAMJ, Numer. Anal., v.45, n. 3, pp. 1005–1034. Cools, R. (2003), “An Encyclopaedia of Cubature Formulas”. J. Complexity, v.19, pp. 445–453. Cotta, R.M. (1990), “Hybrid Numerical-Analytical Approach to Nonlinear Diffusion Problems”, Num. Heat Transfer, Part B, v. 127, pp.217-226. Cotta, R.M. (1993), Integral Transforms in Computational Heat and Fluid Flow, CRC Press, Boca Raton, FL. Cotta, R.M. (1994), “Benchmark Results in Computational Heat and Fluid Flow: - The Integral Transform Method”, Int. J. Heat & Mass Transfer (Invited Paper), v. 37, Suppl. 1, pp. 381-394. Cotta, R.M. e Mikhailov, M.D. (1997), Heat Conduction: Lumped Analysis, Integral Transforms, Symbolic Computation, Wiley-Interscience, Chichester, UK. Cotta, R.M., Ed. (1998), The Integral Transform Method in Thermal and Fluids Sciences and Engineering, Begell House, New York. Cotta, R.M. e Mikhailov, M.D. (2006), “Hybrid Methods and Symbolic Computations”, In: Minkowycz, W.J., Sparrow, E.M., Murthy, J.Y. (eds), Handbook of Numerical Heat Transfer, 2nd ed., Chapter 16, John Wiley, New York. Cotta, R.M., Naveira-Cotta, C.P., Sphaier, L.A. e Quaresma, J.N.N. (2009) “Unified Integral Transforms in Convection Diffusion: The Unit Code With Symbolic Computation”, First International Conference on Computational Methods for Thermal Problems - ThermaComp2009, September, 2009, Napoli, Italy. Ghanem, R.G., Spanos, P. (1991), Stochastic Finite Elements: A Spectral Approach, Springer-Verlag, New York. Grigoriu M. (1993), “On the Spectral Representation Method in Simulation”, Probabilistic Engineering Mechanics; v.8, n.2, pp. 75–90. Huang, S.P., Quek, S.T. e Phoon, K.K. (2001), “Convergence Study of the Truncated Karhunen-Loeve Expansion for Simulation of Stochastic Processes”, Int. J. Numer. Meth. Eng., v.52, pp. 1029–1043.
127
Lewis, T. e Nielsen ,L. (1970), “Dynamic Mechanical Properties of Particulate-Filled Polymers”, J. Applied Polymer Science, v.14, n.6, pp. 1449-1471. Loève, M. (1977), Probability Theory, 4th ed. Springer-Verlag, New York. Magalhães, A.C. (2011), “Simulações sob Incertezas em Problemas de Transferência de Calor”, Qualificação de Doutorado, UFRJ, Rio de Janeiro. Mathelin, L. e Hussaini, M. (2003), A Stochastic Collocation Algorithm for Uncertainty Analysis, Tech. Report NASA/CR-2003-212153, NASA Langley Research Center. Mikhailov, M. D. e Özisik, M. N. (1984), Unified Analysis and Solutions of Heat and Mass Diffusion. New York, John Wiley & Sons. Mikhailov, M.D. e Cotta, R.M. (1994), “Integral Transform Method for Eigenvalue Problems”, Comm. Num. Meth. Eng., v.10, pp. 827-835. Naveira-Cotta, C. P. (2009), Problemas Inversos de Condução de Calor em Meios Heterogêneos: Analise Teórico-Experimental via Transformação Integral, Inferência Bayesiana e Termografia por Infravermelho, Tese de D.Sc., UFRJ, Rio de Janeiro. Naveira-Cotta, C. P., Cotta, R. M., Orlande, H. R. B. and Fudym, O. (2009), “Eigenfunction Expansions for Transient Diffusion in Heterogeneous Media”, Int. J. Heat & Mass Transfer, v. 52, pp. 5029-5039. Özisik, M. N. (1980), Heat Conduction. New York, John Wiley & Sons. Sakamoto, S. e Ghanem, R. (2002), “Simulation of Multi-Dimensional Non-Gaussian Nonstationary Random Fields”, Prob. Eng. Mech., v.17, pp. 167–176. Shinozuka, M. e Deodatis, G. (1991), “Simulation of the Stochastic Process by Spectral Representation”, Applied Mechanics Reviews, v.44, n.4, pp. 191 –204. Smolyak, S.A. (1963), “Quadrature and Interpolation Formulas for Tensor Products of Certain Classes of Functions”, Soviet Math. Dokl., v.4, pp. 240–243. Sphaier, L.A., Cotta, R.M., Naveira-Cotta, C.P. e Quaresma, J.N.N. (2009), “The UNIT (Unified Integral Transforms) Symbolic-Numerical Computational Platform for Benchmarks in Convection-Diffusion Problems”, 30º CILAMCE - Iberian-Latin-American Congress on Computational Methods in Engineering, Armação de Búzios, RJ, November 2009. Stroud, A. H. (1971), Approximate Calculation of Multiple Integrals, Prentice-Hall, New Jersey. Stroud, A. H., Secrest, D. (1966), Gaussian Quadrature Formulas, Prentice-Hall, New Jersey.
128
Tatang, M., Pan, W., Prinn, R. e McRae, G. (1997), “An Efficient Method for Parametric Uncertainty Analysis of Numerical Geophysical Model”, J. Geophys. Res., v.102, pp.21925-21932. Van Trees. H.L. (1968), Detection, Estimation and Modulation Theory, Part 1, John Wiley & Sons, New York. Wiener, N. (1938), “The Homogeneous Chaos”, Am. J. Math., v.60, n.4, pp. 897-936. Wolfram, S. (2003), The Mathematica Book, 5th ed., Wolfram Media/Cambridge University Press, New York/Champaign, IL. Xiu, D. (2007), “Efficient Collocational Approach for Parametric Uncertainty Analysis”, Commun. Comput. Phys., v.2, n.2, pp.293–309. Xiu, D. (2009), “Fast Numerical Methods for Stochastic Computations: A Review”, J. Comp. Phys., v. 5, n. 2-4, pp. 242-272. Xiu, D. (2010), Numerical Methods for Stochastic Computations : A Spectral Method Approach, New Jersey, Princeton University Press. Xiu, D. e Hesthaven, J.S. (2005), “High-Order Collocation Methods for Differential Equations with Random Inputs”, SIAM J. Sci. Comput., v.27, n.3, pp.1118–1139. Xiu, D. e Karniadakis, G. E. (2002a), “The Wiener-Askey Polynomial Chaos for Stochastic Differential Equations”, SIAM J. Sci. Comput., v.24, n.2, pp.619-644. Xiu, D. e Karniadakis, G. E. (2002b), “Modeling Uncertainty in Steady State Diffusion Problems via Generalized Polynomial Chaos”, Comput. Methods Appl. Math. Engrg., v.191, pp.4927–4948. Xiu, D. e Karniadakis, G. E. (2003a), “A New Stochastic Approach to Transient Heat Conduction Modeling with Uncertainty”, Int. J. Heat & Mass Transfer, v.46, pp. 4681-4693. Xiu, D. e Karniadakis, G. E. (2003b), “Modeling Uncertainty in Flow Simulations via Generalized Polynomial Chaos”, J. Comput. Phys., v.187, pp.137–167. Zhang, J. e Ellingwood, B. (1994), “Orthogonal Series Expansions of Random Processes in Reliability Analysis”, Journal of Engineering Mechanics ASCE; v.120, n.12, pp. 2660–2677.