Elemento Finito
Elemento Finito
Programa de Fı́sica
Notas de Clase - Machine Learning
Contenido
1. Conceptos preliminares para el uso de Python.
1 def producto (x , y ) :
2 return x * y
3 print ( producto (2 ,3)
Ahora definiremos funciones de manera más compacta utilizando la función lambda. Esta opción
permite representar funciones en una sola lı́nea, proporcionando una forma concisa de expresar su
funcionalidad. No obstante, es importante señalar que, independientemente de cómo se aplique,
los resultados fundamentales de la función no cambiarán.Concidere el siguiente ejemplo.
1 Funcion_Lambda = lambda x , y : x ** y
2 print ( Funcion_Lambda (3 ,2) )
En este caso, ambas lı́neas de código proporcionadas funcionan de manera equivalente; la única
diferencia es que al utilizar lambda se simplifica el proceso. La sintaxis para definir una función
con lambda es la siguiente: primero, definimos una variable que contiene la función, en este caso
denominada Funcion Lambda. Posteriormente, usamos la palabra clave lambda, seguida de los
parámetros de la función, luego dos puntos y, finalmente, la expresión que representa la funcional-
idad de la función deseada.
1
Machine Learning 2 Nilson Esteban Molina
Diccionarios en Python
En Python, un diccionario es una estructura de datos que permite almacenar pares de clave-valor.
Se puede interpretar como una tabla en Excel en el contexto de Python. Es una colección muta-
ble y desordenada de elementos, donde cada elemento está compuesto por una clave única y un
valor asociado. Los diccionarios son útiles porque permiten almacenar datos mediante una clave
especı́fica en lugar de un ı́ndice numérico, como ocurre en las listas. Se podrı́a considerar que es
una forma más general de una lista.Para definirlos procedemos de la siguiente manera:
Es fácil notar que los diccionarios son una forma útil y sencilla de trabajar con listas, ya que per-
miten renombrar o redefinir las variables de manera flexible. Esto se puede hacer de la siguiente
manera:
La sintaxis para crear un diccionario se realiza usando llaves {}, donde cada par clave-valor está
separado por dos puntos : y los pares están separados por comas. Por ejemplo, el diccionario
diccionario = {”A”: 3, ”B”: 2, ”C”: 1} define un diccionario con tres pares: la clave ”A”
tiene un valor asignado de 3, la clave ”B” tiene un valor asignado de 2 y la clave ”C” tiene un
valor asignado de 1.
Para acceder o modificar el valor asociado a una clave en un diccionario, se utiliza la sintaxis
de [] con la clave deseada. En el código diccionario[”B”] = 5, se accede a la clave ”B”, cuyo
valor inicial es 2, y se cambia a un valor de 5, modificando ası́ el contenido inicial del diccionario.
Ahora realicemos un manejo más interesante con los diccionarios , consideremos la siguiente lista.
1 A = {0 ,2 ,1 , -3 ,5 ,20 , -10}
2 B = sorted ( A )
3 print ( B )
4 Salida [ -10 , -3 , 0 , 1 , 2 , 5 , 20]
El comando sorted() aplicado a una lista permite ordenar los valores numéricos de esta en orden
ascendente, como se puede observar en el ejemplo anterior. Ahora, apliquemos un concepto similar
a un diccionario. Definimos varios diccionarios de la forma:
1 Datos = [{ " Nombre " : " Nilson " ," Apellido " : " Molina " , " Nacimiento " :
2001} ,{ " Nombre " : " Gabriela " ," Apellido " : " Martinez " , " Nacimiento " :
1998} ,{ " Nombre " : " Miguel " , " Apellido " : " Montilla " , " Nacimiento " :
1964}]
2 Orden_Datos = sorted ( Datos , key = lambda item : item [ " Nacimiento " ])
3 Orden_Datos
4
1 Datos = [{ " Nombre " : " Nilson " ," Apellido " : " Molina " , " Nacimiento " :
2001} ,{ " Nombre " : " Gabriela " ," Apellido " : " Martinez " , " Nacimiento " :
1998} ,{ " Nombre " : " Miguel " , " Apellido " : " Montilla " , " Nacimiento " :
1964}]
Machine Learning 3 Nilson Esteban Molina
2 Orden_Datos = sorted ( Datos , key = lambda item : item [ " Nombre " ])
3 Orden_Datos
4
1 Datos = [{ " Nombre " : " Nilson " ," Apellido " : " Molina " , " Nacimiento " :
2001} ,{ " Nombre " : " Gabriela " ," Apellido " : " Martinez " , " Nacimiento " :
1998} ,{ " Nombre " : " Miguel " , " Apellido " : " Montilla " , " Nacimiento " :
1964}]
2 Orden_Datos = sorted ( Datos , key = lambda item : item [ " Apellido " ])
3 Orden_Datos
4
1 Lista_Numeros = [0 ,3 ,5 ,6 ,1 ,10]
2 Lista_Frutas =[ " Manzanas " ," Pera " , " Mangos " , " Banano " , " Coco " , " Fresas " ]
3 for A , B in zip ( Lista_Numeros , Lista_Frutas ) :
4 print (A , B )
5
6 Salida ---
7 0 Manzanas
8 3 Pera
9 5 Mangos
10 6 Banano
11 1 Coco
12 10 Fresas
Tambien tenemos un operador que nos permite enumerar los elementos de una lista a este se
le conoce como enumerate()
1 Lista_Numeros =[0 ,3 ,5 ,6 ,1 ,10]
2 Lista_Frutas =[ " Manzanas " ," Pera " , " Mangos " , " Banano " , " Coco " , " Fresas " ]
3 for x in enumerate ( Lista_Frutas ) :
4 print ( x )
5
6 Salida ---
7 (0 , ’ Manzanas ’)
8 (1 , ’ Pera ’)
9 (2 , ’ Mangos ’)
10 (3 , ’ Banano ’)
11 (4 , ’ Coco ’)
12 (5 , ’ Fresas ’)
Machine Learning 4 Nilson Esteban Molina
Otro iterador interesante el el iterador map() este aplica una función a cada elemento de una
secuencia (como una lista) y devuelve un iterador con los resultados. Veamos ejemplos de como
podemos usarlo:
1 Cuadrado = lambda x : x **2
2 for i in map ( Cuadrado , range (10) ) :
3 print ( i )
4
5 Salida ----
6 Numeros al cuadrado = 0
7 Numeros al cuadrado = 1
8 Numeros al cuadrado = 4
9 Numeros al cuadrado = 9
10 Numeros al cuadrado = 16
11 Numeros al cuadrado = 25
12 Numeros al cuadrado = 36
13 Numeros al cuadrado = 49
14 Numeros al cuadrado = 64
15 Numeros al cuadrado = 81
Machine Learning 5 Nilson Esteban Molina
Definición
Una función f : ra, bs ÝÑ R se llama absolutamente continua si para todo ϵ ą 0 existe δ ą 0 tal
n
ÿ
que para toda familia tpai , bi qu de intervalos disjuntos en ra, bs tales que pbi ´ ai q se cumple
i“1
n
ÿ
|f pbi q ´ f pai q| ă ϵ
i“1
se denota por ACra, bs al conjunto de todas las funciones absolutamente continuas en ra, bs
Propiedades
1. ACra, bs Ď Cra, bs
2. ACra, bs es un espacio vectorial
3. Sean f P L1 ra, bs żx
F pxq “ f ptq dt ùñ F P ACra, bs
a
Definición
k
Para un entero positivo k, definimos el espacio de Sobolev H pa, bq como el conjunto de funciones
reales v, definidas en ra, bs tal que v y todas sus derivadas de orden hasta k ´ 1 son absolutamente
continuas en ra, bs
k
d v
k 2
v “ k P L pa, bq
dx
2
v P L pa, bq ðñ }v}2 “ }v} 2
L pa,bq
ˆż b ˙1{2
2
“ |vpxq| dx ă `8
a
Machine Learning 6 Nilson Esteban Molina
k
equiparamos H pa, bq con la norma de Sobolev
˜ ¸1{2
ÿ › n ›2
}v} “ ›v ›
k 2
H pa,bq L pa,bq
m“0
2
los espacios de Sobolev H 1 pa, bq , H pa, bq serán muy importantes en está introducción al método
de elemento finito
H 1 pa, bq si v P H 1 pa, bq
#
v P ACra, bs
2
v P L ra, bs
ˆ › ›2 ˙1{2
2 › p1q ›
}v}H 1 pa,bq “ }v} 2 ` ›v ›
L 2
L
Definición
1. Dados A, B números reales. HE1 pa, bq denotará el conjunto de funciones v P H 1 pa, bq tal que
vpaq “ A y vpbq “ B
2. H01 pa, bq denotará el conjunto de funciones v P H 1 pa, bq tal que vpaq “ 0 y vpbq “ 0
1
entonces J pwq “ Apw, wq ´ ⟨f, w⟩ donde w P HE1 pa, bq
2
la aplicación A : H 1 pa, bq ˆ H 1 pa, bq ÝÑ R es función bilineal.
Principio de Galerkin
A la identidad Apu, vq “ ⟨f, v⟩ @ v P H01 pa, bq se le llama principio de Galerkin
Teorema
Una función u P HE1 pa, bq minimiza J p¨q en HE1 pa, bq si y solo si Apu, vq “ ⟨f, v⟩ @ v P H01 pa, bq
el principio de Rayleigh-Ritz se cumple si y solo si se cumple el principio de Galerkin.
Demostración
ùñ Asumimos u P HE1 pa, bq minimiza J p¨q en HE1 pa, bq o sea que J puq ď J pwq @ w P HE1 pa, bq
w “ u ` λv v P H01 pa, bq λ P R
Machine Learning 7 Nilson Esteban Molina
0 ď Apu, vq ´ ⟨f, v⟩
1
ùñ 0 ď ´Apu, vq ` ⟨f, v⟩ ` λApv, vq
2
tomando lim λ Ñ 0
0 ď ´Apu, vq ` ⟨f, v⟩
0 ě Apu, vq ´ ⟨f, v⟩
Teorema 14.2
2
Si u P H pa, bq X HE1 pa, bq es una solución débil del problema de valor de frontera (2), entonces u
es una solución débil de dicho problema, es decir Apu, vq “ ⟨f, v⟩ @ v P H01 pa, bq
Demostración
$ „ ȷ
&´ d ppxq du ` rpxqu “ f pxq
dx dx
upaq “ A upbq “ B
%
multipliquemos la ecuación diferencial por v P H01 pa, bq
„ ȷ
d du
´ ppxq vpxq ` rpxqupxqvpxq “ f pxqvpxq
dx dx
Machine Learning 8 Nilson Esteban Molina
żb „ ȷ żb żb
d du
integrando ´ ppxq vpxq dx ` rpxqupxqvpxq dx “ f pxqvpxq dx
a dx dx a a
integrando por partes una vez
0
hkkkkkkikkkkkkj
żb „ ȷ żb
d du du du
´ ppxq vpxq dx “ ´vpxqppxq ` ppxqu1 v 1 dx w “ vpxq z “ ´ppxq
a dx dx dx a dx
żb „ ȷ
1 1 1 1 d du
“ ppxqu v dx w “ v dz “ ´ ppxq dx
a dx dx
entonces
żb żb żb
1 1
ppxqu pxqv pxq dx ` rpxqupxqvpxq dx “ f pxqvpxq dx @ v P H01 pa, bq
a a a
żb żb
rppxqu1 pxqv 1 pxq ` rpxqupxqvpxqs dx “ f pxqvpxq dx
a
looooooooooooooooooooooomooooooooooooooooooooooon a
Apu,vq
“ ⟨f, v⟩
6 Apu, vq “ ⟨f, v⟩ @ v P H01 pa, bq l
lo inverso del teorema 14.2 no es cierto en general al menos que u sea lo suficientemente suave
Teorema 14.3
El problema de valor de frontera (2) posee a lo más una solución débil en HE1 pa, bq
Demostración
Supongamos que u, w P HE1 pa, bq son dos soluciones debiles diferentes al problema de valor de
frontera (2)
u ´ w P H01 pa, bq
pu ´ wqpaq “ upaq ´ wpaq pu ´ wqpbq “ upbq ´ wpbq
“ A´A “ B´B
“ 0 “ 0
por ser soluciones debiles, en particular v “ u ´ w
Apu ´ w, u ´ wq “ 0
como ppxq ě C0 ą 0 y rpxq ě 0
żb ” ı
2 2
Apv, vq “ ppxqpv 1 q ` rpxqv dx
a
» fi
żb
ě –C0 pv 1 q2 ` rpxqv 2 fl dx
loomoon
a
ą0
żb
2
ě C0 pv 1 q dx
a
ùñ Apu ´ w, u ´ wq “ 0
żb
2
ě C0 rpu ´ wq1 s dx
a
żb
2
ùñ rpu ´ wq1 s dx “ 0
a
1
pu ´ wq “ 0 casi todas partes
como u, w P H01 pa, bq entonces son absolutamente continuas
u ´ w también es absolutamente continua
si pu ´ wq1 “ 0 en casi todo punto ùñ u ´ w “ cte en ra, bs
pu ´ wqpaq “ pu ´ wqpbq “ 0 ùñ u ´ w “ 0 en ra, bs
6 u“w l
Machine Learning 9 Nilson Esteban Molina
Teorema 14.4
´ ¯ D E
h h h h h h h h
Una función u P SE minimiza J p¨q en SE si y solo si A u , v “ f, v @ v P S0
# +
n´1
ÿ
h h h
S0 pa, bq “ v P H01 pa, bq : v pxq “ vi φi pxq
i“1
´ ¯ D E
h h h h h h
al problema de determinar u tal que A u , v “ f, v @ v P S0 se le llama problema de
aproximación del principio de Galerkin (método de Galerkin)
Definición
Las funciones φi i “ 1, 2, . . . , n ´ 1 se llaman funciones base de Galerkin
Teorema 14.5
h h h h
Existe una única función u P SE que minimiza J p¨q en SE , este u se llama la´aproximación
¯ D a upxq
E
h h h h h
de Ritz. Equivalentemente existe una única función u P SE que satisface A u , v “ f, v
h
este u se denomina la aproximación a u de Galerkin, las dos aproximaciones coinciden.
Demostración
Probemos aplicando el principio de Galerkin
´ h h¯ D hE h h
A u , v “ f, v @ v P S0
n´1
ÿ
h
v “ vi φi pxq
i“1
observemos que
˜ ¸ * ¸
n´1
ÿ n´1
ÿ
h
A u , vi φi pxq “ f, vi φi pxq
i“1 i“1
n´1
ÿ ´ h ¯ n´1 ÿ
vi A u , φi “ vi ⟨f, φi ⟩
i“1 i“1
n´1
ÿ ” ´ h ¯ ı
vi A u , φi ´ ⟨f, φi ⟩ “ 0
i“1
Machine Learning 10 Nilson Esteban Molina
´ ¯
h h
entonces A u , φi “ ⟨f, φi ⟩ ya que v es arbitrario
n´1
ÿ
h
buscamos u “ Ψpxq ` uj φj pxq donde uj son los coeficientes
i“1
˜ ¸
n´1
ÿ
ùñ A Ψpxq ` uj φj , φi “ ⟨f, φi ⟩ i “ 1, . . . , n ´ 1
i“1
˜ ¸
n´1
ÿ
ApΨ, φi q ` A uj φj , φi “ ⟨f, φi ⟩
i“1
n´1
ÿ ` ˘
uj A φj ` φi “ ⟨f, φi ⟩
i“1
´1
M es definida positiva ùñ M existe
el sistema tiene una única solución
Mij “ Apφi , φj q
żb
“ rppxqφ1i φ1j ` rpxqφi φj s dx
a
żb żb
bi “ f φi dx ´ rppxqΨ1 pxqφi ` rpxqΨφi s dx l
a a
observemos que Ψpxq “ Aφ0 pxq ` Bφn pxq donde Ψpxq P HE1 pa, bq, cuando hacemos la combinación
n
ÿ
lineal αi φi pxq obtenemos una función lineal continua
i“0
#
0 |i ´ j| ě 2
φi pxqφj pxq “
‰ 0 en otro caso
Ejemplo
# ´ ¯
2
´u2 ` u “ 1 ` π sin πx 0 ă x ă 1
up0q “ 0 up1q “ 0
ppxq “ 1 rpxq “ 1
Mu “ b
Machine Learning 12 Nilson Esteban Molina
M es tridiagonal
dos elementos
2
ÿ
h
u “ ui φi pxq M “ rApφ1 , φ1 qs
i“0
M11 u1 “ b1
ż1 ” ı
2 2
“ u1 φ1 pxq “ pφ11 q ` φ1 dx
0
ż1 ´ ¯ż 1
2
b1 “ 1`π φ1 pxq sin πx dx
0 0
b
u1 “ 1 M11 u1 “ b1
M
$1
x´0 1 $
1
’
’
& 1 0ăxă &2
’
0ăxă
2 2
φ1 pxq “ 1 ´2
x 1 φ11 pxq “ 1
’
’
% 1 ăxă1 %´2
’ ăxă1
2
2 2
ż1 ´ ¯ ż1
2
M11 “ 4 ` 4x dx ` 2p1 ´ xq sin πx dx
0 1{2
13
“
3 « ff
´ 2
¯ ż 1{2 ż1
b1 “ 1 ` π 2x sin πx dx ` p2p1 ´ xq sin πx dx
0 1{2
4
“ `4
π2
4
2 ` 4
u1 “ π
13
3
« 1.016
6 elementos
n´1
ÿ
h
u “ ui φi pxq ya que A “ B “ 0
i“1
» fi » fi » fi
M11 M12 0 0 0 u1 u1
—M21 M22 M23 0 0 ffi —u2 ffi —u2 ffi
— ffi — ffi — ffi
— 0 M32 M33 M34 0 ffi —u3 ffi “ —u3 ffi
— ffi — ffi — ffi
– 0 0 M43 M44 M45 fl –u4 fl –u4 fl
0 0 0 M54 M55 u5 u5
Machine Learning 13 Nilson Esteban Molina
$
px ´ x0 qpx ´ x1 q
’
’ x0 ď x ď x2
& px2 ´ x0 qpx2 ´ x1 q
’
’
φ2 pxq “ px ´ x3 qpx ´ x4 q
x2 ď x ď x4
’ px2 ´ x3 qpx2 ´ x4 q
’
’
’
0 x ě x4
%
$
’
’
’0 x0 ď x ď x2
& px ´ x qpx ´ x q
2 4
φ3 pxq “ x2 ď x ď x4
’
’ px 3 ´ x 2 qpx 3 ´ x 4q
’
%0 x ě x4
$
&0 x0 ď x ď xn´2
φn pxq “ px ´ xn´2 qpx ´ xn´1 q
% x0 ď x ď x2
pxn ´ xn´2 qpxn ´ xn´1 q
Ejemplo
Cuadráticas, dos elementos
como up0q “ up1q “ 0 entonces no nos interesan φ0 , φ4
$ 1
& px ´ 0qpx ´ 2 q
’
0ďxă 1
φ1 pxq “ p 14 ´ 0qp 14 ´ 12 q 2
’
%0 1
2
ďxă1
#
´16xpx ´ 21 q
“
0
Machine Learning 14 Nilson Esteban Molina
$
xpx ´ 14 q
0 ď x ă 12
’
’
’ 1 1 1
p 2 ´ 0qp 2 ´ 4 q
&
φ2 pxq “
’ p 21 ´ 34 qp 12 ´ 1q 1
% p 1 ´ 0qp 1 ´ 1 q 2 ď x ă 1
’
’
# 4 4 2
1
8xpx ´ 4 q
“
8xpx ´ 34 qpx ´ 1q
$
&0
’ 0 ď x ă 12
φ3 pxq “ px ´ 12 qpx ´ 1q 1
% p 3 ´ 1 qp 3 ´ 1q 2 ď x ă 1
’
4 2 4
żl 2
du
integrando por partes a2 pxq 2 vpxq dx
0 dx
du
w “ a2 pxqvpxq z“
dx
2
du
dw “ ra12 pxqvpxq ` a2 pxqv 1 pxqs dx dz “ dx
dx2
sustituyendo
żl 2 ˇl ż l
du du ˇˇ du
a2 pxq 2 v dx “ a2 pxqvpxq ˇ ´ ra12 pxqvpxq ` a2 pxqv 1 pxqs
0 dx dx 0 0 dx
sustituyendo
ˇl ż l żl żl żl
ˇ
1ˇ 1 1 1
a2 vu ˇ ´ pa2 v ` a2 v qu dx ` a1 u v dx ` a0 uv dx “ f v dx
0 0 0 0 0
żl ˇl żl
1 1 1 1 1
ˇ
1ˇ
ra2 u v ` pa1 ´ a2 qu v ` a0 uvs dx ` a2 vu ˇ “ f v dx u, v P H 1 p0, lq
0 0 0
buscamos determinar u; up0q, vplq son también desconocidas, de las condiciones de frontera
γ0 ´ β0 up0q
u1 p0q “
α0
γ ´ βl uplq
u1 plq “ l
αl
entonces ˇl „ ȷ „ ȷ
1
ˇ γl
β l
γ0 β0
a2 v uˇˇ “ a2 plqvplq ´ uplq ´ a2 p0qvp0q ´ up0q
0 αl αl α0 α0
Machine Learning 15 Nilson Esteban Molina
» fi » fi » fi
M11 M12 ... M1N u1 b1
—
— M21 M22 ... M2Nffi
ffi
—
— u2 ffi
ffi
—
—
ffi
ffi b2
— .. .. .. ..ffi — ..ffi — ffi ..
— . . . .ffi — .ffi “
— ffi .
— ffi — ffi — ffi
–MpN ´1q1 MpN ´1q2 . . . MpN ´1qN fl –uN ´1 fl –bN ´1 fl
MN 1 MN 2 . . . MN N uN bN
» fi
a2 p0qβ0 a2 p0qγ0
» fi
—K11 ` α K12 ... ... K1N b̄ `
» fi
— 0
ffi
ffi u1 — 1 α0 ffi
K K22 ... ... K2N
— ffi
—
— 21
ffi
ffi
— u ffi —
— 2 ffi — b̄2 ffi
— .. .. ... .. .. ffi — .. ffi — .
..
ffi
ùñ — . . . . ffi — . ffi “ — ffi
ffi
— ffi — ffi —
—
— K pN ´1q1
KpN ´1q2 . . . ... KpN ´1qN ffi
ffi
–uN ´1 fl — b̄N ´1 ffi
ffi
– a2 plqβl fl uN – a2 plqγl fl
KN 1 KN 2 . . . KN pN ´1q KN N ´ b̄N ´
αl αl
Principio de Conservación
dσ
“ f pxq en a ă x ă b
dx
żb
σpbq ´ σpaq “ f dx
a
Ejemplo
Determinar la formulación débil del siguiente problema
$ „ ȷ
d du du
kpxq ` cpxq ` bpxqupxq “ f pxq x P Ωi i “ 1, 2, 3, 4
’
’´
’
2 dx : dx dx
’
’
’
’
’ du
kpxq “0 en x “ x1
’
’
’
’
’
’ 2 dx :
&´ kpxq du “ fˆ
’
’
en x “ x2
’
2 dx
:
’ du
kpxq “0 en x “ x3
’
’
’
’
’
’ dx
’ dup0q
’
α0 ` β0 up0q “ γ0
’
’
dx
’
’
’
%αl duplq ` βl uplq “ γl
’
’
’
dx
K 1 pxq no existe en x1
żb
σpbq ´ σpaq “ f pxq dx
a
żb żb
“ f¯pxq dx ` fˆpxq δpx ´ x2 q dx
a a
Determinar una solución clásica en encontrar upxq que satisfaga la ecuación diferencial, las condi-
ciones de frontera y las tres condiciones en el salto en el flujo. Veamos la formulación débil del
problema żl „ ˆ ˙ ȷ żl
d du du
´ k ` cpxq ` bpxqupxq vpxq dx “ f pxqvpxq dx
0 x dx dx 0
´ ¯
1 ´ ´ 1 1 ´ 1 ´ 1 ` `
´k 1 u px
loooomoooon1
q vpx 1
q ´ p´k1 u p0qvp0qq ´ k 2 u px 2
qv px 2
q ´ ´k2 u px 1
qvpx 1
q
σpx1 q
´
´ ´
¯ ´ ¯
1 1 ` 1 ` 1 1 ` `
´k2 u px3 qvpx3 ´ ´k2 u px2 qv px2 q ´ k2 u plqvplq ´ ´k2 u px3 qvpx3 q
3 żx 3 żx
ÿ i`1 ÿ i`1
1 1 1
` pku v ` cu v ` buvq dx “ f v dx
i“0 xi i“0 xi
żl
1
ùñ ´p´k1 u p0qv p0qq´v´ku 1
px1 qwvpx1 q´v´ku
looomooon
1
px2 qwvpx2 q´v´ku
looomooon
1
px3 qwvpx3 q0 ´k2 u plqvplq “
looomooon
1 1
f¯v dx
0
0 fˆ 0
γ0 ´ β0 up0q γl ´ βl uplq
u1 p0q “ u1 p0q “
α0 αl
entonces
żl żl
γ ´ β0 up0q γ ´ βl uplq
k1 0 vp0q ´ fˆvpx2 q ´ k1 l vplq ` 1 1 1
pku v ` cu vuvq dx “ f¯v dx
α0 αl 0 0
h
Error=|u ´ u |
Ap¨, ¨q define un producto interior en H01 pa, bq
żb
Apu, vq “ rppxqu1 v 1 ` rpxquvs dx
a
´ ¯
h h h h
entonces A u ´ u , v “ 0 significa que u ´ u es ortogonal respecto al subespacio S0 , por eso a
la ecuación (2) se le conoce como principio de ortogonalidad de Galerkin
Interpretación Gráfica
h h h
HE1 pa, bq S0 Ă HE1 u P HE1 Ψ P HE1 u P SE
Machine Learning 18 Nilson Esteban Molina
Proyector de Ritz
Sea Ψpxq “ Aφ0 pxq ` Bφn pxq
h h
R : H01 pa, bq ÝÑ S0
h
u ´ Ψ ÝÑ u ´ Ψ
Demostración
1
¯ D Apu,
Por el principio ´de Galerkin E vq “ ⟨f, v⟩ @ v P H0
h h h h
en particular A u, v “ f, v @ v P S0 Ă H01
´ ¯ D E
h h h h h
por el método de Galerkin A u , v “ f, v @ v P S0
´ h h¯ ´ h h¯ D hE h h
ùñA u , v ´ A u , v “ f, v “ 0 @ v P S0
´ h h
¯ h h
ùñA u ´ u , v “ 0 @v P S0
h h
tomemos v P SE
´ h h
¯ ´ h h h h h h
¯
A u ´ v ,u ´ v “ A u ´ u ` u ´ v ,u ´ u ` u ´ v
´ h h
¯ ´ h h h
¯ ´ h h h
¯
“ A u ´ u ,u ´ u ` A u ´ u ,u ´ v ` A u ´ v ,u ´ u
´ h h h h
¯
` A u ´ v ,u ´ v
´ h h
¯ ´ h h h
¯ ´ h h h h
¯
“ A u ´ u , u ´ u ` 2A u ´ u , u ´ v ` A u ´ v , u ´ v
h
ahora una pregunta muy importante es como el error u ´ u depende del tamaño de la subdivisión
h en ra, bs
h h
para analizar esto necesitamos introducir el interpolante del elemento finito I u P SE
h
(I u es interpolante de u P HE1 pa, bq)
n´1
ÿ
h
I upxq “ Ψpxq ` upxi qφi pxq x P ra, bs
i“1
Teorema 14.7
2 h h
Supongamos que u P H pa, bq X HE1 pa, bq, y sea I u el interpolante del elemento finito en SE ,
entonces tenemos las siguientes cotas de error
ˆ ˙2
› ›
h › hi
›u ´ I u› 2 }u2 }L2 px ,x q i “ 1, 2, . . . , n hi “ xi ´ xi´1
›
ď
L pxi´1 ,xi q π i´1 i
› ›
› 1 ´ h ¯1 › h
›u ´ I u › ď i }u2 }L2 px ,x q
› › 2 π
L pxi´1 ,xi q
i´1 i
Demostración
Consideremos el elemento rxi´1 , xi s i “ 1, . . . , n
h
definimos ζpxq “ upxq ´ I upxq x P rxi´1 , xi s
2
entonces ζpxq P H pxi´1 , xi q con ζpxi´1 q “ ζpxi q “ 0
aplicando resultados de convergencia en series de Fourier, estamos seguros que ζpxq puede ex-
pandirse en series de Fourier de la forma
`8
ÿ kπpxi ´ xi´1 q
ζpxq “ ak sin x P rxi´1 , xi s
k“1
hi
`8
kπpx ´ xi´1 q `8
żx żx
i 2 i ÿ ÿ lπpx ´ xi´1 q
ùñ |ζpxq| dx “ ak sin ¨ al sin dx
xi´1 xi´1 k“1 hi l“1
hi
żx `8
ÿ `8
i ÿ kπpx ´ xi´1 q lπpx ´ xi´1 q
“ ak al sin sin dx
xi´1 k“1 l“1 hi hi
`8 żx
ÿ i kπpx ´ xi´1 q lπpx ´ xi´1 q
“ ak al sin sin dx
k,l“1 xi´1 hi hi
x ´ xi´1
tomando t “ hi dt “ dx t “ 0 ÝÑ t “ 1
hi
`8
ÿ żl
“ hi ak al sin kπt sin lπt dt
k,l“1 0
`8
hi ÿ
“ a aδ
2 k,l“1 k l lk
`8
hi ÿ 2
a “
2 k“1 k
#
0 k‰l
con la delta de Kronecker δkl “ de la misma forma
1 k“l
żx `8 ˆ ˙2
i
1 hi ÿ kπ
2 2
|ζ pxq| dx “ |ak |
xi´1 2 k“1 hi
żx `8 ˆ ˙4
i
2 2 hi ÿ kπ 2
|ζ pxq| dx “ |ak |
xi´1 2 k“1 hi
ya que
`8
1
ÿ kπ kπpx ´ xi´1 q
ζ pxq “ ak cos
k“1
hi hi
kπ
donde ak es un nuevo coeficiente
hi
`8 ˆ ˙2
2
ÿ kπ kπpx ´ xi´1 q
ζ pxq “ ´ ak sin
k“1
hi hi
Machine Learning 20 Nilson Esteban Molina
y entonces
żx `8
i 2 hi ÿ 2
|ζpxq| dx “ |ak |
xi´1 2 k“1
4 4 `8
hi hi π ÿ 2
“ 4 4 |ak |
2 hi hi k“1
`8 4 4
h h ÿ π 4 2 4
ď i i4 4 k |ak | k ě1
2 hi k“1 hi
ˆ ˙4 ż x
hi i 2
“ |ζ 2 pxq| dx
π xi´1
h
ζpxq “ u ´ I u
h
Si I u es polinómica de primer grado ùñ ζ 2 pxq “ u2 pxq, entonces se obtienen las cotas de error
del teorema
żx ˆ ˙4
i 2 2 hi
|ζpxq| dx “ }ζpxq} 2 ùñ }ζpxq} 2 ď }ζ 2 pxq} 2
xi´1 L pxi´1 ,xi q L pxi´1 ,xi q π L pxi´1 ,xi q
ˆ ˙2
2 hi
ùñ } loζpxq
omoon }L2 px ,x q ď π }u2 pxq} 2
L pxi´1 ,xi q
i´1 i
u´I h u
h
además si I u es interpolante de segundo grado ζ 3 pxq “ u3 pxq entonces
ˆ ˙3
› ›
h › hi
›u ´ I u› }u3 pxq} 2
›
ď
2
L px ,x q
π L pxi´1 ,xi q
i´1 i
3
pero ahora se necesita que u P H pa, bq X HE1 pa, bq
żl żl
sin kπt sin lπt dt “ cos kπt cos lπt dt
0 0
h
se puede entonces generalizar: si I u es un interpolante polinómico de grado m, entonces
ˆ ˙m`1 ›
›
h ›
› hi › pm`1q ›
›
u I u u
›
› ´ › ď › pxq›
2
L px ,x q
π 2
L px ,x q
i´1 i i´1 i
m`1
con u P H pa, bq X HE1 pa, bq, si
1 ›
› pm`1q ›
›
c“ max ›u pxq›
π m`1 xPpxi´1 ,xi q 2
L pxi´1 ,xi q
› ›
h› m`1 h
entonces ›u ´ u › ď chi m de grado I u
›
2
L pxi´1 ,xi q
en un punto xi
Machine Learning 21 Nilson Esteban Molina
Corolario 14.1
2
Supongamos que u P H pa, bq X HE1 pa, bq, entonces
#ˆ ˙ ˆ ˙4 +
›2 n 2
›
h ›
ÿ hi hi 2
›u ´ I u› ď Pi ` Ri }u2 } 2
›
A
i“1
π π L pxi´1 ,xi q
Corolario 14.2
2
Supongamos que u P H pa, bq X HE1 pa, bq, entonces
#ˆ ˙ ˆ ˙4 +
n 2
›
h ›
› ÿ hi hi 2
›u ´ I u› ď Pi ` Ri }u2 } 2
›
A
i“1
π π L pxi´1 ,xi q
# ˆ ˙2 +1{2
›
h ›
› h h
u I u › ď i P` R }u2 } 2
›
› ´
A π π L pa,bq
´ ¯ „ ˆ ´ ¯1 ˙1 ´ ¯1 ȷ
h h h h
con R u pxq “ f pxq ´ ´ ppxq u ` qpxq u ` rpxqu que es el residuo del elemento
finito
Machine Learning 22 Nilson Esteban Molina
Lema 14.1
Supongamos que z es la solución débil del problema dual (14.33), (14.34), entonces existe una
constante positiva k dependiendo de p, q, r solamente tal que
› ›
h›
}z 2 } 2 ď k ›u ´ u ›
›
L pa,bq
2
L pa,bq
„ ¯1{2 ȷ
1 1 ´
1 2 1 2
con k “ 1` }p ` q}8 ` }r ´ q }8
c0 mintc0 , c1 u
con estos resultados obtenemos cota de error que se pueden calcular después de obtener la aprox-
imación
˜ ¸1{2
n
›
h
› ÿ 4
› ´ ¯›
h k
›u ´ u › ď k0 hi ›R u › k0 “ 2
› › › ›
2
L pa,bq i“1 2
L px ,x q
π
i´1 i
Ejercicio
1. Ejercicio 14.1
żx
vpxq “ v 1 pξq dξ v P HE1 pa, bq x P ra, bs HE1 pa, bq “ tv P H 1 pa, bq : vpaq “ 0u
0 0
a
żb
2 2
}vpxq} 2
“ |vpxq| dx
L pa,bq
a
ż b ˇż x ˇ2
ˇ 1
ˇ
“ ˇ
ˇ v pξq dξ ˇ dx
ˇ
a a
entonces
żb
2 2
}vpxq} 2
ď px ´ aq}v 1 } 2 dx
L pa,bq L pa,bq
a
żb
1 2
“ }v } 2 px ´ aq dx
L pa,bq
a
2 ˇb
ˇ
2 px ´ aq
“ }v 1 } 2
ˇ
ˇ
L pa,bq 2 ˇ
a
2
pb ´ aq 1 2
“ }v } 2
2 L pa,bq
Machine Learning 23 Nilson Esteban Molina
# 4
´p0 u2 ` r0 u “ f pxq p0 ą 0 , r0 ą 0 f P C r0, 1s
2.
up0q “ up1q “ 0
1
xi “ ih i “ 0, 1, . . . , n h“
n
px ´ xi´1 q
$ $
1
’
’ xi´1 ď x ď xi ’
’ xi´1 ď x ď xi
’
& h &h
’
φi pxq “ φ1i pxq “
% pxi`1 ´ xq x ď x %´ 1
’
’ ’
’
xi ď x ď xi`1
’ ’
h i
h
Mu “ b
ż1 ż1
1 1
Mij “ pp0 φi φj ` r0 φi φj q dx bi “ f φi dx
0 0
ż x1 ˜ 2
¸ ż x2 ˜ 2
¸
1 x 1 px2 ´ xq
M11 “ p0 2 ` r0 2 dx ` p0 2 ` r0 dx
0 h h x1 h h2
2p0 2r0 h
“ `
h 3
M11 “ Mii i “ 2, . . . , n ´ 1
por ser p0 , r0 constantes
ż1
M12 “ pp0 φ11 φ12 ` r0 φ1 φ2 q dx
0
ż x2 « ˆ ˙ˆ ˙ 2 2
ff
1 1 px2 ´ xq px1 ´ xq
“ p0 ´ ` r0 dx
x1 h h h h
p0 r0 h
“ ´ `
h 6
M es simétrica ya que Ap¨, ¨q es simétrica
Mij “ Mji
M12 “ Mipi`1q
“ Mpi´1qi
p rh
“ ´ 0 ` 0
h 6
» fi
2p0 2r0 h p0 r0 h
— h ` 6 ´ ` 0 0 ... 0 » fi » fi
— p h 6 ffi u 1 ⟨f, φ1 ⟩
— ´ 0 ` r0 h 2p0 ` 2r0 h ´ p0 ` r0 h 0
ffi
. ..
... 0 ffi — .. ffi —
ffi — ffi — ffi
— h 6 h 6 h 6 . ffi
—
.. .. .. ..
ffi — . ffi — .. ffi
0 . . . . 0 ffi — .. ffi — .
— ffi — ffi — ffi
— ffi
— .. .. .. .. .. .. ffi — . ffi — “ .. ffi
. . . . . . . .
ffi — . ffi —
— ffi — ffi — ffi
— ffi
— .. ... ... ... ffi — .
p0 r0 h ffi – . fl – ffi — .. ffi
— . . . . ´ ` . . fl
— h 6 ffi un´1 f, φn´1
– p r h 2p0 2r0 h fl
0 ... ... ... ´ 0 ` 0 `
ˆ ˙ ˆ ˙ h ´ 6 h 6
p0 r0 h 2p0 2r0 h p0 r0 ¯
entonces ´ ` ui´1 ` ` ui ` ´ ` ui`1 “ ⟨f, φi ⟩
h 6 h 3 h h
pu ´ 2ui ` ui`1 q pu ` 4ui ` ui`1 q 1
entonces ´p0 i´1 2 ` r0 i´1 “ ⟨f, φ1 ⟩
h 6 h
formulación tipica que resulta en el método de diferencias finitas
Machine Learning 24 Nilson Esteban Molina
h 2 3 2
« 4 3
ff+ˇxi`1
f 2 pxi q px ´ xi q px ´ xi q ˇ
´h ´ ... ˇ
ˇ
´
2 4 3 ˇ
xi
˜ 3 3
¸
1 f 2 pxi q h h ´ 5¯
“ h f pxi q ` Of pxi q ` ` `O h
2 12 12
2
1 h 2 ´ 4¯
ùñ ⟨f, φi ⟩ “ f pxi q ` f pxi q ` O h
h 12
pui´1 ´ 2ui ` ui`1 q pu ` 4ui ` ui`1 q
ùñ ´ p0 2 ` r0 i´1 “ f pxi q
h 6
1 2 ´ 4¯
` h f 2 pxi q ` O h
12
pu ´ 2ui ` ui`1 q pu ` 4ui ` ui`1 q
Ti “ ´p0 i´1 2 ` r0 i´1
h 6
2
h 2 ´ 4
¯
“ f pxi q ` O h
12
4
de la ecuación diferencial ´p0 u ` r0 u2 “ f 2 , entonces
2 2
h 2 ´ 4¯ h ´ 4 2
¯ ´ 4¯
f pxi q ` O h “ ´p0 u ` r0 u ` O h
12 12
2 2
h ph 4 ´ 4¯
“ r0 u2 ´ 0 u ` O h
12 12
2
ph 4 ´ ¯
4
expandiendo ´ 0 u en series de Taylor este término tiene también O h
12
2 2
h 2 ´ 4¯ h ´ 4¯
ùñ f pxi q ` O h “ r0 u2 pxi q ` O h
12 12
r0 2
´ h
¯ 2
si M “ max u pxq entonces max upxi ´ u pxi q ď M h
12 xPr0,1s 0ďiďn
Machine Learning 25 Nilson Esteban Molina
∇u campo vectorial
2 2
∇u : R ÝÑ R
px, yq ÝÑ ∇upx, yq
Derivada direccional
Bu
“ ∇u ¨ n
Bn
Bu Bu
“ cos θ ` sin θ
Bx By
Flujo
Ω región BΩ frontera de Ω σ flujo (campo vectorial)
ÿ ż
σn “ σ ¨ n w“ σn psq ds flujo neto en Bw
Bw
Divergencia en P0
Definición
flujo neto cruzando la frontera
lim “ divergencia del flujo en P0
wÑ0 área de la región
en el caso de la región rectangular tenemos
área de la región=∆x ∆y
“ div σpP0 q
p∇ ¨ σ ´ f q dA “ 0
ω
como es cierto para cualquier ω en Ω, entonces ∇ ¨ σ ´ f “ 0 en Ω
para ciertas condiciones de suavidad de f y u
∇ ¨ σ “ f px, yq en σ
∇ ¨ p´kpx, yq ∇upx, yqq “ f px, yq
este modelo considera solamente difusión del flujo, si k es constante entonces
´k ∇ ¨ ∇u “ f
2
´k ∇ u “ f px, yq
˜ 2 2
¸
B u B u
´k ` 2 “ f px, yq ecuación de Poisson
Bx2 By
2
Si f px, yq “ 0 tenemos que ∇ u “ 0 ecuación de Laplace
también podemos agregar términos al modelo, por ejemplo si existe fuente interna
´∇ ¨ pk ∇uq ` bpx, yq u “ f px, yq
también existen otros mecanismos de flujo, como la convección forzada o advección
para completar nuestra formula de integración por partes en dos y tres dimensiones se puede probar
que
2
∇ ¨ pv ∇uq “ v ∇ u ` ∇v ¨ ∇u
aplicando el teorema de la divergencia probar que
ż ż ż
2 Bu
´ v ∇ u dx dy “ ∇v ¨ ∇u dx dy ´ v dS
Ω Ω BΩ Bn
2
´v ∇ u “ ∇v ¨ ∇u ´ ∇ ¨ pv ∇uq
ż ż
∇ ¨ σ dA “ σ ¨ n dS σ “ v ∇u
ż Ω żBΩ ż
2
ùñ ´ v ∇ u dA “ ∇v ¨ ∇u dA ´ v ∇u ¨ n dS
Ω
żΩ żBΩ
Bu
“ ∇v ¨ ∇u dA ´ v dS
Ω BΩ Bn
Machine Learning 27 Nilson Esteban Molina
que es nuestra formula de integración por partes, un modelo para problema de difusión
´∇ ¨ pk ∇uq ` bu “ f
intergración por partes (más general)
v∇ ¨ pk ∇uq “ ∇ ¨ pvk ∇uq ´ k ∇u ∇v
la norma H 1 :
› ›2 › ›2
2 2 › Bv › › Bv ›
}v}H 1 “ }v} 2 ` › ›
› › ` ›› ››
L pΩq Bx L2 pΩq By L2 pΩq
« ˙2 ff
ż ˆ ˙ 2 ˆ
2 Bv Bv
“ v ` ` dx dy
Ω Bx By
obtener las formulaciones débiles en dos y tres dimensiones no representa mayor dificultad, las
dificultades se presentan debido a que los elementos pueden tomar muchas formas
interpolando a través de una cuadrática
Machine Learning 28 Nilson Esteban Molina
1 x1 y 1
1
Ae “ 1 x2 y 2
2
1 x3 y 3
e e e e
entonces Vh px, yq “ v1 φ1 px, yq ` v2 φ2 px, yq ` v3 φ3 px, yq
e 1
Ψ1 px, yq “ rpx y ´ x3 y2 q ` py2 ´ y3 qx ` px3 ´ x2 qys
2Ae 2 3
e 1
Ψ2 px, yq “ rpx y ´ x1 y3 q ` py3 ´ y1 qx ` px1 ´ x3 qys
2Ae 3 1
e 1
Ψ3 px, yq “ rpx y ´ x2 y1 q ` py1 ´ y2 qx ` px2 ´ x1 qys
2Ae 1 2
v1 x1 y1 1 v1 y1 1 x1 v1
v2 x2 y2 1 v2 y2 1 x2 v2
v3 x3 y3 1 v3 y3 1 x3 v3
α“ β“ γ“
|A| |A| |A|
Cambio de Coordenadas
e e e e
Vh px, yq “ v1 Ψ1 px, yq ` v2 Ψ2 px, yq ` v3 Ψ3 px, yq
e e e
“ v1 Ψ1 ` v2 Ψ2 ` v3 Ψ3
3
ÿ 3
ÿ
x“ xi Ψ
p pξ, ηq
j
y“ yj Ψ
p pξ, ηq
j
(3)
j“1 j“1
´1
sustituyendo (2) en (3) : Te : Ωe ÝÑ Ω
p
ξ “ ξpx, yq
1
“ rpy ´ y1 qpx ´ x1 q ´ px3 ´ x1 qpy ´ y1 qs
2Ae 3
η “ ηpx, yq
1
“ rpy ´ y2 qpx ´ x1 q ´ px0 ´ x1 qpy ´ y1 qs
2Ae 1
vpx, yq “ a1 ` a2 x ` a3 y ` a4 xy ai constantes i “ 1, . . . , 4
Si x̄i “ pxi , yi q
v1 “ a1 ` a2 x1 ` a3 y1 ` a4 x1 y1 v2 “ a1 ` a2 x2 ` a3 y2 ` a4 x2 y2
v3 “ a1 ` a2 x3 ` a3 y3 ` a4 x3 y3 v4 “ a1 ` a2 x4 ` a3 y4 ` a4 x4 y4
x ´ x0 x ´ x1 x ´ x2 x ´ x1
f1 px1 , y1 q “ f px1 , y1 q ` f px2 , y1 q f2 px1 , y2 q “ f px1 , y2 q ` f px2 , y2 q
x1 ´ x0 x2 ´ x1 x1 ´ x2 x2 ´ x1
f pxi , yj q
donde cij “ para i, j “ 1, 2
pxi ´ x3´i qpyj ´ y3´j q
como las funciones base serán polinomios bilineales, estos cumpliran que en el nodo principal serán
uno, y cero en los tres restantes. Sea
ˆ ˙
c11 c12
C“
c21 c22
entonces tendremos los siguientes cuatro casos para la forma que tendra c al definir ϕi a trozos
» fi
0 0
— ffi
1. c “ —
– 1
ffi
fl
0
px2 ´ x1 qpy2 ´ y1 q
» fi
1
—0 px1 ´ x2 qpy2 ´ y1 q ffi
2. c “ —
–
ffi
fl
0 0
» fi
1
— px ´ x qpy ´ y q 0ffi
3. c “ —
–
1 2 1 2 ffi
fl
0 0
» fi
0 0
— ffi
4. c “ —
– 1
ffi
fl
0
px2 ´ x1 qpy1 ´ y2 q
pξ ` 1qpη ´ 1q pξ ` 1qpη ´ 1q
Ψ1 “ Ψ2 “
p´1 ´ 1qp´1 ´ 1q p1 ` 1qp´1 ´ 1q
pξ ` 1qpη ´ 1q pξ ` 1qpη ´ 1q
“ “ ´
4 4
pξ ` 1qpη ` 1q pξ ´ 1qpη ` 1q
Ψ3 “ Ψ4 “
p1 ` 1qp1 ` 1q p´1 ´ 1qp1 ` 1q
pξ ` 1qpη ` 1q pξ ´ 1qpη ` 1q
“ “ ´
4 4
Machine Learning 31 Nilson Esteban Molina
2 2 2 2 2 2
Bicuadráticos a1 ` a2 x ` a3 y ` a4 xy ` a5 xy ` a6 x y ` a7 x ` a8 y y ` a9 x y
habria que determinar nueve funciones base
ηpη ´ 1qξpξ ´ 1q
Ψ1 “
´1p´1 ´ 1q ´ 1p´1 ´ 1q
2x ´ xi ´ xi`1 hi ξ ` xi ` xi`1 hi
ξpxq “ xpξq “ ξpxi q “ ´ ξpxi`1 q “ 1
hi 2 hi
“ ´1
xp´1q “ xi xp1q “ xi`1
1 1 1 1
Ψ1 pξq “ p1 ´ ξq Ψ2 pξq “ p1 ` ξq Ψ11 pξq “ ´ Ψ12 pξq “
2 2 2 2
e e e
x pξq “ Ψ1 pξqxi ` Ψ2 pξqxi`1
consideremos el problema modelo
$ ˆ ˙
&´ d ppxq du ` rpxqu “ f pxq a ă x ă b
dx dx
upaq “ A upbq “ B
%
Mu “ B
e
M matriz global, m matriz por elemento
e
B vector global, b vector por elemento sea Mij “ Apφi , φj q donde
nel
ÿ e e e
M“ M M “ Mij
e“1
nel
ÿ e e e
B“ B B “ Bi
e“1
e
Mij “ 0 si i ‰ pe _ e ` 1q _ j ‰ pe _ e ` 1q
e
Bi “ 0 si i ‰ pe _ e ` 1q
e e
m “ mij p2 ˆ 2q pi, j “ 1, 2q
e e
b “ bi p2 ˆ 1q pi “ 1, 2q
Matriz y vector (por elemento) con tamaño que depende del grado del interpolante: lineal 2 ˆ 2,
cuadrático 3 ˆ 3, cúbico 4 ˆ 4
e e
entonces la estrategia consiste en generar las matrices m y vectores b para e “ 1, . . . , nel y luego
e e
ensamblar (o armar) M, B a partir de m y b
Necesitamos cierta información que almacenamos en una matriz llamada LM , las dimensiones de
LM son: nen número de nodos del elemento por nel
1 2 3 ... ... nel
1 1 2 3 ... ... n´2 n´1
2 2 3 ... ... n ´ 1 0
número de nodos del elemento ˆ número de elementos. nen ˆ nel (caso de interpolante lineal)
Machine Learning 32 Nilson Esteban Molina
inicialmente M “ 0
» 1 1
fi
m11 m12 0 0 ... 0 0 » 1 fi
—m1 m1 ` m2 2 b1
m12 0 ... 0 0 ffi
1 2
b2 ` b1
— 21 22 11 ffi — ffi
2 2 3 3
— 0 m21 m22 ` m11 m12 ... 0 0
— ffi — ffi
ffi 2 3
— 3 3 ffi — b2 ` b1 ffi
— 0 0 m21 m22 ... 0 0 ffi B“—
—
..
ffi
ffi
— . .. .. .. .. .. ffi .
— .. . . . . . ... ffi —
— nel´2 n
ffi
ffi
el´1
—
— n
el´1
n
el´1
n
el´1
ffi
ffi –b ` b fl
– 0 0 0 0 . . . m22 ` m11 m12 fl 2n
el´1
1
n
el
n
el´1
n
el´1 n b2 ` b1
0 0 0 0 ... m21 m22 ` m11el
además como
entonces
ż „ ȷ
e dφj pxq dφj pxq e
mij “ ` rpxqφi pxqφj pxq dx Ω : rxi , xi`1 s
Ω
e dx dx
ż1 „ ȷ
dφj pxpξqq dφj pxpξqq dx
“ ppxpξqq ` rpxpξqqφi pxpξqqφj pxpξqq dξ
´1 dx dx dξ
» fi
ż1 — ˆ ˙2 ffi
— dΨ pξq dΨ j
pξq dξ ffi dx
—ppξq i dξ i, j “ 1, 2
— ffi
“ `rpξqΨi pξqΨj pξqffi
´1 — dξ dξ dx
loomoon ffi dξ
– fl
dx ´2
p dξ q
ż
e
bi “ f pxq φi pxq dx
Ωe
ż1
dx
“ f pxpξqq φi pxpξqq dξ
´1 dξ
ż1
dx
“ f pξq φi pξq dξ
´1 dξ
Machine Learning 33 Nilson Esteban Molina
polinomios de Legendre
n ¯n
1 d ´ 2
Pn pxq “ n x ´1 n “ 0, . . . formula de Rodrigues
2 n! dxn ż
1
1 Pn`1 pxq
wi “ i dx
Pn`1 pxi q ´1 x ´ xi
ż1
f pxq dx « w1 f px1 q ` w2 f px2 q n “ 2
´1
1´ 2 ¯
Pn`1 “ P2 “ 3x ´ 1
2
1 1
x1 “ ? P 1 pxq “ p6xq
3 2
1
x2 “ ´ ? “ 3x
3
´ ¯
1 2
1
ż1
2
3x ´ 1 1
ż1 1
p3x
2
´ 1q
2
w1 “ ` ? ˘ ? dx w2 “ ? ? dx
3 1{ 3 ´1 x ´ 1{ 3 3p´1{ 3q ´1 x ` 1{ 3
“ 1 “ 1
ż1 ˆ ˙ ˆ ˙
1 1
f pxq dx “ f ? `f ´?
´1 3 3
el error es
ˇż ˇ
ˇ 1 ÿn ˇ
E“ ˇ f pxq dx ´ wi f pxi qˇ
ˇ ˇ
ˇ ´1 i“1
ˇ
2n`3 n p2n`2q
2 rpn ` 1q!s f pξq
“ 3 ´1ăξ ă1
p2n ` 3qrp2n ` 2q!s
Ejemplo
Consideremos el problema
$
’
’´∇ ¨ pk∇uq ` bu “ f px, yq en Ωi i “ 1, 2
’
&upsq “ ûpsq s P BΩ1
’
’
’σn psq “ ppsq rupsq ´ ûpsqs s P BΩ2
%
vk∇u ¨ nw “ 0 s en Γ
Ω “ Ω1 X Ω2 BΩ “ BΩ1 Y BΩ2
Bupsq
σn psq “ ´kpsq
Bn
las ecuaciones paramétricas
#
x “ xpsq
BΩ :
y “ ypsq
Bupsq
´kpsq “ σ̂psq
Bn
1. No existe una única solución al problema
2. Para que pueda existir una única solución se debe satisfacer una condición de compatibilidad
ż ż
f px, yq dx dy “ σ̂psq ds (principio de conservación)
Ω BΩ
la formulación débil es como sigue
ż ż ż
r∇ ¨ pk1 ∇uq ` busv dA ` r´∇ ¨ pk2 ∇uq ` busv dA “ f v dA @ v P H 1 pΩq
Ω1 Ω2 Ω
entonces sustituyendo
ż ż ż
Bu
rk∇u ¨ ∇v ` buvs dA “ f v dA ` k v dS
Ω Ω BΩ Bn
ż ż
“ f v dA ` v ppsq rupsq ´ ûpsqs dS @ v P H 1 pΩq u P H 1 pΩq
Ω BΩ
entonces
ż ż ż ż
rk∇u ¨ ∇v ` buvs dA “ f v dA ´ puv dS ´ pûv dS
Ω Ω BΩ2 BΩ2
ż ż ż ż
pk∇u ¨ ∇v ` buvq dA ` puv dS “ f v dA ` pûv dS
Ω BΩ2 Ω BΩ2
entonces
ż „ ˆ ˙ ȷ ż ż ż
Bφi Bφj Bφi Bφj
k ` ` bφi φj dA ` pφi φj “ f φi dA ` γφi dS
Ω Bx Bx By By BΩh Sh BΩh 2 2
N
ÿ
donde γ “ pû, asi tenemos Mij uj “ Fi i “ 1, 2, . . . , N
j“1
ż „ ˆ ˙ ȷ ż
Bφi Bφj Bφi Bφj
Mij “ k ` ` bφi φj dx dy ` pφi φj dS
Ωh Bx Bx By By BΩh
2
ż ż
Fi “ f φi dx dy ` γφj dS
Ωh BΩh
2
en cada elemento
ż ´ ¯ ż ż
he he he he he he
k∇u ¨ ∇v ` bu v dA “ f v dA ´ σn v dS
e e
Ω Ω BΩ
h h h
si v “ 0 en BΩ1 entonces no habra contribución a la integral de elementos con lados en BΩ1
Ne
ÿ Ne
ÿ
he e e he e e
u “ uj Ψj px, yq v “ vj Ψj px, yq
j“1 j“1
e
Ne : número de nodos en Ω
e
Ψi : funciones de onda locales
por ejemplo: interpolante lineal en dos dimensiones en un triángulo Ne “ 3, entonces
Ne
ÿ e e e e
mij uj “ fi ´ σi i “ 1, 2, . . . , Ne
j“1
e e
m será una matriz de N ˆ N. M con ceros excepto en las filas y columnas correspondientes a
e e e e e
los nodos en el elemento Ω , f y σ se expanden a un vector N ˆ 1 F , σ con entradas no cero
e
solamente en las filas correspondientes a los nodos de Ω , entonces
Nel ż „ ˆ ˙ ȷ Nel
ÿ BΨi BΨj BΨi BΨj ÿ e
k ` ` bΨi Ψj dA “ Mij
e“1 Ω
e Bx Bx By By e“1
Nel ż Nel
ÿ ÿ e
pφi dx dy “ Fi i, j “ 1, . . . , Nel
e“1 Ωe i“1
Nel
ÿ´ e e e
¯
Mij uj ´ Fi ` Σi “ 0 i, j “ 1, . . . , Nel
e“1
donde
Nel ż
p0q
ÿ
Si “ σn φi dS pen nodos interioresq
e“1 BΩe ´BΩh
ż
p1q
Si “ σn φi dS
BΩh
1
ż
p2q
Si “ σn φi dS
BΩh
2
Ejemplo
1. Todos son elementos interiores
ÿ4 ż
p0q
S1 “ σn φ1 dS
e“1 BΩe
ż ż ż ż
“ vσn wφ1 dS ` vσn wφ1 dS ` vσn wφ1 dS ` vσn wφ1 dS vσn w “ 0
Γ1 Γ2 Γ3 Γ4
“ 0
en este ejemplo tenemos condiciones esenciales o de Dirichlet, entonces σn no se conoce en
h p1q
BΩ1 entonces no podemos calcular Si hasta el final
p2q h
Si : σn psq “ ppsqu psq ´ γpsq
ż ´ ÿ ¯ ż ż
p2q
Si « p ui φj ´ γ φi dS γi “ γφi dS Pij “ pφi φj dS
BΩh
2
BΩh
2
BΩh
2
Nel Nel ż Nel ż
ÿ ÿ ÿ
“ pij uj ´ γi “ γφi dS “ pφi φj dS
h h
j“1 e“1 BΩ2 e“1 BΩ2
Nel Nel
ÿ ÿ e
“ γi “ Pij
i“1 e“1
Nel
ÿ p2q
entonces Mij uj “ Fi Si i “ 1, 2, . . . , Nel
j“1
Nel ´ ¯ Nel ´ ¯
ÿ e e
ÿ e e
Mij “ Mij ` Pij Fi “ Fi ` γij
e“1 i“1
Machine Learning 37 Nilson Esteban Molina
$ 2
’
’ ´∇ upx, yq “ f px, yq en Ω
’
&upx, yq “ 0 en Γ41
’
’
2. Bu
’ “ 0 en Γ12 , Γ25 , Γ67 , Γ74
’
’ Bn
% Bu ` βu “ γ en Γ
’
’
56
Bn
determinar el sistema lineal de ecuaciones: seis elementos triangulares, siete nodos
el sistema lineal es de la forma
6 ´
ÿ ¯ Nel
ÿ
e e e e e p0q p1q p2q
Mij uj ´ Fi ` Σi “ 0 i “ 1, . . . , 6 Σi “ Si ` Si ` Si
e“1 e“1
p0q p1q
Si “ 0 , Si no lo podemos conocer
6
ÿ 6
ÿ N
ÿ
e e e p2q p2q
Mij ui “ Fi ´ Si Si “ Pij uj ´ γi
e“1 e“1 j“1
6
ÿ 6
ÿ
e e
Pij “ Pij γi “ γi
e“1 e“1
ÿ6 ´ ¯ ÿ6
e e ` e e ˘
Mij “ Mij ` Pij Fi “ Fi ` γi
e“1 e“1
» 1 1 1 fi » 2 2 2 fi
m11 m12 m13 0 0 0 0 m11 0 m12 m13 0 0 0
—m1 m1 m1 0 0 0 0ffi — 0 0 0 0 0 0 0ffi
— 21 22 23 ffi — 2 2 2
ffi
—m1 m1 m1 0 0 0 0ffi —m 0 m22 m23 0 0 0ffi
1 — 31 32 33 ffi 2 — 221 2 2
ffi
M “ —
— 0 0 0 0 0 0 0ffi
ffi M “ —
—m31 0 m32 m33 0 0 0ffi
ffi
— 0 0 0 0 0 0 0ffi — 0 0 0 0 0 0 0ffi
— ffi — ffi
– 0 0 0 0 0 0 0fl – 0 0 0 0 0 0 0fl
0 0 0 0 0 0 0 0 0 0 0 0 0 0
» fi » fi
0 0 0 0 0 0 0 0 0 0 0 0 0 0
3 3 3
—0 m m12 0 m13 0 0ffi —0 0 0 0 0 0 0 ffi
11
— ffi — 4 4 4 ffi
—0 m3 m3 0 3
m23 0 0ffi —0 0 m11 m12 0 0 m13 ffi
3 — 21 22 ffi 4 — ffi
4 4 4
M “ —
—0 0 0 0 0 0 0ffi
ffi M “ —
—0 0 m21 m22 0 0 m23 ffi
ffi
—0 m3 m3 0 3
m33 0 0ffi —0 0 0 0 0 0 0 ffi
— 31 32 ffi — ffi
–0 0 0 0 0 0 0fl –0 0 0 0 0 0 0 fl
4 4 4
0 0 0 0 0 0 0 0 0 m31 m32 0 0 m33
» fi
0 0 0 0 0 0 0 » fi
—0 0 0 0 0 0 0 0 0 0
0 0 0 0 ffi —0 0
—0 0 m5
— 5 5 ffi 0 0 0 0 0ffi
0 0 m12 m13 ffi —
—0 0 6 6 6 ffi
5 — 11 ffi 6 m11 0 m12 m13 0ffi
M “ —0 0 0 0 0 0 0 ffi M “ —
—0 0
ffi
—
—0 0 0
ffi 0 0 0 0 0ffi
0 0 0 0 ffi —
–0 0 6 6 6
ffi
—
–0 0 m5 5 5
ffi m21 0 m22 m23 0fl
0 0 m22 m23 fl 6 6 5
21
5 5 5 0 0 m31 0 m32 m33 0
0 0 m31 m32 0 0 m33
» 1 fi » 2 fi » fi » fi » fi » fi
f1 f1 0 0 0 0
—f 1 ffi — 0 ffi —f 3 ffi — 0 ffi — 0 ffi — 0 ffi
— 21 ffi — 2 ffi — 13 ffi — 4 ffi — 5 ffi — 6 ffi
—f ffi —f ffi —f ffi —f ffi —f ffi —f ffi
1 — 3 ffi 2 — 2 ffi 3 — 2 ffi 4 — 14 ffi 5 — 1 ffi 6 — 1 ffi
F “—
— 0 ffi F “—
— 02 ffi F “—
— 03 ffi F “—
—f2 ffi — 0 ffi
F “— — 06 ffi
F “—
ffi ffi ffi ffi ffi ffi
— 0 ffi —f ffi —f ffi — 0 ffi — 0 ffi —f ffi
— ffi — 3 ffi — 3 ffi — ffi — 5 ffi — 26 ffi
– 0 fl – 0 fl – 0 fl – 0 fl –f fl –f fl
2 3
4 5
0 0 0 f3 f3 0
Machine Learning 38 Nilson Esteban Molina
entonces M u “ F ´ Σ
» fi » 1 fi » fi
F
» fi
M11 M12 M13 M14 M15 M16 M17 u1 Σ1
2
—M21 M22 M23 M24 M25 M26 M27 ffi —u2 ffi —F ffi
—
ffi — 0 ffi
— ffi — ffi — 3 ffi — ffi
—M31 M32 M33 M34 M35 M36 M37 ffi —u3 ffi —F ffi — 0 ffi
— ffi — ffi — 4 ffi — ffi
—M41 M42 M43 M44 M45 M46 M47 ffi —u4 ffi “ —F ffi ´ —Σ4 ffi
— ffi — ffi — 5 ffi — ffi
—M51 M52 M53 M54 M
Ă55 M
Ă56 M57 ffi —u5 ffi —Fr ffi —Σ5 ffi
— ffi — ffi — ffi — ffi
–M M62 M63 M64 M
Ă65 M
Ă66 M67 fl –u6 fl –Fr6 fl –Σ6 fl
61
M71 M72 M73 M74 M75 M76 M77 u7 F
7
0
1 1 2
F “ f1 ` f1 ` . . .
» fi » fi
0 0 0 0 0 0 0 0
— 0 ffi —0 0 0 0 0 0 0ffi
— ffi — ffi
— 0 ffi —0 0 0 0 0 0 0ffi
— ffi — ffi
— 05 ffi
γ“— —0
P “— 0 0 0 0 0 0ffi
ffi
ffi
—γ ffi —0 0 0 0 P55 P56 0ffi
— 6 ffi — ffi
–γ fl –0 0 0 0 P65 P66 0fl
0 0 0 0 0 0 0 0
Mij “ M
Ă `P
ij ij
Fi “ Fri ` γi
» fi » fi » fi
M11 M12 M13 M14 M15 M16 M17 u1 F1 ´ Σ1
—M21 M22 M23 M24 M25 M26 M27 ffi —u2 ffi — F2 ffi
— ffi — ffi — ffi
—M31 M32 M33 M34 M35 M36 M37 ffi —u3 ffi — F3 ffi
— ffi — ffi — ffi
—M41 M42 M43 M44 M45 M46 M47 ffi —u4 ffi “ —F4 ´ Σ4 ffi
— ffi — ffi — ffi
—M51 M52 M53 M54 M55 M56 M57 ffi —u5 ffi — F5 ffi
— ffi — ffi — ffi
–M61 M62 M63 M64 M65 M66 M67 fl –u6 fl – F6 fl
M71 M72 M73 M74 M75 M76 M77 u7 F7
entonces
M55 “ M
Ă55 ` P55 F5 “ Fr5 ` γ5
M56 “ M
Ă56 ` P56 F6 “ Fr6 ` γ6
M65 “ M
Ă65 ` P65
M66 “ M
Ă66 ` P66
se despejan Σ1 y Σ4
» 1 2 1 1 2 2
fi
m11 ` m11 m12 m13 ` m12 m13 0 0 0
— m1 1 3 1 3 3 ffi
— 1 21 1 m22 ` m11 m23 ` m12 0 m13 0 0 ffi
1 3 1 2 3 4 5 6 2 2 3 6 5 6 4 5 ffi
—m ` m
— 31 21
m32
` m21
m33
` m 32
` m22
` m11
` m11
` m11
m23
` m 14
m 23
` m 12
m 12
` m13
m13
` m13 ffi
— 2 2 4 2 4 4 ffi
M “ — m31 0 m32 ` m21 m33 ` m22 0 0 m23 ffi
— 3 3 6 3 6 6 ffi
— 0 m31 m32 ` m21 0 m33 ` m22 m23 0 ffi
Machine Learning
— 5 6 6 5 6 5 ffi
– 0 0 m21 ` m31 0 m32 m22 ` m33 m23 fl
4 5 4 5 4 5
0 0 m31 ` m31 m32 0 m32 m33 ` m13
39
Nilson Esteban Molina
Machine Learning 40 Nilson Esteban Molina
Elemento Triangular
ż 1 ż mx`a
f pξ, ηq dξ dη
0 0
Coordenadas de Área
A A A
L1 “ 1 L2 “ 2 L3 “ 3
A A A
A1 ` A2 ` A3 “ A ùñ L1 ` L2 ` L3 “ 1
x1 x2 x3
1
A“ y1 y2 y3
2
1 1 1
x x2 x3 x1 x x 3 x1 x2 x
y y2 y3 y1 y y 3 y1 y2 y
A1 1 1 1 A2 1 1 1 A3 1 1 1
L1 “ “ L2 “ “ L3 “ “
A x1 x2 x3 A x1 x2 x3 A x1 x2 x3
y1 y2 y3 y1 y2 y3 y1 y2 y3
1 1 1 1 1 1 1 1 1
» fi » fi » fi
x1 x2 x3 L1 x
– y1 y2 y3 fl –L2 fl “ –y fl
1 1 1 L3 1
x “ L1 x1 ` L2 x2 ` L3 x3
y “ L1 y1 ` L2 y2 ` L3 y3
1 “ L1 ` L2 ` L3
ż 1 ż 1´L1
f pL1 , L2 , L3 q dL2 dL3
0 0
Orden Figura Error Puntos Coordenadas triangulares Coeficientes
2
Primer orden Oph q a 1{3 1{3 1{3 1
3
1{2 1{2 0 1{3
Segundo orden Oph q a, b, c 0 1{2 1{2 1{3
1{2 0 1{2 1{3
Machine Learning 41 Nilson Esteban Molina
Ejemplo
ż ż 2 ż ´1{2x`1
cospx ` yq dx dy “ cospx ` yq dx dy
R 0 0
ż1 ż 1´L1
“ f pL1 , L2 , L3 q
0 0
n
ÿ
“ wi f pL1i , L2i , L3i q
i“1
ÿn
“ wi f pL1i x1 ` L2i x2 ` L3i x3 , L1i y1 ` L2i y2 ` L3i y3 q
i“1
ˆ ˙
1 1 1 1 1 1
“ 1f ¨ 0 ` ¨ 2 ` ¨ 0, ¨ 0 ` ¨ 0 ` ¨ 1
3 3 3 3 3 3
ˆ ˙
2 1
“ 1f ,
3 3
ˆ ˙
2 1
“ cos `
3 3
“ cos 1
« 0.5403
ż ż 1 ż 1´L1 ż 1´L2
f px, y, zq “ f pL1 , L2 , L3 , L4 q dL1 dL2 dL3
R 0 0 0
ÿ
“ wi f pL1i , L2i , L3i , L4i q
i
Elemento Tetrahédrico
Volumen pP JKLq
L1 “ L1 ` L2 ` L3 ` L4 “ 1
Volumen pIJKLq
Vi
donde los Ni “
V
» fi » fi
1 1 1 1 1 1 1 1
1 —x2 x4 x3 xffi 1 — x3 x 1 x4 xffi
V1 “ —
– y2
ffi V2 “ — ffi
6 y4 y3 xfl 6 – y3 y1 y4 y fl
z z4 z3 z z z1 z4 z
» 2 fi » 3 fi
1 1 1 1 1 1 1 1
1 —x4 x2 x1 xffi 1 — x1 x 3 x2 xffi
V3 “ —
– y4
ffi V4 “ — ffi
6 y2 y1 xfl 6 – y1 y3 y2 y fl
z4 z2 z1 z z1 z3 z2 z
N1 “ p2L1 ´ 1q L1 N4 “ p2L4 ´ 1q L4
N2 “ p2L2 ´ 1q L2 N5 “ 4L1 L2
N3 “ p2L3 ´ 1q L3 N6 “ 4L1 L3