0% encontró este documento útil (0 votos)
12 vistas

Elemento Finito

Cargado por

nilson molina
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
12 vistas

Elemento Finito

Cargado por

nilson molina
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 42

Universidad de Nariño

Programa de Fı́sica
Notas de Clase - Machine Learning

Nilson Esteban Molina Montenegro


Agosto - Diciembre , 2024

Contenido
1. Conceptos preliminares para el uso de Python.

2. Aplicación de las distribuciones en la solución de ecuaciones diferenciales(ED).

3. Método de elementos fı́nitos(MEF) para problemas en una, dos y tres dimensiones.

Conceptos preliminares para el uso de Python.


Normalemente en los cursos de fisica computaciones que hemos usado anteriormente hemos traba-
jado definiendo funciones de la siguiente manera:

1 def producto (x , y ) :
2 return x * y
3 print ( producto (2 ,3)

Ahora definiremos funciones de manera más compacta utilizando la función lambda. Esta opción
permite representar funciones en una sola lı́nea, proporcionando una forma concisa de expresar su
funcionalidad. No obstante, es importante señalar que, independientemente de cómo se aplique,
los resultados fundamentales de la función no cambiarán.Concidere el siguiente ejemplo.

1 Funcion_Lambda = lambda x , y : x ** y
2 print ( Funcion_Lambda (3 ,2) )

En este caso, ambas lı́neas de código proporcionadas funcionan de manera equivalente; la única
diferencia es que al utilizar lambda se simplifica el proceso. La sintaxis para definir una función
con lambda es la siguiente: primero, definimos una variable que contiene la función, en este caso
denominada Funcion Lambda. Posteriormente, usamos la palabra clave lambda, seguida de los
parámetros de la función, luego dos puntos y, finalmente, la expresión que representa la funcional-
idad de la función deseada.

1
Machine Learning 2 Nilson Esteban Molina

Diccionarios en Python
En Python, un diccionario es una estructura de datos que permite almacenar pares de clave-valor.
Se puede interpretar como una tabla en Excel en el contexto de Python. Es una colección muta-
ble y desordenada de elementos, donde cada elemento está compuesto por una clave única y un
valor asociado. Los diccionarios son útiles porque permiten almacenar datos mediante una clave
especı́fica en lugar de un ı́ndice numérico, como ocurre en las listas. Se podrı́a considerar que es
una forma más general de una lista.Para definirlos procedemos de la siguiente manera:

1 diccionario = { " A " :3 , " B " :2 , " C " :1}


2 diccionario
3 print ( diccionario [ " B " ])

Es fácil notar que los diccionarios son una forma útil y sencilla de trabajar con listas, ya que per-
miten renombrar o redefinir las variables de manera flexible. Esto se puede hacer de la siguiente
manera:

1 diccionario = { " A " :3 , " B " :2 , " C " :1}


2 diccionario [ " B " = 5]
3 print ( diccionario )

La sintaxis para crear un diccionario se realiza usando llaves {}, donde cada par clave-valor está
separado por dos puntos : y los pares están separados por comas. Por ejemplo, el diccionario
diccionario = {”A”: 3, ”B”: 2, ”C”: 1} define un diccionario con tres pares: la clave ”A”
tiene un valor asignado de 3, la clave ”B” tiene un valor asignado de 2 y la clave ”C” tiene un
valor asignado de 1.

Para acceder o modificar el valor asociado a una clave en un diccionario, se utiliza la sintaxis
de [] con la clave deseada. En el código diccionario[”B”] = 5, se accede a la clave ”B”, cuyo
valor inicial es 2, y se cambia a un valor de 5, modificando ası́ el contenido inicial del diccionario.
Ahora realicemos un manejo más interesante con los diccionarios , consideremos la siguiente lista.

1 A = {0 ,2 ,1 , -3 ,5 ,20 , -10}
2 B = sorted ( A )
3 print ( B )
4 Salida [ -10 , -3 , 0 , 1 , 2 , 5 , 20]

El comando sorted() aplicado a una lista permite ordenar los valores numéricos de esta en orden
ascendente, como se puede observar en el ejemplo anterior. Ahora, apliquemos un concepto similar
a un diccionario. Definimos varios diccionarios de la forma:

1 Datos = [{ " Nombre " : " Nilson " ," Apellido " : " Molina " , " Nacimiento " :
2001} ,{ " Nombre " : " Gabriela " ," Apellido " : " Martinez " , " Nacimiento " :
1998} ,{ " Nombre " : " Miguel " , " Apellido " : " Montilla " , " Nacimiento " :
1964}]
2 Orden_Datos = sorted ( Datos , key = lambda item : item [ " Nacimiento " ])
3 Orden_Datos
4

5 Salida ---- [{ ’ Nombre ’: ’ Miguel ’ , ’ Apellido ’: ’ Montilla ’ , ’ Nacimiento ’:


1964} ,
6 { ’ Nombre ’: ’ Gabriela ’ , ’ Apellido ’: ’ Martinez ’ , ’ Nacimiento ’: 1998} ,
7 { ’ Nombre ’: ’ Nilson ’ , ’ Apellido ’: ’ Molina ’ , ’ Nacimiento ’: 2001}]
Listing 1: Orden por Nacimiento.

1 Datos = [{ " Nombre " : " Nilson " ," Apellido " : " Molina " , " Nacimiento " :
2001} ,{ " Nombre " : " Gabriela " ," Apellido " : " Martinez " , " Nacimiento " :
1998} ,{ " Nombre " : " Miguel " , " Apellido " : " Montilla " , " Nacimiento " :
1964}]
Machine Learning 3 Nilson Esteban Molina

2 Orden_Datos = sorted ( Datos , key = lambda item : item [ " Nombre " ])
3 Orden_Datos
4

5 Salida --- [{ ’ Nombre ’: ’ Gabriela ’ , ’ Apellido ’: ’ Martinez ’ , ’ Nacimiento ’:


1998} ,
6 { ’ Nombre ’: ’ Miguel ’ , ’ Apellido ’: ’ Montilla ’ , ’ Nacimiento ’: 1964} ,
7 { ’ Nombre ’: ’ Nilson ’ , ’ Apellido ’: ’ Molina ’ , ’ Nacimiento ’: 2001}]
Listing 2: Orden por Nombre.

1 Datos = [{ " Nombre " : " Nilson " ," Apellido " : " Molina " , " Nacimiento " :
2001} ,{ " Nombre " : " Gabriela " ," Apellido " : " Martinez " , " Nacimiento " :
1998} ,{ " Nombre " : " Miguel " , " Apellido " : " Montilla " , " Nacimiento " :
1964}]
2 Orden_Datos = sorted ( Datos , key = lambda item : item [ " Apellido " ])
3 Orden_Datos
4

5 Salida --- [{ ’ Nombre ’: ’ Gabriela ’ , ’ Apellido ’: ’ Martinez ’ , ’ Nacimiento ’:


1998} ,
6 { ’ Nombre ’: ’ Nilson ’ , ’ Apellido ’: ’ Molina ’ , ’ Nacimiento ’: 2001} ,
7 { ’ Nombre ’: ’ Miguel ’ , ’ Apellido ’: ’ Montilla ’ , ’ Nacimiento ’: 1964}]
Listing 3: Orden por Apellido.
En los tres códigos analizados, se observa que el operador sorted() permite la ordenación de dic-
cionarios según distintos criterios. En el caso de la fecha de nacimiento, los diccionarios se ordenan
en función del año, de mayor a menor. En el caso de los nombres, se lleva a cabo una ordenación
alfabética, de manera similar a como se realiza para los apellidos.
Consideremos ahora un método para crear pares de datos a partir de dos o más listas. Para ilustrar
este proceso, consideremos el siguiente código:

1 Lista_Numeros = [0 ,3 ,5 ,6 ,1 ,10]
2 Lista_Frutas =[ " Manzanas " ," Pera " , " Mangos " , " Banano " , " Coco " , " Fresas " ]
3 for A , B in zip ( Lista_Numeros , Lista_Frutas ) :
4 print (A , B )
5

6 Salida ---
7 0 Manzanas
8 3 Pera
9 5 Mangos
10 6 Banano
11 1 Coco
12 10 Fresas

Tambien tenemos un operador que nos permite enumerar los elementos de una lista a este se
le conoce como enumerate()
1 Lista_Numeros =[0 ,3 ,5 ,6 ,1 ,10]
2 Lista_Frutas =[ " Manzanas " ," Pera " , " Mangos " , " Banano " , " Coco " , " Fresas " ]
3 for x in enumerate ( Lista_Frutas ) :
4 print ( x )
5

6 Salida ---
7 (0 , ’ Manzanas ’)
8 (1 , ’ Pera ’)
9 (2 , ’ Mangos ’)
10 (3 , ’ Banano ’)
11 (4 , ’ Coco ’)
12 (5 , ’ Fresas ’)
Machine Learning 4 Nilson Esteban Molina

Otro iterador interesante el el iterador map() este aplica una función a cada elemento de una
secuencia (como una lista) y devuelve un iterador con los resultados. Veamos ejemplos de como
podemos usarlo:
1 Cuadrado = lambda x : x **2
2 for i in map ( Cuadrado , range (10) ) :
3 print ( i )
4

5 Salida ----
6 Numeros al cuadrado = 0
7 Numeros al cuadrado = 1
8 Numeros al cuadrado = 4
9 Numeros al cuadrado = 9
10 Numeros al cuadrado = 16
11 Numeros al cuadrado = 25
12 Numeros al cuadrado = 36
13 Numeros al cuadrado = 49
14 Numeros al cuadrado = 64
15 Numeros al cuadrado = 81
Machine Learning 5 Nilson Esteban Molina

Método de Elemento Finito


Para introducir el método consideramos un problema modelo, un problema de valor de frontera de
segundo orden $ ˆ ˙
&´ d ppxq du ` rpxqu “ f pxq a ă x ă b
dx dx (1)
upaq “ A upbq “ B
%
2
donde p P C 1 ra, bs r P Cra, bs f P L ra, bs
ppxq ě C0 ą 0 rpxq ě 0 @ x P ra, bs
Mucho de lo desarrollado para este modelo se puede extender hasta problemas de ecuaciones difer-
enciales parciales, el método de elementos finitos aproxima la solución de una ecuación diferencial
en la forma de funciones (generalmente polinómicas) definidas por partes
Aqui consideraremos dos técnicas para la construcción de las aproximaciones del método de ele-
mentos finitos
Principio de Rayleigh-Ritz El problema de valor de frontera es planteado como un problema
variacional (restringido a problemas simétricos)
Principio de Galerkin Es una formulación débil del problema de ecuaciones diferenciales, es de
aplicación más general

Definición
Una función f : ra, bs ÝÑ R se llama absolutamente continua si para todo ϵ ą 0 existe δ ą 0 tal
n
ÿ
que para toda familia tpai , bi qu de intervalos disjuntos en ra, bs tales que pbi ´ ai q se cumple
i“1
n
ÿ
|f pbi q ´ f pai q| ă ϵ
i“1
se denota por ACra, bs al conjunto de todas las funciones absolutamente continuas en ra, bs

Propiedades
1. ACra, bs Ď Cra, bs
2. ACra, bs es un espacio vectorial
3. Sean f P L1 ra, bs żx
F pxq “ f ptq dt ùñ F P ACra, bs
a

4. ACra, bs Ď BV ra, bs V : variacional acotado


5. Sea f P ACra, bs ùñ f es derivable en todo punto de ra, bs
6. Sea f P ACra, bs, supongamos que f 1 “ 0 casi todo punto ùñ f es constante en ra, bs
żx
7. Sea f P ACra, bs ùñ f pxq “ f paq ` f 1 pxq dx
a

Definición
k
Para un entero positivo k, definimos el espacio de Sobolev H pa, bq como el conjunto de funciones
reales v, definidas en ra, bs tal que v y todas sus derivadas de orden hasta k ´ 1 son absolutamente
continuas en ra, bs
k
d v
k 2
v “ k P L pa, bq
dx
2
v P L pa, bq ðñ }v}2 “ }v} 2
L pa,bq
ˆż b ˙1{2
2
“ |vpxq| dx ă `8
a
Machine Learning 6 Nilson Esteban Molina

k
equiparamos H pa, bq con la norma de Sobolev
˜ ¸1{2
ÿ › n ›2
}v} “ ›v ›
k 2
H pa,bq L pa,bq
m“0

2
los espacios de Sobolev H 1 pa, bq , H pa, bq serán muy importantes en está introducción al método
de elemento finito
H 1 pa, bq si v P H 1 pa, bq
#
v P ACra, bs
2
v P L ra, bs
ˆ › ›2 ˙1{2
2 › p1q ›
}v}H 1 pa,bq “ }v} 2 ` ›v ›
L 2
L

Definición
1. Dados A, B números reales. HE1 pa, bq denotará el conjunto de funciones v P H 1 pa, bq tal que
vpaq “ A y vpbq “ B

2. H01 pa, bq denotará el conjunto de funciones v P H 1 pa, bq tal que vpaq “ 0 y vpbq “ 0

Principio de Rayleigh-Ritz y Galerkin


El principio de Rayleigh-Ritz consiste en convertir el problema de valor de frontera, (2) en un
problema variacional que involucra la minimización de un funcional cuadrático en un espacio de
funciones
definamos el funcional cuadrático J : HE1 pa, bq ÝÑ R de la siguiente forma
żb ” żb
1 1 2 2
ı
J pwq “ ppxqpw q ` rpxqw dx ´ f pxqwpxq dx
2 a a

consideramos ahora el problema variacional.


Determinar u P HE1 pa, bq tal que J puq “ min
1
J pwq
wPH pa,bq
E
a este problema variacional
żb lo llamaremos el principio de Rayleigh-Ritz
definiendo Apw, vq “ rppxqw1 pxqv 1 pxq ` rpxqwpxqvpxqs dx
a
2
recordando el producto interior en L pa, bq
żb
⟨w, v⟩ “ wpxqvpxq dx
a

1
entonces J pwq “ Apw, wq ´ ⟨f, w⟩ donde w P HE1 pa, bq
2
la aplicación A : H 1 pa, bq ˆ H 1 pa, bq ÝÑ R es función bilineal.

Principio de Galerkin
A la identidad Apu, vq “ ⟨f, v⟩ @ v P H01 pa, bq se le llama principio de Galerkin

Teorema
Una función u P HE1 pa, bq minimiza J p¨q en HE1 pa, bq si y solo si Apu, vq “ ⟨f, v⟩ @ v P H01 pa, bq
el principio de Rayleigh-Ritz se cumple si y solo si se cumple el principio de Galerkin.
Demostración
ùñ Asumimos u P HE1 pa, bq minimiza J p¨q en HE1 pa, bq o sea que J puq ď J pwq @ w P HE1 pa, bq
w “ u ` λv v P H01 pa, bq λ P R
Machine Learning 7 Nilson Esteban Molina

como u P HE1 pa, bq ùñ w P HE1 pa, bq


λ ą 0 y v puede ser positivo o negativo

J puq ď J pwq “ J pu ` λvq


1
“ Apu ` λv, u ` λvq ´ ⟨f, u ` λv⟩
2
1” 2
ı
“ Apu, uq ` λApu, vq ` λApv, uq ` λ Apv, vq ´ λ ⟨f, v⟩ ´ ⟨f, u⟩
2
1 1 2
“ Apu, uq ´ ⟨f, u⟩ `λApu, vq ` λ Apv, vq ´ λ ⟨f, v⟩
2
looooooooomooooooooon 2
J puq
1 2
“ J puq ` λrApu, vq ´ ⟨f, v⟩s ` λ Apv, vq
2
1 2
ùñ 0 ď λrApu, vq ´ ⟨f, v⟩s ` λ Apv, vq
2
1
ùñ 0 ď Apu, vq ´ ⟨f, v⟩ ` λApv, vq
2

tomamos el limite cuando λ Ñ 0

0 ď Apu, vq ´ ⟨f, v⟩

ahora consideremos que v “ ´v

1
ùñ 0 ď ´Apu, vq ` ⟨f, v⟩ ` λApv, vq
2

tomando lim λ Ñ 0

0 ď ´Apu, vq ` ⟨f, v⟩
0 ě Apu, vq ´ ⟨f, v⟩

6 Apu, vq ´ ⟨f, v⟩ “ 0 @ v P H01 pa, bq l

Principio de Galerkin y Problema de Valor de Frontera


Definición
Si una función u P HE1 pa, bq satisface el principio de Galerkin, se dice que es una solución débil al
problema de valor de frontera (2) y el principio de Galerkin es referido con la formulación débil
del problema de valor de frontera (2)

Teorema 14.2
2
Si u P H pa, bq X HE1 pa, bq es una solución débil del problema de valor de frontera (2), entonces u
es una solución débil de dicho problema, es decir Apu, vq “ ⟨f, v⟩ @ v P H01 pa, bq
Demostración
$ „ ȷ
&´ d ppxq du ` rpxqu “ f pxq
dx dx
upaq “ A upbq “ B
%
multipliquemos la ecuación diferencial por v P H01 pa, bq
„ ȷ
d du
´ ppxq vpxq ` rpxqupxqvpxq “ f pxqvpxq
dx dx
Machine Learning 8 Nilson Esteban Molina

żb „ ȷ żb żb
d du
integrando ´ ppxq vpxq dx ` rpxqupxqvpxq dx “ f pxqvpxq dx
a dx dx a a
integrando por partes una vez
0
hkkkkkkikkkkkkj
żb „ ȷ żb
d du du du
´ ppxq vpxq dx “ ´vpxqppxq ` ppxqu1 v 1 dx w “ vpxq z “ ´ppxq
a dx dx dx a dx
żb „ ȷ
1 1 1 1 d du
“ ppxqu v dx w “ v dz “ ´ ppxq dx
a dx dx
entonces
żb żb żb
1 1
ppxqu pxqv pxq dx ` rpxqupxqvpxq dx “ f pxqvpxq dx @ v P H01 pa, bq
a a a
żb żb
rppxqu1 pxqv 1 pxq ` rpxqupxqvpxqs dx “ f pxqvpxq dx
a
looooooooooooooooooooooomooooooooooooooooooooooon a

Apu,vq

“ ⟨f, v⟩
6 Apu, vq “ ⟨f, v⟩ @ v P H01 pa, bq l
lo inverso del teorema 14.2 no es cierto en general al menos que u sea lo suficientemente suave

Teorema 14.3
El problema de valor de frontera (2) posee a lo más una solución débil en HE1 pa, bq
Demostración
Supongamos que u, w P HE1 pa, bq son dos soluciones debiles diferentes al problema de valor de
frontera (2)
u ´ w P H01 pa, bq
pu ´ wqpaq “ upaq ´ wpaq pu ´ wqpbq “ upbq ´ wpbq
“ A´A “ B´B
“ 0 “ 0
por ser soluciones debiles, en particular v “ u ´ w
Apu ´ w, u ´ wq “ 0
como ppxq ě C0 ą 0 y rpxq ě 0
żb ” ı
2 2
Apv, vq “ ppxqpv 1 q ` rpxqv dx
a
» fi
żb
ě –C0 pv 1 q2 ` rpxqv 2 fl dx
loomoon
a
ą0
żb
2
ě C0 pv 1 q dx
a
ùñ Apu ´ w, u ´ wq “ 0
żb
2
ě C0 rpu ´ wq1 s dx
a
żb
2
ùñ rpu ´ wq1 s dx “ 0
a
1
pu ´ wq “ 0 casi todas partes
como u, w P H01 pa, bq entonces son absolutamente continuas
u ´ w también es absolutamente continua
si pu ´ wq1 “ 0 en casi todo punto ùñ u ´ w “ cte en ra, bs
pu ´ wqpaq “ pu ´ wqpbq “ 0 ùñ u ´ w “ 0 en ra, bs
6 u“w l
Machine Learning 9 Nilson Esteban Molina

Formulación del Método de Elemento Finito


h
El método de elementos finitos se basa en la construcción de una solución aproximada u al
h
problema mediante la minimización de J p¨q en un subespacio de dimensión finita SE de HE1 pa, bq
h
donde SE Ă HE1 pa, bq
h
una manera sencilla de construir SE es seleccionando una función Ψ P HE1 pa, bq; por ejemplo
N
B´A
Ψpxq “ px ´ aq ` A Ψpaq “ A ^ Ψpbq “ B
b´a
y un conjunto finito φj pxq pj “ 1, . . . , n ´ 1q linealmente independientes en H01 pa, bq para n ě 2,
entonces definimos
# +
n
h h h
ÿ ` ˘ T
SE “ v P HE1 pa, bq : v pxq “ Ψpxq ` vi φi pxq v “ v1 , . . . , vn´1
i“1
n´1
v P R , vi son los coeficientes de la combinación lineal
h h
asi se plantea el problema de aproximación de Rayleigh-Ritz : determinar u P SE tal que
´ h¯ ´ h¯
J u “ min J w
wh PS h
E

Teorema 14.4
´ ¯ D E
h h h h h h h h
Una función u P SE minimiza J p¨q en SE si y solo si A u , v “ f, v @ v P S0
# +
n´1
ÿ
h h h
S0 pa, bq “ v P H01 pa, bq : v pxq “ vi φi pxq
i“1
´ ¯ D E
h h h h h h
al problema de determinar u tal que A u , v “ f, v @ v P S0 se le llama problema de
aproximación del principio de Galerkin (método de Galerkin)

Definición
Las funciones φi i “ 1, 2, . . . , n ´ 1 se llaman funciones base de Galerkin

Teorema 14.5
h h h h
Existe una única función u P SE que minimiza J p¨q en SE , este u se llama la´aproximación
¯ D a upxq
E
h h h h h
de Ritz. Equivalentemente existe una única función u P SE que satisface A u , v “ f, v
h
este u se denomina la aproximación a u de Galerkin, las dos aproximaciones coinciden.
Demostración
Probemos aplicando el principio de Galerkin
´ h h¯ D hE h h
A u , v “ f, v @ v P S0
n´1
ÿ
h
v “ vi φi pxq
i“1

observemos que
˜ ¸ * ¸
n´1
ÿ n´1
ÿ
h
A u , vi φi pxq “ f, vi φi pxq
i“1 i“1
n´1
ÿ ´ h ¯ n´1 ÿ
vi A u , φi “ vi ⟨f, φi ⟩
i“1 i“1
n´1
ÿ ” ´ h ¯ ı
vi A u , φi ´ ⟨f, φi ⟩ “ 0
i“1
Machine Learning 10 Nilson Esteban Molina

´ ¯
h h
entonces A u , φi “ ⟨f, φi ⟩ ya que v es arbitrario
n´1
ÿ
h
buscamos u “ Ψpxq ` uj φj pxq donde uj son los coeficientes
i“1
˜ ¸
n´1
ÿ
ùñ A Ψpxq ` uj φj , φi “ ⟨f, φi ⟩ i “ 1, . . . , n ´ 1
i“1
˜ ¸
n´1
ÿ
ApΨ, φi q ` A uj φj , φi “ ⟨f, φi ⟩
i“1
n´1
ÿ ` ˘
uj A φj ` φi “ ⟨f, φi ⟩
i“1

extendiendo ⟨f, φ1 ⟩ ´ ApΨ, φ1 q


` ˘
⟨f, φ1 ⟩ ´ ApΨ, φ1 q “ A pφ1 , φ1 q u1 ` A pφ2 , φ1 q u2 ` . . . ` A φn´1 , φ1 un´1
..
.
` ˘ ` ˘ ` ˘
f, φn´1 ´ ApΨ, φn´1 q “ A φ1 , φn´1 u1 ` A φ2 , φn´1 u2 ` . . . ` A φn´1 , φn´1 un´1

asi obtenemos un sistema lineal de n ´ 1 ecuaciones con n ´ 1 incognitas M u “ b


» fi » fi » fi
Apφ1 , φ1 q . . . Apφn´1 , φ1 q u1 ⟨f, φ1 ⟩ ´ ApΨ, φi q
.. .. .. — . ffi ..
M“ – fl u “ – .. fl b “ –
— ffi — ffi
. . . . fl
Apφ1 , φn´1 q . . . Apφn´1 , φn´1 q un´1 f, φn´1 ´ ApΨ, φn´1 q

como Ap¨, ¨q es simétrico, entonces Apφi , φj q “ Apφj , φi q ùñ M es simétrica


además M es definida positiva
» n´1 fi
ÿ
¨ ˛ — vj Apφj , φi q ffi
v1 — i“1 ffi
˚ .. ‹ T T — .
..
ffi
pv1 , . . . , vn qM ˝ . ‚ ą 0 v Mv “ v — — ffi
ffi
vn —n´1
ÿ ffi
– fl
vi Apφj , φn´1 q
» i“1 ˜ ¸ fi
n´1
ÿ
— A vj φj , φ1 ffi
— ffi
— i“1 ffi
T —
“ v — .
. ffi
— ˜n´1 . ffi
¸ffi
— ÿ ffi
–A v φ ,φ fl
j j n´1
i“1
˜ ¸
n´1
ÿ n´1
ÿ
“ vi A vj φj , φi
i“1 j“1
˜ ¸
n´1
ÿ n´1
ÿ
“ A vj φj , vi φi
j“1 i“1
´ h h¯
“ A v ,v
żb „ ´ 1 h ¯2 ´ h ¯2 ȷ
“ ppxq v ` rpxq v dx ą 0
a
Machine Learning 11 Nilson Esteban Molina

´1
M es definida positiva ùñ M existe
el sistema tiene una única solución

Mij “ Apφi , φj q
żb
“ rppxqφ1i φ1j ` rpxqφi φj s dx
a
żb żb
bi “ f φi dx ´ rppxqΨ1 pxqφi ` rpxqΨφi s dx l
a a

Funciones Base Lineales en Una Dimensión


Se efectua la partición de mallado de la región, un elemento con nodos en xi´1 y xi
en general los elementos pueden ser de diferente tamaño xi ´ xi´1 “ hi i “ 1, . . . , n ´ 1
x ´ xi´1
$

’ xi´1 ă x ă xi
& hi


φi pxq “ xi`1 ´ x x ă x ă x
i i`1


’ hi`1

%0 en cualquier parte
& x1 ´ x x ă x ă x
$
0 1
φ0 pxq “ h1
%0 x ą x1
$x ´ x
1
’ x0 ă x ă x1
& h1


φ1 pxq “ x2 ´ x x ă x ă x
1 2


’ h2
%
0 x ą x2
$

’ 0 x0 ă x ă x1

’ x ´ x 1
x1 ă x ă x2


&
φ2 pxq “ x ´ x h2
3

’ x2 ă x ă x3



’ h3
%0 x ą x3
$
&0 x0 ă x ă xn´1
φ0 pxq “ x ´ x1
% xn´1 ă x ă xn
hn

observemos que Ψpxq “ Aφ0 pxq ` Bφn pxq donde Ψpxq P HE1 pa, bq, cuando hacemos la combinación
n
ÿ
lineal αi φi pxq obtenemos una función lineal continua
i“0
#
0 |i ´ j| ě 2
φi pxqφj pxq “
‰ 0 en otro caso

Ejemplo
# ´ ¯
2
´u2 ` u “ 1 ` π sin πx 0 ă x ă 1
up0q “ 0 up1q “ 0
ppxq “ 1 rpxq “ 1
Mu “ b
Machine Learning 12 Nilson Esteban Molina

Mij “ Apφj , φi q Ψ “ Aφ0 pxq ` Bφn pxq


ż1
“ rφ1i pxqφ1j pxqφi pxqφj pxqs dx “ 0
ż01 ´ ¯ ż1
2
bi “ 1 ` π sin πxφi pxq dx ´ rΨ1 φi ` Ψφi s dx
ż01 ´ ¯ż 1
0
2
“ 1`π sin πxφi pxq dx
0 0

M es tridiagonal
dos elementos
2
ÿ
h
u “ ui φi pxq M “ rApφ1 , φ1 qs
i“0
M11 u1 “ b1
ż1 ” ı
2 2
“ u1 φ1 pxq “ pφ11 q ` φ1 dx
0
ż1 ´ ¯ż 1
2
b1 “ 1`π φ1 pxq sin πx dx
0 0
b
u1 “ 1 M11 u1 “ b1
M
$1
x´0 1 $
1


& 1 0ăxă &2

0ăxă
2 2
φ1 pxq “ 1 ´2
x 1 φ11 pxq “ 1


% 1 ăxă1 %´2
’ ăxă1
2
2 2
ż1 ´ ¯ ż1
2
M11 “ 4 ` 4x dx ` 2p1 ´ xq sin πx dx
0 1{2
13

3 « ff
´ 2
¯ ż 1{2 ż1
b1 “ 1 ` π 2x sin πx dx ` p2p1 ´ xq sin πx dx
0 1{2
4
“ `4
π2
4
2 ` 4
u1 “ π
13
3
« 1.016

6 elementos
n´1
ÿ
h
u “ ui φi pxq ya que A “ B “ 0
i“1
» fi » fi » fi
M11 M12 0 0 0 u1 u1
—M21 M22 M23 0 0 ffi —u2 ffi —u2 ffi
— ffi — ffi — ffi
— 0 M32 M33 M34 0 ffi —u3 ffi “ —u3 ffi
— ffi — ffi — ffi
– 0 0 M43 M44 M45 fl –u4 fl –u4 fl
0 0 0 M54 M55 u5 u5
Machine Learning 13 Nilson Esteban Molina

Funciones Base Cuadráticas


$
& px ´ x1 qpx ´ x2 q x0 ď x ď x2
φ0 pxq “ px0 ´ x1 qpx0 ´ x2 q
0 x ě x2
%
$
& px ´ x0 qpx ´ x2 q x0 ď x ď x2
φ1 pxq “ px1 ´ x0 qpx1 ´ x2 q
0 x ě x2
%

$
px ´ x0 qpx ´ x1 q

’ x0 ď x ď x2
& px2 ´ x0 qpx2 ´ x1 q


φ2 pxq “ px ´ x3 qpx ´ x4 q
x2 ď x ď x4
’ px2 ´ x3 qpx2 ´ x4 q



0 x ě x4
%
$


’0 x0 ď x ď x2
& px ´ x qpx ´ x q
2 4
φ3 pxq “ x2 ď x ď x4

’ px 3 ´ x 2 qpx 3 ´ x 4q

%0 x ě x4
$
&0 x0 ď x ď xn´2
φn pxq “ px ´ xn´2 qpx ´ xn´1 q
% x0 ď x ď x2
pxn ´ xn´2 qpxn ´ xn´1 q

Funciones Base Cúbicas


Insertamos dos nodos en cada elemento
no cambia la forma de la aproximación
n
ÿ żb
h
u pxq “ ui φi pxq Mu “ b Mij “ rppxqφ1i pxqφ1j pxq ` rpxqφi pxqφj pxqs dx
i“0 a

la mejor estrategia es efectuar integración numérica, la más utilizada es la cuadrática gaussiana


żb ż1
F pxq dx “ Gpzq dz
a ´1
m
ÿ
« wi Gpzi q
i“1

Ejemplo
Cuadráticas, dos elementos
como up0q “ up1q “ 0 entonces no nos interesan φ0 , φ4
$ 1
& px ´ 0qpx ´ 2 q

0ďxă 1
φ1 pxq “ p 14 ´ 0qp 14 ´ 12 q 2

%0 1
2
ďxă1
#
´16xpx ´ 21 q

0
Machine Learning 14 Nilson Esteban Molina

$
xpx ´ 14 q
0 ď x ă 12


’ 1 1 1
p 2 ´ 0qp 2 ´ 4 q
&
φ2 pxq “
’ p 21 ´ 34 qp 12 ´ 1q 1
% p 1 ´ 0qp 1 ´ 1 q 2 ď x ă 1


# 4 4 2
1
8xpx ´ 4 q

8xpx ´ 34 qpx ´ 1q
$
&0
’ 0 ď x ă 12
φ3 pxq “ px ´ 12 qpx ´ 1q 1
% p 3 ´ 1 qp 3 ´ 1q 2 ď x ă 1

4 2 4

Consideremos un problema de ecuaciones diferenciales ordinarias de segundo orden con condiciones


de
$ frontera más generales
2
’ d u du

’ a 2 pxq 2 ` a 1 ` a0 pxqu “ f pxq 0 ă x ă l
dx dx


&
dup0q
α0 ` β0 up0q “ γ0

’ dx

’ duplq
%α1
’ ` β0 uplq “ γl
dx
α0 , β0 , αl , βl , γ0 , γl son constantes
Determinar la formulación débil del problema
żl « 2
ff żl
du du
a2 pxq 2 v ` a1 v ` a0 pxquv dx “ f pxqv dx
0 dx dx 0

żl 2
du
integrando por partes a2 pxq 2 vpxq dx
0 dx
du
w “ a2 pxqvpxq z“
dx
2
du
dw “ ra12 pxqvpxq ` a2 pxqv 1 pxqs dx dz “ dx
dx2
sustituyendo
żl 2 ˇl ż l
du du ˇˇ du
a2 pxq 2 v dx “ a2 pxqvpxq ˇ ´ ra12 pxqvpxq ` a2 pxqv 1 pxqs
0 dx dx 0 0 dx
sustituyendo
ˇl ż l żl żl żl
ˇ
1ˇ 1 1 1
a2 vu ˇ ´ pa2 v ` a2 v qu dx ` a1 u v dx ` a0 uv dx “ f v dx
0 0 0 0 0
żl ˇl żl
1 1 1 1 1
ˇ

ra2 u v ` pa1 ´ a2 qu v ` a0 uvs dx ` a2 vu ˇ “ f v dx u, v P H 1 p0, lq
0 0 0

lo cual es la formulación débil, observemos que


ˇl
ˇ
a2 vu ˇ “ a2 plqvplqu1 plq ´ a2 p0qvp0qu1 p0q

buscamos determinar u; up0q, vplq son también desconocidas, de las condiciones de frontera
γ0 ´ β0 up0q
u1 p0q “
α0
γ ´ βl uplq
u1 plq “ l
αl
entonces ˇl „ ȷ „ ȷ
1
ˇ γl
β l
γ0 β0
a2 v uˇˇ “ a2 plqvplq ´ uplq ´ a2 p0qvp0q ´ up0q
0 αl αl α0 α0
Machine Learning 15 Nilson Esteban Molina

entonces la formulación débil es


żl żl
1 1 1 1 a2 p0qγ0 a2 plqγl a p0qγ0
r´a2 u v ` pa1 ´ a2 qu v ` a0 uvs dx ` up0qvp0q ´ uplqvplq “ f pxqv dx ` 2 vp0q
0 α0 αl 0 α0
a plqγl
´ 2 vplq
αl
ÿN ÿN
h h
u “ uj φj pxq v “ vi φi pxq
j“1 j“1
h h h
u , v P S Ă H 1 p0, lq, sustituyendo
żl
a p0q a plq
r´a2 φ1i φ1j ` pa1 ´ a12 qφj φi ` a0 φi φj s dx ` 2 φi p0qφj p0q ´ 2 φi plqφj plq “
0 α0 βl
żl
a p0q a plq
f φj dx ` 2 γ0 φi p0q ´ 2 φi plq i “ 1, . . . , N j “ 1, . . . , N
0 α0 αl
Mu “ b
K ij
hkkkkkkkkkkkkkkkkkkkkkkkkkkkikkkkkkkkkkkkkkkkkkkkkkkkkkkj
żl
a p0q a plq
Mij “ r´a2 φ1i φ1j ` pa1 ´ a12 qφj φi ` a0 φi φj s dx ` 2 φi p0qφj p0q ´ 2 φi plqφj plq
0 α0 αl
żl
a p0q a plq
b“ f φi dx ` 2 γ0 φi p0q ´ 2 φi plq
0
loooomoooon α0 αl
bi

» fi » fi » fi
M11 M12 ... M1N u1 b1

— M21 M22 ... M2Nffi
ffi

— u2 ffi
ffi


ffi
ffi b2
— .. .. .. ..ffi — ..ffi — ffi ..
— . . . .ffi — .ffi “
— ffi .
— ffi — ffi — ffi
–MpN ´1q1 MpN ´1q2 . . . MpN ´1qN fl –uN ´1 fl –bN ´1 fl
MN 1 MN 2 . . . MN N uN bN
» fi
a2 p0qβ0 a2 p0qγ0
» fi
—K11 ` α K12 ... ... K1N b̄ `
» fi
— 0
ffi
ffi u1 — 1 α0 ffi
K K22 ... ... K2N
— ffi

— 21
ffi
ffi
— u ffi —
— 2 ffi — b̄2 ffi
— .. .. ... .. .. ffi — .. ffi — .
..
ffi
ùñ — . . . . ffi — . ffi “ — ffi
ffi
— ffi — ffi —

— K pN ´1q1
KpN ´1q2 . . . ... KpN ´1qN ffi
ffi
–uN ´1 fl — b̄N ´1 ffi
ffi
– a2 plqβl fl uN – a2 plqγl fl
KN 1 KN 2 . . . KN pN ´1q KN N ´ b̄N ´
αl αl

Problemas Fı́sicos Asociados a la Ecuación Diferencial Ordinaria de


Segundo Orden
Las ecuaciones constitutivas se determinan generalmente en base a los experimentos, son modelos
matemáticos
du
Flujo σ “ ´k donde u es la variable de estado, y k el módulo del material
dx
aplicando la ley de conservación del flujo

“ f
ˆ dx˙
d du
´k “ f pxq
dx dx
El modelo se completa considerando fuentes internas que se asumen de la forma a0 u y otras formas
du
de transferencia como la convección a1
dx
conducción
convección, se ˆ
mueve˙a una velocidad a1
d du du
entonces ´ k ` a1 ` a0 u “ f
dx dx dx
Machine Learning 16 Nilson Esteban Molina

Principio de Conservación


“ f pxq en a ă x ă b
dx
żb
σpbq ´ σpaq “ f dx
a

se define el salto en el flujo en un punto z P ra, bs

vσpzqw “ lim` σpbq ´ lim´ σpaq


bÑz aÑz

es claro que si f pxq es continua ùñ vσpzqw “ 0

Ejemplo
Determinar la formulación débil del siguiente problema
$ „ ȷ
d du du
kpxq ` cpxq ` bpxqupxq “ f pxq x P Ωi i “ 1, 2, 3, 4

’´

2 dx : dx dx




’ du
kpxq “0 en x “ x1





’ 2 dx :
&´ kpxq du “ fˆ


en x “ x2

2 dx
:
’ du
kpxq “0 en x “ x3





’ dx
’ dup0q

α0 ` β0 up0q “ γ0


dx



%αl duplq ` βl uplq “ γl



dx
K 1 pxq no existe en x1
żb
σpbq ´ σpaq “ f pxq dx
a
żb żb
“ f¯pxq dx ` fˆpxq δpx ´ x2 q dx
a a

Determinar una solución clásica en encontrar upxq que satisfaga la ecuación diferencial, las condi-
ciones de frontera y las tres condiciones en el salto en el flujo. Veamos la formulación débil del
problema żl „ ˆ ˙ ȷ żl
d du du
´ k ` cpxq ` bpxqupxq vpxq dx “ f pxqvpxq dx
0 x dx dx 0

integrando por partes


ˆ ˙
d du
w “ vpxq dz “ ´ k
x dx
du
w1 “ v 1 pxq dx z “ ´k
dx
żx ˆ ˙ ˇx żx
d
i`1 du ˇ i`1

i`1
´ k vpxq dx “ ´kvu ˇ ` ku1 v 1 dx
xi x dx xi xi
˜ ¸
3 ż x 3
ÿ ż xi`1 3 żx
ÿ i`1 ÿ i`1
1 xi`1 1 1 1 1 1
ùñ ´ku v|x ` ku v dx ` pku v ` cu v ` buvq dx “ f v dx
i
i“0 xi i“0 xi i“0 xi
3 ´ ¯ 3
ÿ xi`1
ż 3 żx
ÿ ÿ i`1
x
´ku1 v|xi`1 ` pku1 v 1 ` cu1 v ` buvq dx “ f v dx
i
i“0 i“0 xi i“0 xi
Machine Learning 17 Nilson Esteban Molina

´ ¯
1 ´ ´ 1 1 ´ 1 ´ 1 ` `
´k 1 u px
loooomoooon1
q vpx 1
q ´ p´k1 u p0qvp0qq ´ k 2 u px 2
qv px 2
q ´ ´k2 u px 1
qvpx 1
q
σpx1 q
´
´ ´
¯ ´ ¯
1 1 ` 1 ` 1 1 ` `
´k2 u px3 qvpx3 ´ ´k2 u px2 qv px2 q ´ k2 u plqvplq ´ ´k2 u px3 qvpx3 q
3 żx 3 żx
ÿ i`1 ÿ i`1
1 1 1
` pku v ` cu v ` buvq dx “ f v dx
i“0 xi i“0 xi

żl
1
ùñ ´p´k1 u p0qv p0qq´v´ku 1
px1 qwvpx1 q´v´ku
looomooon
1
px2 qwvpx2 q´v´ku
looomooon
1
px3 qwvpx3 q0 ´k2 u plqvplq “
looomooon
1 1
f¯v dx
0
0 fˆ 0

γ0 ´ β0 up0q γl ´ βl uplq
u1 p0q “ u1 p0q “
α0 αl
entonces
żl żl
γ ´ β0 up0q γ ´ βl uplq
k1 0 vp0q ´ fˆvpx2 q ´ k1 l vplq ` 1 1 1
pku v ` cu vuvq dx “ f¯v dx
α0 αl 0 0

entonces la formulación débil del problema es


żl żl
k1 β0 k2 βl kγ kγ
1 1 1
pku v ` cu vuvq dx ´ up0qvp0q ´ uplqvplq “ f¯v dx ` fˆvpx2 q ` 1 0 vp0q ´ 2 l vplq
0 α0 αl 0 α0 αl
N
ÿ N
ÿ
h h h h
u, v P H 1 p0, lq u P S Ă H1 u “ ui φi v “ uj φj
i“1 i“1

Análisis de Error (A Priori)


Lema de Cea
Supongamos que u es la función que minimiza J puq en HE1 pa ă, bq o equivalentemente que u
h
satisface el principio
´ de¯Galerkin,
D Ey que u es su aproximación de Galerkin obtenida minimizando
h h h h h h
J p¨q en SE o A u , v “ f, v @v P S0 entonces
´ h h
¯ h h
A u ´ u , v “ 0 @v P S0
´ h h
¯ ´ h h
¯
A u ´ u , u ´ u “ min A u ´ v , u ´ v
v h PS h
E

h
Error=|u ´ u |
Ap¨, ¨q define un producto interior en H01 pa, bq
żb
Apu, vq “ rppxqu1 v 1 ` rpxquvs dx
a
´ ¯
h h h h
entonces A u ´ u , v “ 0 significa que u ´ u es ortogonal respecto al subespacio S0 , por eso a
la ecuación (2) se le conoce como principio de ortogonalidad de Galerkin

Interpretación Gráfica
h h h
HE1 pa, bq S0 Ă HE1 u P HE1 Ψ P HE1 u P SE
Machine Learning 18 Nilson Esteban Molina

Proyector de Ritz
Sea Ψpxq “ Aφ0 pxq ` Bφn pxq
h h
R : H01 pa, bq ÝÑ S0
h
u ´ Ψ ÝÑ u ´ Ψ
Demostración
1
¯ D Apu,
Por el principio ´de Galerkin E vq “ ⟨f, v⟩ @ v P H0
h h h h
en particular A u, v “ f, v @ v P S0 Ă H01
´ ¯ D E
h h h h h
por el método de Galerkin A u , v “ f, v @ v P S0
´ h h¯ ´ h h¯ D hE h h
ùñA u , v ´ A u , v “ f, v “ 0 @ v P S0
´ h h
¯ h h
ùñA u ´ u , v “ 0 @v P S0
h h
tomemos v P SE
´ h h
¯ ´ h h h h h h
¯
A u ´ v ,u ´ v “ A u ´ u ` u ´ v ,u ´ u ` u ´ v
´ h h
¯ ´ h h h
¯ ´ h h h
¯
“ A u ´ u ,u ´ u ` A u ´ u ,u ´ v ` A u ´ v ,u ´ u
´ h h h h
¯
` A u ´ v ,u ´ v
´ h h
¯ ´ h h h
¯ ´ h h h h
¯
“ A u ´ u , u ´ u ` 2A u ´ u , u ´ v ` A u ´ v , u ´ v

por la simetrı́a de A, como


h h h
´ h h h
¯
u ´ v P S0 ùñ A u ´ u , u ´ v “ 0 por principio de ortogonalidad de Galerkin
´ h h
¯ ´ h h
¯ ´ h h h h
¯
ùñ A u ´ v , u ´ v “ A u ´ u , u ´ u ` A u ´ v , u ´ v
´ ¯
h h h h
como A u ´ v , u ´ v ě 0
´ ¯ ´ ¯
h h h h h h
entonces A u ´ u , u ´ u ď A u ´ v , u ´ v @ v P SE , por lo tanto (3)
se define la norma energı́a } ¨ }A en H01 pa, bq, asi
” 1{2
ı
}v}A “ Apv, vq
"ż b ” ı *1{2
1 2 2
“ ppxqpv q ` rpxqpvq dx
a
h h
(3) prueba que u es la mejor aproximación de SE a la solución débil u P HE1 pa, bq cuando medimos
el error de la aproximación en la norma energı́a
› › › ›
h› h›
›u ´ u › “ min ›u ´ v ›
› ›
A v h PS h A
E

h
ahora una pregunta muy importante es como el error u ´ u depende del tamaño de la subdivisión
h en ra, bs
h h
para analizar esto necesitamos introducir el interpolante del elemento finito I u P SE
h
(I u es interpolante de u P HE1 pa, bq)
n´1
ÿ
h
I upxq “ Ψpxq ` upxi qφi pxq x P ra, bs
i“1

por ser interpolante


h
I upxj q “ upxj q
“ uj
› › › ›
h h h h› h ›
tomando v “ I u P SE , entonces ›u ´ u › ď ›u ´ I u›
› ›
l
A A
Machine Learning 19 Nilson Esteban Molina

Teorema 14.7
2 h h
Supongamos que u P H pa, bq X HE1 pa, bq, y sea I u el interpolante del elemento finito en SE ,
entonces tenemos las siguientes cotas de error
ˆ ˙2
› ›
h › hi
›u ´ I u› 2 }u2 }L2 px ,x q i “ 1, 2, . . . , n hi “ xi ´ xi´1

ď
L pxi´1 ,xi q π i´1 i
› ›
› 1 ´ h ¯1 › h
›u ´ I u › ď i }u2 }L2 px ,x q
› › 2 π
L pxi´1 ,xi q
i´1 i

Demostración
Consideremos el elemento rxi´1 , xi s i “ 1, . . . , n
h
definimos ζpxq “ upxq ´ I upxq x P rxi´1 , xi s
2
entonces ζpxq P H pxi´1 , xi q con ζpxi´1 q “ ζpxi q “ 0
aplicando resultados de convergencia en series de Fourier, estamos seguros que ζpxq puede ex-
pandirse en series de Fourier de la forma
`8
ÿ kπpxi ´ xi´1 q
ζpxq “ ak sin x P rxi´1 , xi s
k“1
hi
`8
kπpx ´ xi´1 q `8
żx żx
i 2 i ÿ ÿ lπpx ´ xi´1 q
ùñ |ζpxq| dx “ ak sin ¨ al sin dx
xi´1 xi´1 k“1 hi l“1
hi
żx `8
ÿ `8
i ÿ kπpx ´ xi´1 q lπpx ´ xi´1 q
“ ak al sin sin dx
xi´1 k“1 l“1 hi hi
`8 żx
ÿ i kπpx ´ xi´1 q lπpx ´ xi´1 q
“ ak al sin sin dx
k,l“1 xi´1 hi hi

x ´ xi´1
tomando t “ hi dt “ dx t “ 0 ÝÑ t “ 1
hi
`8
ÿ żl
“ hi ak al sin kπt sin lπt dt
k,l“1 0
`8
hi ÿ
“ a aδ
2 k,l“1 k l lk
`8
hi ÿ 2
a “
2 k“1 k
#
0 k‰l
con la delta de Kronecker δkl “ de la misma forma
1 k“l
żx `8 ˆ ˙2
i
1 hi ÿ kπ
2 2
|ζ pxq| dx “ |ak |
xi´1 2 k“1 hi
żx `8 ˆ ˙4
i
2 2 hi ÿ kπ 2
|ζ pxq| dx “ |ak |
xi´1 2 k“1 hi
ya que
`8
1
ÿ kπ kπpx ´ xi´1 q
ζ pxq “ ak cos
k“1
hi hi


donde ak es un nuevo coeficiente
hi
`8 ˆ ˙2
2
ÿ kπ kπpx ´ xi´1 q
ζ pxq “ ´ ak sin
k“1
hi hi
Machine Learning 20 Nilson Esteban Molina

y entonces
żx `8
i 2 hi ÿ 2
|ζpxq| dx “ |ak |
xi´1 2 k“1
4 4 `8
hi hi π ÿ 2
“ 4 4 |ak |
2 hi hi k“1
`8 4 4
h h ÿ π 4 2 4
ď i i4 4 k |ak | k ě1
2 hi k“1 hi
ˆ ˙4 ż x
hi i 2
“ |ζ 2 pxq| dx
π xi´1
h
ζpxq “ u ´ I u
h
Si I u es polinómica de primer grado ùñ ζ 2 pxq “ u2 pxq, entonces se obtienen las cotas de error
del teorema
żx ˆ ˙4
i 2 2 hi
|ζpxq| dx “ }ζpxq} 2 ùñ }ζpxq} 2 ď }ζ 2 pxq} 2
xi´1 L pxi´1 ,xi q L pxi´1 ,xi q π L pxi´1 ,xi q

ˆ ˙2
2 hi
ùñ } loζpxq
omoon }L2 px ,x q ď π }u2 pxq} 2
L pxi´1 ,xi q
i´1 i
u´I h u
h
además si I u es interpolante de segundo grado ζ 3 pxq “ u3 pxq entonces
ˆ ˙3
› ›
h › hi
›u ´ I u› }u3 pxq} 2

ď
2
L px ,x q
π L pxi´1 ,xi q
i´1 i

3
pero ahora se necesita que u P H pa, bq X HE1 pa, bq
żl żl
sin kπt sin lπt dt “ cos kπt cos lπt dt
0 0
h
se puede entonces generalizar: si I u es un interpolante polinómico de grado m, entonces
ˆ ˙m`1 ›

h ›
› hi › pm`1q ›

u I u u

› ´ › ď › pxq›
2
L px ,x q
π 2
L px ,x q
i´1 i i´1 i

m`1
con u P H pa, bq X HE1 pa, bq, si
1 ›
› pm`1q ›

c“ max ›u pxq›
π m`1 xPpxi´1 ,xi q 2
L pxi´1 ,xi q
› ›
h› m`1 h
entonces ›u ´ u › ď chi m de grado I u

2
L pxi´1 ,xi q

en la norma energı́a } ¨ }A se puede probar que


› ›
h› m h
›u ´ u › ď khi m de grado I u

Apxi´1 ,xi q
› ›
h›
ei “ ›u ´ u ›

pxi´1 ,xi q

tomamos h “ max thi u


› ›
h› m`1
›u ´ u › ď kh

2
› ›L pa,bq
h› m
›u ´ u › ď kh

› › Apa,bq
h
ln ›u ´ u › ď pm ` 1q ln h ` ln c
› ›
l
2
L pa,bq

en un punto xi
Machine Learning 21 Nilson Esteban Molina

Corolario 14.1
2
Supongamos que u P H pa, bq X HE1 pa, bq, entonces
#ˆ ˙ ˆ ˙4 +
›2 n 2

h ›
ÿ hi hi 2
›u ´ I u› ď Pi ` Ri }u2 } 2

A
i“1
π π L pxi´1 ,xi q

donde Pi “ max ppxq y Ri “ max rpxq


xPrxi´1 ,xi s xPrxi´1 ,xi s

Corolario 14.2
2
Supongamos que u P H pa, bq X HE1 pa, bq, entonces
#ˆ ˙ ˆ ˙4 +
n 2

h ›
› ÿ hi hi 2
›u ´ I u› ď Pi ` Ri }u2 } 2

A
i“1
π π L pxi´1 ,xi q

donde Pi “ max ppxq y Ri “ max rpxq, y además


xPrxi´1 ,xi s xPrxi´1 ,xi s

# ˆ ˙2 +1{2

h ›
› h h
u I u › ď i P` R }u2 } 2

› ´
A π π L pa,bq

P “ max ppxq R “ max rpxq h “ max hi


xPra,bs xPra,bs 1ďiďn

Análisis de Error (A Posteriori)


Consideremos el problema de valor de frontera
$

’ ´pppxqu1 q1 ` qpxqu1 ` rpxqu “ f pxq a ă x ă b

&upaq “ A
’ upbq “ B
1 2

’ p, q P C pa, bq f P L pa, bq ppxq ě c0 ą 0

’ 1
%rpxq ´ q 1 pxq ď c ą 0 en ra, bs
1
2
żb
entonces Apw, vq “ rppxqw1 v 1 ` qpxqw1 v ` rwvs dx
a
la formulación débil consiste
› en determinar
› u P H 1 pa, bq tal que Apu, vq “ ⟨f, v⟩ @ v P H01 pa, bq
h ›
el objetivo es cuantificar ›u ´ I u› en terminos de parámetros de la malla h, y de la aproxi-

2
L pa,bq
h
mación u en lugar de hacerlo en terminos de u
para hacer este análisis de error se considera el problema auxiliar
# ´ ¯
h
´pppxqz 1 q1 ` pqpxqzq1 ` rpxqz “ u ´ u pxq a ă x ă b
zpaq “ 0 zpbq “ 0

este es llamado el problema dual o adjunto, se encuentra que


˜ ¸1{2
n
› ›
h› 1 ÿ › ´ ¯›
4 h ›
›u ´ u › hi ›R u › }z 2 }
› ›
ď 2 2
2
L pa,bq
π i“1 2
L pxi´1 ,xi q
L p0,1q

´ ¯ „ ˆ ´ ¯1 ˙1 ´ ¯1 ȷ
h h h h
con R u pxq “ f pxq ´ ´ ppxq u ` qpxq u ` rpxqu que es el residuo del elemento
finito
Machine Learning 22 Nilson Esteban Molina

Lema 14.1
Supongamos que z es la solución débil del problema dual (14.33), (14.34), entonces existe una
constante positiva k dependiendo de p, q, r solamente tal que
› ›
h›
}z 2 } 2 ď k ›u ´ u ›

L pa,bq
2
L pa,bq
„ ¯1{2 ȷ
1 1 ´
1 2 1 2
con k “ 1` }p ` q}8 ` }r ´ q }8
c0 mintc0 , c1 u
con estos resultados obtenemos cota de error que se pueden calcular después de obtener la aprox-
imación
˜ ¸1{2
n

h
› ÿ 4
› ´ ¯›
h k
›u ´ u › ď k0 hi ›R u › k0 “ 2
› › › ›
2
L pa,bq i“1 2
L px ,x q
π
i´1 i

este resultado (14.43) nos permite definir criterios de paro


› ›
h›
›u ´ u › ď Tol

2
L pa,bq
˜ ¸1{2
n
ÿ › ´ ¯›
4 h ›
k0 hi ›R u › ď Tol

2
i“1 L pxi´1 ,xi q

y elemento por elemento


ˆ ˙2
› ´ ¯›
4 h › 1 Tol
hi ›R u ›

ď
2
L pxi´1 ,xi q
n k0

Ejercicio
1. Ejercicio 14.1
żx
vpxq “ v 1 pξq dξ v P HE1 pa, bq x P ra, bs HE1 pa, bq “ tv P H 1 pa, bq : vpaq “ 0u
0 0
a

żb
2 2
}vpxq} 2
“ |vpxq| dx
L pa,bq
a
ż b ˇż x ˇ2
ˇ 1
ˇ
“ ˇ
ˇ v pξq dξ ˇ dx
ˇ
a a

recordando la desigualdad de Cauchy-Schwarz | ⟨w, z⟩ | ď }w} }z}


żb
2
producto interior en L pa, bq : ⟨w, z⟩ “ wz dx, entonces
a
ˇż x ˇ2
ˇ ď }1}2 2
ˇ 1
ˇ
ˇ
ˇ 1 ¨ v pξq dξ ˇ 2
}v 1 pξq} 2
L pa,xq L pa,xq
a
2
ď px ´ aq}v 1 pξq} 2
L pa,bq

entonces
żb
2 2
}vpxq} 2
ď px ´ aq}v 1 } 2 dx
L pa,bq L pa,bq
a
żb
1 2
“ }v } 2 px ´ aq dx
L pa,bq
a
2 ˇb
ˇ
2 px ´ aq
“ }v 1 } 2
ˇ
ˇ
L pa,bq 2 ˇ
a
2
pb ´ aq 1 2
“ }v } 2
2 L pa,bq
Machine Learning 23 Nilson Esteban Molina

# 4
´p0 u2 ` r0 u “ f pxq p0 ą 0 , r0 ą 0 f P C r0, 1s
2.
up0q “ up1q “ 0
1
xi “ ih i “ 0, 1, . . . , n h“
n
px ´ xi´1 q
$ $
1

’ xi´1 ď x ď xi ’
’ xi´1 ď x ď xi

& h &h

φi pxq “ φ1i pxq “
% pxi`1 ´ xq x ď x %´ 1

’ ’

xi ď x ď xi`1
’ ’
h i
h

Mu “ b
ż1 ż1
1 1
Mij “ pp0 φi φj ` r0 φi φj q dx bi “ f φi dx
0 0
ż x1 ˜ 2
¸ ż x2 ˜ 2
¸
1 x 1 px2 ´ xq
M11 “ p0 2 ` r0 2 dx ` p0 2 ` r0 dx
0 h h x1 h h2
2p0 2r0 h
“ `
h 3
M11 “ Mii i “ 2, . . . , n ´ 1
por ser p0 , r0 constantes
ż1
M12 “ pp0 φ11 φ12 ` r0 φ1 φ2 q dx
0
ż x2 « ˆ ˙ˆ ˙ 2 2
ff
1 1 px2 ´ xq px1 ´ xq
“ p0 ´ ` r0 dx
x1 h h h h
p0 r0 h
“ ´ `
h 6
M es simétrica ya que Ap¨, ¨q es simétrica

Mij “ Mji

observamos que la matriz es tridiagonal

M12 “ Mipi`1q
“ Mpi´1qi
p rh
“ ´ 0 ` 0
h 6
» fi
2p0 2r0 h p0 r0 h
— h ` 6 ´ ` 0 0 ... 0 » fi » fi
— p h 6 ffi u 1 ⟨f, φ1 ⟩
— ´ 0 ` r0 h 2p0 ` 2r0 h ´ p0 ` r0 h 0
ffi
. ..
... 0 ffi — .. ffi —
ffi — ffi — ffi
— h 6 h 6 h 6 . ffi

.. .. .. ..
ffi — . ffi — .. ffi
0 . . . . 0 ffi — .. ffi — .
— ffi — ffi — ffi
— ffi
— .. .. .. .. .. .. ffi — . ffi — “ .. ffi
. . . . . . . .
ffi — . ffi —
— ffi — ffi — ffi
— ffi
— .. ... ... ... ffi — .
p0 r0 h ffi – . fl – ffi — .. ffi
— . . . . ´ ` . . fl
— h 6 ffi un´1 f, φn´1
– p r h 2p0 2r0 h fl
0 ... ... ... ´ 0 ` 0 `
ˆ ˙ ˆ ˙ h ´ 6 h 6
p0 r0 h 2p0 2r0 h p0 r0 ¯
entonces ´ ` ui´1 ` ` ui ` ´ ` ui`1 “ ⟨f, φi ⟩
h 6 h 3 h h
pu ´ 2ui ` ui`1 q pu ` 4ui ` ui`1 q 1
entonces ´p0 i´1 2 ` r0 i´1 “ ⟨f, φ1 ⟩
h 6 h
formulación tipica que resulta en el método de diferencias finitas
Machine Learning 24 Nilson Esteban Molina

procedemos a calcular ⟨f, φi ⟩


ż1
⟨f, φi ⟩ “ f pxqφi pxq dx
ż01
“ φi pxq rf pxi q ` f 1 pxi qpx ´ xi q ` . . .s dx
ż0x
i px ´ xi´1 q
“ rf pxi q ` f 1 pxi qpx ´ xi q ` . . .s dx
xi´1 h
żx
i`1 pxi`1 ´ xq
` rf pxi q ` f 1 pxi qpx ´ xi q ` . . .s dx
xi h
żx żx
i i`1
“ px ´ xi ` xi ´ xi´1 q dx ` ´px ´ xi ` xi ` xi`1 q dx
xi´1 xi
# 2 3 2
1 px ´ xi´1 q px ´ xi q px ´ xi q
“ f pxi q ` f 1 pxi q `h
h 2 3 2
ˇx i
« 4 3
ff+ˇ
f 2 pxi q px ´ xi q px ´ xi q
`h ` ... ˇ
ˇ
`
2 4 3 ˇ
xi´1
# 2
« 3 2
ff
1 px ´ xi`1 q px ´ x q px ´ x q
` ´f pxi q ´ f 1 pxi q i
´h i

h 2 3 2
« 4 3
ff+ˇxi`1
f 2 pxi q px ´ xi q px ´ xi q ˇ
´h ´ ... ˇ
ˇ
´
2 4 3 ˇ
xi
˜ 3 3
¸
1 f 2 pxi q h h ´ 5¯
“ h f pxi q ` Of pxi q ` ` `O h
2 12 12

2
1 h 2 ´ 4¯
ùñ ⟨f, φi ⟩ “ f pxi q ` f pxi q ` O h
h 12
pui´1 ´ 2ui ` ui`1 q pu ` 4ui ` ui`1 q
ùñ ´ p0 2 ` r0 i´1 “ f pxi q
h 6
1 2 ´ 4¯
` h f 2 pxi q ` O h
12
pu ´ 2ui ` ui`1 q pu ` 4ui ` ui`1 q
Ti “ ´p0 i´1 2 ` r0 i´1
h 6
2
h 2 ´ 4
¯
“ f pxi q ` O h
12
4
de la ecuación diferencial ´p0 u ` r0 u2 “ f 2 , entonces
2 2
h 2 ´ 4¯ h ´ 4 2
¯ ´ 4¯
f pxi q ` O h “ ´p0 u ` r0 u ` O h
12 12
2 2
h ph 4 ´ 4¯
“ r0 u2 ´ 0 u ` O h
12 12
2
ph 4 ´ ¯
4
expandiendo ´ 0 u en series de Taylor este término tiene también O h
12
2 2
h 2 ´ 4¯ h ´ 4¯
ùñ f pxi q ` O h “ r0 u2 pxi q ` O h
12 12
r0 2
´ h
¯ 2
si M “ max u pxq entonces max upxi ´ u pxi q ď M h
12 xPr0,1s 0ďiďn
Machine Learning 25 Nilson Esteban Molina

Problema de Valores de Frontera en Dos Dimensiones


Conceptos Necesarios
Bu Bu
Gradiente ∇ upx, yq “ î ` ĵ
Bx By
u campo escalar
2
u : R ÝÑ R
px, yq ÝÑ upx, yq

∇u campo vectorial
2 2
∇u : R ÝÑ R
px, yq ÝÑ ∇upx, yq

Derivada direccional
Bu
“ ∇u ¨ n
Bn
Bu Bu
“ cos θ ` sin θ
Bx By

Flujo
Ω región BΩ frontera de Ω σ flujo (campo vectorial)
ÿ ż
σn “ σ ¨ n w“ σn psq ds flujo neto en Bw
Bw

en una región rectangular


w tiene área ∆x∆y

Divergencia en P0
Definición
flujo neto cruzando la frontera
lim “ divergencia del flujo en P0
wÑ0 área de la región
en el caso de la región rectangular tenemos

Flujo neto “ ∆ypσx ` ∆σx ´ σx q ` ∆xpσy ` ∆σy ´ σy q


“ ∆y ∆σx ` ∆x ∆σy

área de la región=∆x ∆y

∆y ∆σx ` ∆x ∆σy ∆σx ∆σy


lim “ lim ` lim
wÑ0
∆x ∆yÑ0
∆x ∆y ∆xÑ0 ∆x ∆yÑ0 ∆y
ˇ
Bσx Bσy ˇˇ
“ `
Bx By ˇP
0

“ div σpP0 q

se denota como div σ o ∇ ¨ σ


B B
∇“ î ` ĵ
Bx By
σ “ σx î ` σy ĵ
Bσx Bσy
∇¨σ “ `
Bx By
Machine Learning 26 Nilson Esteban Molina

∇ ¨ σ flujo neto en un punto


ż
ÿ
flujo neto en Ω : Ω“ ∇ ¨ σ dA pdA “ dx dyq

este flujo neto en Ω es igual al flujo neto cruzando BΩ
ż
∇ ¨ σ dS pσn “ σ ¨ nq
BΩ
ż ż
entonces ∇ ¨ σ dA “ σ ¨ n dS teorema de la divergencia de Gauss
Ω BΩ

Desarrollo de Modelos en Ecuaciones Diferenciales Parciales


La ecuación constitutiva σpx, yq “ ´kpx, yq ∇upx, yq ; ´kpx, yq módulo del material
principio de conservación: flujo neto cruzando la frontera es el flujo aportado por la fuente f
ż ż
ùñ σ ¨ n dS “ f px, yq dA
BΩ Ω

si esto se cumple para cada ω


ż ż
σ ¨ n dS “ f px, yq dA
Bω ω

por el teorema de la divergencia


ż ż
∇ ¨ σ dA “ f px, yq dA
ż ω ω

p∇ ¨ σ ´ f q dA “ 0
ω
como es cierto para cualquier ω en Ω, entonces ∇ ¨ σ ´ f “ 0 en Ω
para ciertas condiciones de suavidad de f y u
∇ ¨ σ “ f px, yq en σ
∇ ¨ p´kpx, yq ∇upx, yqq “ f px, yq
este modelo considera solamente difusión del flujo, si k es constante entonces
´k ∇ ¨ ∇u “ f
2
´k ∇ u “ f px, yq
˜ 2 2
¸
B u B u
´k ` 2 “ f px, yq ecuación de Poisson
Bx2 By
2
Si f px, yq “ 0 tenemos que ∇ u “ 0 ecuación de Laplace
también podemos agregar términos al modelo, por ejemplo si existe fuente interna
´∇ ¨ pk ∇uq ` bpx, yq u “ f px, yq
también existen otros mecanismos de flujo, como la convección forzada o advección
para completar nuestra formula de integración por partes en dos y tres dimensiones se puede probar
que
2
∇ ¨ pv ∇uq “ v ∇ u ` ∇v ¨ ∇u
aplicando el teorema de la divergencia probar que
ż ż ż
2 Bu
´ v ∇ u dx dy “ ∇v ¨ ∇u dx dy ´ v dS
Ω Ω BΩ Bn
2
´v ∇ u “ ∇v ¨ ∇u ´ ∇ ¨ pv ∇uq
ż ż
∇ ¨ σ dA “ σ ¨ n dS σ “ v ∇u
ż Ω żBΩ ż
2
ùñ ´ v ∇ u dA “ ∇v ¨ ∇u dA ´ v ∇u ¨ n dS

żΩ żBΩ
Bu
“ ∇v ¨ ∇u dA ´ v dS
Ω BΩ Bn
Machine Learning 27 Nilson Esteban Molina

que es nuestra formula de integración por partes, un modelo para problema de difusión
´∇ ¨ pk ∇uq ` bu “ f
intergración por partes (más general)
v∇ ¨ pk ∇uq “ ∇ ¨ pvk ∇uq ´ k ∇u ∇v

Condiciones de Frontera en Dos Dimensiones


De Dirichlet (condiciones esenciales) upsq “ ûpsq s P BΩ
Bupsq
De flujo (condiciones naturales) ´kpsq “ ppsq pupsq ´ ûpsqq ley de enfriamiento de New-
Bn
ton
condiciones de flujo cuando existe discontinuidad en el material
2 :
Bu
´k “0
Bn Γ

Formulación Débil del Problema de Valor de Frontera en Dos Dimen-


siones
Ejemplo
2
´∇ u ` λu “ f px, yq en Ω upx, yq “ 0 en BΩ λ constante
´ 2
¯
´∇ u ` λu vpx, yq “ f px, yq vpx, yq @ v P H01
integrando
ż ´ ¯ ż
2
´v ∇ u ` λu v dA “ f px, yq dA

ż ´ żΩ
2
¯
´v ∇ u ` λuv dA “ f px, yq v dA
Ω Ω

integrando por partes


ż ż ż
2 Bu
v ∇ u dA “ ∇u ¨ ∇v ´ v dS
Ω Ω BΩ Bn
entonces nos queda
ż ż ż ż
Bu
∇u ¨ ∇v dA ` λuv dA ´ v dS “ f v dA
Ω Ωż Bn
BΩ żΩ
p∇u ¨ ∇v ` λuvq dA “ f v dA @ v P H01 pΩq
Ω Ω

la cual es nuestra formulación débil simétrica


ż ˆ ˙ ż
Bu Bv Bu Bv
` ` λuv dx dy “ f v dx dy
Ω Bx Bx By By Ω

la norma H 1 :
› ›2 › ›2
2 2 › Bv › › Bv ›
}v}H 1 “ }v} 2 ` › ›
› › ` ›› ››
L pΩq Bx L2 pΩq By L2 pΩq
« ˙2 ff
ż ˆ ˙ 2 ˆ
2 Bv Bv
“ v ` ` dx dy
Ω Bx By

obtener las formulaciones débiles en dos y tres dimensiones no representa mayor dificultad, las
dificultades se presentan debido a que los elementos pueden tomar muchas formas
interpolando a través de una cuadrática
Machine Learning 28 Nilson Esteban Molina

Interpolación Triangular en Dos Dimensiones


Sea la función lineal vh px, yq “ α ` βx ` γy
observemos que para determinar α, β y γ ocupamos tres puntos independientes en el plano,lo cuales
forman triángulos, entonces
e e e
v1 “ vh px1 , y1 q v2 “ vh px2 , y2 q v3 “ vh px3 , y3 q
“ α1 ` β2 x1 ` γ3 y1 “ α2 ` β2 x2 ` γ3 y2 “ α3 ` β2 x3 ` γ3 y3

en un elemento de Ωe de Ω, resolviendo el sistema para α, β y γ


1
α“ rv px y ´ x3 y2 q ` v2 px3 y1 ´ x1 y3 q ` v3 px1 y2 ´ x2 y1 qs
2Ae 1 2 3
1
β“ rv py ´ y3 q ` v2 py3 ´ y1 q ` v3 py1 ´ y2 qs
2Ae 1 2
1
γ“ rv px ´ x2 q ` v2 px1 ´ x3 q ` v3 px2 ´ x1 qs
2Ae 1 3
con

1 x1 y 1
1
Ae “ 1 x2 y 2
2
1 x3 y 3
e e e e
entonces Vh px, yq “ v1 φ1 px, yq ` v2 φ2 px, yq ` v3 φ3 px, yq

e 1
Ψ1 px, yq “ rpx y ´ x3 y2 q ` py2 ´ y3 qx ` px3 ´ x2 qys
2Ae 2 3
e 1
Ψ2 px, yq “ rpx y ´ x1 y3 q ` py3 ´ y1 qx ` px1 ´ x3 qys
2Ae 3 1
e 1
Ψ3 px, yq “ rpx y ´ x2 y1 q ` py1 ´ y2 qx ` px2 ´ x1 qys
2Ae 1 2

encontramos α, β y γ con la regla de Cramer


» fi » fi » fi
1 x1 y 1 α v1
–1 x2 y2 fl –β fl “ –v2 fl
1 x3 y 3 γ v3

v1 x1 y1 1 v1 y1 1 x1 v1
v2 x2 y2 1 v2 y2 1 x2 v2
v3 x3 y3 1 v3 y3 1 x3 v3
α“ β“ γ“
|A| |A| |A|

Interpolación con Polinomios de Orden Superior en Dos Dimensiones


1
x y grado 1
2 2
x xy y grado 2
3 2 2 3
x xy xy y grado 3
pk ` 1qpk ` 2q pk ` 1qpk ` 2q
es facil verificar que un polinomio de grado k tiene términos, ocupamos
2 2
nodos en cada elemento
Machine Learning 29 Nilson Esteban Molina

Cambio de Coordenadas
e e e e
Vh px, yq “ v1 Ψ1 px, yq ` v2 Ψ2 px, yq ` v3 Ψ3 px, yq
e e e
“ v1 Ψ1 ` v2 Ψ2 ` v3 Ψ3

vamos a pasar de un sistema cartesiano a un sistema de coordenadas naturales o normalizado, el


más simple está dado por el triángulo que tiene sus lados en los ejes

ξ“0 η“0 1´ξ´η “0

definimos la transformación como


#
x “ xpξ, ηq
Te : Ω
p ÝÑ Ωe Te “
y “ ypξ, ηq
por $
&Ψ1 “ 1 ´ ξ ´ η
’ p
e
Vh px, yq : Ψp2 “ ξ (2)

Ψ3 “ η
%p

3
ÿ 3
ÿ
x“ xi Ψ
p pξ, ηq
j
y“ yj Ψ
p pξ, ηq
j
(3)
j“1 j“1
´1
sustituyendo (2) en (3) : Te : Ωe ÝÑ Ω
p

ξ “ ξpx, yq
1
“ rpy ´ y1 qpx ´ x1 q ´ px3 ´ x1 qpy ´ y1 qs
2Ae 3
η “ ηpx, yq
1
“ rpy ´ y2 qpx ´ x1 q ´ px0 ´ x1 qpy ´ y1 qs
2Ae 1

donde Ae representa el área del elemento Ωe , obtenemos las funciones base


e
Ψ1 px, yq “ Ψ
p 1 pξ, ηq
e
Ψ px, yq “ Ψ
2
p 2 pξ, ηq
e
Ψ3 px, yq “ Ψ
p 3 pξ, ηq

Interpolación Rectangular en Dos Dimensiones


Usamos como aproximación de los cuatro puntos un polinomio bilineal, el cual es lineal en las
variables x, y que tiene la forma general

vpx, yq “ a1 ` a2 x ` a3 y ` a4 xy ai constantes i “ 1, . . . , 4

Si x̄i “ pxi , yi q

v1 “ a1 ` a2 x1 ` a3 y1 ` a4 x1 y1 v2 “ a1 ` a2 x2 ` a3 y2 ` a4 x2 y2
v3 “ a1 ` a2 x3 ` a3 y3 ` a4 x3 y3 v4 “ a1 ` a2 x4 ` a3 y4 ` a4 x4 y4
x ´ x0 x ´ x1 x ´ x2 x ´ x1
f1 px1 , y1 q “ f px1 , y1 q ` f px2 , y1 q f2 px1 , y2 q “ f px1 , y2 q ` f px2 , y2 q
x1 ´ x0 x2 ´ x1 x1 ´ x2 x2 ´ x1

el polinomio bilineal que pasa por esos puntos es


y ´ y2 y ´ y1
f px, yq “ f1 px1 , y1 q ` f px , y q
y1 ´ y2 y2 ´ y1 2 1 2
ˆ ˙ˆ ˙ˆ ˙
x ´ x2 c11 c12 y ´ y2

x ´ x1 c21 c22 y ´ y1
Machine Learning 30 Nilson Esteban Molina

f pxi , yj q
donde cij “ para i, j “ 1, 2
pxi ´ x3´i qpyj ´ y3´j q
como las funciones base serán polinomios bilineales, estos cumpliran que en el nodo principal serán
uno, y cero en los tres restantes. Sea
ˆ ˙
c11 c12
C“
c21 c22
entonces tendremos los siguientes cuatro casos para la forma que tendra c al definir ϕi a trozos
» fi
0 0
— ffi
1. c “ —
– 1
ffi
fl
0
px2 ´ x1 qpy2 ´ y1 q
» fi
1
—0 px1 ´ x2 qpy2 ´ y1 q ffi
2. c “ —

ffi
fl
0 0
» fi
1
— px ´ x qpy ´ y q 0ffi
3. c “ —

1 2 1 2 ffi
fl
0 0
» fi
0 0
— ffi
4. c “ —
– 1
ffi
fl
0
px2 ´ x1 qpy1 ´ y2 q

Elementos Triangulares y Rectangulares


Lineal a1 ` a2 x ` a3 y
2 2
Cuadrático a1 ` a2 x ` a3 y ` a4 xy ` a5 x ` a6 y
2 2 2 2 3 3
Cúbico a1 ` a2 x ` a3 y ` a4 xy ` a5 x ` a6 y ` a7 xy ` a8 x y ` a9 x ` a10 y

Elemento Estandar Triangular


Cuadráticas (seis funciones base)
p1 ´ ξ ´ ηqp1{2 ´ ξ ´ ηq pξ ´ 1{2qξ pη ´ 1{2qη
Ψ1 “ Ψ2 “ Ψ3 “
p1 ´ 0 ´ 0qp1{2 ´ 0 ´ 0q p1 ´ 1{2q1 p1 ´ 1{2q1
“ p1 ´ ξ ´ ηqp1 ´ 2ξ ´ 2ηq “ 2pξ ´ 1{2qξ “ 2ηpη ´ 1{2q
ξp1 ´ ξ ´ ηq ξη ηp1 ´ ξ ´ ηq
Ψ4 “ Ψ5 “ Ψ6 “
1{2p1 ´ 1{2 ´ 0q 1{2p1{2q 1{2p1 ´ 0 ´ 1{2q
“ 4ξp1 ´ ξ ´ ηq “ 4ξη “ 4ηp1 ´ ξ ´ ηq

Elemento Estandar Rectangular

pξ ` 1qpη ´ 1q pξ ` 1qpη ´ 1q
Ψ1 “ Ψ2 “
p´1 ´ 1qp´1 ´ 1q p1 ` 1qp´1 ´ 1q
pξ ` 1qpη ´ 1q pξ ` 1qpη ´ 1q
“ “ ´
4 4
pξ ` 1qpη ` 1q pξ ´ 1qpη ` 1q
Ψ3 “ Ψ4 “
p1 ` 1qp1 ` 1q p´1 ´ 1qp1 ` 1q
pξ ` 1qpη ` 1q pξ ´ 1qpη ` 1q
“ “ ´
4 4
Machine Learning 31 Nilson Esteban Molina

2 2 2 2 2 2
Bicuadráticos a1 ` a2 x ` a3 y ` a4 xy ` a5 xy ` a6 x y ` a7 x ` a8 y y ` a9 x y
habria que determinar nueve funciones base

ηpη ´ 1qξpξ ´ 1q
Ψ1 “
´1p´1 ´ 1q ´ 1p´1 ´ 1q

Descripción Global y Local de los Elementos


Interpolantes lineales una dimensión
xi coordenadas de los nodos, nel número de elementos peq
Global Local
Dominio rxi , xi`1 s rξ1 , ξ2 s “ r´1, 1s
Grados de libertad tui , ui`1 u tu1 , u2 u
Funciones de forma tφi , φi`1 u tΨ1 , Ψ2 u
h h
Función interpolante u pxq “ ui φi ` ui`1 φi`1 u pξq “ u1 φ1 ` u2 φ2
Nodos txi , xi`1 u tξ1 , ξ2 u

2x ´ xi ´ xi`1 hi ξ ` xi ` xi`1 hi
ξpxq “ xpξq “ ξpxi q “ ´ ξpxi`1 q “ 1
hi 2 hi
“ ´1
xp´1q “ xi xp1q “ xi`1
1 1 1 1
Ψ1 pξq “ p1 ´ ξq Ψ2 pξq “ p1 ` ξq Ψ11 pξq “ ´ Ψ12 pξq “
2 2 2 2
e e e
x pξq “ Ψ1 pξqxi ` Ψ2 pξqxi`1
consideremos el problema modelo
$ ˆ ˙
&´ d ppxq du ` rpxqu “ f pxq a ă x ă b
dx dx
upaq “ A upbq “ B
%

Mu “ B
e
M matriz global, m matriz por elemento
e
B vector global, b vector por elemento sea Mij “ Apφi , φj q donde
nel
ÿ e e e
M“ M M “ Mij
e“1
nel
ÿ e e e
B“ B B “ Bi
e“1

e
Mij “ 0 si i ‰ pe _ e ` 1q _ j ‰ pe _ e ` 1q
e
Bi “ 0 si i ‰ pe _ e ` 1q
e e
m “ mij p2 ˆ 2q pi, j “ 1, 2q
e e
b “ bi p2 ˆ 1q pi “ 1, 2q
Matriz y vector (por elemento) con tamaño que depende del grado del interpolante: lineal 2 ˆ 2,
cuadrático 3 ˆ 3, cúbico 4 ˆ 4
e e
entonces la estrategia consiste en generar las matrices m y vectores b para e “ 1, . . . , nel y luego
e e
ensamblar (o armar) M, B a partir de m y b
Necesitamos cierta información que almacenamos en una matriz llamada LM , las dimensiones de
LM son: nen número de nodos del elemento por nel
1 2 3 ... ... nel
1 1 2 3 ... ... n´2 n´1
2 2 3 ... ... n ´ 1 0
número de nodos del elemento ˆ número de elementos. nen ˆ nel (caso de interpolante lineal)
Machine Learning 32 Nilson Esteban Molina

entonces podemos ensamblar M con el siguiente algoritmo


e
Mee ÐÝMee ` m11
e
Me,e`1 ÐÝMe,e`1 ` m12 e “ 1, . . . , nel ´ 1
e
Me`1,e ÐÝMe`1,e ` m21
e
Me`1,e`1 ÐÝMe`1,e`1 ` m22
e
Be ÐÝBe ` b1 e “ 1, . . . , nel ´ 1
e
Be`1 ÐÝBe`1 ` b2
n
para nel Mnn ÐÝ Mnn ` M11el
n
Bn ÐÝ Bn ` b1 el

inicialmente M “ 0
» 1 1
fi
m11 m12 0 0 ... 0 0 » 1 fi
—m1 m1 ` m2 2 b1
m12 0 ... 0 0 ffi
1 2
b2 ` b1
— 21 22 11 ffi — ffi
2 2 3 3
— 0 m21 m22 ` m11 m12 ... 0 0
— ffi — ffi
ffi 2 3
— 3 3 ffi — b2 ` b1 ffi
— 0 0 m21 m22 ... 0 0 ffi B“—

..
ffi
ffi
— . .. .. .. .. .. ffi .
— .. . . . . . ... ffi —
— nel´2 n
ffi
ffi
el´1

— n
el´1
n
el´1
n
el´1
ffi
ffi –b ` b fl
– 0 0 0 0 . . . m22 ` m11 m12 fl 2n
el´1
1
n
el
n
el´1
n
el´1 n b2 ` b1
0 0 0 0 ... m21 m22 ` m11el

Cálculo de la Matriz y Vector por Elemento


Sea g : rx1 , x2 s ÝÑ R una función integrable y sea x “ rξ1 , ξ2 s ÝÑ rx1 , x2 s continuamente derivable
con xpξ1 qx1 y xpξ2 qx2 entonces
ż x2 ż ξ2
dxpξq
gpxq dx “ gpxpξqq dξ
x1 ξ1 dξ

además como

Bgpxpξqq Bgpxpξqq Bxpξq



Bξ Bx Bξ

entonces
ż „ ȷ
e dφj pxq dφj pxq e
mij “ ` rpxqφi pxqφj pxq dx Ω : rxi , xi`1 s

e dx dx
ż1 „ ȷ
dφj pxpξqq dφj pxpξqq dx
“ ppxpξqq ` rpxpξqqφi pxpξqqφj pxpξqq dξ
´1 dx dx dξ
» fi

ż1 — ˆ ˙2 ffi
— dΨ pξq dΨ j
pξq dξ ffi dx
—ppξq i dξ i, j “ 1, 2
— ffi
“ `rpξqΨi pξqΨj pξqffi
´1 — dξ dξ dx
loomoon ffi dξ
– fl
dx ´2
p dξ q
ż
e
bi “ f pxq φi pxq dx
Ωe
ż1
dx
“ f pxpξqq φi pxpξqq dξ
´1 dξ
ż1
dx
“ f pξq φi pξq dξ
´1 dξ
Machine Learning 33 Nilson Esteban Molina

Cuadratura de Gauss en Una Dimensión


El dominio de la cuadratura de Gauss está dado por r´1, 1s y lo definimos como
ż1 n
ÿ
f pxq dx « wi f pxi q
´1 i“1

polinomios de Legendre
n ¯n
1 d ´ 2
Pn pxq “ n x ´1 n “ 0, . . . formula de Rodrigues
2 n! dxn ż
1
1 Pn`1 pxq
wi “ i dx
Pn`1 pxi q ´1 x ´ xi
ż1
f pxq dx « w1 f px1 q ` w2 f px2 q n “ 2
´1
1´ 2 ¯
Pn`1 “ P2 “ 3x ´ 1
2

1 1
x1 “ ? P 1 pxq “ p6xq
3 2
1
x2 “ ´ ? “ 3x
3
´ ¯
1 2
1
ż1
2
3x ´ 1 1
ż1 1
p3x
2
´ 1q
2
w1 “ ` ? ˘ ? dx w2 “ ? ? dx
3 1{ 3 ´1 x ´ 1{ 3 3p´1{ 3q ´1 x ` 1{ 3
“ 1 “ 1
ż1 ˆ ˙ ˆ ˙
1 1
f pxq dx “ f ? `f ´?
´1 3 3
el error es
ˇż ˇ
ˇ 1 ÿn ˇ
E“ ˇ f pxq dx ´ wi f pxi qˇ
ˇ ˇ
ˇ ´1 i“1
ˇ
2n`3 n p2n`2q
2 rpn ` 1q!s f pξq
“ 3 ´1ăξ ă1
p2n ` 3qrp2n ` 2q!s

Cuadratura de Gauss en Dos Dimensiones en un Rectángulo


ż1 ż 1 „ż 1 ȷ
f px, yq dx dy “ f px, yq dx dy
´1 ´1 ´1
ż1 n
ÿ
« wi f pxi , yq dx
´1 i“1
n
ÿ ÿn
« wi wj f pxi , yj q
i“1 j“1

si tenemos ra, bs ˆ rc, ds, haciendo


pb ´ aqv ` pa ` bq pb ´ aq
x“ dx “ dv
2 2
pd ´ cqu ` pc ` dq pd ´ cq
y“ dy “ du
2 2˙
żbżd ż b „ż 1 ˆ ȷ
pd ´ cqu ` pc ` dq pd ´ cq
f px, yq dx dy “ f x, du dx
a c a ´1 2 2
ż1 ˆ ˙
pb ´ aqv ` pa ` bq pd ´ cqu ` pc ` dq pb ´ aqpd ´ cq
“ f , du dv
´1 2 2 4
Machine Learning 34 Nilson Esteban Molina

Ejemplo
Consideremos el problema
$

’´∇ ¨ pk∇uq ` bu “ f px, yq en Ωi i “ 1, 2

&upsq “ ûpsq s P BΩ1


’σn psq “ ppsq rupsq ´ ûpsqs s P BΩ2
%
vk∇u ¨ nw “ 0 s en Γ

Ω “ Ω1 X Ω2 BΩ “ BΩ1 Y BΩ2
Bupsq
σn psq “ ´kpsq
Bn
las ecuaciones paramétricas
#
x “ xpsq
BΩ :
y “ ypsq

si b “ 0 y las condiciones de frontera en todo BΩ son naturales, entonces

Bupsq
´kpsq “ σ̂psq
Bn
1. No existe una única solución al problema

2. Para que pueda existir una única solución se debe satisfacer una condición de compatibilidad
ż ż
f px, yq dx dy “ σ̂psq ds (principio de conservación)
Ω BΩ
la formulación débil es como sigue
ż ż ż
r∇ ¨ pk1 ∇uq ` busv dA ` r´∇ ¨ pk2 ∇uq ` busv dA “ f v dA @ v P H 1 pΩq
Ω1 Ω2 Ω

sabemos que v∇ ¨ pk∇uq “ ∇ ¨ pvk∇uq ´ k∇u ¨ ∇v, entonces sustituyendo


ż ż ż
rk∇u ¨ ∇v ´ ∇ ¨ pvk∇uq ` buvs dA ` rk∇u ¨ ∇v ´ ∇ ¨ pvk∇uq ` buvs dA “ f v dA
Ω1 Ω2 Ω

por el teorema de la divergencia


ż ż
∇ ¨ pvk∇uq dA “ vk∇u ¨ n dS
Ωi BΩi
ż
Bu
“ k v dS i “ 1, 2
BΩi Bn

entonces sustituyendo
ż ż ż
Bu
rk∇u ¨ ∇v ` buvs dA “ f v dA ` k v dS
Ω Ω BΩ Bn
ż ż
“ f v dA ` v ppsq rupsq ´ ûpsqs dS @ v P H 1 pΩq u P H 1 pΩq
Ω BΩ

como u “ û en BΩ1 entonces


ż ż ż
p pu ´ ûq v dS “ puv dS ´ pûv dS
BΩ żBΩ BΩ
ż
“ puv dS ´ pûv dS para v P H01 en BΩ1
BΩ2 BΩ2
Machine Learning 35 Nilson Esteban Molina

entonces
ż ż ż ż
rk∇u ¨ ∇v ` buvs dA “ f v dA ´ puv dS ´ pûv dS
Ω Ω BΩ2 BΩ2
ż ż ż ż
pk∇u ¨ ∇v ` buvq dA ` puv dS “ f v dA ` pûv dS
Ω BΩ2 Ω BΩ2

la cual es nuestra formulación débil.


Asi, el problema consiste en determinar u P H 1 pΩq tal que u “ û en BΩ1 y v P H01 pΩq en BΩ1
(v P H 1 pΩq en BΩ2
h h
u : aproximación de u en un subespacio S Ă H 1 pΩq
h h
v : aproximación de v en un subespacio S Ă H 1 pΩq
h
Ω : región discretizada
N
ÿ N
ÿ
h h
u “ ui φi px, yq v “ vi φj px, yq
i“1 j“1
n´nodos
ÿ
h
û px, yq “ ûj φj pxpsq, ypsqq
j“1

entonces
ż „ ˆ ˙ ȷ ż ż ż
Bφi Bφj Bφi Bφj
k ` ` bφi φj dA ` pφi φj “ f φi dA ` γφi dS
Ω Bx Bx By By BΩh Sh BΩh 2 2

N
ÿ
donde γ “ pû, asi tenemos Mij uj “ Fi i “ 1, 2, . . . , N
j“1
ż „ ˆ ˙ ȷ ż
Bφi Bφj Bφi Bφj
Mij “ k ` ` bφi φj dx dy ` pφi φj dS
Ωh Bx Bx By By BΩh
2
ż ż
Fi “ f φi dx dy ` γφj dS
Ωh BΩh
2

en cada elemento
ż ´ ¯ ż ż
he he he he he he
k∇u ¨ ∇v ` bu v dA “ f v dA ´ σn v dS
e e
Ω Ω BΩ
h h h
si v “ 0 en BΩ1 entonces no habra contribución a la integral de elementos con lados en BΩ1
Ne
ÿ Ne
ÿ
he e e he e e
u “ uj Ψj px, yq v “ vj Ψj px, yq
j“1 j“1

e
Ne : número de nodos en Ω
e
Ψi : funciones de onda locales
por ejemplo: interpolante lineal en dos dimensiones en un triángulo Ne “ 3, entonces
Ne
ÿ e e e e
mij uj “ fi ´ σi i “ 1, 2, . . . , Ne
j“1

con interpolantes lineales y elementos triangulares m es una matriz de 3 ˆ 3


ż „ ˆ ˙ ȷ
e BΨi BΨj BΨi BΨj
mij “ k ` ` bΨi Ψj dx dy
Se Bx Bx By By
ż
e e
fi “ f Ψi dx dy
e
żΩ
e e
σi “ σn Ψi dS
BΩe
Machine Learning 36 Nilson Esteban Molina

e e
m será una matriz de N ˆ N. M con ceros excepto en las filas y columnas correspondientes a
e e e e e
los nodos en el elemento Ω , f y σ se expanden a un vector N ˆ 1 F , σ con entradas no cero
e
solamente en las filas correspondientes a los nodos de Ω , entonces
Nel ż „ ˆ ˙ ȷ Nel
ÿ BΨi BΨj BΨi BΨj ÿ e
k ` ` bΨi Ψj dA “ Mij
e“1 Ω
e Bx Bx By By e“1
Nel ż Nel
ÿ ÿ e
pφi dx dy “ Fi i, j “ 1, . . . , Nel
e“1 Ωe i“1
Nel
ÿ´ e e e
¯
Mij uj ´ Fi ` Σi “ 0 i, j “ 1, . . . , Nel
e“1

Nel : número de elementos


las contirbuciones a Mij , Fi provenientes de las condiciones de frontera entran por medio de los
e
términos Σi
la suma de las integrales de contorno
Nel
ÿ e p0q p1q p2q
Σi “ Si ` Si ` Si i “ 1, 2, . . . , Nel
e“1

donde
Nel ż
p0q
ÿ
Si “ σn φi dS pen nodos interioresq
e“1 BΩe ´BΩh
ż
p1q
Si “ σn φi dS
BΩh
1
ż
p2q
Si “ σn φi dS
BΩh
2

Ejemplo
1. Todos son elementos interiores
ÿ4 ż
p0q
S1 “ σn φ1 dS
e“1 BΩe
ż ż ż ż
“ vσn wφ1 dS ` vσn wφ1 dS ` vσn wφ1 dS ` vσn wφ1 dS vσn w “ 0
Γ1 Γ2 Γ3 Γ4

“ 0
en este ejemplo tenemos condiciones esenciales o de Dirichlet, entonces σn no se conoce en
h p1q
BΩ1 entonces no podemos calcular Si hasta el final
p2q h
Si : σn psq “ ppsqu psq ´ γpsq
ż ´ ÿ ¯ ż ż
p2q
Si « p ui φj ´ γ φi dS γi “ γφi dS Pij “ pφi φj dS
BΩh
2
BΩh
2
BΩh
2
Nel Nel ż Nel ż
ÿ ÿ ÿ
“ pij uj ´ γi “ γφi dS “ pφi φj dS
h h
j“1 e“1 BΩ2 e“1 BΩ2
Nel Nel
ÿ ÿ e
“ γi “ Pij
i“1 e“1

Nel
ÿ p2q
entonces Mij uj “ Fi Si i “ 1, 2, . . . , Nel
j“1

Nel ´ ¯ Nel ´ ¯
ÿ e e
ÿ e e
Mij “ Mij ` Pij Fi “ Fi ` γij
e“1 i“1
Machine Learning 37 Nilson Esteban Molina

$ 2

’ ´∇ upx, yq “ f px, yq en Ω

&upx, yq “ 0 en Γ41


2. Bu
’ “ 0 en Γ12 , Γ25 , Γ67 , Γ74

’ Bn
% Bu ` βu “ γ en Γ


56
Bn
determinar el sistema lineal de ecuaciones: seis elementos triangulares, siete nodos
el sistema lineal es de la forma
6 ´
ÿ ¯ Nel
ÿ
e e e e e p0q p1q p2q
Mij uj ´ Fi ` Σi “ 0 i “ 1, . . . , 6 Σi “ Si ` Si ` Si
e“1 e“1

p0q p1q
Si “ 0 , Si no lo podemos conocer
6
ÿ 6
ÿ N
ÿ
e e e p2q p2q
Mij ui “ Fi ´ Si Si “ Pij uj ´ γi
e“1 e“1 j“1
6
ÿ 6
ÿ
e e
Pij “ Pij γi “ γi
e“1 e“1
ÿ6 ´ ¯ ÿ6
e e ` e e ˘
Mij “ Mij ` Pij Fi “ Fi ` γi
e“1 e“1

funciones base lineales en dos variables


e“1

» 1 1 1 fi » 2 2 2 fi
m11 m12 m13 0 0 0 0 m11 0 m12 m13 0 0 0
—m1 m1 m1 0 0 0 0ffi — 0 0 0 0 0 0 0ffi
— 21 22 23 ffi — 2 2 2
ffi
—m1 m1 m1 0 0 0 0ffi —m 0 m22 m23 0 0 0ffi
1 — 31 32 33 ffi 2 — 221 2 2
ffi
M “ —
— 0 0 0 0 0 0 0ffi
ffi M “ —
—m31 0 m32 m33 0 0 0ffi
ffi
— 0 0 0 0 0 0 0ffi — 0 0 0 0 0 0 0ffi
— ffi — ffi
– 0 0 0 0 0 0 0fl – 0 0 0 0 0 0 0fl
0 0 0 0 0 0 0 0 0 0 0 0 0 0
» fi » fi
0 0 0 0 0 0 0 0 0 0 0 0 0 0
3 3 3
—0 m m12 0 m13 0 0ffi —0 0 0 0 0 0 0 ffi
11
— ffi — 4 4 4 ffi
—0 m3 m3 0 3
m23 0 0ffi —0 0 m11 m12 0 0 m13 ffi
3 — 21 22 ffi 4 — ffi
4 4 4
M “ —
—0 0 0 0 0 0 0ffi
ffi M “ —
—0 0 m21 m22 0 0 m23 ffi
ffi
—0 m3 m3 0 3
m33 0 0ffi —0 0 0 0 0 0 0 ffi
— 31 32 ffi — ffi
–0 0 0 0 0 0 0fl –0 0 0 0 0 0 0 fl
4 4 4
0 0 0 0 0 0 0 0 0 m31 m32 0 0 m33
» fi
0 0 0 0 0 0 0 » fi
—0 0 0 0 0 0 0 0 0 0
0 0 0 0 ffi —0 0
—0 0 m5
— 5 5 ffi 0 0 0 0 0ffi
0 0 m12 m13 ffi —
—0 0 6 6 6 ffi
5 — 11 ffi 6 m11 0 m12 m13 0ffi
M “ —0 0 0 0 0 0 0 ffi M “ —
—0 0
ffi

—0 0 0
ffi 0 0 0 0 0ffi
0 0 0 0 ffi —
–0 0 6 6 6
ffi

–0 0 m5 5 5
ffi m21 0 m22 m23 0fl
0 0 m22 m23 fl 6 6 5
21
5 5 5 0 0 m31 0 m32 m33 0
0 0 m31 m32 0 0 m33
» 1 fi » 2 fi » fi » fi » fi » fi
f1 f1 0 0 0 0
—f 1 ffi — 0 ffi —f 3 ffi — 0 ffi — 0 ffi — 0 ffi
— 21 ffi — 2 ffi — 13 ffi — 4 ffi — 5 ffi — 6 ffi
—f ffi —f ffi —f ffi —f ffi —f ffi —f ffi
1 — 3 ffi 2 — 2 ffi 3 — 2 ffi 4 — 14 ffi 5 — 1 ffi 6 — 1 ffi
F “—
— 0 ffi F “—
— 02 ffi F “—
— 03 ffi F “—
—f2 ffi — 0 ffi
F “— — 06 ffi
F “—
ffi ffi ffi ffi ffi ffi
— 0 ffi —f ffi —f ffi — 0 ffi — 0 ffi —f ffi
— ffi — 3 ffi — 3 ffi — ffi — 5 ffi — 26 ffi
– 0 fl – 0 fl – 0 fl – 0 fl –f fl –f fl
2 3
4 5
0 0 0 f3 f3 0
Machine Learning 38 Nilson Esteban Molina

entonces M u “ F ´ Σ
» fi » 1 fi » fi
F
» fi
M11 M12 M13 M14 M15 M16 M17 u1 Σ1
2
—M21 M22 M23 M24 M25 M26 M27 ffi —u2 ffi —F ffi

ffi — 0 ffi
— ffi — ffi — 3 ffi — ffi
—M31 M32 M33 M34 M35 M36 M37 ffi —u3 ffi —F ffi — 0 ffi
— ffi — ffi — 4 ffi — ffi
—M41 M42 M43 M44 M45 M46 M47 ffi —u4 ffi “ —F ffi ´ —Σ4 ffi
— ffi — ffi — 5 ffi — ffi
—M51 M52 M53 M54 M
Ă55 M
Ă56 M57 ffi —u5 ffi —Fr ffi —Σ5 ffi
— ffi — ffi — ffi — ffi
–M M62 M63 M64 M
Ă65 M
Ă66 M67 fl –u6 fl –Fr6 fl –Σ6 fl
61
M71 M72 M73 M74 M75 M76 M77 u7 F
7
0

1 1 2
F “ f1 ` f1 ` . . .
» fi » fi
0 0 0 0 0 0 0 0
— 0 ffi —0 0 0 0 0 0 0ffi
— ffi — ffi
— 0 ffi —0 0 0 0 0 0 0ffi
— ffi — ffi
— 05 ffi
γ“— —0
P “— 0 0 0 0 0 0ffi
ffi
ffi
—γ ffi —0 0 0 0 P55 P56 0ffi
— 6 ffi — ffi
–γ fl –0 0 0 0 P65 P66 0fl
0 0 0 0 0 0 0 0

Mij “ M
Ă `P
ij ij
Fi “ Fri ` γi
» fi » fi » fi
M11 M12 M13 M14 M15 M16 M17 u1 F1 ´ Σ1
—M21 M22 M23 M24 M25 M26 M27 ffi —u2 ffi — F2 ffi
— ffi — ffi — ffi
—M31 M32 M33 M34 M35 M36 M37 ffi —u3 ffi — F3 ffi
— ffi — ffi — ffi
—M41 M42 M43 M44 M45 M46 M47 ffi —u4 ffi “ —F4 ´ Σ4 ffi
— ffi — ffi — ffi
—M51 M52 M53 M54 M55 M56 M57 ffi —u5 ffi — F5 ffi
— ffi — ffi — ffi
–M61 M62 M63 M64 M65 M66 M67 fl –u6 fl – F6 fl
M71 M72 M73 M74 M75 M76 M77 u7 F7

entonces

M55 “ M
Ă55 ` P55 F5 “ Fr5 ` γ5
M56 “ M
Ă56 ` P56 F6 “ Fr6 ` γ6
M65 “ M
Ă65 ` P65
M66 “ M
Ă66 ` P66

sabemos que u1 “ u4 “ 0 (por condición de frontera), entonces resulta un sistema de cinco


ecuaciones » fi » fi » fi
M22 M23 M25 M26 M27 u2 F2
—M32 M33 M35 M36 M37 ffi —u3 ffi —F3 ffi
ffi — ffi —
— ffi
—M52 M53 M55 M56 M57 ffi
ffi —u5 ffi “ —F5 ffi
— ffi — ffi

–M62 M63 M65 M66 M67 fl –u6 fl –F6 fl
M72 M73 M75 M76 M77 u7 F7
el flujo en uno y cuatro se puede calcular después de resolver el sistema pu2 , u3 , u5 , u6 , u7 q

M11 u1 ` M12 u2 ` M13 u3 ` M14 u4 ` M15 u5 ` M16 u6 ` M17 u7 “ F1 ´ Σ1


M41 u1 ` M42 u2 ` M43 u3 ` M44 u4 ` M45 u5 ` M46 u6 ` M47 u7 “ F4 ´ Σ4

se despejan Σ1 y Σ4
» 1 2 1 1 2 2
fi
m11 ` m11 m12 m13 ` m12 m13 0 0 0
— m1 1 3 1 3 3 ffi
— 1 21 1 m22 ` m11 m23 ` m12 0 m13 0 0 ffi
1 3 1 2 3 4 5 6 2 2 3 6 5 6 4 5 ffi
—m ` m
— 31 21
m32
` m21
m33
` m 32
` m22
` m11
` m11
` m11
m23
` m 14
m 23
` m 12
m 12
` m13
m13
` m13 ffi
— 2 2 4 2 4 4 ffi
M “ — m31 0 m32 ` m21 m33 ` m22 0 0 m23 ffi
— 3 3 6 3 6 6 ffi
— 0 m31 m32 ` m21 0 m33 ` m22 m23 0 ffi
Machine Learning

— 5 6 6 5 6 5 ffi
– 0 0 m21 ` m31 0 m32 m22 ` m33 m23 fl
4 5 4 5 4 5
0 0 m31 ` m31 m32 0 m32 m33 ` m13
39
Nilson Esteban Molina
Machine Learning 40 Nilson Esteban Molina

Cuadratura Gaussiana en Dos Dimensiones


Elemento Rectangular
ż 1 „ż 1 ȷ ż1 ÿ
f pξ, ηq dξ dη “ wi f pξ, ηq dη
´1 ´1 ´1
n ÿ
ÿ n
“ wi wj f pξi , ηi q
j“1 i“1

donde ξi y ηi son las raices del polinomio de Legendre de grado n


pnq „´ ¯n ȷ
1 B 2
Pn pxq “ n x ´1
2 n! Bx
ż1 ź n
x ´ xj
wi “
´1 j“1 xi ´ xj
i‰j

Elemento Triangular
ż 1 ż mx`a
f pξ, ηq dξ dη
0 0

Coordenadas de Área
A A A
L1 “ 1 L2 “ 2 L3 “ 3
A A A
A1 ` A2 ` A3 “ A ùñ L1 ` L2 ` L3 “ 1

x1 x2 x3
1
A“ y1 y2 y3
2
1 1 1
x x2 x3 x1 x x 3 x1 x2 x
y y2 y3 y1 y y 3 y1 y2 y
A1 1 1 1 A2 1 1 1 A3 1 1 1
L1 “ “ L2 “ “ L3 “ “
A x1 x2 x3 A x1 x2 x3 A x1 x2 x3
y1 y2 y3 y1 y2 y3 y1 y2 y3
1 1 1 1 1 1 1 1 1
» fi » fi » fi
x1 x2 x3 L1 x
– y1 y2 y3 fl –L2 fl “ –y fl
1 1 1 L3 1

x “ L1 x1 ` L2 x2 ` L3 x3
y “ L1 y1 ` L2 y2 ` L3 y3
1 “ L1 ` L2 ` L3
ż 1 ż 1´L1
f pL1 , L2 , L3 q dL2 dL3
0 0
Orden Figura Error Puntos Coordenadas triangulares Coeficientes
2
Primer orden Oph q a 1{3 1{3 1{3 1
3
1{2 1{2 0 1{3
Segundo orden Oph q a, b, c 0 1{2 1{2 1{3
1{2 0 1{2 1{3
Machine Learning 41 Nilson Esteban Molina

Ejemplo
ż ż 2 ż ´1{2x`1
cospx ` yq dx dy “ cospx ` yq dx dy
R 0 0
ż1 ż 1´L1
“ f pL1 , L2 , L3 q
0 0
n
ÿ
“ wi f pL1i , L2i , L3i q
i“1
ÿn
“ wi f pL1i x1 ` L2i x2 ` L3i x3 , L1i y1 ` L2i y2 ` L3i y3 q
i“1
ˆ ˙
1 1 1 1 1 1
“ 1f ¨ 0 ` ¨ 2 ` ¨ 0, ¨ 0 ` ¨ 0 ` ¨ 1
3 3 3 3 3 3
ˆ ˙
2 1
“ 1f ,
3 3
ˆ ˙
2 1
“ cos `
3 3
“ cos 1
« 0.5403

Cuadratura Gaussiana en Tres Dimensiones


ż1 ż1 ż1 ÿÿÿ
f px, y, zq dx dy dz “ wi wj wk f pxi , yj , zk q
´1 ´1 ´1 i j k

ż ż 1 ż 1´L1 ż 1´L2
f px, y, zq “ f pL1 , L2 , L3 , L4 q dL1 dL2 dL3
R 0 0 0
ÿ
“ wi f pL1i , L2i , L3i , L4i q
i

Elemento Tetrahédrico
Volumen pP JKLq
L1 “ L1 ` L2 ` L3 ` L4 “ 1
Volumen pIJKLq

Elemento Tetrahédrico 4-Puntos


ϕpx, y, zq “ a1 ` a2 x ` a3 y ` a4 z
» fi
a1
“ ‰ —a2 ffi
“ 1 x y z — ffi
–a3 fl ˚
a4
p
ÿ j k l pn ` 1qpn ` 2qpn ` 3q
ai x y z P “
i“1
6
u1 “ a1 ` a2 x1 ` a3 y1 ` a4 z1 u2 “ a1 ` a2 x2 ` a3 y2 ` a4 z2
u3 “ a1 ` a2 x3 ` a3 y3 ` a4 z3 u4 “ a1 ` a2 x4 ` a3 y4 ` a4 z4
» fi » fi » fi
u1 1 x1 y1 z1 a1
—u2 ffi —1 x2 y2 z2 ffi —a2 ffi
— ffi “ — ffi — ffi
–u3 fl –1 x3 y3 z3 fl –a3 fl
u4 1 x4 y4 z4
looooooooomooooooooon a4
M
“ ‰T ´1 “ ‰T
a1 a2 a3 a4 “ M u1 u2 u3 u4 ‹
Machine Learning 42 Nilson Esteban Molina

sustituyendo ‹ en ˚ nos queda


» fi
u1
“ ‰ ´1 —u2 ffi
ϕpx, y, zq “ 1 x y z M — ffi
–u3 fl
u
» 4 fi
u1
“ ‰ —u2 ffi
“ N1 N2 N3 N4 — ffi
–u3 fl
u4

Vi
donde los Ni “
V
» fi » fi
1 1 1 1 1 1 1 1
1 —x2 x4 x3 xffi 1 — x3 x 1 x4 xffi
V1 “ —
– y2
ffi V2 “ — ffi
6 y4 y3 xfl 6 – y3 y1 y4 y fl
z z4 z3 z z z1 z4 z
» 2 fi » 3 fi
1 1 1 1 1 1 1 1
1 —x4 x2 x1 xffi 1 — x1 x 3 x2 xffi
V3 “ —
– y4
ffi V4 “ — ffi
6 y2 y1 xfl 6 – y1 y3 y2 y fl
z4 z2 z1 z z1 z3 z2 z

Elemento Tetrahédrico 10-Puntos Cudrático


Funciones de interpolación en los vértices

N1 “ p2L1 ´ 1q L1 N4 “ p2L4 ´ 1q L4
N2 “ p2L2 ´ 1q L2 N5 “ 4L1 L2
N3 “ p2L3 ´ 1q L3 N6 “ 4L1 L3

También podría gustarte