0% encontró este documento útil (0 votos)
457 vistas79 páginas

Eigenvalores Imaginarios. Teoria Culitativa de Ecuaciones Diferenciables

Este documento presenta un análisis cualitativo de ecuaciones diferenciales ordinarias. Incluye secciones sobre teoría cualitativa, campos de direcciones, álgebra lineal, ecuaciones diferenciales de primer orden, sistemas lineales, operadores exponenciales, estabilidad y existencia y unicidad. Contiene ejemplos resueltos de diferentes tipos de ecuaciones diferenciales y aplicaciones a modelos de población.

Cargado por

jherson
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
457 vistas79 páginas

Eigenvalores Imaginarios. Teoria Culitativa de Ecuaciones Diferenciables

Este documento presenta un análisis cualitativo de ecuaciones diferenciales ordinarias. Incluye secciones sobre teoría cualitativa, campos de direcciones, álgebra lineal, ecuaciones diferenciales de primer orden, sistemas lineales, operadores exponenciales, estabilidad y existencia y unicidad. Contiene ejemplos resueltos de diferentes tipos de ecuaciones diferenciales y aplicaciones a modelos de población.

Cargado por

jherson
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 79

NOTAS DE ANALISIS CUALITATIVO

Presentado por:
DIANA ISABELLA DURAN BERMUDEZ
JHERSON JULIAN VELASQUEZ LEAL
MARIO GUERRA GUALY

Presentado a:
DIEGO MORALES

UNIVERSIDAD SURCOLOMBIANA
FACULTAD DE CIENCIAS EXACTAS
MATEMATICA APLICADA

1
Indice
1. Unidades Tematicas 4

2. Ejercicios de Repaso 4

3. Introduccion a la Teoria Cualitativa de las Ecuaciones Diferen-


ciales Ordinarias 8
3.1. Soluci
on de una ecuacion diferencial . . . . . . . . . . . . . . . . 9
3.2. Teorema de Existencia y Unicidad . . . . . . . . . . . . . . . . . 10

4. Campos de Direcciones 10
4.1. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

5. Repaso de Algebra Lineal 13


5.1. Subespacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
5.2. Conjunto Generador . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.3. Independencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.4. Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
5.5. Dimension de un Espacio . . . . . . . . . . . . . . . . . . . . . . 18
5.6. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
5.7. Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . 18
5.8. Semejanza y Diagonalizacion . . . . . . . . . . . . . . . . . . . . 19

6. Ecuaciones Diferenciales de Primer Orden 21


6.1. Variables Separables . . . . . . . . . . . . . . . . . . . . . . . . . 21
6.2. Ecuaciones lienales . . . . . . . . . . . . . . . . . . . . . . . . . . 22
6.3. Ecuaci
on de Bernulli . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.4. Ecuaciones exactas . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.5. Factor integrante especial . . . . . . . . . . . . . . . . . . . . . . 24

7. Aplicaciones 24
7.1. Modelo de Malthus . . . . . . . . . . . . . . . . . . . . . . . . . . 25
7.2. Modelos Logistico . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

8. Sistema Lineales 28
8.1. introducci
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
8.2. Sistemas Lienales desacoplados . . . . . . . . . . . . . . . . . . . 28
8.3. Diagonalizaci
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

9. Operadores Exponenciales 32
9.1. Operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 32

10.Sistema de Ecuaciones Diferenciales Lineales 38


10.1. Ejemplo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
10.2. Ejemplo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

2
11.Sistema de Ecuaciones Diferenciales Lineales con Valores pro-
pios Complejos 50
11.1. Eigenvalores Complejos . . . . . . . . . . . . . . . . . . . . . . . 50
11.2. Analisis de estabilidad e los valores propios . . . . . . . . . . . . 54

12.Forma Can
onica de Jordan 56

13.Teoria de Estabilidad 62
13.1. Criterio Para Determinar La Estabilidad de Las Soluciones . . . 64
13.2. Caracterizaci
on Del Punto Crtico . . . . . . . . . . . . . . . . . 65

14.Sistema de Ecuaciones Diferenciales Lineales no Homogeneos 68


14.1. Metodo de diagonalizacion . . . . . . . . . . . . . . . . . . . . . . 68

15.Existencia y Unicidad 72
15.1. Existencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
15.2. Unicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

16.Bibliografia 79

3
1. Unidades Tematicas
1. Introduccion a la Teoria Cualitativa de las Ecuaciones Diferen-
ciales Ordinarias
2. Algunos Topicos de Algebra Lineal
3. Analisis Cualitativo de Ecuaciones Diferenciales Ordinarias de
Primer Orden
4. Sistemas de Ecuaciones Diferenciales lineales con coeficientes
constantes homogeneas y no homogeneas
5. Teoria local de Sistemas de Ecuaciones Diferenciales no lineales

2. Ejercicios de Repaso
dy
1. ex y dx = ey + e2xy

Soluci
on: (Separacion de Variables)
dy
ex y = ey + e2xy
dx
dy
ex y = ey + e2x ey
dx
dy
ex y = ey (e2x + 1)
dx
Z Z
ye dy = (e3x + ex )dx
y

haciendo una sustitucion


u=y du = dy dv = ey v = ey
1 3x
Z
yey ey dy = e ex + c
3
1 3x
yey ey dy = e ex + c
3
dr
2. d + r tan = sec

Soluci
on: (E.D Lineal)
1
= ep(x)dx = etan d = eln|cos| = = sec
cos
df
sec + r tan sec = sec2
d
d
= (r sec ) = sec2
d
r sec = tan + c

4
3. (cos x cos y + 2x)dx (sin x sin y + 2y)dy = 0
Soluci on:(Exactas)
dF
M = cos x cos y + 2x = cos x sin y
dy
dF
N = sin x sin y 2y = cos x sin y
dx
Si F (x, y) = cos x cos y + 2x dF dx
(x,y)
= cos x cos y + 2x
Z Z
dF (x, y)
dx = cos x cos y+2xdx = cos y sen x+x2 +cos y sen x+x2 +g(y)
dx
dF (x, y)
F (x, y) = cos y sen x+x2 +g(y) = sen y sen x+g 0 (y)
dy
sen x sen y 2y = sen y sen x + g 0 (y)
Z Z
2ydy = g 0 (y)dy

y 2 = g(y)
c = cos y sen x + x2 y 2
dy x2 y 2
4. dx = 3xy Soluci
on: (Homogeneas)
2
x2
dy x2 xy 2
=
dx 3 xy
x2
2
dy 1 xy 2 y
= u= y =ux
dx 3 xy x
dy du
= x+u
dx dx
du 1 u2
x+u=
dx 3u
du 1 u2
x= u
dx 3u
du 1 u2 3u2
x=
dx 3u
du 1 4u2
x=
dx 3u
Z Z
3u 1
2
du = dx
1 4u x
dv
v = 1 4u2 dv = 8udu = udu
8

5
Z Z
3 dv 1
= dx
8 v x
3
ln|v| = ln|x| + c
8
3
ln|1 4u2 | = ln|x| + c
8
3 y2
ln|1 4 2 + 1| = ln|x| + c
8 x
dy
5. dx = y(xy 3 1)
Solucion:(Bernoulli)

dy dy dy
= xy 4 y + y = xy 4 y 4 + y 3 = x
dx dx dx
dy
NOTA u = y 3 du
dx = 3y 4 dx du
3dx =
dy
y 4 dx

du du R
3dx
+u=x 3u = 3x e = e3x
3dx dx
du d
e3x e3x 3u = 3e3 x (ue3x ) = 3e3 x
dx dx
Z Z
3x 3 3x
(ue ) = 3e xdx ue = 3 e3x xdx

NOTA u = x; du = dx; dv = e3x dx; v= x


e3

x2 x2
Z
3x x x 3x
ue =x 3 dx ue =
e e3 e3 2e3
0 2
x2 x2 x 1
y 3 e3x = 3
3 y 3 e3x = (1 )
e 2e e3 2
6. y 00 + 8y 0 + 16y = 0
Soluci on:(E.D de 2do orden con raices repetidas)

m2 + 8m + 16 = 0

(r + 4)2 = 0
d d
( + 4)( + 4)y = 0
dx dx
y(x) = C1 e4x + C2 xe4x

6
7. y 00 2y 0 + y = 8et
Soluci on: (Metodo de coeficientes indeterminados)

m2 2m + 1 = 0

(m 1)(m 1); m=1


y = At2 et ; y 0 = A2tet +t2 Aet ; y 00 = 2Aet +2Atet +2Atet +t2 Aet = t2 Aet +4Atet +2Aet
Reemplazando

t2 Aet + 4Atet + 2Aet 4Atet 2At2 et + At2 et = 8et

2Aet = 8et
A=4
y = 4t2 et
Soluci
on General:

y = C1 et + C2 tet + 4t2 et

8. w00 + 4w = tan 2x
Solucion:(Metodo de Variacion de parametro)

m2 + 4 = 0

m2 = 4

m = 4
m = 2i
Solucion homogenea

Yh = C1 cos 2x + C2 sen 2x ; Yp = u(x) cos 2x + v(x) sin 2x


 0
u (x) cos 2x + v 0 (x) sin 2x = 0
2 sin 2xu0 (x) + 2 cos 2xv(x) = tan 2x
 
cos 2x sin 2x
W =
2 sin 2x 2 cos 2x
 
0 sin 2x
W1 = = sin 2x tan 2x
tan 2x 2 cos 2x
 
cos 2x 0
W2 = = cos 2x tan 2x = sin 2x
2 sin 2x tan 2x
NOTA
W1 sin 2x tan 2x
u= ; u0 =
W 2

7
sin2 2x 1 cos2 2x
Z Z Z
1 1 1
u= sin 2x tan 2xdx u = dx u = dx
2 2 cos 2x 2 cos 2x
Z
1
u= sec 2x cos 2xdx
2
1 1
u = ln| sec 2x + tan 2x| + sin 2x
4 4
0 sin 2x
v =
Z 2
1
v= sin 2x
2
1
v = cos 2x
4
Por lo tanto
cos 2x cos 2x
Yp = (sin 2xln| sec 2x+tan 2x|) sin 2x; Yg = Yh +Yp
4 4

3. Introduccion a la Teoria Cualitativa


de las Ecuaciones Diferenciales Ordinarias
Las ecuaciones diferenciales se clasifican de acuerdo a tres caracte-
risticas principales: tipo, orden y linealidad.
Segun el tipo una ecuacion diferencial puede ser ordinaria, (EDO),
o parcial, (EDP). Una EDO es aquella que solo contiene derivadas
ordinarias, esto es, derivadas de una o varias funciones de una so-
la variable independiente. Una EDP, en cambio, contiene derivadas
parciales (derivadas de una o mas funciones de dos o mas variables
independientes).
En general F (x, y, y 0 , ..., y n ) = 0 es una Ecuacion Diferencial de or-
den n.
y n = f (x, y, y 0 , ..., y n1 ) es una E.D escrita de manera explicita, esto
es cuando la funcion y n esta en funcion a todas las demas.
dy
Una Ecuacion de Primer Orden tiene la forma: dx = f (x, y). Mire-
mos un ejemplo:
y 0 + 2xy = 0 con condicion inicial (x) = y
esto es
0 (x) + 2x(x) = 0
2
(x) = ex
2
y = cex
en donde la constante c representa la familia de soluciones de dicha
ecuacion.

8
La incognita de una ecuacion diferencial es una funcion. Para deter-
minar esta funcion existen distintos metodos, analiticos, graficos y
numericos. El metodo utilizado para resolver una E.D. en particular
depende en gran medida del tipo o forma que presente la ecuacion
dada u obtenida empiricamente.

3.1. Soluci
on de una ecuacion diferencial
Una funcion f , definida en algun intervalo J, es solucion de una
ecuacion diferencial en este intervalo, si al sustituir f en la E.D. la
reduce a una identidad.

La solucion de un ecuacion diferencial puede ser una funcion dada


en forma implicita o explicita. Una ecuacion diferencial tiene gene-
ralmente un numero infinito de soluciones o, mas bien, una familia
n-parametrica de soluciones. El numero de parametros n depende,
como es natural, del orden de la ecuacion. Cuando se asignan o de-
terminan valores numericos a los parametros, se obtiene una solucion
particular de la ecuacion diferencial, que satisface no solo la ecuacion
diferencial si no ciertas condiciones iniciales o de frontera.

Sin embargo, para poder llegar a la solucion de una ecuacion diferen-


cial es fundamental, primero que todo, que cumpla con el siguiente
teorema

9
3.2. Teorema de Existencia y Unicidad
df
Sea R = [a, b] [c, d] R2 tal que (x0 , y0 ) R. Si f (x, y) y dy son
continuas en R, entonces existe un intervalo abierto J, centrado en
x0 y una funcion y(x) definida en J, que satisface el problema de
valor inicial

En general, lo que nos indica el Teorema de Existencia y unicidad es


que siempre habra una solucion para el problema de valores iniciales
de una ED Ordinaria de Primer Orden, si la funcion y su derivada
son continuas en el intervalo J garantizando que a pesar de haber
muchas rectas con la misma pendiente solo 1 sera la solucion.

Ejemplo

dy 2
= y 3 ; y(1) = 0
dx
Z Z
1
2 dy = dx
y3
1
3y 3 = x + c
x+c 3
y=( )
3
ahora
df 2 1
= y 3
dy 3
Analizando la derivada con respecto a y vemos que la condicion ini-
df
cial no cumple con la continuidad en dy luego con ese problema de
valor inicial no abra solucion.

En una mas adelante se hablara mas detalladamente sobre el teorema


de existencia y unicidad.

4. Campos de Direcciones
Para encontrar el comportamiento de las soluciones de una ecuacion
diferencial de la forma
dy
= f (x, y)
dx
debemos recordar que el valor de f (x, y) determina una pendiente
m = y 0 (x) = f (x, y). Ahora, una solucion de esta ecuacion dife-
rencial es una funcion diferenciable, por el teorema anteriormente
mencionado, cuya grafica tenga la pendiente y 0 (x) en cada punto

10
(x, y) por la que la grafica pase. Por cada uno de estos puntos se tra-
za un segmento y el conjunto de estos segmentos es llamado campo
de direcciones. La curva solucion es hallada trazando su camino a
traves del campo de pendientes.

Ejemplo 1:
dy
= xy
dx

Ejemplo 2:
(2y 2 6xy)dx + (3xy 4x2 )dy = 0
Solucion: (Metodo Exactas Caso especial)
df
M = 2y 2 6xy = 4y 6x
dy
df
N = 3xy 4x2 = 3y 8x
dx
dM dN x0 y0
( )=N M
dy dx x y
0
x y0
4y 6x (3y 8x) = (3xy 4x2 ) (2y 2 6xy)
x y
0 0
x y
y + 2x = (3xy 4x2 )( ) (2y 2 6xy)
x y
1 1
y + 2x = (3xy 4x2 ) (2y 2 6xy)
x y
y + 2x = 3y 4x 2y + 6x
y + 2x = y + 2x
x0 1 y0 1
donde x = x y y = y

11
4.1. Aplicaciones
Caida Libre
F = ma; a=g ma = mg
2
d y
y 00 (t) = g; =g
dt2
t2
y(t) = g + C1 t + C2
2
en donde C1 es la velocidad inicial y C2 es la altura inicial.

Mm Mm
K= K = 2 (1)
s2 s
Mm
ma = 2
s
M
s00 (t) = 2
s
NOTA:
s(t) = atb
s0 (t) = abtb1
s00 (t) = ab(b 1)tb2
de donde reemplazando en (1) tenemos

ab(b 1)tb2 = M a2 t2b

b 2 = 2b
3b = 2
2
b=
3
por otro lado
2 1
a( )( ) = M a2
3 3

12
2
a3 ( ) = M
9
9
a3 = M
2
9M 1
a=( )3
2
2
s(t) = a(c t) 3
9M 1 2
R=( )3 C 3
2
1
2 23 R
C3 = 1
9M 3

R 2R
C=
9M

R 2R 2
s(t) = a( t) 3
9M

5. Repaso de Algebra Lineal


Definicion
Sea V un conjunto sobre el cual se definen dos operaciones, llamadas
suma y multiplicacion por un escalar. Si u y v estan en V, la suma
de u y v se denota mediante u + v, y si c es un escalar, el multiplo
escalar de u por c se denota mediante cu. Si los siguientes axiomas
se cumplen para todos u, v y w en V y para todos los escalares c y
d, entonces V se llama espacio vectorial y sus elementos se llaman
vectores.
1. u + v esta en V
2. u + v = v + u
3. (u + v) + w = u + (v + w)
4. Existe un elemento 0 en V , llamado vector cero, tal que u + 0 =
u
5. Para cada u en V , existe un elemento u en V tal que u +
(u) = 0
6. cu esta en V
7. c(u + v) = cu + cv
8. (c + d)u = cu + du
9. c(du) = (cd)u
10. 1u = u

13
5.1. Subespacio
Definicion
Un subconjunto W de un espacio vectorial V se llama subespacio de
V si W es en si mismo un espacio vectorial con los mismos escalares,
suma y multiplicacion por un escalar que V.

Teorema
Sea V un espacio vectorial y sea W un subconjunto no vacio de
V. Entonces W es un subespacio de V si y solo si se cumplen las
siguientes condiciones:
1. Si u y v estan en W, entonces u + v esta en W.
2. Si u esta en W y c es un escalar, entonces cu esta en W
EJEMPLOS
1. Sea P2 el conjunto de todos los polinomios de grado 2.Si es
unsubespacio donde Pn es el espacio. Soluci
on Miremos si P2
es un subespacio

sean los polinomios de grado 2 a2 x2 + a1 x + a0 y b2 x2 + b1 x + b0

a2 x2 + a1 x + a0 + b2 x2 + b1 x + b0 = (a2 + b2 )x2 + (a1 + b1 )x + (a0 + b0 )


= c2 x2 + c1 x + c0

Notese que la primera propiedad se cumple.

Ahora probemos la sugunda propiedad, sea r R

r(a2 x2 + a1 x + a0 ) = ra2 x2 + ra1 x + ra0


= r2 x2 + r1 x + r0

Como se cumplen las 2 propiedades podemos decir que los po-


linomios de grado 2 es un subespacio.
2. Demuestre que el conjunto W de la forma

a
b

b
a
es un subespacio de R4 .
Solucion.

14
Sea

a1 a2
b1 b2
u=
b1 y v= b2
que pertenecen a W entonces
a1 a2

a1 + a2 c
b1 + b2 d
u+v = d W
=
b1 + (b2 )
a1 + a2 c
Ahora se r un escalar

a1 ra1
b1 rb1
r W
b1 = rb1


a1 ra1
Por lo tanto es un subespacio.

5.2. Conjunto Generador


Teorema
Si S = {v1 , v2 , ..., vk } es un conjunto de vectores en un espacio vec-
torial V , entonces el conjunto de todas las combinaciones lineales
de v1 , v2 , ..., vk se llama el generador de v1 , v2 , ..., vk y se denota
gen(v1 , v2 , ..., vk ) o gen(S). Si V gen(S), entonces S se llama con-
junto generador para V y se dice que V es generado por S.

EJEMPLOS
1. Demuestre que M23 = gen(E11 , E11 , E12 , E13 , E21 , E22 , E23 ) don-
de
     
1 0 0 0 1 0 0 0 1
E11 = E12 = E13 =
0 0 0 0 0 0 0 0 0
     
0 0 0 0 0 0 0 0 0
E21 = E22 = E23 =
1 0 0 0 1 0 0 0 1
Realizamos una combinacion lineal
a11 E11 + a12 E12 + a13 E13 + a21 E21 + a22 E22 + a23 E23
Dando como resultado
 
a11 a12 a13
a21 a22 a23
Si es generador de M23

15
2. En P2 , determine si r(x) = 1 4x + 6x2 esta generado por
gen(p(x), q(x)) donde

p(x) = 1 x + x2 q(x) = 2 + x 3x2

Realizando una combinacion lineal

ap(x) + bq(x) = r(x)

a(1 x + x2 ) + b(2 + x 3x2 ) = 1 4x + 6x2


Hallando los valores de a y b se comprueba que p(x) y q(x)
generan a r(x)

a + 2b = 1
a + b = 4
a 3b = 6

Se observa que a = 3 y b = 1 genera a r(x).

5.3. Independencia Lineal


Definicion
Un conjunto de vectores v1 , v2 , ..., vk en un espacio vectorial V es
linealmente dependiente si existen escalares c1 , c2 , ..., ck , al menos
uno de los cuales no es cero, tales que

c1 v1 + c2 v2 + p + ck vk = 0

Un conjunto de vectores que no es linealmente dependiente se dice


que es linealmente independiente.

Teorema
Un conjunto de vectores v1 , v2 , ..., vk en un espacio vectorial V es
linealmente dependiente si y solo si al menos uno de los vectores
puede expresarse como una combinacion lineal de los otros.

Ejemplo

1. En P2 , el conjunto {1 + x + x2 , 1 x + 3x2 , 1 + 3x x2 } es
linealmente dependiente, pues

2(1 + x + x2 ) (1 x + 3x2 ) = 1 + 3x x2

16
2. En P2 , determine si {1 + x, x + x2 , 1 + x2 } es linealmente inde-
pendiente, esto significa que al hacer combinacion lineal va ser
igual a cero, esto es:

a(1 + x) + b(x + x2 ) + c(1 + x2 ) = 0

Observamos que para que se cumpla la igualdad a, b, c = 0 luego


es L.I

5.4. Base
Un subconjunto B de un espacio vectorial V es una base para V si
1. B genera a V y
2. B es linealmente independiente
EJEMPLO

Demuestre B = {1 + x, x + x2 , 1 + x2 } que es una base para P2

c1 (1 + x) + c2 (x + x2 ) + c3 (1 + x2 )

(c1 + c3 ) + (c1 + c2 )x + (c2 + c3 )x2


a0 + a1 x + a2 x2
EJERCICIO
Encuentre bases para los tres espacios vectoriales siguientes:


a

b

a. W1 = b


a


1 0 a
0 1 b
a + b =

0 1 b
1 0 a

b. W2 = {a + bx bx2 + ax3 }

a(1 + x3 ) + b(x x2 ) = a + bx bx2 + ax3


 
a b
c. W3 =
b a
     
1 0 0 1 a b
a +b =
0 1 1 0 b a

17
5.5. Dimension de un Espacio
Un espacio vectorial V se llama de dimension finita si tiene una
base que consiste de un numero finito de vectores. La dimension de
V , denotada mediante dimV , es el nuumero de vectores en una base
para V . La dimension del espacio vectorial cero 0 se define como cero.
Un espacio vectorial que no tiene base finita se llama de dimension
infinita.

5.6. Cambio de Base


Definicion
Sean B = u1 , ..., un y C = v1 , ..., vn bases para un espacio vectorial
V. La matriz de n n cuyas columnas son los vectores coordenados
[u1 ]C , ..., [un ]C de los vectores en B con respecto a C se denota y se
llama matriz de cambio de base B a C. Esto es,
PCB = [[u1 ]C [u2 ]C ...[un ]C ]

Piense en B como la base antigua y en C como la base nueva. En-


tonces las columnas de son justo los vectores coordenados obtenidos
al escribir los vectores de la base antigua en terminos de los nuevos.

EJEMPLO
Encuentre las matrices de cambio de base PCB y PBC para las
bases B = 1, x, x2 C = 1 + x, x + x2 , 1 + x2 de P . Luego encuentre
el vector coordenado de p(x) = 1 + 2x x2 con respecto a C.

5.7. Transformaciones Lineales


Definicion
Una transformacion lineal de un espacio vectorial V a un espacio
vectorial W es un mapeo T : V W tal que, para todo u y v en
V y para todos los escalares c,
1. T (u + v) = T (u) + T (v)
2. T (cu) = cT (u)
Ejemplo:
1. Si T : Mnn Mnn mediante T (A) = AT . Demuestre que T
es una transformacion lineal.
Para un A y B en Mnn y un escalar c R
T (A + B) = (A + B)T = AT + B T = T (A) + T (B)
T (cA) = (cA)T = cAT = cT (A)

18
2. Sea D el operador diferencial D : D F definido por D(f ) =
f 0 . D es una transformacion lineal.
Sean f y g funciones derivables y sea c un escalar. Entonces

D(f + g) = (f + g)0 = f 0 + g 0 = D(f ) + D(g)

D(cf ) = (cf )0 = cf 0 = cD(f )


Z b
3. Defina S : C [a, b] R, mediante S(f ) = f (x)dx. S es una
a
transformaci
on lineal.
Sean f y g en C [a, b], entonces
Z b
S(f + g) = (f + g)(x)dx
a
Z b
= f (x) + g(x)dx
a
Z b Z b
= f (x)dx + g(x)dx
a a

S(f ) + S(g)
Z b Z b Z b
S(cf ) = (cf )(x)dx = cf (x)dx = c f (x)dx = cS(f )
a a a

5.8. Semejanza y Diagonalizacion


Definicion
Sean A y B matrices de n n. Se dice que A es semejante a B si
existe una matriz invertible P de n n tal que P 1 AP = B. Si A
es semejante a B, se escribe A B.

Definicion
Una matriz A de n n es diagonalizable si existe una matriz dia-
gonal D tal que A sea semejante a D; esto es, si existe una matriz
invertible P de n n tal que P 1 AP = D.

Teorema
Sea A una matriz de n n. Entonces A es diagonalizable si y solo
si A tiene n eigenvectores linealmente independientes. Mas precisa-
mente, existe una matriz invertible P y una matriz diagonal D tales
que P 1 AP = D si y solo si las columnas de P son n eigenvectores
linealmente independientes de A y las entradas de la diagonal de D
son los eigenvalores de A correspondientes a los eigenvectores en P

19
en el mismo orden.

EJEMPLO
Compruebe si la siguiente matriz es diagonalizable y si es posible
encuentre las matrices P y P 1 que satisfagan la definicion.

2 3 7
A = 0 5 1
0 0 1
Primero se deben hallar los valores propios de la matriz A.

2 3 7 0 0 2 3 7
0 5 1 0 0 = 0 5 1 = (2)(5)(1)
0 0 1 0 0 0 0 1
Luego los valores propios son distintos y son 1 = 2, 2 = 5, 3 = 1

Luego se deben hallar los vectores propios de cada valor propio, en-
tonces:

Para 1 = 2 el vector propios es



1
v1 = 0
0
Para 2 = 5 el vector propios es

1
v2 = 1
0
Para 3 = 1 el vector propios es

15
v2 = 1
6
Ahora la matriz P esta formada por los vectores propios, entonces

1 1 15
P = 0 1 1
0 0 6

Ahora la matriz P 1 es

1 1 8/3
P 1 = 0 1 1/6
0 0 1/6

20
Se verifica que P 1 AP = D

1 1 8/3 2 3 7 1 1 15 2 0 0
0 1 1/6 0 5 1 0 1 1 = 0 5 0
0 0 1/6 0 0 1 0 0 6 0 0 1

6. Ecuaciones Diferenciales de Primer Or-


den
6.1. Variables Separables
Este metodo es el mas simple para resolver ecuaciones diferenciales
de primer orden, se emplea cuando la funcion f (x, y) se puede fac-
torizar como el producto de una funcion de x por una funcion de
y.
dy
= f (x, y)
dx
dy
= g(x)h(y)
dx
Z Z
1
dy = g(x)dx
h(y)
De forma mas general
Z Z
m(y)dy = g(x)dx

Si se tiene una condicion inicial y() = entonces


Z y Z x
m(s)ds = g(t)dt

Ejemplo: Sea la ecuacion diferencial con condicion inicial y(0) = 1

dy x
=
dx y
Primero debemos ver si la condicion inicial si existe en la solucion de
la ecuaci
on, para esto solo basta analizar la dervada parcial respecto
a y, f x
dy = y 2 , observamos que la condici on inicial es continua en
la derivada parcial lo cual nos implica que cumple para dar una
soluci
on particular de la ecuacion diferencial.La solucion es

y2 x2
=c
2 2

21
Para saber el valor de constante utilizamos la condicion inicial
Z y Z x
sds = tdt

s2 y t2 x
=
2 1 2 0
y2 x2 1
=
2 2 2

6.2. Ecuaciones lienales


Estas ecuaciones son de la forma
dy
a1 (x) + a0 (x)y = b(x)
dx
dy a0 (x) b(x)
+ y= con a1 (x) 6= 0
dx a1 (x) a1 (x)
Ly = y 0 + g(x)y = h(x)
Si Ly = 0 es Homogenea y si Ly = h(x)
Ahora
y 0 + P (x)y = Q(x)
Para poder resolver este tipo de ecuaion debemos buscar el factor
integrante adecuado que nos permita resolver la ecuacion, para de-
terminar la forma de este debemos hacer los siguiente.

(x)y 0 + (x)P (x)y = (x)Q(x)

Tomando el miembro izquierdo de la Igualdad tenemos


d  
(x)y 0 + (x)P (x)y = (x)y
dx
Haciendo (x)P (x) = 0 (x) tenemos lo siguiente
Z 0 Z
(x)
= P (x)dx
(x)
Z
Ln(()) = P (x)dx
R
P (x)dx
(x) = e
Ejemplo
Para que valor de a se puede encontrar soluciones explicitas de y.
dy 2
= aty + 4et
dx

22
dy 2
aty = 4et
dx
2
R
(x) = e atdt = eat /2
Luego
2 dy 2 2 2
eat /2 atyeat /2 = 4eat /2 et
Z dx Z
d  at2 /2  2
e y dx = 4 et (a/2+1) dx
dx
Si a = 2 tendremos soluciones explicitas, para otros valores de a
la integral ya no se puede solucionar de manera analitica, se debe
buscar algun metodo numerico para determinar una aproximacion a
una solucion.

6.3. Ecuaci
on de Bernulli
Estas ecuaciones son de la forma:
y 0 + g(x)y + h(x)y = 0 6= 0
Estas ecuaciones ya no son lineales el metodo es lograr bajarla de
orden para trabarla como una ecuacion lineal.Multiplicamos por y
y y 0 + g(x)y 1 + h(x) = 0
Multiplicando por (1 )
(1 )y y 0 + (1 )g(x)y 1 + (1 )h(x) = 0
Haciendo (y 1 )0 = (1 )y y 0
(y 1 )0 + (1 )g(x)y 1 + (1 )h(x) = 0
Ahora si z = y 1
z 0 + (1 )g(x)z + (1 )h(x) = 0
As la ecuaci
on a sido bajada de orden y se trabaja como una ecua-
ci
on lineal.

6.4. Ecuaciones exactas


Estas ecuaciones son de la forma:
M (x, y)dx + N (x, y)dy = 0
M N
=
y x
Z
F
f (x, y) = M (x, y)dx + h(y) =N
y
Z
F
f (x, y) = N (x, y)dx + g(x) =M
x

23
6.5. Factor integrante especial
Cuando las ecuciones no dan exactas se debe buscar el factor inte-
grante adecuado,el cual covierta la ecuacion en exacta para esto se
debe
(x)M (x, y)dx + (x)N (x, y)dy = 0
   
(x)M (x, y) = (x)N (x, y)
y x
M N
M+ = N+
y y x x
 M N 
= N M
y x x y
Suponemos que (x) entonces
 M N 
= N
y x x
 
M N
y x dx 0
=
N
Por tan el factor integrante daria
 
Z M N
dx
y x

(x) = e N

Analogamente suponemos con (y) y se concluye


 
Z M N dy
y x

(y) = e M

7. Aplicaciones
Consideremos la ecuacion
x = ax
x = x(t) = keat
Ahora consideremos si el parametro depende de t
(t) = (t)eat
0 (t) = 0 (t)eat + a(t)eat
d
((t)eat ) = 0 (t)eat + a(t)eat
dt
on de la ecuacion planteada si 0 (t) = 0 entonces
Esto sera soluci
(t) = k

24
7.1. Modelo de Malthus
Segun Malthus la poblacion seguia un comportamiento exponencial
por esto plante esta ecuacion diferencial q describe el comportamien-
to de la poblaci
on
dp
= rP
dt
P (t) = P0 ert
Los alimentos segun Malthus seguia el siguiente comportamiento

dA
= kA0 donde A0 es una constante
dt
A(t) = A0 (1 + kt)
A0 (1 + kt) A0
a(t) = = a0 (1 + kt)ert ; a0 =
P0 ert P0
El tcm es el instante de tiempo de catastrofe malthusiana

amin = atcm

amin = a0 (1 + ktcm )ertcm


1 + ktcm amin

ertcm a0
Por la funci
on w Lambert se obtiene el valor de tcm
1 1  amin r/k 
tcm = w r e
r k a0

7.2. Modelos Logistico


Este modelo plantea que la poblacion esta sujeta a una capacidad
de soporte del medio que la denotaremos como N y considera los
siguientes supuestos
i Si la poblacion es muy pequena, entonces la variacion es propor-
cional a ella misma. dP
dt > 0
ii Si la poblaci
on es muy grande entonces si la capacidad de soporte,
es superada la poblacion decrece. dP
dt < 0, P > N

dP
= f (P )
dt
donde
f (P ) = kP (P ) < 0
P
P >N >1
N

25
P
0>1 = (P )
N
Luego
dP  P
= kP 1
dt N
Se encuentran dos soluciones de equilibro en dos puntos de equilibrio.

P =0 P =N

observemos el diagrama de fase

26
Ahora si le agregamos otro parametro M que representa la escaces
de alimento

dS  S  S 
= kS 1 1
dt N M
Siempre y cuando N > M . La funcion que describe la ecuacion
diferencial es

el diagrama de fase es

Volviendo a la ecuaci
on logistica
dP  P
= kP 1 P (0) = P0
dt N
Si N = 1 tenemos
dP  
= kP 1 P
dt
Esta ecuaci
on diferencial se resuelve de manera analitica por el meto-
do de separaci
on de variables y aplicando fracciones parciales dando
como soluci
on
Kekt P0
P (t) = K=
1 + Kekt 1 P0
P0 ekt
P (t) =
1 P0 + P0 ekt

27
8. Sistema Lineales
8.1. introducci
on
Se presenta un sistema de ecuaciones diferenciales ordinarias de la
forma:
x0 = Ax
Donde x R, A es una matriz de n n y
dx1
dx dt
x0 = = :
dt dxn
dt

Se puede ver que la solucion de este sistema lineal con lacondicion


inicial x(0) = x0 est
a dada por:

x(t) = eAt x0

Donde eAt es una funcion matricial n n, definida por una serie de


Taylor.

Se busca calcular la matriz eAt en terminos de los valores propios y


los vectores propios de esta matriz cuadrada A.

8.2. Sistemas Lienales desacoplados


El metodo de separacion de variables, puede ser usado para resolver
la ecuaci
on diferencial de primer orden

x0 = ax

La soluci
on est
a dada por

x(t) = ceat

donde c = x(0), el valor de la funcion x(t) en el tiempo t = 0.

Ejemplo:

Ahora consideremos el sistema lineal desacoplado

x01 = x1

x02 = 2x2

28
En forma matricial se puede escribir x0 = Ax, donde
 
1 0
0 2

Note que en este caso A es una matriz diagonal A = diag[1, 2], y


en general todas las matrices A son matrices diagonales, el sistema
se reduce a un sistema lineal desacoplado. En general la solucion
de cualquier sistema lineal desacoplado puede encontrarse por el
metodo de separaci
on de variable. Por lo tanto

x1 (t) = c1 et

x2 (t) = c2 e2t
O equivalente a  t 
e 0
x(t) = c
0 e2t
Donde c = x(0). Se puede observar que las curvas solucion de, es-
tas soluciones se encuentran sobre las curvas algebraicas y = k/x2 ,
donde la constante k = c21 c2 . El movimiento que describe la solucion
y puede verse para x1 y x2 en un plano fase. Para el caso en que
c1 = c = c2 = 0, x1 (t) = 0 y x2 (t) = 0 para todo t R se conocen
como puntos de equilibrio.

Plano de fase.

Ejercicio:

Encuentre la soluci
on general y determine como es el plano de fase
para el sistema
x01 = x1
x02 = 3x2

29
Soluci
on:

En forma matricial se puede escribir x0 = Ax, donde


 
1 0
0 3

Note que en este caso A es una matriz diagonal A = diag[1, 3] y


la soluci
on del sistema lineal desacoplado puede encontrarse por el
metodo de separaci on de variable. Por lo tanto

x1 (t) = c1 et

x2 (t) = c2 e3t
O equivalente a  t 
e 0
x(t) = c
0 e3t
la soluci
on presenta el siguiente comportamiento

Plano de fase.

8.3. Diagonalizaci
on
La diagonalizaci
on se puede utilizar para reducir el sistema lineal

x0 = Ax

A un sistema lineal desacoplado. Consideramos una matriz cuadrada


n n A reales y distintos, entonces existe un conjunto de correspon-
dientes vectores propios {v1 , v2 , ..., vn } que forman una base para
Rn , la matriz P = [v1 , v2 , ...vn ] es invertible y

P 1 AP = diag[1 , 2 , ..., n ]

30
Con el fin de reducir el sistema, a un sistema lineal no acoplado
mediante el teorema anterior, se define la transformacion lineal de
coordenadas:
y = P 1 x
Entonces
x = Py
As que
y 0 = P 1 x0 = P 1 Ax = P 1 AP y
y de acuerdo con el anterior teorema, se obtiene el sistema lineal
desacoplado.
y 0 = diag[1 , 2 , ..., n ]
Este sistema tiene como solucion

y(t) = diag[e1 t , e2 t , ..., en t ]y(0)

Y entonces y(0) = P 1 x(0) y x(t) = P y(t), de esto se sigue que la


soluci
on es
x(t) = P E(t)P 1 x(0)
Donde E(t) es la matriz diagonal

E(t) = diag[e1 t , e2 t , ..., en t ]

Ejemplo:

Considere el sistema lineal

x01 = x1 3x2

x02 = 2x2
Se puede escribir de forma matricial
 
1 3
0 2

debemos hayar lo eigenvalores para ello se debe


     
1 3 0 1 3
= = (1 )(2 )
0 2 0 0 2

As los egienvalores son 1 = 1 y 2 = 2. Ahora se debe hayar los


eige vectores correspondientes a cada valor propio.

Para 1 = 1 su eigenvector correspondiente es


 
1
v1 =
0

31
Para 2 = 2 su eigenvector correspondiente es
 
1
v1 =
1

Luego la matriz P esta dada por los vectores propios, entonces


 
1 1
P =
0 1

Su matriz inversa es la siguiente


 
1 1 1
P =
0 1

Luego aplicando la transformacion tenemos

y 0 = P 1 AP y
   
1 1 1 3 1 1
y
0 1 0 2 0 1
 
1 0
y0 = y
0 2

Ahora se a convertido en un sistema desacoplado

y10 = y1 = y1 = c1 et

y20 = 2y2 = y2 = c2 e2t


 t 
e 0
E(t) =
0 e2t
la soluci
on queda expresada de la siguiente manera

x(t) = P E(t)P 1 c

1 1 et 0
   
1 1
x(t) = c
0 1 0 e2t 0 1
 t
et e2t

e
x(t) = c
0 e2t

9. Operadores Exponenciales
9.1. Operadores lineales
Para definir un operador exponencial, es necesario estudiar la con-
vergencia de un operador lineal T : Rn Rn en el espacio L(Rn )

32
de todos los operadores lineales sobre Rn . La norma de un operador
T , est
a definida as

kT k = max |T (x)|
|x|1

donde |x| es la norma euclidiana de x Rn .


q
|x| = x21 + + x2n

La norma de los operadores tienen las siguientes propiedades, para


S, T L(Rn ).

1. kT k 0 y kT k = 0 si,solamente si,T = 0
2. kkT k = |k|kT k para k R
3. kS + T k kSk + kT k

De la desigualdad de CauchySchwarz se deduce que siT L(Rn )


est
a representado por la matriz
A, con respecto a la base estandar
para Rn , entonces kAk nl.

Definici
on 1 Una sucesion de operadores lineales Tk L(Rn ) se
dice que converge a un operador T L(Rn ), cuando k , es
decir,

lm Tk = T
k

si para todo > 0,N tal que para cada k N ,kT Tk k <

Lema 1 Para S, T L(Rn ) y x Rn .

1. |T (x)| kT k|x|
2. kT Sk kT kkSk
3. kT k k kT kk para k = 0, 1, 2, ...

Demostraci on. Sabemos que (1) es verdadera cuando x = 0.Para


x
x 6= 0 definamos el vector unitario y = |x| .Entonces por la definicion
de operador normal,

1
kT k |T (y)| = |T (x)|
|x|
es decir

|T (x)| kT k|x|

33
Verifiquemos (2)

Para |x| 1,se deduce de (1) que

|T (S(x))| kT k|S(x)|
kT kkSk|x|
kT kkSk

Portanto,

kT Sk = max |T S(x)| kT kkSk


|x|1

Por lo tanto

kT Sk kT kkSk

Ahora verifiquemos (3),notemos que esta es inmedita consecuencia


de la (2).Para cuando k = 0 y k = 1 se tiene la igualdad.

Para cuando k = 2 se tiene

kT 2 k = kT T k

por (2) se tien que

kT T k kT kkT k = kT k2

es decir que

kT 2 k kT k2

Supongamos que para k ya se cumple, miremos si se cumple para


k+1

kT k+1 k = kT k T k

Por la condici
on (2) se tiene que

kT k T k kT k kkT k kT kk kT k = kT kk+1

Por lo tanto

34
kT k+1 k kT kk+1

Es decir que queda probado la condicion (3).

Teorema 1 Dado T L(Rn ) y t0 > 0, la serie


X T k tk
k!
k=0

es absolutamente y uniformemente convergente para todo |t| t0

Demostraci
on.

Sea kT k = a, se tiene del lema anterior que para |t| t0 ,


k k
T t kT kk |t|k ak tk0
k!

k! k!
Pero


X ak tk 0
= eat0
k!
k=0

Por lo tanto la serie


X T k tk
k!
k=0

es absolutamente y uniformemente convergente para todo |t| t0 .


La exponencial del operador lineal T es entonces definida por la serie
convergente


X Tk
eT =
k!
k=0

on 2 Sea A una matriz nxn. Entonces para t R,


Definici


X Ak t k
eAt =
k!
k=0

Para una matriz A de nxn, eAt es una matriz nxn que puede ser
calculada en terminos de los valores y vectores propios de A.

35
Se puede ver que keAt k ekAk|t| donde kAk = kT k y T es una
transformaci
on lineal T (x) = Ax.

Proposici on 1 Si P y T son transformaciones lineales en Rn y


S = P T P 1 , entonces es = P eT P 1 .

Demostraci
on. Sabemos que

X Sk
es =
k!
k=0
n
X (P T P 1 )k
= lm
n k!
k=0
n
X T k 1
= P lm P
n k!
k=0
= P eT P 1

Corolario 1.Si P 1 AP = diag[j ] entonces eAt = P diag[ej t ]P 1

Proposici
on 2.Si S y T son transformaciones lineales sobre R que
conmutan, es decir que satisfacen ST = T S, entonces eS+T = es eT .
Demostraci
on.

Si ST = T S,entonces por el teorema binomial

X Sj T k
(S + T )n = n!
j!k!
j+k=n

Por lo tanto,

X Sj T k
X X Sj X T k
eS+T = = = eS eT
n=0
j!k! j=0
j! k!
j+k=n k=0

Ahora haciendo S = T en la proposicion 2, se obtiene

Corolario 2.si T es una transformacion lineal sobre Rn , la inversa


on lineal eT esta dada por (eT )1 = eT .
de la transformaci

Corolario 3.Si
 
a b
A=
b a

36
Entonces
 
cos b sin b
eA = ea
sin b cos b

Demostraci
on.Si = a + ib, se tiene por induccion que
k
Re(k ) Im(k )
  
a b
=
b a Im(k ) Re(k )

Donde Re e Im denotan las partes real e imaginaria del n


umero
complejo respectivamente. entonces

" #
k k
X Re( ) Im( )
eA = k!
k
k!
k
k=0
Im( k! ) Re( k! )

Re(ek ) Im(ek )
 
=
Im(ek ) Re(ek )
 
a cos b sin b
=e
sin b cos b

Note que si a = 0 en el corolario 3, entonces eA es simplemente una


rotaci
on de b en radianes.

Corolario 4.Si
 
a b
A=
0 a

entonces
 
1 b
eA = ea
0 1

Podemos encontrar la matriz eAt para alguna matriz A2x2 , teniendo


en cuenta una matriz P tal que la matriz

B = P 1 AP

tiene alguna de las siguientes formas


     
0 1 a b
B= ,B = ,B =
0 0 b a

37
Con los anteriores corolarios y la definicion 2, se tiene que

et
     
B 0 B t 1 t B at cos bt sin bt
e t= ,e t = e ,e t = e
0 et 0 1 sin bt cos bt

respectivamente y por la proposicion 1, la matriz eAt , esta dada por

eAt = P eBt P 1

10. Sistema de Ecuaciones Diferenciales


Lineales
La forma normal de un sistema de ecuaciones diferenciales lineales
de primer orden es

dx1
= a11 (t)x1 + a12 (t)x2 + ... + a1n (t)xn
dt
dx2
= a21 (t)x1 + a22 (t)x2 + ... + a2n (t)xn
dt
..
.
dxn
= an1 (t)x1 + an2 (t)x2 + ... + ann (t)xn
dt
visto en forma matricial es


x1 (t) a11 (t) a12 (t) ... a1n (t)
x2 (t) a21 (t) a22 (t) ... a2n (t)
X = . ; A(t) = .

.. .. ..
.. .. . . .
xn (t) an1 (t) an2 (t) ... ann (t)


x1 a11 (t) a12 (t) ... a1n (t) x1
d x 2
a21 (t) a22 (t) ... a2n (t) x2
. = ..

.. .. .. ..
dt .. . . . . .
xn an1 (t) an2 (t) ... ann (t) xn

0
X = AX

38
dx

    
x dt a b x
si X = entonces dx =
y c d y
dy
o tambien
 
dX a b
= AX donde A=
dt c d

A partir de la naturaleza de los valores propios y el signo de ellos,


los sistemas lineales se clasifican en diferentes tipos.

El polinomio caracterstico de A es
 
1 0
det(A I) donde I=
0 1

ahora,

det(A I) = 2 (a + d) + ad bc

Donde (a + d) es la traza de la matriz A, se denotara por T , y


(ad bc) es el determinante de A, se denotara por D. El polinomio
caracterstico de A se reescribe como

2 T + D

Las races o ceros de este polinomio, son los valores propios de la


matriz A. Esto es,

T T 2 4D T T 2 4D
1 = + ; 2 =
2 2 2 2

De esta expresi
on se deduce que los valores propios de A son:

Reales y distintos si T 2 4D > 0

complejos conjugados si T 2 4D < 0

reales repetidos (iguales) si T 2 4D = 0

T2
De T 2 4D = 0, se obtiene D = . Esta parabola se conoce como
4
la par
abola de raiz repetida

39
Para hallar la soluci
on de un sistema lineal de ecuaciones diferen-
dX
ciales = AX, se hace uso del principio de linealidad que nos
dt
dice:

1. Si X(t) es una solucion de este sistema y k es cualquier cons-


tante, entonces kX(t) es tambien una solucion.
2. Si X1 (t) y X2 (t) son dos soluciones de este sistema, entonces
X1 (t) + X2 (t) es tambien una solucion.

Esto es, si X1 (t) y X2 (t) son dos soluciones del sistema dado y si k1
y k2 son constante cualesquiera, entonces

k1 X1 (t) + k2 X2

es tambien una soluci


on.

Si la matriz A posee un valor propio real con vector propio asociado


dX
v, entonces el sistema lineal = AX tiene la solucion X(t) = et v
dt
conocida como soluci on de lnea recta.

Ahora, supongamos que al resolver el polinomio caracterstico en-


contramos dos valores propios reales y distintos 1 y 2 con vecto-
res asociados v1 y v2 respectivamente. Como v1 y v2 son vectores
asociados a diferentes valores propios, ellos deben ser linealmente
independientes. Entonces las soluciones de lnea recta son

X1 (t) = e1 t v1 y X2 (t) = e2 t v2

Por consiguiente, en virtud del principio de linealidad

40
X(t) = k1 e1 t v1 + k2 e2 t v2

Conocida como la solucion general del sistema lineal de ecuaciones


diferenciales.

Ahora, para cuando los valores 1 ,2 son reales y distintos, se obtie-


nen los siguientes casos:

1. 2 < 1 < 0

41
2. 1 > 2 > 0

3. 2 < 0 < 1

42
4. 2 < 1 = 0

5. 0 = 2 < 1

43
10.1. Ejemplo 1
Sea el sistema lineal de EDOS
 
dX 2 1
= X.
dt 0 1

La traza de la matriz es T = 3 y el determinante es D = 2. Por lo


tanto, los valores propios de la matriz de coeficientes son 1 = 1 y
1 = 2.

Para 1 = 1, su vector propio asociado es tal que

Av = 1 v (A 1 I2 )v = 0,

esto es,
    
1 1 v1 0
=
0 0 v2 0

de donde se obtiene v2 = v1 .

Luego,
     
v1 v1 1
v= = = v1
v2 v1 1

Para 2 = 2, su vector propio asociado es tal que

Aw = 2 w (A 2 I2 )v = 0,

esto es,
    
0 1 w1 0
=
0 1 w2 0

44
de donde se obtiene w2 = 0.

Luego,
     
w1 w1 1
w= = = w1
w2 0 0

El campo vectorial posee entonces dos soluciones de linea recta li-


nealmente independientes que tienden al equilibrio (0,0). La solucion
general es
   
t 1 2t 1
X(t) = k1 e + k2 e
1 0

k1 et + k2 e2t
   
x(t)
= ;
y(t) k1 et
expresi
on que genera cada curva solucion del sistema.

dy
La pendiente de la linea tangente a una curva esta dada por . En
dx
dy dy dt
virtud de la regla de la cadena, = , y por el teorema de
dx dt dx
la derivaci
on de la funcion inversa

dy dy 1
=
dx dt dx
dt

Como x(t) = k1 et + k2 e2t , y y(t) = k1 et , se tiene

dy k1 et 1
= = ,
dx k1 et 2k2 e2t k2 t
1 2 e
k1

45
si k1 6= 0.

dy
Luego, tiende a 1 cuando t si k1 6= 0, es decir, son solucio-
dx
nes que tienden al equilibrio (0, 0) con pendientes que tienden a 1
(1 es la pendiente de la linea recta de vectores propios asociados al
valor propio 1 = 1) o tambien se puede decir que tienden al origen
en direcci
on tangencial a la linea de vectores propios asociados con
el valor propio dominante 1 = 1.

dy
Si k1 = 0, = 0, que es precisamente la pendiente para las solu-
dx
ciones de lnea recta con condiciones iniciales a lo largo de la lnea
de vectores propios correspondientes a 2 = 2.

Finalmente, el retrato de fase del sistema estudiado es el siguiente:

10.2. Ejemplo 2
Para el Sistema Lineal
 
dX 6 2
= X
dt 3 1

i) Encuentre los eigenvalores


ii) Encuentre los eigenvectores
iii) Determine la solucion general
iv) Esboce el plano de fase
v) Que valor toma la solucion general para X0 = (1, 1)
vi) Con la condici
on inicial anterior, grafique la solucion particular.

Soluci
on

46
i) El polinomio caracterstico;
q
2
T (T ) 4D
=
2 2
donde la traza T = 7 y el determinante D = 0.
Luego los eigenvalores del sistema es:

1 = 7, 2 = 0

ii)

El eigenvector w = (w1 , w2 ) asociado al eigenvalor = 7 es:

Aw = w

En efecto:     
6 3 w1 7w1
=
2 1 w2 7w2
esto equivale
(
6w1 + 3w2 = 7w1
2w1 + w2 = 7w2
quedando
(
3w2 = w1
.
w1 = 3w2

Luego,      
w1 3w2 3
w= = = w2
w2 w2 1

Para 2 = 0, el vector propio w = (w1 , w2 ) se obtiene,


    
6 3 w1 0
=
2 1 w2 0

esto es, (
6w1 + 3w2 = 0
2w1 + w2 = 0
y as, 2w1 = w2 .
Luego,    w2   1 
w1 2 2
w= = = w2
w2 w2 1

47
Figura 1: Combinaci
on lineal de eigenvectores asociados a los eigenvalor = 7

Figura 2: Infinidad de eigenvectores asociados al eigenvalor = 0

iii) La soluci
on general es:
   1 
3 7t 0t 2
X(t) = k1 e + k2 e
1 1

es decir
3k1 e7t k22
   
x(t)
=
y(t) k1 e7t + k2

iv)

v) Puesto que

3k1 k22
     
x0 1
X(0) = = =
y0 k1 + k2 1

48
Figura 3: Plano fase

3


k2 k =
3k1 =1

1

2
7
.
k 2 = 4

k1 + k2 = 1


7
Luego,
9 2

x(t) = e7t


7 7

y(t) = 3 e7t + 4



7 7

49
Figura 4: Soluci
on particular de X(t) con (x(0), y(0)) = (1, 1)

11. Sistema de Ecuaciones Diferenciales


Lineales con Valores propios Complejos
11.1. Eigenvalores Complejos
Cuando una matriz A del sistema X = AX posee valores propios
complejos y cualquier raz compleja de la ecuacion caracterstica
atica 2 (a + d) + (ad bc) = 0 surge como parte de un par
cuadr
complejo conjugado: = p iq.

El comportamiento de las trayectorias en el caso de valores comple-


jos depende es de la parte real p de dichos valores propios.

Si los valores propios de una matriz son complejos, sus vectores pro-
pios tendran tambien componentes o entradas complejas.

Recordemos...
Partiendo de las series de Taylor

 n
x x2 x3 X x
ex = 1 + + + + =
1! 2! 3! n=0
n!

x3 x5 x7 (1)n x2n+1
X 
sin x = x + =
3! 5! 7! n=0
(2n + 1)!

50

x2 x4 x6 (1)n x2n
X 
cos x = 1 + =
2! 4! 6! n=0
(2n)!

si en (1) sustituimos x por zi

zi z 2 z 3 (i) z 4 z2 z4 z6 z3 z5 z7
   
zi
e = 1+ + + + = 1 + + . . . +i z + + ...
1! 2! 3! 4! 2! 4! 6! 3! 5! 7!

Es decir que

(2n+1)!
X (1)n z 2n X
= +i
n=0
(2n!)
(1)n z 2n+1

ezi = cos z + i sin z

Eigenvalores Complejos

Si una matriz real A de tama no 2n x2n tiene eigenvalores complejos,


estos aparecen en pares conjugados complejos y si A tiene 2n eigen-
valores complejos distintos, el siguiente teorema nos permite resolver
el Sistema lineal.

Teorema.Sea A Rnxn tiene k eigenvalores reales distintos 1 , ..., k


con eigenvectores correspondientes u1 , ..., uk y s = nk 2 pares con-
jugados complejos de eigenvalores k+1 , k+1 , ..., k+s ,
k+s , donde
j = aj +ibj con los correspondientes eigenvectores w, w k+1 , ..., wk+s , w
k+s ,
donde w = uj + ivj .

Luego sea
P = [v1 u1 v2 . . . vn un ]

Entonces P Rnxn es invertible y

D = P 1 AP = diag{1 , ..., k , Bk+1 , ..., Bk+s }

Donde los bloques reales 2x2 Bj , para j > k,son dados por
 
aj bj
bj aj
Para j = k + 1, ..., k + s

51
Demostraci
on.

Sea = a + bi y w = u + iv un par de valores propios y vectores


propios de la matriz A.Entonces = abi y w
= uiv es tambien un
par de valores y vectores propios de A.ya que u = 21 (w + w),nosotros

tenemos que

1 1
Au = = (w + w) = <{w} = au bv.
(Aw + Aw)
2 2
1
Similarmente, v = 2i (w w),
y por lo tanto

1 1
Av = = (w w) = ={w} = bu + av
(Aw Aw)
2i 2i
.
Combinando las dos ecuaciones en una sola se obtiene la siguiente
matriz

| | | |  
a b
A v u = v u
b a
| | | |

Corolario.

Bajo las hip otesis del teorema anterior, la solucion del problema con
valor inicial
X = AX
X(0) = x0

Es dado por
 
cos bj t sin bj t
X(t) = P diag e aj t
P 1 x0
sin bj t cos bj t

 
cos bt sin bt
R=
sin bt cos bt

Representa una rotaci


on mediante bt en radianes.
Ejemplo 1.Resolver.

1 -1 0 0
1 1 0 0
A=
0

0 3 -2
0 0 1 1

52
La matriz A tiene valores propios complejos, 1 = 1 i y 2 = 2 i.
Para 1 = 1 + i se tiene

-i -1 0 0
1 -i 0 0
A=
0

0 2-i -2
0 0 1 1-i
de donde se sacan las siguientes ecuaciones

ix = y
x=iy=1
x = iy


(2 i)z = 2w
(2i)iw2w = 0 ((2i)i2)w = 0 w = 0; z = 0
z = iw
es decir que


i 0 1
1 1
+ i 0

0 = u1 + iv1 = 0
w1 =
0
0 0 0
Analogamente se hace para 2 = 2 + i, y se tiene que

0 0 0
0 0
+ i 0

w2 =
1 + i = u2 + iv2 = 1

1
1 1 0
Ahora;

1 0 0 0
  0 1 0 0
P = v1 u1 v2 u2 =
0

0 1 1
0 0 0 1

1 0 0 0
1
0 1 0 0
P =
0

0 1 -1
0 0 0 1
y,

1 -1 0 0
1 1 0 0
P 1 AP =


0 0 2 -1
0 0 1 2

53
La soluci
on del problema con valor inicial es

et cos t et sin t

0 0
et sin t et cos t 0 0 1
x(t) = P 2t 2t
P x0
0 0 e cos t e sin t
0 0 e2t sin t e2t cos t

et cos t et sin t

0 0
et sin t et cos t 0 0
= x0
0 0 e2t (cos t + sin t) 2e2t sin t
0 0 e2t sin t e2t (cos t sin t)

11.2. An
alisis de estabilidad e los valores propios
Supongamos en primer lugar que los valores propios son i,
donde y son n umeros reales. Para esbozar el diagrama de fases
en este caso necesitamos conocer como es la solucion del sistema, y
ademas existir
an tres tipos de comportamientos dependiendo de
sea nulo, positivo o negativo.

1. Si = 0 podemos encontrar centros y la orientacion de todas


las orbitas es la misma.
2. Si > 0 podemos encontrar un punto espiral inestable (fuente
espiral).
3. Si < 0 podemos encontrar un punto espiral estable (Sumidero
espiral).

Ejemplo 1.

x0 = 2x + 3y


y 0 = 3x 2y

Los valores propios son 5i,es decir que = 0 por lo tanto en su
diagrama de fase vamos a encontrar centros.

54
Ejemplo 2.

x0 = x + y


y 0 = 3x + y
Los valores propios son 1 i,es decir que > 0 por lo tanto en
su diagrama de fase vamos a encontrar una fuente espiral, tambien
conocido como foco inestable.

55
Ejemplo 3.

x0 = 2x + y


y 0 = 3x + y

Los valores propios son 21 i 23 ,es decir que < 0 por lo tanto
en su diagrama de fase vamos a encontrar una sumidero espiral,
tambien conocido como foco estable.

12. Forma Can


onica de Jordan
La forma can onica de Jordan de una matriz da una idea de la forma
de la soluci
on de un sistema lineal de ecuaciones diferenciales.

Hasta ahora hemos trabajado matrices diagonalizables en donde sus


valores caractersticos son distintos. Sin embargo, trabajaremos
matrices no diagonalizables es decir que no necesariamente sus valo-
res caractersticos son distintos. Pero en este caso tambien se puede

56
ver que la matriz es semejante a otra.

Se define la matriz Nk como la matriz nilpotente de tama


no kxk

0 1 0 ... 0
0 0 1 ... 0

...
Nk =

0 0 0 ... 1
0 0 0 ... 0

Para un escalar dado se define la matriz de bloques de Jordan


B() por:

1 0 ... 0
0 1 ... 0

...
B() = I + N =

0 ... 1
0 ... 0

Para un valor propio real. Ahora cuando es un complejo, la ma-


triz de bloque de Jordan es de la forma

D I2 0 ... 0
0 D I2 ... 0

...
B=

0 ... D I2
0 ... 0 D

Con
     
a b 1 0 0 0
D= ; I2 = y0=
b a 0 1 0 0

Por u
ltimo la matriz de Jordan J tiene la forma

B1 (1 ) 0 ... 0
0 B 2 ( 2 ) ... 0
J =
...


0 ... Br (r )

Donde cada Bj (j ) es una matriz de bloques de jordan

Teorema 1.

Sea A una matriz real o compleja de nxn. Entonces existe una matriz
C invertible de nxn tal que,J = C 1 AC. Donde J es una matriz de

57
Jordan cuyos elementos en la diagonal son los valores caractersticos
de A. Pero esta matriz es u
nica, excepto por el orden en el que apa-
recen los bloques de Jordan.

Definici
on: (Valor caracterstico generalizado)

Sea A una matriz de 2x2 con un solo valor caracterstico y sea


v1 un vector caracterstico de A. Entonces el vector v2 definido por
(A I)v2 = v1 se denomina un vector caracterstico generalizado
de A correspondiente al valor caracterstico .

Sea el sistema x0 (t) = Ax(t) ()

Teorema 2.

Para cualquier vector constante c, x(t) = eAt c es solucion de (*). Mas


a on de (*) dada por x(t) = eAt x0 satisface x(0) = x0 .
un la soluci

Demostraci
on.

A2 t2 A3 t3
Sea x(t) = eAt c = [I + At + 2! + 3! + ...]c (1)

Ahora como A es una matriz constante, se tiene

d A k tk ktk1 k Ak tk1 k1 k1

dt k! = k! A = (k1)! = A[ A(k1)!
t
] (2)

Luego de (1) y (2) y como c es vector constante, tenemos:

A2 t2 A3 t3
x0 (t) = d At
dt e c = A[I + At + 2! + 3! + ...]c = AeAt c = Ax(t)

ltimo, como eA0 = e0 = I. Se tiene x(0) = eA0 x0 = Ix0 = x0


Por u

Ejemplo.
Calculo de eAt cuando A es una matriz de 2x2 que no es diagonali-
zable.
 
a 1
Sea A = entonces verificamos facilmente que
0 a

 2  3
3a2
 m
mam1
  
2 a 2a 3 a m a
A = ;A = ;...; A = ;...
0 a2 0 a3 0 am

58
De manera que,


(at)m mam1 tm
X X
m! m!
eAt = m=0 m=1


(at)m
X

0
m=0
m!

Ahora,


X mam1 tm X am1 tm a2 t3
= = t + at2 + + ... = t[1 + at +
m=1
m! m=1
(m 1)! 2!
a2 t2
+ ...] = teat
2!
 at
teat

At e
As, e =
0 eat

Teorema 3.

Sea J la Forma Canonca de Jordan de una matriz A y sea J =


C 1 AC entonces A = CJC 1 y eAt = CeJt C 1

Demostraci
on.

Observemos que,

An = (CJC 1 )n = (CJC 1 )(CJC 1 )(CJC 1 )...(CJC 1 )


= CJ(C 1 C)J(C 1 C)J(C 1 C)...(C 1 C)JC 1
= CJ n C 1

Entonces tenemos que, (At)n = C(Jt)n C 1 . As

(At)2 (At)3
eAt = I + At + 2! + 3! + ...

C(Jt)2 C 1
= CIC 1 + C(Jt)C 1 + 2! + ...

(Jt)2 (Jt)3
= C[I + Jt + 2! + 3! + ...]C 1

= CeJt C 1

59
Para calcular eAt en realidad solo se necesita calcular eJt . Cuando
J es diagonal, se hace como ya es usual. Si A es una matriz de 2x2
que no es diagonalizable, entonces
 t
tet
  
1 Jt e
J= ;ye =
0 0 et

Ejemplo.

Un modelo competitivo. Considere el sistema

x01 (t) = 3x1 (t) x2 (t)


x02 (t) = 2x1 (t) + 2x2 (t)

Aqu un aumento en la poblacion de una especie causa una disminu-


ci
on en la tasa de crecimiento de la otra. Suponga que las poblaciones
iniciales x1 (0) = 90 y x2 (0) = 150. Encuentre las poblaciones de am-
bas especies para t > 0.

Soluci
on.
 
1 3
Se tiene A = . Los valores caractersticos de A son 1 =
2 2  
1
1, 2 = 4 con vectores caractersticos correspondientes v1 = ,
  2
1
v2 = . Entonces tenemos que
1
     
1 2 1 1 1 1 1 1 0
C= , C = 3 , J = C AC = , eJt =
 t 1  1 2 1 0 4
e 0
0 e4t

Luego,
eAt = CeJt C 1
  t  
1 2 e 0 1 1
= 13
1 1 0 e4t 2 1

et et
  
1 2
= 13
1 1 2e4t e4t

et 2e4t et + e4t
 
= 13
2et + 2e4t 2et e4t

60
La soluci
on del sistema es,
 t
e 2e4t et + e4t
   
x1 (t) 90
v(t) = = eAt x0 = 13 =
x2 (t) 2et + 2e4t 2et e4t 150
t 4t
 
240e 30e
13
480et + 30e4t

1
Por lo menos despues de 6 meses, t = 2 a
no, entonces

1
x1 (t) = 80e 2 + 10e2 206
1
x2 (t) = 160e 2 10e2 190

Ejemplo.

Considere el siguiente sistema poblacional

x01 (t) = 2x1 (t) x2 (t)


x02 (t) = x1 (t) + 4x2 (t)

Encuentre las poblaciones de las dos especies para t > 0 si las po-
blaciones iniciales son x1 (0) = 500, x2 (0) = 100

Soluci
on.
 
2 1
Sea A = y el unico valor caracterstico es = 3. Con un
1 4  
1
solo vector caracterstico v1 = . Por la definicion anterior tene-
1
 
1
mos que (A 3I)v2 = v1 por lo tanto obtenemos, v2 =
2

Entonces,
 3t
te3t
      
1 1 2 1 3 1 Jt e
C= , C 1 = ,J = ,e = =
1 2 1 1 0 3 0 e3t
 
3t 1 t
e
0 1

Luego tenemos que


   
At Jt 1 3t 1 1 1 t 2 1
e = Ce C =e
1 2 0 1 1 1

61
  
1 1 2t 1t
= e3t
1 2 1 1
 
1 t t
3t
=e
t 1+t

Luego la soluci
on al sistema es,
      
x1 (t) 1t t 500 500 600t
v(t) = = eAt x0 = e3t = e3t
x2 (t) t 1+t 100 100 + 600t

Se puede ver que la poblacion x1 sera eliminada despues de 65 a


nos
= 10 meses, aun cuando comenzo con una poblacion 5 veces mayor
que x2

13. Teoria de Estabilidad


Definimos los subespacios estable E s ,inestable E u ,y centro E c , res-
pectivamente del sistema lineal

X 0 = AX (1)

Dado wj = uj + ivj sea un vector propio de la matriz (real) A


correspondiente aun valor propio j = aj + ibj . Tengamos en cuenta
que si bj = 0 entonces vj = 0.

Definici on 3 Dado j = aj +ibj ,wj = uj +ivj y B = u1 , u2 , u3 , . . .,


uk , uk+1 , vk+1 , . . . , um , vm una base de Rn . Entonces

E s = uj , vj |aj < 0

E c = uj , vj |aj = 0
E u = uj , vj |aj > 0
Es decir, E s , E c y E u son subespacios de Rn abarcado por la parte
real e imaginaria del vector propio generalizado wj correspondiente
al valor propio j con parte real positiva, negativa y cero respectia-
mente.

Ejemplo 1 La matriz

2 1 0
A= 1 2 0
0 0 3

62
Sus valores propios son 1 = 2 + i,2 = 3.Los vectores propios
0
correspondientes a estos valores propios son:w1 = u1 + iv1 = 1 +
0

1
i 0 Luego, el subespacio estable E s de (1) esta en el plano x1 , x2
0
y es subespacio inestable en el eje x3 . El retrato de fase del sistema
se muestra a continuacion:

Figura 5: Subespacio estable e inestable del sistema lineal

63
13.1. Criterio Para Determinar La Estabilidad de
Las Soluciones
Sea n N,A Mnxn (R) y X 0 = AX, un sistema de ecuaciones
diferenciales lineales de primer orden de coefeicientes constantes.

Consideremos el polinomio caracterstico

p() = det(A I)

Se verifica:

1. Si todas las races de p() = 0 tienen parte real negativa, todas


las soluciones del sistema son asintoticamente estables.
2. Si al menos una de las races de p() = 0 tienen parte real
positiva, todas las soluciones del sistema son inestables.
3. Si las races de p() = 0 tienen parte real menor o igual a cero
y 1 = il son todos los que tienen parte real cero, se dice que
la solucion del sistema es estable.

64
Ejemplo 2 Sea la matriz

1 0 1
A= 0 2 1
0 1 1

Hallamos sus valores propios, es decir, p() = det(A I) = 0.Esto


es,

1 0 1
p() = det 0 2 1 = (1 )(2 + 3 + 3) = 0
0 1 1

3 3
Entonces 1 = 1 y 2 = i
2 2
Por lo tanto, la solucion del sistema es asintoticamente estable, ya
que todas las races del polinomio tienen parte real negativa.

13.2. Caracterizaci
on Del Punto Crtico
Sean 1 y 2 las races del polinomio caracterstico.La naturaleza
del punto crtico esta determinada por las races.

Casos Principales:
CASO A Si las races 1 y 2 son reales, distintas y del mismo signo,
entonces es un nodo.
CASO B Si las races 1 y 2 son reales, distintas y de signos opuestos,
entonces es un punto de silla.
CASO C Si las races 1 y 2 son complejas conjugadas pero no imagi-
narias puras, entonces es un foco.

Casos Frontera
CASO D Si las races 1 y 2 son reales e iguales,entonces es un nodo.
CASO E Si las races 1 y 2 son imaginarias puras,entonces es un centro.

Definicion 4 Si todos los valores propios de Anxn tienen parte real


negativa(positiva) el origen se denomina sumidero(fuente) para el
sistema lineal X 0 = AX

Ejemplo 3 Considere el problema de valor inicial


 
dY 1
= BY, Y (0) =
dt 1

65
donde,  
0 2
B=
3 2

Ahora,

det(B I) = (0 )(2 ) + 6 = 2 2 + 6

Luego, los valores propios son: = 1 5i Como la parte real de
los valores propios son positivos, entonces el origen es una fuente
espiral.

66
Definicion 5 Si todos los valores propios de Anxn tienen parte real
diferente de cero entonces las soluciones del sistema son hiperb
olicas
por tanto el sistema X 0 = AX es llamado sistema lineal hiperb olico.
 
1 1
Ejemplo 4 Sea A =
1 1

Hallamos sus valores propios, esto es,


 
1 1
det(AI) = = (1)(1)(1) = 2 +2+2
1 1

Entonces, 1 = 1 + i,y 2 = 1 i.
Por lo tanto, las soluciones del sistema son hiperbolicas pues los
valores propios tienen parte real distinta de cero.

Teorema 2 Las siguientes afirmaciones son equivalentes.


a) Para todo X0 Rn , lm eAt X0 = 0 y para X0 6= 0, lm eAt X0 =
t t

b) Todos los valores propios de A tienen parte real negativa.
c) Hay constantes positivas a, c, m y M tal que para todo X0 Rn

|eAt X0 | M ect |X0 |, t 0

y
|eAt X0 | meat |X0 |, t 0

Demostraci
on:
a = b) Si uno de los valores propios = a+ib tiene parte real positi-
va a > 0, entonces existe X0 Rn , X0 6= 0,tal que|eAt X0 | eat |X0 |.
Por lo tanto,|eAt X0 | como t , es decir, lm eAt X0 6= 0.
t
Y, si uno de los valores propios de Aa tienen parte real cero, es decir,
= ib, entonces , existe X0 Rn , X0 6= 0,tales que al menos una
componente de la solucion es de la forma ctk cosbt, o, ctk senbt, k 0.
Una vez m as lm eAt X0 6= 0.
t
As, si no todos los valores propios de A tienen parte real negativa ,
existe X0 Rn tales que eAt no tiende a 0 cuando t 0, es decir,
que a = b.

b = c) Si todos los valores propios de A tienen parte real nega-


tiva , existen constantes positivas tales que a, c, m y M tal que para
todo X0 Rn
|eAt X0 | M ect |X0 |, t 0

67
y
|eAt X0 | meat |X0 |, t 0

c = a) Si este ultimo par de desigualdades se satisfacen para todo


X0 Rn , se sigue tomando el limite como t a cada lado de las
desigualdades anteriores

lm eAt X0 = 0
t

,y
lm |eAt X0 | =
t

14. Sistema de Ecuaciones Diferenciales


Lineales no Homogeneos
Un sistema lineal no homogeneo es una expresion de la forma:

0
X = P (t)X + g(t)

Donde P (t) es una matriz cuadrada y el vector g(t)es un vector co-


lumna (n 1) contunuos en un intervalo abierto I.

la solucion general esta dada:

X = c1 X1 (t) + ... + cn Xn (t) + v(t)

Donde es pertinente alcarar que c1 X1 (t) + ... + cn Xn (t) es la so-


0
lucion general del sistema homogeneo X = P (t)X y V (t) es una
solucion particular del sistema no homogeneo.

Para este modelo nos interesa resolver la parte no homogenea, por


tanto utilizaremos el metodo de Diagonalizacion para encontrar a
V(t)

14.1. M
etodo de diagonalizaci
on
Se inicia con un sistema de la forma:
0
X = AX + g(t)(3)

68
Donde A es una matriz constante cuadrada diagonalizable. Al dia-
gonalizar la matriz de los coeficientes A, es posible transformar la
ecuacion anterior en un sistema de ecuaciones faciles de resolver.

Sea T la matriz cuyas columnas son los eigenvectores (1) , ..., (n) de
A y definase una nueva variable dependiente y por medio de.

X = Ty(4)

Entonces, sustituyendo X en la ecuacion planteada anteriormente,


se obtiene:

0
T y = AT y + g(t)

Al multipliacr por T 1 se sigue que:

0
y = (T 1 AT )y + T 1 g(t) = Dy + h(t)(5)

Donde h(t) = T 1 g(t) y donde D es la matriz diagonal cuyos ele-


mentos en la diagonal son eigenvalores r1 , ..., rn de A, dispuestos en
el mismo orden que los eigenvectores correspondientes (1) , ..., (n)
que aparecen como columnas de T .

Esta ultima ecuacion es un sistema de n ecuaciones no acopladas pa-


ra y1 (t), ..., yn (t); en consecuencia, las ecuaciones pueden resolverse
por separado.

Expresada como esalar, la ecucacion anterior tiene la forma:

0
y (t) = rj yj (t) + hj (t)(6)
conj = 1, ..., n

Donde hj (t) es determinada combinacion lineal de g1 (t), ..., gn (t).


Donde esta ultima ecuacion escrita de manera escalar es una ecua-
cion lineal de primer orden y puede resolverse por los metodos que
ya conocemos.

En terminos mas puntuales se tiene que:


Z t
yj (t) = erj t erj s hj (s)ds + Cj erj t (7)
t0

69
conj = 1, .., n

Donde las Cj son constantes arbitrarias. por ultimo, la solucion X


de la ecuacion (3)se obtiene a partir de (4).
Cuando se multiplica por la matriz de transformacion T, el segundo
termino en el segundo miembro de la ecuacion (7) produce la solucion
0
general de la ecuacion homogenea X = AX, mientras que el primer
termino en ese mismo miembro produce una solucion particular del
sistema no homogeneo (3).

EJEMPLO:
Encontrar la soluci
on general del sistema no homogeneo dado a con-
tinuaci
on:

   t 
0 2 1 2e
X = X+ = Ax + g(t) (2)
1 2 3t


SOLUCION:
Procedemos a encontrar los Valores Propios y Vectores Propios
asociados a la matriz A.

Recordemos que los valores propios los obtenemos del polinomio re-
sultante de det(A I) = 0.

   
2 1 1 0
det =0 (3)
1 2 0 1

luego
 
2 1
det =0 (4)
1 2

Asi, obtenemos:

(2 + )(2 + ) 1 = 0
2
+ 4 + 3 = ( + 3)( + 1)

En sintesis 1 = 3 y 2 = 1

Ahora procedemos a encontrar los vectores propios asociados a los


valores propios, resolviendo (A 1 I)V = 0, como sigue:

70
       
2 1 1 0 x1 0
+3 = (5)
1 2 0 1 x2 0
    
1 1 x1 0
=
1 1 x2 0

De donde obtenemos el vector propio asociado:


 
1
V1 =
1

De manera analoga encontramos el vector propio asociado al valor


propio 2 = 1 escrito como sigue:
 
1
V2 =
1

De lo anterior, y conociendo la forma de la soluciones, tenemos:

   
1 1 t
X = c1 e3t + c2 e
1 1

Recordemos que esta es la parte homogenea del sistemas, ahora en-


contremos la soluci
on de la parte no homogenea mediante la susti-
tuci
on indicada anteriormente:

Antes de empezar encontremos T y T 1 que son las matrices de los


respectivos vectores propios de la matriz.

 
1 1
T =
1 1

Y sus respectiva inversa:


 
1 1
T =
1 1

Recordemos el primer resultado de la sustitucion, explicado ante-


riormente:

y 0 = Dy + T 1 g(t)

Con calculos previos encontramos D y procedemos a sustituir en la


expresion anterior:

71
   t 
2 0 2e 3t
y0 = y+
0 6 2et 3t

El sistema obtenido contiene ecuaciones diferenciales lineales de pri-


mer orden, cabe recordar la forma de la solucion de estas ecuaciones:

R
y = v(x)e p(x)

Donde V (x) esta dada por:

Z R R
V (x) = C + ( Q(x)e p(x)
dx)e p(x)dx

Luego, la soluci
on de nuestro sistema es:
 
1 t 1
y1 = et 3 + c1 e3t
2 3 9

y2 = et + 3(t 1) + c2 et

15. Existencia y Unicidad


15.1. Existencia
Teorema 3 Supongamos que f (x, y) es una funci on continua en el
angulo de la forma R = {(x, y)| a x a; b y b} en
rect
el plano x y. Si (x0 , y0 ) es un punto en este rect
angulo, entonces
existe un  > 0 y una funci on Y (x) definida en x0  < x < x0 + 
que es una soluci
on del problema de condiciones iniciales

dy
dx = f (x, y) , y(x0 ) = y0

Demostraci
on

para demostrar el teorema vamos a tener en cuenta las siguientes


definiciones.

Funci
on Lipshitz continua

72
Sea x un intervalo abierto en R y sea f : X R una funcion. Se
dice que es de Lipshitz continua si existe una constante L 0 tal
que:

|f (x2 ) f (x1 )| L|x2 x1 | x1 , x2  R

Iterantes de Picard
dy
dx = f (x, y) , y(x0 ) = y0
Rx
y(x) = y0 + x0
f (s, y(s))ds

Consideremos

dy
= f (x, y) ; y0 = 0 (6)
dx
Se demostrara la existencia de la solucion de esta ecuacion bajo las
condiciones siguientes:

1. La funci
on f (x, y) es continua en el dominio D
a x a ; b y b
De este se deduce que en D la funcion tiene siempre valor finito
es decir que para cualquier punto (x, y) en D existe un numero
M tal que |f (x, y)| M
2. La funci
on f (x, y) satisface la condicion de Lipschitz, es decir
que
|f (x, y) f (x, z)| k|y z|
para cualquier (x, y) y (x, z) en D y para alguna constante k
que no depende de x, y, z

Se considera el intervalo
 
b
0 x a0 = min a, (7)
M
b b

En donde min a, M es el n
umero menor de a y M
sea y1 (x), y2 (x), y3 (x)... una sucesion de funciones definidas por la
siguientes relaciones

73
Z x
y1 (x) = f (x, 0)dx (8)
0
Z x
y2 (x) = f (x, y1 (x))dx (9)
0
Z x
y3 (x) = f (x, y2 (x))dx (10)
Z x0
yn (x) = f (x, yn1 (x))dx (11)
0

Entonces y1 (x) es la solucion en primera aproximacion de la ecuacion


(1,1) porque sustituye y por 0 en el segundo miembro de (1,1) se
obtiene

dy
= f (x, 0) (12)
dx
O bien, si se integra con respecto a x se obtiene y1 (x). De la misma
manera y2 (x) es la solucion de (1,1) en la segunda aproximacion.

Las funciones y1 (x), y2 (x), ... son continuas en el intervalo (1.2) por-
que la integral de una funcion continua es siempre continua.

Se obtiene por otra parte que:

Z x Z x
|y1 (x)| |f (x, 0)|dx M dx = M x < M a0 < b (13)
0 0

Y en la misma forma

Z x Z x
|y2 (x)| |f (x, y1 )|dx M dx = M x < M a0 < b (14)
0 0

En general se recibe que yn (n = 1, 2, 3, ..,1, 2) satisface la siguiente


desigualdad

|yn (x)| < b(n = 1, 2, 3, ...) (15)

Se demuestra a continuacion que esta sucesion de funciones con-


verge uniformemente a una funcion y(x) en el intervalo (1,2) de
(1.3,1.4,1.5,1.6) se recibe que:

74
Z x
|yn+1 (x) yn (x)| |f (x, yn ) f (x, yn1 )|dx (16)
0

Aplicando a (1.11) la condicion de Lipschitz se recibe:


Z x
|y1 (x)| |f (x, 0)|dx M x (17)
0

Z x Z x Z x
|y2 y1 | |f (x, y1 ) f (x, 0)|dx k |y1 |dx < kM xdx
0 0 0
(18)

x x x
x2 x3
Z Z Z
|y3 y2 | |f (x, y2 )f (x, y1 )|dx < k |y2 y1 |dx < k 2 M dx = k 2 M
0 0 0 2! 3!
(19)
En general se obtiene

xn
|yn (x) yn1 (x)| < k n1 M (20)
n!
De (1.15) se recibe que

(kx)2 (kx)3 (kx)n


 
M
|y1 |+|y2 y1 |+|y3 y2 |+...+|yn yn1 |+... < kx + + + ... + + ...
k 2! 3! n!
(21)

M kx
= (e 1) (22)
k
por esto se puede concluir que la serie

y1 + (y2 y1 )(y3 y2 ) + ... (23)

converge uniformemente y absolutamente en el intervalo (1.2). De lo


cual se deduce que el limite de la serie (1.18) es una funcion continua
Y (x), porque cada termino de la serie es una funcion continua y su
convergencia es uniforme y absoluta.

Por otra parte la suma de los n primeros terminos de la serie (1.18)


es

y1 + (y2 y1 )(y3 y2 ) + ... + (yn yn1 ) = yn (24)

75
entonces la sucesi
on yn (n = 1, 2, 3, ...) tambien converge uniforme-
mente y absolutamente a una funcion continua Y (x)

Es f
acil demostrar que esta funcion Y (x) satisface la ecuacion (1.1)

De la expresi
on (1.6) se recibe
Z x
yn (x) = f (x, yn1 (x)) (25)
0

Y cuando n , yn y, yn1 y y la expresion anterioe toma la


siguiente forma
Z x
Y (x) = f (x, y(x))dx (26)
0

o bien

dY
= f (x, Y (x)) ; Y0 = 0 (27)
dx

15.2. Unicidad
Teorema 4 Si f (x, y) y f y son funciones continuas en el rect
angulo
de la forma R = {(x, y)| a x a; b y b} en el plano x y.
Si (x0 , y0 ) es un punto en este rectangulo y y1 (x) y y2 (x) son dos
soluciones del problema de condiciones iniciales

dy
= f (x, y) ; y0 = 0 (1)
dx

entonces y1 (x) = y2 (x) para todos los valores de x para los que
(x, y1 (x)), (x, y2 (x)) R. Es decir, la solucion del problema es u
nica.

Demostraci
on

Teniendo en cuenta la demostracion del teorema anterior sabemos


que la soluci
on del problema tiene la forma
Z x
Y (x) = f (x, Y (x))dx (2)
0

vamos a suponer que existe otra solucion Z(x) de la ecuacion (1.1)

76
Z x
Z(x) = f (x, Z(x))dx (3)
0

sea (x) = Y (x) Z(x), entonces por la demostracion del teorema


anterior
Z x
(x) = (f (x, Y ) f (x, Z))dx (4)
0

aplicando a (1.4) la condicion Lipschitz se obtiene

Z x Z x Z x
|(x)| = |f (x, Y )f (x, Z)|dx < k |Y Z|dx = k |(x)|dx
0 0 0
(5)
Suponemos que |(x)| < N , entonces sustituyendo en el segundo
miembro de (1.5) se obtiene
Z x
|(x)| < k N dx = kN x (6)
0

Reemplazando (1.6) en el segundo miembro de (1.5)

x
x2
Z
|(x)| < k kN Xdx = k 2 N (7)
0 2!

repitiendo el proceso n veces se recibe finalmente que

(kx)n N
|(x)| < (8)
n!
n
Pero como (kx)
n!
N
es un termino de desarrollo de ekx cuando n
n
, (kx)
n!
N
0. Entonces se concluye

(x) = 0 (9)

por esto

Y (x) = Z(x) (10)

Corolario
Sea A : J L(E) y b : J E son funciones continuas en el
intervalo J. Entonces para cada (X0 , Y0 )E J, tiene solucion u
nica
de:

77
X 0 = A(t)x + b(t) ; x(t0 ) = x0 (1)

Demostraci
on


[
Sea J = Jn donde cada Jn es un intervalo compacto que contiene
n=1
a t0 y Jn Jn+1 ; para n = 1, 2, 3, ...

La funcion f (x, t) = A(t)x + b(t) restringida por E Jn , y por ser


restringida es Lipschitziana por lo tanto

|f (x, t) f (y, t)| = |A(t)(x y)| ||A(t)|||x y| k|x y| (2)

Donde kn = max{||A(t)||; tJn }

Por el teorema anterior, existe una unica solucion xn (t), definida en


el intervalo Jn , ahora para tJ tenemos que x(t) = xn (t) si tJn . Por
unicidad de soluciones x(t) esta bien definida y por lo tanto u nica
solucion definida en el intervalo J

78
16. Bibliografia
[1 ] Differential Equations and Dynamical Systems;Perko Lawren-
ce;Northern Arizona University;Springer; 2001.
[2 ] Diflerential Equations, Dynamical Systems,and Linear Alge-
bra;Morris W. Rirsch, Stephen Smale;University of Califor-
nia;Academic Press; 1974.
[3 ] Algebra lineal una introducci
on moderna;David Poole;Trent Uni-
versityCengage Learning; 2011 .
[4 ] Ecuaciones Diferenciales;Paul Blanchard,Robert L. Devaney,Glen
R. Hall; Boston University; International Thomson Editores;
1998

79

También podría gustarte