Unidad 2. - Métodos de Solución de Ecuaciones. @ Cris
Unidad 2. - Métodos de Solución de Ecuaciones. @ Cris
2. Métodos Directos
Método de la Bisección.
Método de la Secante.
Método de Newton-Raphson.
3. Métodos Iterativos
Método de Jacobi.
Método de Gauss-Seidel.
Resumen
Posteriormente, nos adentramos en los métodos iterativos, donde la convergencia se logra a través
de repeticiones sucesivas de un proceso de actualización. Aquí, examinamos el método de punto
fijo, así como los métodos de Jacobi y Gauss-Seidel, ampliamente utilizados en la solución de
sistemas de ecuaciones lineales.
Conclusiones
Ecuaciones Algebraicas:
Las ecuaciones algebraicas son aquellas en las que las incógnitas se relacionan mediante
operaciones algebraicas básicas, como sumas, restas, multiplicaciones, divisiones y potencias. Estas
ecuaciones pueden tener una o varias incógnitas y pueden ser de diferentes grados. La forma
general de una ecuación algebraica es:
anxn+an−1x−1+…+1+0=0anxn+an−1xn−1+…+a1x+a0=0
2x+3=02x+3=0
Las ecuaciones de grado superior a 1 se denominan ecuaciones cuadráticas, cúbicas, cuartas, etc.,
dependiendo del grado de la incógnita. Por ejemplo:
2−5x+6=0x2−5x+6=0
Las ecuaciones algebraicas se pueden resolver utilizando diversos métodos, como la factorización,
la fórmula cuadrática, los métodos iterativos o métodos numéricos.
Ecuaciones Trascendentales:
Las ecuaciones trascendentales son aquellas en las que las incógnitas están relacionadas a través
de funciones trascendentales, es decir, funciones que no son algebraicas. Estas funciones pueden
incluir, por ejemplo, funciones trigonométricas (seno, coseno, tangente), funciones exponenciales,
logarítmicas o funciones especiales como la función error.
x(f)=0f(x)=0
Donde f(x) es una función que puede contener términos trascendentales. Por ejemplo:
ex−2x=0ex−2x=0
Las ecuaciones trascendentales a menudo no tienen soluciones analíticas simples y, por lo tanto,
requieren métodos numéricos para encontrar soluciones aproximadas. Estos métodos pueden
involucrar técnicas iterativas como el método de Newton-Raphson o el método de la secante.
las ecuaciones algebraicas involucran operaciones algebraicas básicas entre las incógnitas,
mientras que las ecuaciones trascendentales involucran funciones trascendentales de las
incógnitas. Ambos tipos de ecuaciones son fundamentales en la modelización y resolución de
problemas en matemáticas aplicadas, ciencia, ingeniería y otras disciplinas.
Problemas sin Solución Analítica: Muchos problemas del mundo real no tienen soluciones
analíticas cerradas o son demasiado complejos para ser resueltos mediante métodos
algebraicos o trascendentales. En tales casos, los métodos numéricos proporcionan una
forma de obtener soluciones aproximadas que son lo suficientemente precisas para
propósitos prácticos.
Finanzas y Economía: En finanzas y economía, los métodos numéricos se utilizan para resolver
ecuaciones que modelan fenómenos económicos, como la valoración de activos financieros, la
optimización de carteras de inversión y la predicción de tendencias económicas. Los métodos de
solución de ecuaciones son fundamentales para calcular tasas de rendimiento, precios de opciones
financieras y otros indicadores económicos.
2. Métodos Directos
Método de la Bisección.
El método de la bisección es un método numérico para encontrar la raíz de una función
continua en un intervalo dado. Es uno de los métodos más simples y robustos para la
búsqueda de raíces y se basa en el Teorema del Valor Intermedio.
Procedimiento del Método de la Bisección:
1. Definición del Intervalo Inicial: Se comienza con un intervalo [a, b] en el cual se
sabe que la función cambia de signo, lo que indica que hay al menos una raíz en el
intervalo. Esto implica que <0f(a)⋅f(b)<0.
2. División del Intervalo: Se divide el intervalo por la mitad, calculando el punto
medio c=a+b/2, 2c=2a+b.
3. Evaluación de la Función en el Punto Medio: Se evalúa la función en el punto
medio c para determinar en qué subintervalo [a, c] o [c, b] se encuentra la raíz.
4. Selección del Nuevo Intervalo: Se selecciona el nuevo intervalo [a, b] para la
siguiente iteración. Si <0f(a)⋅f(c)<0, entonces la raíz está en el intervalo [a, c]; de lo
contrario, está en el intervalo [c, b].
5. Repetición del Proceso: Se repite el proceso iterativamente hasta que la longitud
del intervalo resultante sea lo suficientemente pequeña o hasta que se alcance una
tolerancia predefinida para la aproximación de la raíz.
Convergencia y Estimación del Error:
El método de la bisección garantiza la convergencia a una raíz debido a la naturaleza del
algoritmo, que reduce el intervalo que contiene la raíz en cada iteración. Además, se puede
estimar el error de aproximación en cada iteración mediante la longitud del intervalo
resultante.
Ventajas y Desventajas:
Ventajas:
Es fácil de implementar y comprender.
Garantiza la convergencia siempre que se cumplan las condiciones
iniciales.
Es robusto y no sensible a la elección de la suposición inicial.
Desventajas:
Puede ser lento para converger, especialmente en funciones con raíces
múltiples o intervalos muy amplios.
No proporciona información sobre la multiplicidad de la raíz ni su ubicación
exacta dentro del intervalo.
Aplicaciones:
El método de la bisección se utiliza comúnmente en la búsqueda de raíces de
ecuaciones en diversas disciplinas, como matemáticas, ingeniería, física y
economía.
Se aplica en situaciones donde se necesita encontrar una raíz con una precisión
aceptable, aunque a expensas de la eficiencia en términos de número de
iteraciones.
Método de la Secante.
1. Inicialización: Selecciona dos puntos iniciales 0x0 y 1x1 cercanos a la raíz que se desea
encontrar.
2. Iteración: En cada iteración, se calcula la intersección de la línea secante con el eje x. Esta
intersección se utiliza como una nueva estimación de la raíz. La fórmula para encontrar el
siguiente punto +1xn+1 es:
3. Criterio de parada: Se repiten los pasos de iteración hasta que se alcance una precisión
deseada, es decir, cuando ∣(+1)∣∣f(xn+1)∣ sea suficientemente pequeño o cuando
∣+1−∣∣xn+1−xn∣ sea menor que una tolerancia predefinida.
Es importante tener en cuenta que el método de la secante puede no converger o converger muy
lentamente si los puntos iniciales 0x0 y 1x1 están demasiado alejados o si la función tiene
comportamientos complicados, como puntos de inflexión cercanos a la raíz buscada.
•Método de Newton-Raphson.
Donde:
xn es la aproximación actual.
f(xn) es el valor de la función en xn.
f′(xn) es la derivada de la función en xn, es decir, la pendiente de la
tangente a la función en ese punto.
Criterio de parada: Se repiten los pasos de iteración hasta que se alcance una
precisión deseada, es decir, cuando (+1)∣∣f(xn+1)∣ sea suficientemente pequeño o
cuando ∣+1−∣∣xn+1−xn∣ sea menor que una tolerancia predefinida.
El método de Newton-Raphson puede converger rápidamente hacia la raíz si se
elige un buen punto inicial y si la función es suave y no tiene comportamientos
oscilatorios cerca de la raíz. Sin embargo, puede no converger o converger
lentamente si se elige un punto inicial lejos de la raíz, si la función tiene puntos de
inflexión cercanos a la raíz o si la derivada de la función se aproxima a cero en
algún punto.
3. Métodos Iterativos
• Concepto de iteración en métodos numéricos.
Concepto Básico:
El Método de Punto Fijo se basa en la idea de convertir una ecuación =0f(x)=0 en
una forma iterativa de la siguiente manera:
+1=xn+1=g(xn)
Donde g(x) es una función que transforma x de tal manera que g(x)=x, es decir,x
es un punto fijo de la función g(x).
Pasos del Método de Punto Fijo:
1. Formulación de la función iterativa g(x): El primer paso es reformular la
ecuación original =0f(x)=0 en una forma x=g(x) donde g(x) es una función
que satisface g(x)=x. Esto puede implicar manipular algebraicamente la
ecuación original para aislar x en un lado de la ecuación.
2. Elección de una aproximación inicial 0x0: Se elige un valor inicial 0x0
para comenzar el proceso iterativo.
3. Iteración: Se aplica repetidamente la función g(x) a la aproximación inicial
0x0 para obtener nuevas aproximaciones 1,x2,x3,… de la siguiente manera:
xn+1=g(xn)
4. Criterio de convergencia: Se repiten los pasos de iteración hasta que se
alcance un criterio de convergencia predefinido, como una tolerancia
aceptable o cuando la diferencia entre dos aproximaciones sucesivas sea
suficientemente pequeña.
Convergencia del Método de Punto Fijo:
La convergencia del Método de Punto Fijo depende de la elección de la función
g(x) y de la aproximación inicial 0x0. En general, el método convergerá si:
g(x) es una función continua en un intervalo que contiene la raíz de
=0f(x)=0.
g(x) tiene una derivada en valor absoluto menor que 1 en dicho intervalo, es
decir, ∣′()∣<1∣g′(x)∣<1 para todo x en el intervalo.
Ejemplo:
Supongamos que queremos resolver la ecuación 2−3+2=0x2−3x+2=0 utilizando el
Método de Punto Fijo. Podemos reorganizar la ecuación como =132+23x=31
x2+32, y elegir =132+23g(x)=31x2+32 como nuestra función iterativa. A partir de
aquí, podemos seguir los pasos del método como se describió anteriormente.
En resumen, el Método de Punto Fijo es una técnica iterativa utilizada para
encontrar soluciones de ecuaciones no lineales, donde se transforma la ecuación
original en una forma iterativa y se aplica repetidamente una función para obtener
aproximaciones sucesivas de la solución. La convergencia del método depende de
la elección de la función iterativa y de la aproximación inicial.
Método de Jacobi.
•Método de Gauss-Seidel.
1. Donde:
D contiene los elementos diagonales y por debajo de la diagonal de
A.
L contiene los elementos por debajo de la diagonal de A.
U contiene los elementos por encima de la diagonal de A.
2. Iteración de Gauss-Seidel: Se inicia con una aproximación inicial (0)x(0) y
se itera utilizando la siguiente fórmula para cada iteración (−1))x(k)=(D+L)
−1(b−Ux(k−1))
Aquí, 1(D+L)−1 es la inversa de la matriz (D+L).
3. Criterio de convergencia: Se repiten las iteraciones hasta que se alcance
un cierto criterio de convergencia, similar al Método de Jacobi.
El Método de Gauss-Seidel converge más rápido que el Método de Jacobi para
sistemas de ecuaciones lineales, especialmente cuando la matriz A es
diagonalmente dominante o simétrica y definida positiva. Esto se debe a que
Gauss-Seidel utiliza las nuevas aproximaciones calculadas en cada iteración tan
pronto como estén disponibles, en lugar de esperar hasta que todas las
aproximaciones de la iteración anterior estén listas, como lo hace Jacobi.
Método de Newton-Raphson: