2.1. Métodos basados en intervalos Los métodos de los intervalos utilizan una propiedad muy importante, consistente en el hecho del cambio de signo de una función en inmediaciones de una raíz. Se llaman métodos de los intervalos porque se necesitan como mínimo dos valores que forman un intervalo que encierra la raíz
En la gráfica 2.1 se observa como la función cambia de +f(x) a - f(x), cuando pasa por la raíz c .Esto ocurre porque f (c)= 0 y necesariamente la función pasa del cuadrante positivo al negativo de x. En algunos casos , que se verán más adelante esto no ocurre así, por ahora se asumirá como se ha mostrado. Los métodos abiertos utilizan estos cambios de signo para poder ubicar el la raíz (punto c), pero es necesario entonce establecer un intervalo (como el [a,b]). De igual manera sucede cuando la función pasa por el punto e, el cambio ocurre de -f(x) a + f(x), para hallar la raíz el método necesita un intervalo como el [d,f].
2.2 Método de bisección Es un método de búsqueda incremental donde el intervalo se divide siempre en 2. Si la función cambia de signo sobre un intervalo, se evalúa el valor de la función del punto medio. La posición de la raíz se determina situándola en el punto medio del sub-intervalo dentro del cual ocurre un cambio dentro del cual ocurre un cambio de signo. El proceso se repite hasta tener una mejor aproximación. Supóngase que queremos resolver la ecuación f(x) = 0 (donde f es continua). Dados dos puntos a y b tal que f(a) y f(b) tengan signos distintos, sabemos por el Teorema de Bolzano que f debe tener, al menos, una raíz en el intervalo [a, b]. El método de bisección divide el intervalo en dos, usando un tercer punto c = (a+b) / 2. En este momento, existen dos posibilidades: f(a) y f(c), ó f(c) y f(b) tienen distinto signo. El algoritmo de bisección se aplica al subintervalo donde el cambio de signo ocurre.
2.3 Método de aproximaciones sucesivas El método de las aproximaciones sucesivas es uno de los procedimientos más importantes y más sencillos de codificar. Supongamos la ecuación
donde f(x) es una función continua que se desea determinar sus raíces reales. Se sustituye f(x) por la ecuación equivalente
Se estima el valor aproximado de la raíz x0, y se sustituye en el segundo miembro de la ecuación para obtener x1.
Poniendo x1 como argumento de j(x), obtendremos un nuevo número x2, y así sucesivamente. Este proceso se puede sintetizar en la fórmula.
Si esta secuencia es convergente es decir, tiende hacia un límite, la solución x es
2.4. 2.4.1.
M´ etodos basados en interpolaci n M´ etodo de Newton-Raphson
Entre los m´etodos m´as populares en matematicas computacionales ten- emos al creado por Isaac Newton2 y Joseph Raphson3 . El atractivo de ´este m´etodo es su rapidez cuadr´atica de convergencia, como veremos mas adelante. Una desventaja es que para la aplicaci´on del m´etodo se requiere tener tanto la funci´on f (x) que quiere resolverse, as´ı como su derivada. Dada una funci´on f (x) definida en un intervalo [a, b], tal que f (x) ∈ C 2 [a, b] y existe una s ∈ [a, b] tal que f (s) = 0 entonces si escojemos un valor inicial de x cercano a s, podemos utilizar un polinomio interpolador de Taylor para aproximar la funcion f (x) por: f 0 (x0 ) f 00 (c) f (s) = f (x0 ) (s − x )2 (s− x ) + 1! 2! + Haciendo f (s) = 0 y asumiendo que el t´ermino de segundo grado es muy pequen ˜o, se tiene: f 0 (x0 ) 0 ≈ f (x0 ) + (s− x ) 1! Ahora podemos despejar s para obtener: f (x0 s ≈ x0 − (x ) 0 Si lo expresamos en t´erminos del m´etodo iterativo univariable, la funci´on a iterar es: f (xn ) xn+1 = xn − 0 (x f
)
(2.4)
2.4.2.
M´ etodo de la secante
Este m´etodo se basa en la utilizacion de dos puntos x0 y x1 como apro- xi-maciones iniciales a la soluci´on de la ecuaci´on f (x) = 0, y calcula el tercer punto x2 , resolviendo la siguiente ecuaci´on de la secante, para y = 0 y x2 = x: y − f (x1 ) = para obtener: x2 = x1 −
f (x1 ) − f (x0 ) x1 − (x − x1 ) x0 (x1 − x0 )f (x1 ) f (x ) − f (x
(2.5)
1
0