Método de diseccion


Unas cuantas iteraciones del método de bisección aplicadas en un intervalo [a1;b1]. El punto rojo es la raíz de la función.
En matemáticas, el método de bisección es un algoritmo de búsqueda de raíces que trabaja dividiendo el intervalo a la mitad y seleccionando el subintervalo que tiene la raíz.

El método de bisección es menos eficiente que el método de Newton, pero es mucho más seguro para garantizar la convergencia. Si f es una función continua en el intervalo [a, b] y f(a)f(b) < 0, entonces este método converge a la raíz de f. De hecho, una cota del error absoluto es:

{\displaystyle {\frac {\left|b-a\right|}{2^{n}}}}{\displaystyle {\frac {\left|b-a\right|}{2^{n}}}}


aplicar el método consideremos tres sucesiones {\displaystyle a_{n}\leq r_{n}\leq b_{n}\,}{\displaystyle a_{n}\leq r_{n}\leq b_{n}\,} definidas por las siguientes relaciones:

{\displaystyle r_{n}={\frac {a_{n}+b_{n}}{2}},\quad a_{n+1}={\begin{cases}a_{n}&{\mbox{si }}f(a_{n})\cdot f(r_{n})<0\\r_{n}&{\mbox{si }}f(a_{n})\cdot f(r_{n})>0\end{cases}},\quad b_{n+1}={\begin{cases}b_{n}&{\mbox{si }}f(b_{n})\cdot f(r_{n})<0\\r_{n}&{\mbox{si }}f(b_{n})\cdot f(r_{n})>0\end{cases}}}{\displaystyle r_{n}={\frac {a_{n}+b_{n}}{2}},\quad a_{n+1}={\begin{cases}a_{n}&{\mbox{si }}f(a_{n})\cdot f(r_{n})<0\\r_{n}&{\mbox{si }}f(a_{n})\cdot f(r_{n})>0\end{cases}},\quad b_{n+1}={\begin{cases}b_{n}&{\mbox{si }}f(b_{n})\cdot f(r_{n})<0\\r_{n}&{\mbox{si }}f(b_{n})\cdot f(r_{n})>0\end{cases}}}

Donde los valores iniciales vienen dados por:

{\displaystyle a_{0}:=a,\quad b_{0}:=b}{\displaystyle a_{0}:=a,\quad b_{0}:=b}

Se puede probar que las tres sucesiones convergen al valor de la única raíz del intervalo:

{\displaystyle \lim _{n\to \infty }a_{n}=\lim _{n\to \infty }r_{n}=\lim _{n\to \infty }b_{n}}{\displaystyle \lim _{n\to \infty }a_{n}=\lim _{n\to \infty }r_{n}=\lim _{n\to \infty }b_{n}}

Comentarios

Entradas populares