Ecuaciones no lineales

bold text[[toc]]

Introducción

Es muy común para la resolución de problemas el tener que encontrar las raíces de una ecuación. A continuación se presentan varios métodos de cómo obtenerlas.

Bisección

Para el intervalo $[a, b]$, calcular:

(1)
\begin{align} c = \frac{a+b}{2} \end{align}

Si $f(a)$ y $f(c)$ tienen distinto signo, el próximo intervalo es $[a,c]$, en caso contrario el nuevo intervalo es $[c,b]$. Hay dos posibles condiciones de corte, la primera es que el valor $c$ encontrado sea una raíz ($f(c) \leq \delta$) y la segunda es que el intervalo en el que buscamos sea tan chico como deseemos ($b - a \leq \epsilon$). En este último caso la raíz es $\frac{a+b}{2}$

La cota de error en la iteración n-ésima es

(2)
\begin{align} e_n \leq 2^{-(n+1)}(b-a) \end{align}

Observaciones

Se gana un dígito binario de precisión por cada iteración, o sea un dígito decimal cada 10/3 iteraciones

Punto Fijo

Dada la función $f(x)$, hay que despejar $x$ en función de $x$, es decir

(3)
\begin{align} x = \phi(x) \end{align}

Para que se pueda hacer punto fijo tiene que cumplirse lo siguiente:

  • Tiene que existir un intervalo $[a,b]$ sobre la abscisa tal que $f(x)$ caiga en el intervalo $[a,b]$ pero sobre la ordenada.
  • En todo punto de ese intervalo, la derivada de la función despejada tiene que tener módulo menor a 1.

Entonces se elige un punto inicial cualquiera y la sucesión

(4)
\begin{align} p_{n+1} = \phi(p_n) \end{align}

converge al único punto fijo de ese intervalo, o sea a la raíz buscada.

La cota de error en la iteración n-ésima es

(5)
\begin{align} e_n \leq \frac{k^n}{1-k} \vert p_1 - p_0 \vert \end{align}

donde $k$ es la cota de la derivada en el intervalo (o sea algo menor a 1).

Según sea la convergencia de la derivada, si una ecuación tiene más de una raíz capaz que no se pueden calcular todas por punto fijo porque en un entorno de alguna la derivada puede ser siempre mayor a 1, entonces no se puede usar punto fijo.

Método de Newton

Para que se pueda usar, tiene que cumplirse que:

  • La función tenga derivada segunda en algún intervalo que contiene a la raíz.
  • La derivada en la raíz no se anule (raíz simple).

La sucesión está dada por la siguiente expresión

(6)
\begin{align} x_{n+1} = x_n - \frac{f(x_n)}{f'(x_n)} \end{align}

Hay que elegir un valor inicial tal que

(7)
\begin{align} x_0 = m \epsilon_0 < 1 \end{align}

donde $\epsilon_n = \vert x_n - \alpha \vert$ el error absoluto en la n-ésima iteración y

(8)
\begin{align} m \geq 0.5 \frac{\vert f''(x) \vert}{\vert f'(y) \vert} \\ \end{align}

para cualquier par de puntos $x$ e $y$ en el intervalo $[\alpha-\delta, \alpha+\delta]$

El error tiene varias cotas

(9)
\begin{align} \epsilon_n \leq \frac{(m \times \epsilon_0)^{(2n)}}{m} \end{align}
(10)
\begin{align} \epsilon_{n+1} \leq \epsilon_n^2 \times m \end{align}

La convergencia de este método es cuadrática.

Si el cómputo de $f'$ lleva $\theta$ veces el de $f$, y $\theta > 0.44$ es conveniente utilizar el Método de la secante. De lo contrario, se utiliza el Método de Newton.

Método de la secante

El método de la secante surge como variante del método de Newton, ya que en ese método es necesario calcular una función y su derivada en cada iteración. En el método de la secante sólamente se evalúa la función $f(x)$. Como contrapartida, este método no converge tan rapidamente como el método de Newton (de orden 2 de convergencia), pero tiene una convergencia $R = \frac{1 + \sqrt{5}}{2} \approx 1.618033989$.

La sucesión está dada por la siguiente expresión

(11)
\begin{align} x_{n+1} = x_n - \frac{f(x_n)(x_n - x_{n-1})}{f(x_n) - f(x_{n-1})} \end{align}

Método de la cuerda

En este caso se cambia la derivada por la pendiente de la recta que une los extremos del intervalo. Es decir,

(12)
\begin{align} f'(x) = \frac{f(b)-f(a)}{b-a} \end{align}

y la sucesión queda

(13)
\begin{align} x_{n+1} = x_n - \frac{b-a}{f(b)-f(a)} f(x_n) \end{align}

Método Regula Falsi

Si se tiene una función $f(x)$ en el intervalo $[a,b]$, el Método de Regula Falsi toma la línea secante que pasa por los puntos $f(a)$ y $f(b)$. Luego se toma el valor $c$ donde esta recta cruza con el eje $x = 0$ , siendo $c$ la primera aproximación a la raíz de $f(x)$. Hay que tener en cuenta de que $f(a) \cdot f(b) < 0$ para que haya una raíz en tal intervalo, sino el método no solo no puede ser aplicado, sino que no tendría sentido aplicarlo. Luego, se acota el intervalo, de tal manera de que $c$ sea un nuevo extremo. El nuevo intervalo tiene que tener la raíz dentro suyo, así que $c$ será el extremo superior si $f(a) \cdot f(c) < 0$ o el extremo inferior si se cumple $f(b) \cdot f(c) < 0$. Luego, se aplica el mismo algoritmo a este nuevo intervalo, haciendo que el intervalo se vaya reduciendo y que la raíz sea cada vez más exacta, y así sucesivamente se itera $n$ veces sobre ese algoritmo. El algoritmo entonces para obtener una aproximación de la raíz en la iteración $n$ es

(14)
\begin{align} c_n = b_n - \frac{f(b_n)(b_n - a_n)}{f(b_n) - f(a_n)} \end{align}

donde $c_n$ es la aproximación de la raíz en la iteración $n$, $a_n$ y $b_n$ son los extremos del intervalo en esa iteración y $f(a_n)$ y $f(b_n)$ son los valores de dichos puntos aplicados a la función a evaluar.

La convergencia de este método es lineal, pero garantiza converger siempre a la raíz. No sirve para aproximar fino, a medida que se acerca a la raíz hay que cambiar a algún otro método.

Método de Steffensen

La idea es tomar Newton y reemplazar a la derivada por

(15)
\begin{align} g(x_n) = \frac{f(x_n+f(x_n)) - f(x_n)}{f(x_n)} \end{align}

entonces queda:

(16)
\begin{align} x_{n+1} = x_n - \frac{f(x_n)}{g(x_n)} \end{align}

Este método tiene convergencia cuadrática.

Velocidad de convergencia

Supongamos que $\{ p_n\}_{n = 0}^\infty$ converge a $p$ y sea $E_n = p - p_n$ para cada $n \ge 0$. Si existen dos constantes positivas $A > 0$ y $R > 0$ tales que

(17)
\begin{align} \lim_{n\to\infty} \frac{\mid p - p_{n+1} \mid}{\mid p - p_n \mid ^R} = \lim_{n\to\infty} \frac{\mid E_{n+1} \mid}{\mid E_n \mid ^R} = A \end{align}

entonces se dice que la sucesión converge a $p$ con orden de convergencia $R$ y el número $A$ se llama constante asintótica del error. Los casos $R = 1, 2$ merecen una consideración especial:

Si $R = 1$, la convergencia de $\{ p_n\}_{n = 0}^\infty$ se llama lineal
Si $R = 2$, la convergencia de $\{ p_n\}_{n = 0}^\infty$ se llama cuadrática

Links Interesantes

http://www.unalmed.edu.co/~ifasmar/cap2.pdf

Unless otherwise stated, the content of this page is licensed under Creative Commons Attribution-ShareAlike 3.0 License