Métodos numéricos aplicados a Ingeniería. Héctor Jorquera González

Чтение книги онлайн.

Читать онлайн книгу Métodos numéricos aplicados a Ingeniería - Héctor Jorquera González страница 12

Métodos numéricos aplicados a Ingeniería - Héctor Jorquera González

Скачать книгу

a la raíz correcta, aun cuando la derivada cerca de x(1) = -1 va cambiando de signo.

      FIGURA 2.5. Desempeño de la iteración de Newton clásica y extendida

      A continuación se presenta el código de Matlab® que permite hacer los cálculos y la figura anterior.

      % macro que resuelve el ejemplo 2.4

      f=@(x) x^3-x-1;

      fp=@(x) 3*x^2-1;

      fpp=@(x) 6*x;

      % secuencia iterativa del método de Newton y de su variante cuadrática

      xN=zeros(10,1);

      fN=zeros(10,1);

      xN(1)=-1;

      fN(1)=f(xN(1));

      xC=zeros(10,1);

      fC=zeros(10,1);

      xC(1)=-1;

      fC(1)=f(xC(1));

      for i=2:10,

      % iteración del método de Newton

      xN(i)=xN(i-1)-fN(i-1)/fp(xN(i-1));

      fN(i)=f(xN(i));

      % iteración por método de Newton extendido

      der=fp(xC(i-1));

      xC(i)=xC(i-1)-fC(i-1)/(der-0.5*fC(i-1)*fpp(xC(i-1))/der);

      fC(i)=f(xC(i));

      end

      % gráfico de comparación de resultados

      plot(1:10,xN,’k-o’,1:10,xC,’k--^’);

      axis square;

      title(‘f(x) = x^3 - x - 1’);

      xlabel(‘Número de iteraciones’);

      ylabel(‘Raíz estimada’);

      legend(‘Newton clásico’,’Newton extendido’);

      dc(3) = k2*c(2);

      En Matlab®, tenemos disponible como rutina de propósito general la rutina fzero. Esta rutina es híbrida, ya que combina varias técnicas en forma heurística para lograr convergencia. La rutina decide si realiza una bisección, el método de la secante o una interpolación cuadrática inversa, dependiendo de las condiciones locales. Se recomienda practicar su uso empleando la rutina fzerogui desarrollada por Moler [1]. Esta función está limitada solamente al caso de funciones continuas y no es capaz de hallar raíces donde la función no cruza el eje cambiando de signo, como es el caso de x2 en x = 0.

      Para el caso particular de los polinomios, Matlab® tiene la función roots que calcula todas las raíces. En caso de que se quiera hacer cero una ecuación cuando hay datos reales, con errores de medición, se puede plantear el problema original 2.1 como la minimización de (f)2 y aplicar entonces la función de minimización escalar fminbnd.

      La naturaleza vectorial de un sistema de ecuaciones, en contraste con el carácter escalar de las ecuaciones en una incógnita vistas anteriormente, no modifica mucho la manera en que se resuelve iterativamente el problema. No obstante, veremos algunos detalles que se deben considerar en el momento de implementar los distintos algoritmos.

      Ya hemos visto que el método de Newton corresponde a una interpolación lineal local (porque la serie de Taylor def(x) era local). De modo análogo procedemos para los sistemas de ecuaciones: aproximamos

      Donde el gradiente, o jacobiano J, de f viene dado por

      Por lo tanto, para obtener el nuevo valor x(k+1) tenemos que resolver el sistema lineal

      Para la corrección d(k) = x(k+1) -x(k). Este es el método de Newton para n variables. Nótese que es necesario que la inversa del jacobiano exista (no debe haber singularidad). La siguiente tabla muestra el algoritmo estándar del método en n variables.

      TABLA 2.2. Algoritmo típico del método de Newton

      En la ecuación 2.15, J(k) tiene que ser evaluado en cada iteración a partir de expresiones para las derivadas parciales. Para sistemas con muchas ecuaciones, esto no es práctico. Existen varias alternativas para reducir la cantidad de trabajo o simplificar la técnica de solución.

      a) Podemos remplazar J(k) por una matriz A constante, con lo que se obtiene el método de la cuerda paralela:

      b) Si escogemos A = I, tenemos una iteración de punto fijo en cada variable por separado, con pérdida de rapidez de convergencia. Una elección más apropiada es A = J(0), con lo cual la iteración queda:

      Esta se utiliza frecuentemente en resolución de ecuaciones diferenciales ordinarias por métodos implícitos (capítulo 3). Generalmente, el jacobiano J se revalúa cada m iteraciones, para mejorar la rapidez de convergencia.

      c) Cuando las derivadas parciales no se entregan explícitamente, el jacobiano se puede determinar por diferencias finitas. Esto conduce al método de Newton discreto:

      Comentarios:

      De las aproximaciones recién comentadas se desprenden dos desventajas:

      i) Hay que evaluar el jacobiano (a veces por diferencias finitas). Esto implica n2 operaciones por paso (se puede reducir si se actualiza el jacobiano cada m iteraciones).

      ii) La solución para d(k) implica n3/3 operaciones por iteración, aunque si el jacobiano se fija, esto significa n2 operaciones/iteración.

      En general, las funciones f

Скачать книгу