Métodos numéricos aplicados a Ingeniería. Héctor Jorquera González

Métodos numéricos aplicados a Ingeniería - Héctor Jorquera González


Скачать книгу
genérica 1.9; se puede demostrar que una cota del error después de la k-ésima etapa de iteración viene dado por:

      Por lo tanto, para que el método presente convergencia, es necesario que la norma de la matriz M sea menor que 1.0. Esto es equivalente a exigir que el radio espectral de la matriz M, definido en la ecuación 1.10, sea menor que 1.0.

      No obstante lo anterior, si la norma de la matriz M es mayor que 1.0, es posible resolver la ecuación 1.7 de manera indirecta usando los residuos r(j) de dicha iteración, a través de métodos del gradiente conjugado (Axelsson, [4]; Sewell, [7]), los cuales son más complejos de implementar y cuyo desempeño depende fuertemente de la estructura del espectro de valores propios de la matriz M, por lo que no es fácil predecir su desempeño.

      Cuando tengamos que resolver en forma iterativa un caso como el recién descrito, habría que probar con los métodos iterativos que trae Matlab® y que se describen en la siguiente sección.

      Los siguientes métodos iterativos se encuentran implementados en el ambiente Matlab®:

      • gmres: rutina que utiliza el método de minimización generalizada de residuos.

      • cgs: usa el método de gradientes conjugados cuadrados.

      • bicg: emplea el método de gradiente biconjugado.

      • pcg: utiliza el método de gradientes conjugados precondicionados.

      • qmr: maneja el método de cuasi minimización de residuos.

      • bicgstab: aplica el método de gradiente biconjugado estabilizado.

      Todas estas rutinas permiten reiniciar las iteraciones, incorporar criterios de tolerancia, número máximo de iteraciones, etcétera. Para mayores detalles de cada método, consultar por ejemplo Axelsson [4] y la ayuda en Matlab®.

      Consideremos la posibilidad de que haya errores en los datos de entrada del problema y, por lo tanto, necesitamos estimar la magnitud del error en la solución de las ecuaciones. Para estos fines, la matriz inversa A-1 es fundamental en la determinación del error de la solución.

      Cuando los pequeños errores en la matriz de coeficientes A producen grandes cambios en la solución, entonces se dice que el sistema de ecuaciones está mal condicionado. Esto normalmente se debe a que las filas de la matriz A son casi linealmente dependientes entre sí.

      Consideremos el caso cuando haya error en el lado derecho de las ecuaciones, es decir:

      y cuya solución es x+δx. Luego se tiene que

      y además se cumple

      Por lo tanto, de las ecuaciones anteriores se deduce que una cota superior para el error relativo viene dada por (Moler, [1])

      En donde κ(A) es el número de condición2 de la matriz A. Si κ >> 1, se dice que la matriz A está mal condicionada. Por ejemplo, si κ(A) es 108, un error relativo de 10-8 en el lado derecho, ¡podría producir un error tan grande como 100% en el error relativo de la solución!

      Un punto importante que conviene destacar aquí es que la característica de mal condicionamiento de un matriz a menudo proviene del mismo usuario que la genera en forma inadvertida. Una manera fácil de producir matrices mal condicionadas consiste en tener ecuaciones con coeficientes con órdenes de magnitud distintos entre una ecuación y otra. No existen procedimientos numéricos que nos garanticen que una matriz no presente este problema.

      Una solución que se puede plantear cuando el sistema es mal condicionado, es aplicar alguna de las rutinas iterativas que se han mencionado en la sección 1.2, ya que así no se utiliza el procedimiento de inversión de la matriz (que es el que genera normalmente los problemas de mal condicionamiento y ambigüedad de los resultados), sino un método iterativo que no trabaja con la inversa de la matriz original.

      1) Considere las matrices:

      Ingrese las matrices al ambiente Matlab® e indique los resultados al aplicar las siguientes operaciones:

      i) x = A(3,:)

      ii) y = B(:,1)

      iii) C = A(2:4;1:2)

      iv) D = diag(A)

      v) E = B’

      vi) C = diag(diag(A))

      vii) A(3,:)*B(:,2)

      viii) A(2,3)*B(4,1)

      ix) eig(A)

      x) [U, R] = eig(A)

      xi) A+4*ones(4,4)-eye(4)

      2) Considere los objetos:

      Encuentre lo que se obtendría al efectuar las siguientes operaciones en Matlab®:

      i) A*B

      ii) C = diag(diag(A))

      iii) A(1:2,3:4)*B(3:4)

      iv) A(3,:)*B

      v) A(:,2)’*B

      vi) A(2,3)*B(1)

      vii) B’* diag(A)

      viii) [U, R] = eig(A*A’)

      ix) A-5*ones(4,4)+3*eye(4)

      3) Para las matrices A de los dos problemas anteriores, descompóngalas de manera que se puedan expresar de la siguiente forma: A =D + L + U, donde D es la diagonal principal de A, L una matriz triangular inferior y U una matriz triangular superior. Utilice los comandos diag, tril y triu de Matlab®.

      4) ¿Cuál de las siguientes matrices es singular?

      Si la matriz no es singular, encuentre su inversa.

      5) Encuentre la pendiente e intercepto de la recta de mínimos cuadrados que pasa por los puntos: (1, 1), (2, 1.5) y (3, 2.2). Grafique sus resultados usando plot.

      6) ¿Tienen solución los siguientes sistemas de ecuaciones? Encuéntrela si ella existe.

      7) Resuelva las siguientes ecuaciones lineales usando eliminación de Gauss-Jordan con diferentes opciones de pivoteo.

      8) Emplee el método de Jacobi y el de Gauss-Seidel para resolver el sistema de ecuaciones del problema anterior, caso b); en ambos casos use como punto de partida x(0) = [1,1,0.4]T.

      9)


Скачать книгу