Resumen

8
REPUBLICA BOLIVARIANA DE VENEZUELA UNIVERSIDAD “FERMIN TORO” CABUDARE – EDO.LARA RESUMEN

Transcript of Resumen

Page 1: Resumen

REPUBLICA BOLIVARIANA DE VENEZUELA

UNIVERSIDAD “FERMIN TORO”

CABUDARE – EDO.LARA

INTEGRANTES

DAYANNY AGUILAR

20.237.853

RESUMEN

Page 2: Resumen

Métodos De Eliminación Gaussiana

En forma general este método propone la eliminación progresiva de variables en el

sistema de ecuaciones, hasta tener sólo una ecuación con una incógnita. Una vez resuelta

esta, se procede por sustitución regresiva hasta obtener los valores de todas las variables.

Sea por ejemplo el siguiente sistema de ecuaciones: Lo que buscamos son 3 números, que

satisfagan a las tres ecuaciones. El método de solución será simplificar las ecuaciones, de

tal modo que las soluciones se puedan identificar con facilidad. Se comienza dividiendo la

primera ecuación entre, obteniendo: Se simplificará el sistema si multiplicamos por -4

ambos lados de la primera ecuación y sumando esta a la segunda. Entonces: sumándolas

resulta :

Métodos De Eliminación Gaussiana La nueva ecuación se puede sustituir por

cualquiera de las dos. Ahora tenemos: Luego, la primera se multiplica por -3 y se le suma a

la tercera, obteniendo: Acto seguido, la segunda ecuación se divide entre -3. Ahora se

multiplica por 5 y se le suma a la tercera: En este momento ya tenemos el valor de x3,

ahora simplemente se procede a hacer la sustitución hacia atrás, y automáticamente se van

obteniendo los valores de las otras incógnitas. Se obtendrá:

Método de Gauss-Jordan El Método de Gauss – Jordan o también llamado

eliminación de Gauss – Jordan, es un método por el cual pueden resolverse sistemas de

ecuaciones lineales con n números de variables, encontrar matrices y matrices inversas, en

este caso desarrollaremos la primera aplicación mencionada. Para resolver sistemas de

ecuaciones lineales aplicando este método, se debe en primer lugar anotar los coeficientes

de las variables del sistema de ecuaciones lineales en su notación matricial: Entonces,

anotando como matriz (también llamada matriz aumentada):

Método de Gauss-Jordan Una vez hecho esto, a continuación se procede a convertir dicha

matriz en una matriz identidad, es decir una matriz equivalente a la original, la cual es de la

forma: Esto se logra aplicando a las distintas filas y columnas de las matrices simples

operaciones de suma, resta, multiplicación y división; teniendo en cuenta que una operación

Page 3: Resumen

se aplicara a todos los elementos de la fila o de la columna, sea el caso. Obsérvese que en

dicha matriz identidad no aparecen los términos independientes, esto se debe a que cuando

nuestra matriz original alcance la forma de la matriz identidad, dichos términos resultaran

ser la solución del sistema y verificaran la igualdad para cada una de las variables,

correspondiéndose de la siguiente forma: d1 = x d2 = y d3 = z

6. Descomposición LU El método de descomposición LU para la solución de sistemas de

ecuaciones lineales debe su nombre a que se basa en la descomposición de la matriz

original de coeficientes (A) en el producto de dos matrices (L y U). Esto es: Donde: L -

Matriz triangular inferior U - Matriz triangular superior con todos los elementos de la

diagonal principal iguales a 1. De lo anterior, para matrices de 3x3 se escribe: Si

efectuamos la multiplicación de L y U, igualando los elementos de ese producto con los de

la matriz A correspondientes, se obtiene:

Descomposición LU De aquí que los elementos de L y U son, en este caso: Si el sistema de

ecuaciones original se escribe como: A x = b lo cual resulta lo mismo escribir: L U X = b

Definiendo a: U X = Y podemos escribir: L Y = b Resolviendo para Y, encontramos:

Descomposición LU El algoritmo de solución, una vez conocidas L, U y b, consiste en

encontrar primeramente los valores de "Y" por sustitución progresiva sobre "L Y = b". En

segundo lugar se resuelve "U x = y " por sustitución regresiva para encontrar los valores de

"x", obteniendo: La determinación de los elementos de las matrices L y U se realizan

eficientemente aplicando una forma modificada del método de eliminación de Gauss.

Factorización De Cholesky Una matriz simétrica es aquella donde Aij = Aji para toda i y j,

En otras palabras, [A] =[A] T. Tales sistemas ocurren comúnmente en problemas de ambos

contextos: el matemático y el de ingeniería. Ellos ofrecen ventajas computacionales ya que

sólo se necesita la mitad de almacenamiento y, en la mayoría de los casos, sólo se requiere

la mitad del tiempo de cálculo para su solución. Al contrario de la Descomposición LU, no

requiere de pivoteo. El método de Factorización de Cholesky se basa en demostrar que si

una matriz A es simétrica y definida positiva en lugar de factorizarse como LU, puede ser

factorizada como el producto de una matriz triangular inferior y la traspuesta de la matriz

triangular inferior, es decir los factores triangulares resultantes son la traspuesta de cada

Page 4: Resumen

uno. Ejemplo: Obtener la factorización de Cholesky de la siguiente matriz (entrar sólo los

elementos de U, la triangular superior) 5 7 −8 7 14 −14 −8 −14 24

. Factorización De Cholesky √5 7/5 √5 −8/5 √5 0 1/5 1051/2 −2/15 1051/2 0 0 2/3 211/2

Entrar el valor del determinante: Resolver el sistema lineal Ax=b cuando b es el vector

siguiente 51 84 −90 Factorización: En cada etapa de la resolución se muestran los valores

actuales de la matriz. Los nuevos elementos calculados aparecen con su valor definitivo en

color diferente. Calculando el elemento (1,1) 5^(1/2) 7 -8 7 14 -14

Solución De Sistemas Lineales Utilizando Métodos Iterativos El método de Gauss

y sus variantes son conocidos como métodos directos para resolver el problema inicial Ax

= b. Se ejecutan a través de un número finito de pasos y generan una solución x que sería

exacta sino fuera por los errores de redondeo. En contraste, un método iterativo da lugar a

una sucesión de vectores que idealmente converge a la solución. El cálculo se detiene

cuando se cuenta con una solución aproximada con cierto grado de precisión especificado

de antemano o después de cierto número de iteraciones. Los métodos indirectos son casi

siempre iterativos. Un método iterado de resolución del sistema Ax = b es aquel que

genera, a partir de un vector inicial x0, una sucesión de vectores x1, x2, . . . xn.. "Un

método iterado se dirá que es consistente con el sistema Ax = b, si el límite x de la sucesión

(xn), en caso de existir, es solución del sistema. Se dirá que el método es convergente si la

sucesión generada por cualquier vector inicial x0 es convergente a la solución del

sistema".Es evidente que si un método es convergente es consistente, sin embargo, el

recíproco no es cierto

Método De Gauss Seidel El Método de Gauss Seidel emplea valores iniciales y

después itera para obtener estimaciones refinadas de la solución; es particularmente

adecuado para un gran número de ecuaciones, lo cual en cierto modo lo hace un método

más comúnmente usado. La fórmula utilizada para hallar los xi viene dada por el despeje de

cada una de las xi en cada una de las ecuaciones y se les da un valor inicial a cada xi de

cero. Observase que en el método de Gauss-Seidel los valores actualizados de xi sustituyen

de inmediato a los valores anteriores, mientras que en el método de Jacobi todas las

componentes nuevas del vector se calculan antes de llevar a cabo la sustitución. Por contra,

en el método de Gauss-Seidel los cálculos deben llevarse a cabo por orden, ya que el nuevo

Page 5: Resumen

valor xi depende de los valores actualizados de x1, x2, ..., x i-1. La desventaja del método

de Gauss-Seidel es que no siempre converge a la solución exacta o algunas veces los hace

de manera muy lenta. Únicamente es confiable para aquellos sistemas dominantes

diagonalmente.

Método de Jacobi El Método de Jacobi transforma una matriz simétrica en una

matriz diagonal al eliminar de forma simétrica los elementos que están fuera de la diagonal.

Desafortunadamente, el método requiere un número infinito de operaciones, ya que la

eliminación de cada elemento no cero a menudo crea un nuevo valor no cero en el elemento

cero anterior. Si A es diagonalmente dominante, entonces la sucesión que resulta de la

iteración de Jacobi converge a la solución de Ax = b para cualquier vector inicial Xo.

Partimos de una aproximación inicial Xo para las soluciones Xi al sistema de ecuaciones y

sustituimos estos valores en la ecuación: Que es la expresión que nos proporciona las

nuevas componentes del vector x(k) en función de vector anterior x(k-1) en la iteración de

Jacobi, en su respectivo algoritmo; donde el a el método de Jacobi más que usar el último

valor disponible de , con base en un conjunto de las x anteriores (). De esta forma, como se

generan nuevos valores, no se usan en forma inmediata sino que se retienen para la

siguiente iteración.