Prezi

Present Remotely

Send the link below via email or IM

Copy

Present to your audience

Start remote presentation

  • Invited audience members will follow you as you navigate and present
  • People invited to a presentation do not need a Prezi account
  • This link expires 10 minutes after you close the presentation
  • A maximum of 30 users can follow your presentation
  • Learn more about this feature in the manual

Do you really want to delete this prezi?

Neither you, nor the coeditors you shared it with will be able to recover it again.

DeleteCancel

Make your likes visible on Facebook?

Connect your Facebook account to Prezi and let your likes appear on your timeline.
You can change this under Settings & Account at any time.

No, thanks

Analisis Numerico

No description
by Luis Carrillo Chacon on 9 October 2012

Comments (0)

Please log in to add your comment.

Report abuse

Transcript of Analisis Numerico

Interpolación
Lineal Raices de Ecuaciones
Lección 5 Eliminación de Gauss
Lección 7 Temas de Análisis Numérico para Ingeniería Errores de truncamiento Lección 3 Errores de truncamiento: Teorema de Taylor: Donde "n" es el orden de la aproximación y "Rn" el error de truncamiento Teorema del valor medio: Residuo: Indica limites de error de truncamiento
Su cálculo exacto depende de
Y Diferencia hacia adelante: Diferencia hacia atrás: Diferencias centradas: Propagación de errores: Propagación de funciones de múltiples variables: Error relativo de la función: Número de condición: Indica que tanto una inexactitud de X se aumenta por f(x) Error númerico total: suma de errores de redondeo y truncamiento Diferencias centradas: Control de errores númericos: NO restar números similares
Reordenar operaciones aritméticas
Utilizar precisión extendida Producidos al utilizar una aproximación en vez de un procedimiento matemático exacto. Para funciones continuas y si h(t) no cambia de signo en [Xo,X] Repaso de álgebra lineal Lección 6 Integración Numérica
Lección 14 Matriz de n x m: Matrices en vectores: La matriz se puede componer de n vectores fila o m vectores columna Matriz transpuesta: Matriz simétrica: Matriz identidad: Matriz triangular superior: Matriz triangular inferior: Matriz a bandas: Todos excepto una banda centrada en la diagonal principal Producto escalar-matriz: Otra matriz con componentes escalados ( ) Suma de matrices: Producto punto entre vectores: Tipo de producto interno( ) Regresión Polinomial
Lección 13 Regresión Polinomial


* Cálculo del error


Regresión Lineal Múltiple


Linealización en Múltiples Dimensiones Lección 13 Regresión Polinomial Regresión Polinomial Cálculo del error Regresión Lineal Múltiple Linealización en Múltiples
Dimensiones Solución de EDO
Lección 18 - Métodos de Runge-Kutta


- Métodos adaptativos de Runge-Kutta Lección 18 Solución de EDO
(Ecuaciones Diferenciales Ordinarias) Métodos de Runge-Kutta - Repaso


- Métodos de Runge-Kutta de tercer orden

* Error del método de Runge-Kutta de tercer orden



- Métodos de Runge-Kutta de cuarto orden


- Métodos de Runge-Kutta de quinto orden - Método adaptativo de RK o de mitad de paso


- Método de Runge-Kutta Fehlberg o RK encapsulado


- Control del tamaño del paso Métodos adaptativos
de Runge-Kutta Repaso - Logran la exactitud del procedimiento de una serie de Taylor sin requerir el cálculo de derivadas superiores.

- Todas las variantes siguen la forma generalizada





con la función de incremento que representa la pendiente en el intervalo. Para n = 3, se puede hacer un desarrollo similar al del método de segundo orden. Métodos de Runge-Kutta
de tercer orden - El resultado de dicho desarrollo es de seis ecuaciones con ocho incógnitas. Por tanto, se debe especificar con antelación los valores para las dos incógnitas con el fin de establecer los parámetros restantes. Una versión común que resulta es:


(1)


Donde:








- Si la función solo depende de x, entonces este método se reduce a la regla de
Simpson 1/3. Error del método de
Runge-Kutta de tercer orden - El método más popular de RK es el de cuarto orden.

- Al igual que con el caso de segundo orden, hay un infinito número de versiones.

- El método clásico RK de cuarto orden Método de Runge-Kutta
de cuarto orden Donde:












- Si la función solo depende de x, entonces este método se reduce a la regla de Simpson 3/8.

- El método se asemeja al procedimiento de Heun en cuanto a que se usan múltiples pendientes para estimar una mejor pendiente promedio en el intervalo - El método de RK de quinto orden (de Butcher) extiende los anteriores Método de Butcher Con:
















Métodos RK de mayor orden no se utilizan pues la ganancia en exactitud no compensa el incremento en la complejidad computacional. - Los métodos presentados hasta ahora para resolver EDO han utilizado un tamaño de paso constante.

- En algunos casos esto es una fuerte limitante, especialmente cuando la solución es en general suave, pero tiene cambios abruptos, que requieren un tamaño de paso pequeño para ser representados con exactitud, a pesar de que en el resto de la función un paso mayor sea suficiente.

- Algoritmos que adaptan el paso automáticamente a las tasas de cambio alcanzan mayor exactitud. Métodos Adaptativos
de Runge-Kutta En cualquier caso, los métodos RK de tercer orden tienen errores local y global de 0(^4) y 0(^3), respectivamente, y dan resultados exactos cuando la solución es una cúbica. Al tratarse de polinomios, la ecuación (1) será también exacta cuando la ecuación diferencial es cúbica y la solución es de cuarto orden. Ello se debe a que la regla de Simpson 1/3 proporciona estimaciones exactas de la integral para cúbicas. - Estos métodos con control adaptativo del tamaño de paso requieren estimar el error de truncamiento local en cada paso, a partir del cual se decide si aumentar o reducir el tamaño de paso.


- Dos métodos se utilizan para la estimación del error:

1) Usar diferencia entre dos predicciones usando el método de RK del mismo orden pero con diferentes tamaños de paso.

2) Usar diferencia entre dos predicciones usando métodos RK de diferente orden. Método adaptativo de RK
o de mitad de paso Método RK Fehlberg o
RK encapsulado - Otro camino para la estimación del error es calcular dos estimados con dos predicciones RK de diferente orden.

- El problema general es la cantidad de evaluaciones de la función
y de cálculos en general.

- El método RK Fehlberg (o RK encapsulado) evita al utilizar un método RK de quinto orden que usa las evaluaciones de la función RK de cuarto orden correspondiente, requiriendo solo 6 evaluaciones. - La estimación de cuarto orden es:









- La estimación de quinto orden es: Con: Control del Tamaño del Paso Producto externo entre vectores: Producto matricial (matriz de n x l): Propiedades: NO conmutativa
Es asociativa
Es distributiva Producto matriz-vector: Producto vector-matriz: Inversa de una matriz: Matriz ortogonal: Aproximación y Errores
Lección 1 Definiciones Importantes Cifras Significativas:
-Indican confianza de un valor numérico.
-Igual a numero de dígitos obtenidos con certeza, más uno estimado.
Exactitud: Consiste en qué tan cercano está el valor medido o calculado de valor verdadero.
Precisión: Consiste en qué tanto se dispersan las mediciones alrededor del valor medido o calculado.
Error de Truncamiento:aproximaciones de un procedimiento matemático exacto.
Error de Redondeo: representaciones numéricas con cifras significativas limitadas. Error Verdadero Et: Et = valor verdadero valor aproximado Error Relativo Verdadero Erel: Error Relativo Porcentual: Error Porcentual Aproximado: ¿Cómo estimar el error si no se cuenta con el valor verdadero? En métodos iterativos se utiliza: y los métodos se iteran mientras Si se elige: entonces el resultado sera correcto en al menos n cifras significativas. Descomposición LU, Inversión, Análisis de error y Condición de Sistemas.
Lección 8 Descomposición LU Se va a suponer que se tiene una matriz A que se puede descomponer de la siguiente manera:
-Una matriz triangular superior U(Upper).
-Una matriz triangular inferior L(Lower).
Obteniendo así la siguiente ecuación: A = UL Uso de la descomposición LU Se tiene la ecuación de la siguiente forma: Ax = b, donde A es una matriz, x y b son un vector. Ax = b
LUx =b
L(Ux)=b => Sea y = Ux Ly = b Con la matriz triangular inferior: Se obtiene el vector y con la descomposición hacia adelante: Con la matriz triangular superior: Se obtiene finalmente el vector x con la descomposición hacia atrás: Descomposición LU con algoritmo de Doolittle Determinante de una matriz cuadrada: Para n ≥ 3: Propiedades de la determinante: Traza de una matriz: Suma de los elementos de una diagonal Sistema de ecuaciones en notación matricial: Nota: la matriz inversa es un proceso numéricamente inestable Descomposición en Valores Singulares (SVD) Lección 10 Son técnicas para tratar un sistema de ecuaciones singulares.
Funciona donde la descomposición LU o eliminación Gaussiana fallan. -Este algoritmo tiene la misma complejidad algorítmica que la eliminación de Gauss.-Los dos pasos de sustituciones hacia adelante y hacia atrás se justifican sólo si se requiere resolver varios sistemas de ecuaciones para varios vectores b
-Pivoteo es necesario para asegurar estabilidad del algoritmo. k. Con la eliminación de Gauss se obtuvo la siguiente matriz: Donde se obtienen los ceros bajo la diagonal con los siguientes factores: Si estos factores se almacena, el procedimiento de b se puede realizar a posteriori. Además se pueden aprovechar los nuevos espacios en blanco de la matriz creada, para almacenar los factores: De esta forma, la descomposición se realiza in situ ahorrando la memoria de almacenamiento. Descomposición LU con algoritmo de Crout Se obtiene el siguiente producto: Se observa que por los ceros en ambas matrices se tienen n ecuaciones para n + n incógnitas l y u. Por lo tanto, para que este sistema de ecuaciones sea solucionable se elige arbitrariamente u =1 para i= 1.....n , logrando así restar n incógnitas. Obteniendo así el siguiente producto: 2 2 ii El algoritmo de Crout soluciona el sistema utilizando los coeficientes de la matriz A en el orden ilustrado: Matriz Inversa Si se multiplica la ecuación Ax = b por la matriz inversa A se obtiene: Asumiendo que A es: -1 -1 Sea i la j-ésima columna de la matriz identidad I. j Ejemplo con j =3 : Ax = i brinda como solución la j-ésima
columna de A. j -1 Condicionamiento y Matriz Inversa Para probar el condicionamiento de sistema de ecuaciones se puede realizar de las siguientes formas:

1) Escalar A de modo que máximo elemento por fila sea 1. Invertir la matriz escalada. Si existen elementos en A varios órdenes de magnitud mayores a 1 entonces el sistema está mal acondicionado.

2)Multiplicar A por A y verificar qué tan cerca se encuentra el resultado la matriz Identidad.

3)Invertir A y comparar con A. -1 -1 -1 Normas Vectoriales La norma p de un vector x, o norma de Minkowski , se define como: Métodos Abiertos

Métodos Mixtos

Raíces de Polinomios Raíces de Ecuaciones
Métodos Abiertos y Mixtos Lección 5 Método de Newton-Raphson

Método de la Secante Métodos Abiertos donde en el caso p=2 se conoce como norma euclidiana, y en el caso p=1 se conoce como la norma de cuadras de ciudad , o con p la norma magnitud máxima es: - Explicación

- Estimación del error

- Desventajas Método de Newton Raphson Explicación - Es una de la fórmulas más usada para localizar raíces.

Este método se puede obtener sobre la base de una interpretación geométrica.
Como en la Figura siguiente, la primera derivada es ‘x’ es equivalente a la pendiente: Estimación del Error Desventajas Método de la Secante El método de interpolación lineal sustituye uno de los extremos por la última estimación de modo que siempre la raíz quede acorralada.

El método de la secante remplaza los valores en secuencia estricta, por lo que la raíz puede quedar fuera de los dos últimos valores utilizados. Esto no siempre lleva a convergencia. Diferencias entre el método de la
Secante y de Interpolación Lineal Método de Brent Métodos Mixtos Utiliza el método de interpolación cuadrática cuando sea posible, de otro modo utiliza el método de la secante. Si ese método conduce a error, utiliza bisección. Método de Brent También conocido como el método de van Wijngaarden-Dekker-Brent

Se garantiza convergencia en tanto el intervalo inicial encierre una raíz.

- Combina:
* Método de bisección

* Método de la secante

* Método de interpolación cuadrática

* Método de interpolación Inversa cuadrática Interpolación Cuadrática Es posible que la parábola interpolada no interseque del todo al eje real. Pero, esto no ocurre si se utiliza interpolación inversa cuadrática Interpolación Inversa Cuadrática Casos de Uso de la
Interpolación Cuadrática
e Inversa Cuadrática Lo anterior funciona siempre y cuando no existan dos o más
valores iguales de ‘y’, en cuyo caso el sistema de ecuaciones no
tiene solución por existir varios valores ‘x’ para un mismo ‘y’. Raíces de Polinomios Deflación Polinomial Sensible a errores de redondeo.

El error de redondeo depende del orden de evaluación

PULIR es el proceso que se realiza posterior a la deflación Problemas de la Deflación Es similar al método de la secante, pero utiliza interpolación cuadrática

- Problemas Método de Muller Problemas Normas Matriciales Para matrices las normas se definen de dos maneras:
-Considerando todos los elementos de la matriz por igual.
-Un cálculo para las filas o columnas y luego combinándolos.
La norma de Frobenius es:
* Fórmulas de Newton-Cotes

- Regla del Trapecio

- Regla de Simpson Lección 14 Integración Numérica Fórmulas de Newton-Cotes - Tipos de integración numérica más comunes.

- Remplazan una función complicada o datos tabulados por polinomio de aproximación fácil de integrar: - Hay fórmulas cerradas y abiertas.

- En las fórmulas cerradas se conocen los datos en los extremos del intervalo de integración.

- En las fórmulas abiertas el intervalo de integración va más allá de los datos disponibles. Fórmulas abiertas y cerradas Introducción


Error de la regla de Trapecio


Regla del Trapecio de aplicación múltiple


Error de la regla del Trapecio de aplicación múltiple


Conclusiones Regla del Trapecio La regla del trapecio utiliza un polinomio de primer orden (línea recta) para aproximar el área entre a y b. Introducción Donde está en algún lugar en el intervalo de ‘a’ a ‘b’. La ecuación anterior indica que si la función sujeta a integración es lineal, la regla trapezoidal será exacata; de otra manera para funciones con derivadas de segundo orden y superior (con curvatura) puede ocurrir algún error. Error de la regla del Trapecio Una forma de mejorar la exactitud de la regla trapezoidal es dividir el intervalo de integración desde ‘a’ a ‘b’ en un número de segmentos y aplicar el método a cada uno de ellos. Las áreas de segmentos individuales se pueden entonces agregar para dar la integral para todo el intervalo. Regla del Trapecio de aplicación múltiple A esta regla de aplicación múltiple se le conoce además como compuesta Error de la Regla del Trapecio
de aplicación múltiple Conclusiones - Para funciones con primera derivada casi constante, la regla del trapecio de múltiples segmentos es suficientemente exacta.

- Si se requiere alta exactitud, se debe aumentar el número de
segmentos. Esto es desventajoso si

1) Se evalúan numerosas integrales
2) La evaluación de la función misma es costosa en tiempo de cómputo.

- Errores de redondeo limitan precisión de procesos de integración Introducción


Regla de Simpson 1/3


Error de la regla de Simpson 1/3


Regla de Simpson 1/3 de aplicación múltiple


Error de la regla de Simpson 1/3 de aplicación múltiple


Limitaciones de la regla de Simpson Regla de Simpson La precisión se puede mejorar utilizando polinomios de orden
superior para aproximar la función.

Las fórmulas que utilizan polinomios por puntos equiespaciados se denominan Reglas de Simpson. Introducción El factor 1/3 da origen al nombre de esta regla particular. Utiliza un polinomio de segundo grado Regla de Simpson 1/3 Observe proporcionalidad a la cuarta derivada, en vez de la tercera. El resultado será exacto para polinomios cúbicos aún cuando se obtienen aproximaciones parabólicas. Error de la regla Simpson 1/3 - Similar a caso del trapecio, se mejora precisión dividiendo el intervalo [a,b] en n segmentos iguales.

- El número total de segmentos será entonces par (pues en cada
segmento se utiliza un punto en su centro) Regla de Simpson 1/3 de aplicación múltiple Error de la Regla de Simpson 1/3 de aplicación múltiple - Si solo se cuentan con puntos discretos disponibles para la integral, la regla de Simpson es aplicable si los puntos son equidistantes y se cuenta con un número par de segmentos (número impar de puntos).

- Si se cuenta con un número impar de segmentos (número par de puntos) se usa la regla de Simpson 3/8 Limitaciones de la regla de Simpson La norma de columna-suma se defina como: Resolución de pequeños conjuntos de ecuaciones

Eliminación de Gauss Simple

Eliminación de Gauss-Jordan Eliminación de Gauss Lección 7 Son apropiados en aquellos conjuntos de ecuaciones con 3 o menos cantidad de incógnitas.

Estos métodos son:

El método Gráfico

Regla de Cramer

Eliminación de Incógnitas Resolución de Pequeños Conjuntos de Ecuaciones 1. Método Gráfico Ejemplo Establece que cada incógnita en un sistema de ecuaciones lineales algebraicas puede ser expresada como una fracción de dos determinantes con denominador D y con el numerador obtenido a partir de D al remplazar la columna de coeficientes de la incógnita en cuestión por las constantes b1, b2,..,bn.

Resulta ineficiente en problemas con más de 3 ecuaciones ya que los determinantes consumen mucho tiempo al ser evaluados. 2. Regla de Cramer Se calcula el determinante D: Resolución de un sistema de ecuaciones con 3 incógnitas Ejemplo Finalmente se obtienen los valores de las incógnitas: 3. Eliminación de Incógnitas Ejemplo Restando la ecuación (1) de la (2) se elimina el término x1 de las ecuaciones para obtener: El paso de eliminación consiste en obtener una matriz triangular Superior. Dado el sistema: Eliminación de Gauss Simple Problemas Utilizar más cifras significativas en los cálculos


Pivoteo: Ocurren problemas cuando un elemento pivote es cercano o exactamente igual a cero. Por lo tanto antes de normalizar cada renglón, es ventajoso determinar el coeficiente más grande disponible en la columna que está por debajo del elemento pivote. Entonces los renglones se pueden cambiar de manera tal que el elemento más grande sea el elemento pivote; esto es conocido como pivoteo parcial. Al procedimiento en el que tanto en las columnas como en las filas se busca el elemento más grande y luego se intercambian se le conoce como pivoteo total. Técnicas Para Mejorar las Soluciones Ventajas del Pivoteo Evita divisiones entre cero.

Minimiza el error de redondeo.

Sirve como remedio parcial al mal condicionamiento. Eliminación de Gauss Jordan Es una variación de la eliminación de Gauss. La principal diferencia consiste en que cuando una incógnita se elimina en el método de Gauss-Jordan, esta es eliminada de todas las otras ecuaciones en lugar de hacerlo solo en las subsecuentes. Además todos los renglones se normalizan al dividirlos entre su elemento pivote. De esta forma, el paso de eliminación genera una matriz de identidad en vez de una triangular.

Este algoritmo es también es 0(^3).
Utiliza aproximadamente un 50 % más de operaciones que el método simple de eliminación. Los resultados no necesariamente aparecen en orden canónico, por eso se deben permutar las columnas de las matrices.
Descomposición única excepto por las permutaciones y rotaciones ortogonales. Sistema sobredeterminado: Sistema subdeterminado: Vector: tupla de n componentes, elementos de un espacio vectorial
o lineal ( ). Combinación lineal: Independencia lineal: Generación de espacios: Un espacio lineal es engendrado por el conjunto de vectores si contiene todas combinaciones lineales de los vectores de
(conjunto generador). Subespacio: Base: Errores de Redondeo Ecuaciones Diferenciales
Ordinarias Raíces de Ecuaciones Interpolación La norma fila-suma es: La norma espectral de una matriz A es : donde es el mayor valor propio de , es decir el mayor valor asociado a un vector propio que satisface: Métodos Gráficos Métodos Cerrados Métodos Abiertos Se grafica la función y se determina el valor de la variable
visualmente.
El método es aproximado, pero conceptualmente seguro.
Permite detectar posibles errores de métodos numéricos.
Permite detectar valores iniciales para métodos numéricos. Bisección Teorema fundamental del álgebra: Toda base tiene exactamente n elementos
Si los elementos de una base toman un orden determinado, cualquier elemento de puede ser representado por una secuencia única de coordenadas. Mapeo lineal: La matriz A mapea o transforma linealmente el vector a otro vector Este sistema tiene solución siempre que se encuentre en el espacio columna o alcance de la matriz (espacio engendrado por las n columnas de A): Rango de la matriz: Número de columnas linealmente independientes Espacio nulo: Nulidad: dimensión del espacio nulo de A
La suma del rango más su nulidad es igual a n Solución única: Si A es cuadrada nxn y rango n, entonces A es singular e invertible
(solo es mapeado a ) En este caso es el método de preferencia Si A tiene nulidad mayor que cero (rango < n): La mayoría de vectores no producen solución.
Algunos vectores tienen como solución un subespacio completo. SVD construye: Base vectorial del espacio columna
Base vectorial des espacio nulo SVD de matrices cuadradas: Si A es cuadrada, entonces también lo son U,W y V.
Matriz inversa:
Número de la condición de A: Cualquier combinación lineal de las columnas con valores singulares es solución de este sistema.

Para , si esta en el alcance de A y la nulidad de A es mayor que cero, entonces el sistema tiene infinitas soluciones.

Para , si esta fuera del alcance de A: Inversa de Moore-Penrose o la seudoinversa de A ( ): Cálculo de la matriz inversa utilizando SVD Resumen: Si todo , la solución retorna el sistema no singular
Si algunos la solución devuelve la mejor solución (produce el mejor residuo si no existe solución) Errores de truncamiento Lección 3 Repaso de álgebra lineal Lección 6 Descomposición en Valores Singulares Lección 10 Trazadores cúbicos / Regresión Lección 12 Trazadores cúbicos / Regresión Lección 12 Iteración
de punto fijo Newton-Raphson Secante Lección 4 Se grafica la función y se determina el valor de la variable visualmente.

Este método es aproximado pero permite detectar posible errores de metodos numericos y tambien detectar valores iniciales para estos.

Ejemplo: Parte de que una función cambia de signo alrededor de una raíz.
Solo se cumple para raíces de multiplicidad impar, las pares quedan excluidas de estos métodos. Los métodos cerrados buscan una sola raíz
Parten de un intervalo que la encierra, este intervalo se reduce iterativamente hasta encontrarla.
Son métodos convergentes Consiste en partir en cada iteración el intervalo en dos.

La condición de parada se realiza cuando el error aproximado es menor al mínimo deseado. Ya que el método de bisección ignora la cercanía, el método de interpolación lineal en vez de dividir el intervalo en dos, asume una aproximación lineal de la función para encontrar la raiz. Desventaja: El método parte de la suposición que la raíz se encuentra siempre mas cercana al extremo menos en magnitud, lo cual no siempre se cumple, por lo que se le hace una modificación.
Si se cambia el mismo extremo del intervalo por mas de dos veces consecutivas entonces simular un menor valor de la función en el otro extremo, dividiéndolo entre 2. Solo requieren un valor inicial
A veces son Divergentes, pero si convergen lo hacen mas rápido que los métodos cerrados. Parte de reformular la ecuación f(x)=0 en x=g(x)
y permitir un proceso iterativo xj = g(xi ) , j=i+1
que converja a la raiz, con un error aproximado menor al mínimo deseado. La magnitud de la derivada |g'(x)| debe ser menos que uno para asegurar convergencia lineal.
si es mayor a 1 el método diverge Converge Diverge Leccion 11 Trazadores
o splines De Newton De Lagrange Lineales Cuadráticos Cúbicos Propiedades del algoritmo de Newton Reformula el calculo del polinomio de Newton evitando así el calculo de las diferencias divididas: con Problemas de la interpolacion polinomial Mientras mayor el orden de la interpolacion, menor es la precision,ya que la posibilidad de oscilaciones es mayor.Para interpolacion polinomial la peor distribucion de datos xi es la homogenea (igual separacion), la cual es la mas usual.
La interpolacion polinomial de orden elevado es mal condicionada: cambios peque~nos en los datos producen grandes diferencias en las oscilaciones entre puntos.
Con interpolacion polinomial, el error decrece conforme crece el orden, pero hasta cierto punto, a partir del cual el error "explota". Por ello, lainterpolaciónn se debe realizar "por partes". Usan polinomios de grado inferior en subconjuntos de puntos Elimina oscilaciones entre puntos muestreados Logra que subconjuntos adyacentes usen polinomios que además se conectan suavemente, osea tienen iguales derivadas en los puntos de conexión. Unen los puntos por segmentos de recta, sigue el patrón de la interpolación lineal Desventaja: Solo la función es continua; la primera derivada es discontinua en los nodos Trazadores cúbicos: Derivación directa
Derivación optimizada Interpolación multidimensional Regresión Trazadores cúbicos: Optimización de trazadores cúbicos: Permiten que la función como la primera derivada sean continuas Desventaja: Discontinuidad en la segunda derivada Ventaja: Permiten comprender el principio de operacion de los trazadores Para n+1 datos hay n intervalos y por lo tanto hay 4n incógnitas, entonces hay que plantear 4n ecuaciones de la forma: En cada intervalo de 3 puntos, la funcion se interpola con una funcion cuadratica. Leccion 17 Este sistema una matrices de 4n x 4n y algoritmos Como los términos desconocidos son , para encontrarlos se utiliza , obteniendo finalmente: Se replanteará otro algoritmo , que produce una matriz tridiagonal.
Se desea que la segunda derivada del polinomio cúbico sea continua en los nodos, donde esta esta dada por segmentos de recta que se interpolan con polinomios de Lagrange: Integrando 2 veces: Métodos de Runge-Kutta Considerando: Resuelven ecuaciones de la forma: Interpolación multidimensional: Método de Euler Método de Heun Método del punto medio Sistema de ecuaciones para trazadores bicubicos (general): Ejemplo: Regresión Extensiones separables bidimencional: Se aplica interpolación primero a lo largo de una dimensión y luego a la otra Interpolación bilineal: Determinar el valor de a partir de 4 puntos
Se hace interpolación lineal con "y" fijo
Se vuelve a aplicar interpolación, dando como resultado una sola ecuación: Al resolver el sistema anterior se minimiza la varianza del error: Ajusta una función o modelo
Sea una linea recta con modelo: Se minimiza el error con mínimos cuadrados: Derivando el error e igualando a cero se obtiene las ecuaciones normales: Linealización exponencial: Desviación estándar: Coeficiente de determinación: Varianza de los datos: El método anterior asume dependencia lineal entre las variables independientes y el valor de la función Linealización de la ecuación de potencias: Linealización de la ecuación de razón de crecimiento: Anotaciones: Los valores "x" no son aleatorios y sin error.
El error de "y" tiene distribución normal y es independiente de "x". Errores en el metodo de Euler Lección 2 Representaciones Numéricas Modificaciones Aritméticas Matrices Especiales y el método de Gauss-Seidel.
Lección 9 Algoritmo de Thomas Se tiene el sistema tridiagonal: El algoritmo calcula in-situ las matrices LU: Una estrategia de ahorro de memoria para el almacenamiento de matrices tridiagonales a bandas utilizar:





donde las diagonales de la matriz original ocupan columnas de la versión "comprimida". Descomposición de Cholesky Se aplica cuando se tiene matrices simétricas y matrices definidas positivas.

Matrices Simétricas: A = LL , donde la matriz L es triangular superior y equivale entonces a la matriz U de la descomposición LU, y a la matriz L se le conoce como la raíz cuadrada de A.






Con matrices simétricas y definidas positivas no es necesario el pivoteo, puesto que el método es numéricamente estable. T T Descomposición QR Cuando se hacen sumas, restas, multiplicaciones, divisiones, operaciones aritméticas en general se dan errores de redondeo dependiendo de las cifras significativas. Por lo que se pierde información y los resultados podrían variar, ademas que se acumula el error conforme hay mas operaciones A = QR donde R es la triangular superior
Q es ortogonal
Se soluciona de la siguiente manera:





Pasos:

1)Calcular b´ = Q b
2)Sustituir hacia atrás Rx = b´ Transformaciones de Householder Forma de la matriz:



La transformación de HouseHolder Q1 pone en cero todos los elementos de la columna bajo el primer elemento.
La transformación Q2 opera sobre la matriz que resulta eliminar la primera fila y la primera columna, y pone en cero todos los elementos en la columna bajo el segundo elemento.
Se repiten las transformaciones hasta llegar a Qn-1.

Puesto que las transformaciones de HouseHolder son ortogonales entonces:





Pivoteo es necesario sólo para matrices casi singulares. Gauss-Seidel Gauss-Seidel y Jacobi Criterio de Convergencia Se tiene un sistema Ax =b, donde se pueden plantear con las n ecuaciones del sistema n igualdades de la forma: Criterio Relativo:



Criterio Absoluto: Interpolación
Polinomial Integración Numérica
Lección 15 Integrales Propias y Diferenciación Numérica
Lección 16 Regla de Simpson Se presenta de la siguiente manera: El error de la regla de simpson 3/8 es: Se utiliza de la siguiente manera:

-Se prefiere usualmente regla de Simpson 1/3 sobre la 3/8 pues alcanza exactitud de tercer orden con solo tres puntos, en vez de cuatro.
-La regla 3/8 es útil si se cuenta con un numero de segmentos impar.
-Para múltiples intervalos, se prefiere utilizar la regla 1/3, y de ser necesario complementarla con la regla 3/8 si el numero de segmentos es impar. Integración con Segmentos Desiguales - Hasta ahora, reglas de Newton-Cotes han usado datos equiespaciados.

-La regla del trapecio es fácilmente modificable a datos separados arbitrariamente tomando pares:



con hi el ancho del segmento i .

-La exactitud anterior puede mejorarse si se verifica la aplicabilidad de las reglas de Simpson. Extrapolación de Richardson La estimación del valor exacto I de la integral, el valor I (h) aproximado con regla del trapecio de aplicación múltiple y el error E(h) se relacionan con:


Si n es el número de segmentos , entonces h= (b-a)/n .
Dos estimaciones con pasos h1 y h2 deben cumplir:



El error para la regla del trapecio de aplicación múltiple es: Criterio de Terminación Como criterio de terminación se utiliza un umbral con el error
relativo: Número de Evaluaciones Cuadratura Adaptiva - La regla de Simpson 1/3 de aplicación múltiple requerirá 256 segmentos para alcanzar la precisión dada en el ejemplo.
- Dicha regla esta limitada por error de redondeo, por lo que mas segmentos no mejoran laestimación.
- El algoritmo de Romberg requiere lestimaciónon para 1, 2, 4 y 8 segmentos, esto es: solo 15 evaluaciones, y alcanza mejor precisión.
- Este es el método de preferencia si se tienen funciones suaves (derivables) sin singularidades. - Aunque la integración de Romberg es mas eficiente que la aplicación multiple de la regla de Simpson 1/3, ambas usan puntos equiespaciados.
-Se ignora que las funciones tienen regiones con más variabilidad que otras.
- La cuadratura adaptativa ajusta el tamaño de paso tal que se usan pasos pequeños en intervalos de variación rápida, y pasos mayores si la función cambia lentamente.
- Se utiliza como base la regla de Simpson 1/3 en una estructura similar al algoritmo de Romberg.
- Recursivamente se parte el problema en dos subintervales si el error supera un umbral Integrales Impropias Una integral es impropia si
1) Su integrando tiende a un valor infinito en los limites infinitos de integración, pero no puede ser evaluado directamente en esos límites.



2) Su límite superior es de infinito hacia menos infinito.

3) Hay una singularidad en cualquiera de sus límites.

4) Tiene una singularidad integrable en un lugar conocido dentro del intervalo de integración.
5) Tiene una singularidad integrable en un lugar desconocido dentro del intervalo de integración. Limites Infinitos Regla del valor medio extendida Se requiere una formula de integración abierta, que no requiera la evaluación en los extremos del intervalo, en donde los integrandos se pueden indefinir. La regla del valor medio extendida es la mejor opción: Mejoramiento de Integrales Impropias Es posible combinar las reglas anteriores con algoritmos similares al de Romberg, pero donde el tamaño de pasos se triplica (en vez de duplicar) para reducir el número de evaluaciones de la función requerida. Diferenciación Numérica La exactitud de formulas anteriores se eleva considerando mas términos de la serie de Taylor.
De la expansión hacia adelante se sabe que:



de donde se despeja Diferenciación con alta exactitud Derivadas con datos irregularmente espaciados - Todos los métodos anteriores requieren que los datos estén equiespaciados.

- Con muestras experimentales no siempre es posible asegurar la equidistancia entre muestras.

- Una técnica usual consiste en interpolar usando Lagrange los puntos disponibles y derivar el polinomio resultante.

- Esta técnica permite calcular la derivada para cualquier valor de x.

- No se requiere la equidistancia de las muestras.

- Se mantiene la exactitud de la diferencia centrada.
Datos con Errores Los procesos de derivación amplifican el ruido en los datos:









Si ruido proviene de proceso de medición, reducir el paso empeora la situación:




Principal método: utilizar regresión por mínimos cuadrados. Datos con Errores Si se conoce el patrón de la función, se aproxima con el método de mínimos cuadrados.
Si se desconoce, se asume algún polinomio o función a partir de los datos.

Integración usualmente cancela en la suma el ruido, y por tanto no requiere mayor ajuste. De ser necesario, se puede utilizar regresión.
See the full transcript