domingo, 29 de noviembre de 2015

4.- Ajuste de Curvas e Interpolacion

En numerosos fenómenos de la naturaleza observamos una cierta regularidad en la forma de producirse, esto nos permite sacar conclusiones de la marcha de un fenómeno en situaciones que no hemos medido directamente. La Interpolación consiste en hallar un dato dentro de un intervalo en el que conocemos los valores en los extremos. La Extrapolación consiste en hallar un dato fuera del intervalo conocido, pero debe tenerse en cuenta que esté próximo a uno de sus extremos, pues en otro caso no es muy fiable el resultado obtenido.

4.1 INTERPOLACION LINEAL Y CUADRATICA

El problema general de la interpolación se nos presenta cuando nos dan una función de la cual solo conocemos una serie de puntos de la misma:
(xo, yo), (x1, y1),........., (xn, yn)
y se pide hallar el valor de un punto x (intermedio de x0 y xn) de esta función.
Interpolación. Elección de la interpolación más adecuada.
Consideremos una función de la cual solo conocemos una serie de puntos de la misma:
(xo, yo), (x1, y1), .............., (xn, yn)
Deseamos encontrar la expresión analítica de dicha función para poder estudiarla en otros puntos.
Ahora bien, por n+1 puntos pasan infinitas funciones, ¿con cuál de ellas nos quedamos? Lo más lógico es recurrir a la más sencilla. La familia de funciones más sencillas es la de los polinomios, por tanto buscaremos el polinomio de menor grado que pase por los n+1 puntos dados.
La función polinómica de menor grado que pasa por los puntos es en principio de grado n: y= anxn+............+a1x+ao
Y se obtiene resolviendo el sistema de n+1 ecuaciones con n+1 incógnitas (sistema que tiene solución única ya que el determinante de la matriz de los coeficientes es de Vandermonde y por lo tanto distinto de cero)
Se le llama polinomio interpolador correspondiente a esos puntos. Una vez obtenida su expresión dando valores en él se pueden encontrar nuevos puntos de la función. Los resultados obtenidos son naturalmente estimaciones aproximadas.
La interpolación se dirá lineal cuando sólo se tomen dos puntos y cuadrática cuando se tomen tres.

La interpolación lineal es un caso particular de la Interpolación general de Newton.
Con el polinomio de interpolación de Newton se logra aproximar un valor de la funciónf(x) en un valor desconocido de x. El caso particular, para que una interpolación sea lineal es en el que se utiliza un polinomio de interpolación de grado 1, y se denota de la siguiente manera:

Como dijimos, cuando las variaciones de la función son proporcionales (o casi proporcionales) a los de la variable independiente se puede admitir que dicha función es lineal y usar para estimar los valores la interpolación lineal..
Sean dos puntos (xo, yo), (x1, y1), la interpolación lineal consiste en hallar una estimación del valor y, para un valor x tal que x0<x<x1. Teniendo en cuenta que la ecuación de la recta que pasa por esos dos puntos es:
obtenemos la fórmula de la interpolación lineal:


Interpolación lineal de una variable independiente.
Es igual que hacer integrales cerradas.
En una tabla se representan algunos valores de la función, pero no todos, en ocasiones nos interesa el valor de la función para un valor de la variable independiente distinto de los que figuran en la tabla, en este caso podemos tomar el más próximo al buscado, o aproximarnos un poco más por interpolación, la interpolación casi siempre nos dará un pequeño error respecto al valor de la función verdadero, pero siempre será menor que tomar el valor más próximo de los que figuran en la tabla, veamos como se calcula al valor de la función para un valor de la variable independiente que se encuentre entre dos valores de la tabla por interpolación lineal.
INTERPOLACIÓN CUADRÁTICA. (Lagrange)
Cuando el polinomio que conviene es de 2º grado la interpolación recibe el nombre de cuadrática. El polinomio interpolador es único, luego como se encuentre da igual., sin embargo, a veces los cálculos son muy laboriosos y es preferible utilizar un método que otro. A la vista de los datos se decide.
Lagrange (1736-1813) dio una manera simplificada de calcular los polinomios interpoladores de grado n Para el caso de un polinomio de 2º grado que pasa por los puntos (x0, y0 ), (x1, y1), (x2, y2):

El error en la interpolación lineal resulta de aproximar una curva con una línea recta.
Estrategias:
– Disminuir el tamaño del intervalo.
– Introducir alguna curvatura en la línea que conecta los puntos.
Si tres puntos de los datos están disponibles, esto puede realizarse con un polinomio de segundo grado (parábola).
Puede utilizarse un procedimiento simple para determinar los valores de los coeficientes.

Sustituyendo las ecuaciones anteriores, y evaluando en x = x1:
Sustituyendo nuevamente, y ahora evaluando en x = x2:


4.2 POLINOMIOS DE INTERPOLACIÓN: DIFERENCIAS DIVIDIDAS DE NEWTON Y DE LAGRANGE.
Existencia de polinomio de interpolación
El problema de la interpolación tiene propiamente tres cuestiones:

  • Saber si tiene solución o no.
  •  En caso de tenerla, ¿dicha solución es única o existen varias?
  •  Y finalmente métodos de cálculo lo más eficientes posibles.
A este respecto en interpolación polinómica tenemos el siguiente resultado:

Teorema 1. Supongamos conocido el valor de una función f(x) en un conjunto de puntos distintos dos a dos x0, x1, . . . , xn. Entonces, existe un único polinomio P(x) 2 <n[x] (esto es, polinomios de grado menor o igual que n) que interpola a la función en esos puntos, es decir,P(xi) = f(xi) con i = 0, . . . , n.

La prueba más directa (con el coste de unos leves conocimientos de ´algebra) consiste en plantear el sistema lineal de ecuaciones (ahora las incógnitas son los coeficientes del polinomio P buscado) y darse cuenta de que es un sistema compatible determinado al tener matriz de coeficientes de tipo Van der Monde (con los xi distintos dos a dos) y por tanto invertible.
Otra forma inmediata de ver la unicidad de solución al problema consiste en imaginar la existencia de dos polinomios P y Q de grado n satisfaciendo la tesis del teorema.
Entonces:

P − Q es otro polinomio de grado n con n + 1 ceros, y eso conduce inevitablemente a que P − Q _ 0.
Completamos este razonamiento con dos respuestas (en las siguientes secciones) de existencia de solución, ambas constructivas.

Interpolación de Lagrange.

Este método es el más explicito para probar existencia de solución ya que la construye.

Sin embargo su utilidad se reduce a eso: a dar una respuesta formal y razonada, pues no es eficiente en términos de cálculo (requiere muchas operaciones y tiene limitaciones técnicas que después nombraremos).

Para calcular el polinomio interpolador P(x) asociado a una tabla de datos (xi, fi) con i = 0, . . . , n podemos plantearnos una simplificación previa: ¿qué ocurre si construimos polinomios li(x) de grado n que valgan 1 en el nodo xi y 0 en el resto?

li(xk) = _ik = _ 1 si i = k, 0 si i 6= k.

Es inmediato que con esto se resuelve el problema original, tomando la suma de esa n + 1 polinomios de grado n (con coeficientes adecuados):

P(x) = Pn k=0 fk · lk(x).

¿Es posible encontrar tales li(x)? Si damos el polinomio facto izado para que tenga en cada nodo xj (con j 6= i) una raíz, el candidato es:
(x − x0)(x − x1) ·. . . · (x − xi−1)(x − xi+1) · . . . · (x − xn) = n Yj=0 j6=I (x − xj).

Polinomios de interpolación con diferencias divididas de Newton.

Cualquier polinomio de <n[x] se puede expresar en forma única como una combinación lineal de los monomios {1, x, x2, . . . , xn}, pues son evidentemente sistema generador y además linealmente independientes (luego forman una base del espacio vectorial), la más simple de hecho, la base canoníca.

Esta base, que es adecuada para algunas manipulaciones inmediatas de polinomios como nombrábamos en la sección anterior (derivación e integración por ejemplo), no es, sin embargo, la más adecuada para construir en principio el polinomio interpolador.

Vimos que resultaba útil incluir los propios nodos del problema en los polinomios a construir, de modo que en este parágrafo adoptamos una solución intermedia:

Expresaremos el polinomio P(x) que interpola a las abscisas x0, x1, . . . , xn, como una combinación lineal del siguiente conjunto de polinomios { 0(x), 1(x), . . . , n(x)} siendo:

0(x) = 1,
1(x) = (x − x0),
2(x) = (x − x0)(x − x1),
3(x) = (x − x0)(x − x1)(x − x2),
n(x) = (x − x0)(x − x1)(x − x2) · · · (x − xn−1)


Este conjunto es otra base del espacio de <n[x] por tener n + 1 elementos linealmente independientes (obsérvese que con este método cada problema requiere una base distinta, en función de los nodos xi que nos dan, y que el cálculo de cada sirve para el siguiente.)

4.3 REGRESIÓN POR MÍNIMOS CUADRADOS: LINEAL Y CUADRÁTICA

En el marco del análisis estadístico multidimensional interesa, en gran medida, descubrir la interdependencia o la relación existente entre dos o más de las características analizadas.
La dependencia entre dos (o más) variables puede ser tal que se base en una relación funcional (matemática) exacta, como la existente entre la velocidad y la distancia recorrida por un móvil; o puede ser estadística. La dependencia estadística es un tipo de relación entre variables tal que conocidos los valores de la (las) variable (variables) independiente(s) no puede determinarse con exactitud el valor de la variable dependiente, aunque si se puede llegar a determinar un cierto comportamiento (global) de la misma. (Ej. la relación existente entre el peso y la estatura de los individuos de una población es una relación estadística) .
Pues bien, el análisis de la dependencia estadística admite dos planteamientos (aunque íntimamente relacionados):
El estudio del grado de dependencia existente entre las variables que queda recogido en la teoría de la correlación.
La determinación de la estructura de dependencia que mejor exprese la relación, lo que es analizado a través de la regresión.
Una vez determinada la estructura de esta dependencia la finalidad última de la regresión es llegar a poder asignar el valor que toma la variable Y en un individuo del que conocemos que toma un determinado valor para la variable X (para las variablesX1, X2,..., Xn ).
En el caso bidimensional, dadas dos variables X e Y con una distribución conjunta de frecuencias ( xi, yj ,nij ), llamaremos regresión de Y sobre X ( Y/X) a una función que explique la variable Y para cada valor de X, y llamaremos regresión de X sobre Y (X/Y) a una función que nos explique la variable X para cada valor de Y.(Hay que llamar la atención, como se verá más adelante, que estas dos funciones, en general, no tienen por qué coincidir).
Método De Cuadrados Mínimos – Regresión Lineal.
Hemos enfatizado sobre la importancia de las representaciones gráficas y hemos visto la utilidad de las versiones linealidades de los gráficos (X, Y) junto a las distintas maneras de llevar a cabo la liberalización. A menudo nos confrontamos con situaciones en las que existe o suponemos que existe una relación lineal entre las variables XY.
Surge de modo natural la pregunta: ¿cuál es la relación analítica que mejor se ajusta a nuestros datos? El método de cuadrados mínimos es un procedimiento general que nos permite responder esta pregunta. Cuando la relación entre las variables X e Yes lineal, el método de ajuste por cuadrados mínimos se denomina también método de regresión lineal.
Observamos o suponemos una tendencia lineal entre las variables y nos preguntamos sobre cuál es la mejor recta:
y(x) = a x + b
Que representa este caso de interés. Es útil definir la función:

Que es una medida de la desviación total de los valores observados yrespecto de los predichos por el modelo lineal a x b. Los mejores valores de la pendiente y la ordenada al origen son aquellos que minimizan esta desviación total, o sea, son los valores que remplazados en la Ec.(1) minimizan la función 2. Ec.(2). Los parámetros pueden obtenerse usando técnicas matemáticas que hacen uso del cálculo diferencial. Aplicando estas técnicas, el problema de minimización se reduce al de resolver el par de ecuaciones:
Actualmente, la mayoría de los programas de análisis de datos y planillas de cálculo, realizan el proceso de minimización en forma automática y dan los resultados de los mejores valores de b, o sea los valores indicados por las ecuaciones.

Gráfico de datos asociados a un modelo lineal. La cantidad yi - y(xi) representa la desviación de cada observación de yi respecto del valor predicho por el modelo y(x).

El criterio de mínimos cuadrados remplaza el juicio personal de quien mire los gráficos y defina cuál es la mejor recta. En los programas como Excel, se realiza usando la herramienta “regresión lineal” o “ajuste lineal”. Los resultados se aplican en el caso lineal cuando todos los datos de la variable dependiente tienen la misma incertidumbre absoluta y la incertidumbre de la variable independiente se considera despreciable.
REGRESIÓN MÍNIMO-CUADRÁTICA

Consiste en explicar una de las variables en función de la otra a través de un determinado tipo de función (lineal, parabólica, exponencial, etc.), de forma que la función de regresión se obtiene ajustando las observaciones a la función elegida, mediante el método de Mínimos-Cuadrados (M.C.O.).

Elegido el tipo de función de regresión concreta se obtendrá minimizando la expresión:


(yj - (xi ) ) 2. nij en el caso de la regresión de Y/X


(xi - (yj ) ) 2. nij en el caso de la regresión de X/Y



Puede probarse que es equivalente ajustar por mínimos cuadrados la totalidad de las observaciones (toda la nube de puntos) que realizar el ajuste de los puntos obtenidos por la regresión de la media; de forma que la regresión mínimo-cuadrática viene ser, en cierto modo, la consecución de una expresión analítica operativa para la regresión en sentido estricto.

Coeficientes de regresión.

Se llama coeficiente de regresión a la pendiente de la recta de regresión:
en la regresión Y/X : b = Sxy / Sx2
en la regresión X/Y b' = Sxy / Sy2
El signo de ambos coincidirá con el de la covarianza, indicándonos la tendencia (directa o inversa a la covariación).Es interesante hacer notar que b.b'= r2
Bondad Del Ajuste (Varianza Residual, Varianza De La Regresión Y Coeficiente De Determinación)
Por bondad del ajuste hay que entender el grado de acoplamiento que existe entre los datos originales y los valores teóricos que se obtienen de la regresión. Obviamente cuanto mejor sea el ajuste, más útil será la regresión a la pretensión de obtener los valores de la variable regresando a partir de la información sobre la variable regresora .
Obtener indicadores de esta bondad de ajuste es fundamental a la hora de optar por una regresión de un determinado tipo u otro.
Puesto que la media de los residuos se anula, el primer indicador de la bondad del ajuste (no puede ser el error medio) será el error cuadrático medio, o varianza del residuo, o varianza residual :
Considerando la regresión Y/X:
Que será una cantidad mayor o igual que cero.De forma que cuanto más baja sea mejor será el grado de ajuste. Si la varianza residual vale cero el ajuste será perfecto (ya que no existirá ningún error ).
Del hecho de que yi=y*i+e,y de que las variables y* ý e están correlacionadas se tiene que:
Donde S2y* es la llamada varianza de la regresión y supone la varianza de la variable regresión:
Igualdad fundamental anterior de la que se deduce que la varianza total de la variable y puede descomponerse en dos partes una parte explicada por la regresión( la varianza de la regresión) y otra parte no explicada (la varianza residual).
Considerando que la varianza nos mide la dispersión de los datos este hecho hay que entenderlo como que la dispersión total inicial queda, en parte explicada por la regresión y en parte no. Cuanto mayor sea la proporción de varianza explicada (y menor la no explicada) tanto mejor será el ajuste y tanto más útil la regresión.
A la proporción de varianza explicada por la regresión se le llama coeficiente de determinación ( en nuestro caso lineal):
Que evidentemente estará siempre comprendido entre 0 y 1 y, en consecuencia, da cuenta del tanto por uno explicado por la regresión.
Una consecuencia importante en la práctica es que la varianza residual será obviamente:
Es sencillo probar que en el caso lineal que nos ocupa el coeficiente de determinación coincide con el cuadrado del coeficiente de correlación:
R2 = r2
Con lo cual la varianza residual y la varianza debida a la regresión pueden calcularse a partir del coeficiente de correlación:


Regresión Mínimo Cuadrática No-Lineal
La regresión mínimo-cuadrática puede plantearse de forma que la función de ajuste se busca no sea una función lineal. El planteamiento general sería similar, aunque obviamente habría que minimizar el cuadrado de los residuos entre los datos originales y los valores teóricos obtenibles a través de la función no-lineal considerada.
Regresión parabólica.
Desarrollaremos someramente la regresión Y/X y debe quedar claro que la regresión X/Y resultaría análoga.
Supongamos para simplificar que los datos no están agrupados por frecuencias.
En tal caso, obtener la función parabólica y* = a0+a1x+a2 x2 se llevará a cabo determinado los valores de los tres parámetros a0,a1,a2que minimicen :
(a0,a1,a2)=(yi- (a0+a1x+a2 x2)) 2
Igualando a cero las tres derivadas parciales se obtendrá las ecuaciones normales, que convenientemente manipuladas acaban siendo:


Sistema de ecuaciones del que se pueden despejar los valores de los coeficientes de regresión.
4.4 APLICACIONES REGRECIONES
En el subcampo matemático del análisis numérico, un spline es una curva diferenciable definida en porciones mediante polinomios.
En los problemas de interpolación, se utiliza a menudo la interpolación mediante splines porque da lugar a resultados similares requiriendo solamente el uso de polinomios de bajo grado, evitando así las oscilaciones, indeseables en la mayoría de las aplicaciones, encontradas al interpolar mediante polinomios de grado elevado.
Para el ajuste de curvas, los splines se utilizan para aproximar formas complicadas. La simplicidad de la representación y la facilidad de cómputo de los splines los hacen populares para la representación de curvas en informática, particularmente en el terreno de los gráficos por ordenado.
Interpolación Segmentaria Lineal
Este es el caso más sencillo. En él, vamos a interpolar una función f(x) de la que se nos dan un número N de pares (x,f(x)) por los que tendrá que pasar nuestra función polinómica P(x). Esta serie de funciones nuestras van a ser lineales, esto es, con grado 1: de la forma P(x) = ax + b.
Definiremos una de estas funciones por cada par de puntos adyacentes, hasta un total de (N-1) funciones, haciéndolas pasar obligatoriamente por los puntos que van a determinarlas, es decir, la función P(x) será el conjunto de segmentos que unen nodos consecutivos; es por ello que nuestra función será continua en dichos puntos, pero no derivable en general.
Interpolación Segmentaria Cuadrática
En este caso, los polinomios P(x) a través de los que construimos el Spline tienen grado 2. Esto quiere decir, que va a tener la forma P(x) = ax² + bx + c
Como en la interpolación segmentaria lineal, vamos a tener N-1 ecuaciones (donde N son los puntos sobre los que se define la función). La interpolación cuadrática nos va a asegurar que la función que nosotros generemos a trozos con los distintos P(x) va a ser continua, ya que para sacar las condiciones que ajusten el polinomio, vamos a determinar como condiciones:
  • Que las partes de la función a trozos P(x) pasen por ese punto. Es decir, que las dos Pn(x) que rodean al f(x) que queremos aproximar, sean igual a f(x) en cada uno de estos puntos.
  • Que la derivada en un punto siempre coincida para ambos "lados" de la función definida a trozos que pasa por tal punto común.
Esto sin embargo no es suficiente, y necesitamos una condición más. ¿Por qué?. Tenemos 3 incógnitas por cada P(x). En un caso sencillo con f(x) definida en tres puntos y dos ecuaciones P(x) para aproximarla, vamos a tener seis incógnitas en total. Para resolver esto necesitaríamos seis ecuaciones, pero vamos a tener tan sólo cinco: cuatro que igualan el P(x) con el valor de f(x) en ese punto (dos por cada intervalo), y la quinta al igualar la derivada en el punto común a las dos P(x).
Se necesita una sexta ecuación. Esto suele hacerse con el valor de la derivada en algún punto, al que se fuerza uno de los P(x).
Interpolación Segmentaria Cúbica
En este caso, cada polinomio P(x) a través del que construimos los Splines en [m,n] tiene grado 3. Esto quiere decir, que va a tener la forma P(x) = ax³ + bx² + cx + d
En este caso vamos a tener cuatro variables por cada intervalo (a,b,c,d), y una nueva condición para cada punto común a dos intervalos, respecto a la derivada segunda:
  • Que las partes de la función a trozos P(x) pasen por ese punto. Es decir, que las dos Pn(x) que rodean al f(x) que queremos aproximar, sean igual a f(x) en cada uno de estos puntos.
  • Que la derivada en un punto siempre coincida para ambos "lados" de la función definida a trozos que pasa por tal punto común.
  • Que la derivada segunda en un punto siempre coincida para ambos "lados" de la función definida a trozos que pasa por tal punto común.
Como puede deducirse al compararlo con el caso de splines cuadráticos, ahora no nos va a faltar una sino dos ecuaciones (condiciones) para el número de incógnitas que tenemos.
La forma de solucionar esto, determina el carácter de los splines cúbicos. Así, podemos usar:
  • Splines cúbicos naturales: La forma más típica. La derivada segunda de P se hace 0 para el primer y último punto sobre el que está definido el conjunto de Splines, esto son, los puntos m y n en el intervalo [m,n].
  • Dar los valores de la derivada segunda de m y n de forma "manual", en el conjunto de splines definidos en el intervalo [m,n].
  • Hacer iguales los valores de la derivada segunda de m y n en el conjunto de splines definidos en el intervalo [m,n]
Splines cúbicos sujetos: La derivada primera de P debe tener el mismo valor que las derivada primera de la función para el primer y último punto sobre el que está definido el conjunto de Splines, esto son, los puntos m y n en el intervalo [m,n].

No hay comentarios.:

Publicar un comentario