Criterios de Minimo Cuadrados

Mínimos cuadrados es una técnica de análisis numérico encuadrada dentro de la optimización matemática, en la que, dados un conjunto de pares ordenados: (variable independiente, variable dependiente) y una familia de funciones, se intenta encontrar la función, dentro de dicha familia, que mejor se aproxime a los datos (un "mejor ajuste"), de acuerdo con el criterio de mínimo error cuadrático.
En su forma más simple, intenta minimizar la suma de cuadrados de las diferencias ordenadas (llamadas residuos) entre los puntos generados por la función y los correspondientes en los datos. Específicamente, se llama mínimos cuadrados promedio (LMS) cuando el número de datos medidos es 1 y se usa el método de descenso por gradiente para minimizar el residuo cuadrado. Se puede demostrar que LMS minimiza el residuo cuadrado esperado, con el mínimo de operaciones (por iteración), pero requiere un gran número de iteraciones para converger.

Deducción analítica de la aproximación discreta mínimo cuadrática lineal

Sea {\{(x_k,y_k)\}}_{k=1}^n un conjunto de n pares con abscisas distintas, y sea {\{f_j (x)\}}_{j=1}^m un conjunto de m funciones linealmente independientes (en un espacio vectorial de funciones), que se llamarán funciones base. Se desea encontrar una función f(x) de dicho espacio, o sea, combinación lineal de las funciones base, tomando por ello la forma:
f(x)=c_1 f_1 (x)+ c_2 f_2(x)+ . . . + c_m f_m (x) =\sum_{j=1}^m {c_j f_j (x)}
.
Ello equivale por tanto a hallar los m coeficientes: {\{c_j (x)\}}_{j=1}^m . En concreto, se desea que tal función f(x) sea la mejor aproximación a los n pares {(x_k,y_k)}_1^n empleando, como criterio de "mejor", el criterio del mínimo error cuadrático medio de la función f(x) con respecto a los puntos {(x_k,y_k)}_1^n .
El error cuadrático medio será para tal caso:
E_{cm} = \sqrt{\frac{\sum_{k = 1}^n (e_k)^2}{n}}=\sqrt{\frac{1}{n} \sum_{k=1}^n (y_k-f(x_k))^2}=\sqrt{\frac{1}{n} \sum_{k=1}^n (y_k-\sum_{j=1}^m c_j f_j(x_k))^2}
Minimizar el error cuadrático medio es equivalente a minimizar el error cuadrático, definido como el radicando del error cuadrático medio, esto es:
E_c= \sum_{k=1}^n (y_k-\sum_{j=1}^m c_j f_j(x_k))^2
Así, los c_j que minimizan E_{cm} también minimizan E_c, y podrán ser calculados derivando e igualando a cero este último:
\frac{\partial E_c}{\partial c_i}=\sum_{k=1}^n 2(y_k-\sum_{j=1}^m c_j f_j(x_k))(-f_i(x_k))=0
Siendo i=1,2, . . .,m
Se obtiene un sistema de m ecuaciones con m incógnitas, que recibe el nombre de "Ecuaciones Normales de Gauss". Operando con ellas:
\sum_{k=1}^n(\sum_{j=1}^m c_j f_j(x_k) )f_i(x_k) = \sum_{k=1}^n y_k f_i(x_k)
, para i=1,2, . . .,m
\sum_{j=1}^m (\sum_{k=1}^n f_i(x_k) f_j (x_k) )c_j = \sum_{k=1}^n y_k f_i(x_k)
, para i=1,2, . . .,m


No hay comentarios:

Publicar un comentario