Archivo de la etiqueta: RMSE

Indicadores de ajuste

Los indicadores de desviación de un grupo de datos con relación a un modelo se pueden utilizar para valorar la bondad de ajuste entre ambos.

Entre los idncidaores son habituales los siguientes: RMSE, MAE, NRMSE, CV-MRSE, SDR, y R^2.

RMSE

Es la media de la norma euclídea al cuadrado del error. Esto es, el cálculo utiliza como función de riesgo la media de la norma euclidea al cuadrado. La norma es la distancia euclidea entre dos puntos (https://es.wikipedia.org/wiki/Norma_vectorial#Definici.C3.B3n_de_norma_eucl.C3.ADdea).

Por tanto, se basa en la media del error al cuadrado o MSE de su expresión en inglés (Mean Square Error).

La MSE se expresa en las mismas unidades de medida que la variable al cuadrado. Por ello, para faciltar la interpretación del índice, se calcula su raíz cuadrada, convirtiéndose en RMSE (Root Mean Square Error). Aunque a veces se le llama RMSD (Root Mean Square Deviation).

A menores valores de MSE y RMSE mejor ajuste del modelo.

Las expresiones formales son las siguientes:

(1) $$MSE(y,\widehat { y } )=E(\ell (.,\widehat { . } ))=\frac { 1 }{ n } \left\| y-\widehat { y }  \right\| _{ 2 }^{ 2 }$$

daum_equation_1500143965799

Siendo:

(2) $$l(y,\widehat { y } )=\left| { y }_{ i }-{ \widehat { y }  }_{ i } \right| =({ y }_{ i }-{ \widehat { y }  }_{ i })^{ 2 }$$

2 daum_equation_1500144229729

Además, si SSE es la suma del cuadrado de los errores (Sum of Square Errors), entonces:

(3) $${\left\| y-\widehat {y} \right\| }_{ 2 }^{ 2 }=\sum_{i=1}^{n}{( y-\widehat {y}) }^{ 2 }$$

3 daum_equation_1500144250125

Entonces:

(4) $$MSE(y,\widehat{y})=SSE(y,\widehat{y})/n$$

4 daum_equation_1500144271745

Y finalmente:

(5) $$RMSD=\sqrt { MSE(y,\widehat { y } ) } $$

5 daum_equation_1500144290567.png

MAE y ME

Se suelene utilizar en análisis de series temporales. ME (Mean Error) es la media del error o sesgo, mientras que MAE (Mean  es la media del valor absoluto de los errores.

(6) $$MAE(y,\widehat { y } )=\frac { 1 }{ n } \left\| y-\widehat { y }  \right\| _{ 1 }$$

6 daum_equation_1500144308986.png

NRMSE, CV-MRSE

Estos indicadores permiten comparar modelos con variables de distinta naturaleza, gracias a que eliminan el efecto de las unidades de medida. Se suelen utilizar indicadores normarlizados (como NRMSE, donde la N es la abreviación de Normalized), o bien donde se anulan las unidades de medida como el coeficiente de variación.

(7) $$NRMSE(y,\widehat { y } )=\frac { RMSE }{ y_{ max }-y_{ min } }$$

7 daum_equation_1500144327162.png

En el caso del coeficiente de variación, se utiliza la media de y, puesto que la media de los errores es nula.

(8) $$CV-RMSE(y,\widehat { y } )=\frac { RMSE(y,\widehat { y } ) }{ \overline { y }  }$$

8 daum_equation_1500144344719

SDR

Es la desviación típica del error o residuos: (9) $$\sigma\_ {e}=SDR(y, \widehat{y})$$

9 daum_equation_1500144366818

 

La varianza del error es igual al cuadrado del sesgo (error) más la varianza de los residuos:

MSE=RMSE^2=ME^2+SDR^2

En el sesgo se puede actuar para mejorar el ajuste. Sin embargo, no se suele actuar en la varianza de los residuos para no capturar ruido de los datos al modelo.

R^2 o coeficiente de determinación

Es uno menos la razón de la suma de cuadrados del error y la suma de cuadrados total.

En el caso de la regresión, es el cuadrado de la correlación (por ello que se indica como R al cuadrado). El valor de R^2 se sitúa entre 0 y 1. Sin embargo, puesto que es una resta, a veces se obtienen valores fuera del intervalo (0, 1).

R^2 aumenta cunado se incrementa el número de variables. Para evitar este problema se suele utilizar el R^2 ajustado. R^2 ajustado tiene en cuenta los grados de libertad según la relación (n-p-1)/(n-1). siendo p el número de variables y n el tamaño de la muestra.

A diferencia de los indicadores antgeriroes, un mayor R^2 indica un mejor ajuste.

(10) $$R^ { 2} =1- \frac{SSE}{SST}$$

10 daum_equation_1500144393042

 

Expresiones en LaTex:

(1) MSE(y,\widehat { y } )=E(\ell (.,\widehat { . } ))=\frac { 1 }{ n } \left\| y-\widehat { y } \right\| _{ 2 }^{ 2 };
(2) l(y,\widehat { y } )=\left| { y }_{ i }-{ \widehat { y } }_{ i } \right| =({ y }_{ i }-{ \widehat { y } }_{ i })^{ 2 };
(3) {\left\| y-\widehat {y} \right\| }_{ 2 }^{ 2 }=\sum_{i=1}^{n}{( y-\widehat {y}) }^{ 2 };
(4) MSE(y,\widehat{y})=SSE(y,\widehat{y})/n;
(5) RMSD=\sqrt { MSE(y,\widehat { y } ) } ;
(6) MAE(y,\widehat { y } )=\frac { 1 }{ n } \left\| y-\widehat { y } \right\| _{ 1 };
(7) NRMSE(y,\widehat { y } )=\frac { RMSE }{ y_{ max }-y_{ min } };
(8) CV-RMSE(y,\widehat { y } )=\frac { RMSE(y,\widehat { y } ) }{ \overline { y } };
(9) \sigma\_ {e}=SDR(y, \widehat{y});
(10) R^ { 2} =1- \frac{SSE}{SST}

Deja un comentario

Archivado bajo Estadística