RMSE (Root Mean Squared Error)

El Error Cuadrático Medio Raíz (RMSE) es simplemente la raíz cuadrada del MSE. Esta transformación aparentemente trivial tiene una consecuencia importante: las unidades vuelven a ser interpretables.

Definición

Sea un conjunto de nn observaciones con valores reales y1,y2,,yny_1, y_2, \ldots, y_n y valores predichos y^1,y^2,,y^n\hat{y}_1, \hat{y}_2, \ldots, \hat{y}_n.

El RMSE se define como:

RMSE=MSE=1ni=1n(yiy^i)2\text{RMSE} = \sqrt{\text{MSE}} = \sqrt{\frac{1}{n} \sum_{i=1}^{n} (y_i - \hat{y}_i)^2}

Desglose de la fórmula

SímboloNombreSignificado
x\sqrt{\phantom{x}}Raíz cuadradaDeshace el efecto del cuadrado en las unidades
1n(yiy^i)2\frac{1}{n}\sum (y_i - \hat{y}_i)^2MSEEl error cuadrático medio

Propiedades matemáticas

Propiedad 1: Unidades originales

El RMSE tiene las mismas unidades que la variable objetivo:

[RMSE]=[y][\text{RMSE}] = [y]

Esto lo hace directamente comparable con la escala de los datos, a diferencia del MSE.

Propiedad 2: Relación con MSE

El RMSE y el MSE están relacionados de forma monotónica:

RMSE1<RMSE2    MSE1<MSE2\text{RMSE}_1 < \text{RMSE}_2 \iff \text{MSE}_1 < \text{MSE}_2

Minimizar RMSE es equivalente a minimizar MSE, pero RMSE es más interpretable.

Propiedad 3: Cota inferior por MAE

El RMSE siempre es mayor o igual que el MAE:

RMSEMAE\text{RMSE} \geq \text{MAE}

Demostración: Por la desigualdad de las medias (QM-AM):

xi2nxin\sqrt{\frac{\sum x_i^2}{n}} \geq \frac{\sum |x_i|}{n}

La igualdad se da solo cuando todos los errores son iguales en valor absoluto.

Propiedad 4: Relación con desviación estándar

El RMSE puede interpretarse como una desviación estándar de los errores (asumiendo que la media de los errores es cero):

RMSE=1nei2σe\text{RMSE} = \sqrt{\frac{1}{n}\sum e_i^2} \approx \sigma_e

Si el modelo no tiene sesgo sistemático (E[e]=0\mathbb{E}[e] = 0), el RMSE aproxima la desviación estándar de los residuos.

Interpretación geométrica

El RMSE es proporcional a la distancia euclidiana entre los vectores de valores reales y predichos:

RMSE=1nyy^2\text{RMSE} = \frac{1}{\sqrt{n}} \|\vec{y} - \hat{\vec{y}}\|_2

donde 2\|\cdot\|_2 es la norma euclidiana.

Comparación con MAE

AspectoMAERMSE
Fórmula baseValor absolutoCuadrado
Sensibilidad a outliersBajaAlta
DiferenciabilidadNo (en 0)
PenalizaciónLinealCuadrática
Optimizador naturalMedianaMedia

Cuándo RMSE > MAE significativamente

Si RMSEMAE\frac{\text{RMSE}}{\text{MAE}} es mucho mayor que 1, indica que hay errores grandes (outliers) en las predicciones.

RMSEMAE1    errores homogeˊneos\frac{\text{RMSE}}{\text{MAE}} \approx 1 \implies \text{errores homogéneos} RMSEMAE>>1    presencia de outliers\frac{\text{RMSE}}{\text{MAE}} >> 1 \implies \text{presencia de outliers}

Ejemplo numérico

Continuando con el ejemplo de MSE:

MSE=137.5\text{MSE} = 137.5 RMSE=137.511.73\text{RMSE} = \sqrt{137.5} \approx 11.73

Interpretación: El error típico del modelo es de aproximadamente $11,730.

Comparemos con el MAE del mismo ejemplo:

MAE=10,RMSE=11.73\text{MAE} = 10, \quad \text{RMSE} = 11.73 RMSEMAE=11.7310=1.17\frac{\text{RMSE}}{\text{MAE}} = \frac{11.73}{10} = 1.17

El ratio cercano a 1 indica que los errores son relativamente homogéneos.

Implementación

Example.java
1
2
3
4
5
6
7
8
9
10
11
12
13
14
import com.minerva.core.primitives.Vector;
import com.minerva.metrics.RegressionMetrics.RegressionMetrics;
public class RMSEExample {
public static void main(String[] args) {
Vector actual = new Vector(new double[] {250, 300, 180, 420});
Vector predicted = new Vector(new double[] {245, 310, 175, 400});
RegressionMetrics metrics = new RegressionMetrics();
double rmse = metrics.RMSE(actual, predicted);
System.out.println("RMSE: " + rmse);
}
}
java RMSEExample
RMSE: 11.726039399558574

Ver también

  • MSE — Base del RMSE
  • MAE — Alternativa lineal
  • — Proporción de varianza explicada

Bonus: Análisis avanzado del RMSE

Advertencia

Esta sección requiere conocimientos de estadística matemática y teoría de la medida. Puedes saltarla sin perder continuidad.

Desigualdad de Jensen y el ratio RMSE/MAE

La relación RMSEMAE\text{RMSE} \geq \text{MAE} es una consecuencia de la desigualdad de Jensen.

Para una función convexa ϕ\phi (como ϕ(x)=x2\phi(x) = x^2):

ϕ(E[X])E[ϕ(X)]\phi\left(\mathbb{E}[X]\right) \leq \mathbb{E}[\phi(X)]

Aplicando con ϕ(x)=x\phi(x) = \sqrt{x} (cóncava) sobre X=ei2X = e_i^2:

E[ei2]E[ei2]=E[ei]\sqrt{\mathbb{E}[e_i^2]} \geq \mathbb{E}[\sqrt{e_i^2}] = \mathbb{E}[|e_i|]

Por lo tanto: RMSEMAE\text{RMSE} \geq \text{MAE}.

Cotas del ratio RMSE/MAE

El ratio k=RMSEMAEk = \frac{\text{RMSE}}{\text{MAE}} está acotado:

1kn1 \leq k \leq \sqrt{n}

Cota inferior (k=1k = 1): Cuando todos los errores tienen el mismo valor absoluto:

e1=e2==en=c|e_1| = |e_2| = \ldots = |e_n| = c

Cota superior (k=nk = \sqrt{n}): Cuando solo un error es no-cero:

e1=c,e2=e3==en=0e_1 = c, \quad e_2 = e_3 = \ldots = e_n = 0

Entonces: MAE=cn\text{MAE} = \frac{c}{n}, RMSE=cn\text{RMSE} = \frac{c}{\sqrt{n}}, y k=nk = \sqrt{n}.

Distribución muestral del RMSE

Bajo normalidad de errores (eiN(0,σ2)e_i \sim \mathcal{N}(0, \sigma^2)):

nMSEσ2=ei2σ2χnp12\frac{n \cdot \text{MSE}}{\sigma^2} = \frac{\sum e_i^2}{\sigma^2} \sim \chi^2_{n-p-1}

donde np1n-p-1 son los grados de libertad residuales.

Por lo tanto:

E[MSE]=np1nσ2\mathbb{E}[\text{MSE}] = \frac{n-p-1}{n} \sigma^2 Var(MSE)=2(np1)n2σ4\text{Var}(\text{MSE}) = \frac{2(n-p-1)}{n^2} \sigma^4

Intervalos de confianza para RMSE

Un intervalo de confianza (1α)(1-\alpha) para σ\sigma (y por ende para RMSE esperado) es:

[(np1)MSEχnp1,α/22,(np1)MSEχnp1,1α/22]\left[ \sqrt{\frac{(n-p-1) \cdot \text{MSE}}{\chi^2_{n-p-1, \alpha/2}}}, \sqrt{\frac{(n-p-1) \cdot \text{MSE}}{\chi^2_{n-p-1, 1-\alpha/2}}} \right]

Convergencia asintótica

Para muestras grandes, por el teorema central del límite:

n(RMSEσ)dN(0,σ22)\sqrt{n}(\text{RMSE} - \sigma) \xrightarrow{d} \mathcal{N}\left(0, \frac{\sigma^2}{2}\right)

Esto permite construir intervalos de confianza asintóticos simples.