R² (Coeficiente de Determinación)
El Coeficiente de Determinación () es una métrica fundamentalmente diferente a MAE, MSE o RMSE. Mientras que esas métricas miden el error absoluto, R² mide la proporción de varianza explicada por el modelo.
Definición
Sea un conjunto de observaciones con valores reales y valores predichos .
El R² se define como:
Donde:
Desglose de la fórmula
| Símbolo | Nombre | Significado |
|---|---|---|
| Residual Sum of Squares | Variación no explicada por el modelo | |
| Total Sum of Squares | Variación total en los datos | |
| Media muestral | ||
| Fracción residual | Proporción de varianza no explicada |
Interpretación
El R² responde a la pregunta: ¿Qué proporción de la variabilidad en explica mi modelo?
- : El modelo explica toda la variabilidad (predicción perfecta)
- : El modelo no explica nada (equivalente a predecir la media)
- : El modelo es peor que predecir la media
Relación con el modelo "baseline"
El denominador representa el error de un modelo trivial que siempre predice la media:
Por lo tanto:
Propiedades matemáticas
Propiedad 1: Rango
Para regresión lineal con intercepto:
Para modelos generales (no lineales o sin intercepto):
Propiedad 2: Relación con correlación
En regresión lineal simple (), el R² es exactamente el cuadrado del coeficiente de correlación de Pearson:
donde:
Propiedad 3: Invarianza ante escalado
El R² es invariante ante transformaciones lineales de :
Esto significa que cambiar las unidades (por ejemplo, de metros a centímetros) no afecta el R².
Propiedad 4: Relación con MSE
Descomposición de varianza
La suma de cuadrados totales se puede descomponer en dos partes:
Donde es la suma de cuadrados explicada (o de regresión).
Por lo tanto:
El problema del R² inflado
Un problema conocido del R² es que siempre aumenta (o se mantiene igual) al agregar más variables al modelo, incluso si son irrelevantes:
Donde es el número de predictores.
Demostración intuitiva: Agregar una variable nunca puede empeorar el ajuste porque, en el peor caso, su coeficiente óptimo es cero.
Este problema motiva el uso del R² Ajustado.
Ejemplo numérico
Datos:
| 1 | 250 | 245 |
| 2 | 300 | 310 |
| 3 | 180 | 175 |
| 4 | 420 | 400 |
Paso 1: Calcular la media
Paso 2: Calcular
| 250 | -37.5 | 1406.25 |
| 300 | 12.5 | 156.25 |
| 180 | -107.5 | 11556.25 |
| 420 | 132.5 | 17556.25 |
Paso 3: Calcular
Paso 4: Calcular R²
Interpretación: El modelo explica el 98.21% de la variabilidad en los precios de las casas.
Implementación
import com.minerva.core.primitives.Vector;import com.minerva.metrics.RegressionMetrics.RegressionMetrics; public class R2Example { public static void main(String[] args) { Vector actual = new Vector(new double[] {250, 300, 180, 420}); Vector predicted = new Vector(new double[] {245, 310, 175, 400}); RegressionMetrics metrics = new RegressionMetrics(); double r2 = metrics.R2(actual, predicted); System.out.printf("R²: %.4f%n", r2); }}R²: 0.9821
Ver también
- R² Ajustado — Versión penalizada por número de variables
- MSE — Base del cálculo de R²
Bonus: Teoría avanzada del R²
Advertencia
Esta sección requiere conocimientos de inferencia estadística y teoría de la información. Puedes saltarla sin perder continuidad.
R² poblacional vs muestral
El R² que calculamos es una estimación muestral. El R² poblacional se define como:
donde es el error irreducible.
Problema: El R² muestral es un estimador sesgado del R² poblacional:
El sesgo es aproximadamente .
Distribución del R² bajo la hipótesis nula
Bajo (ningún predictor tiene relación con ):
Esta es la base de la prueba F global en regresión.
R² y el estadístico F
La relación entre R² y F es:
Equivalentemente:
Criterios de información y R²
Mientras que R² y R² ajustado se usan para comparar modelos, los criterios de información ofrecen alternativas basadas en teoría de la información.
AIC (Akaike Information Criterion):
BIC (Bayesian Information Criterion):
| Criterio | Penalización | Uso |
|---|---|---|
| R² | Ninguna | Descriptivo |
| R² adj | Lineal en | Comparación simple |
| AIC | Predicción | |
| BIC | Selección de modelo verdadero |
BIC penaliza más que AIC para , favoreciendo modelos más parsimoniosos.
Limitaciones teóricas del R²
1. No indica causalidad: Un R² alto no implica que cause .
2. Sensible a la varianza de : Para el mismo modelo verdadero, más variabilidad en produce mayor R².
3. No comparable entre muestras diferentes: El R² depende de la distribución de en la muestra.
4. No monótono en la complejidad del modelo verdadero: Un modelo más complejo puede tener menor R² si agrega ruido.
Coeficiente de determinación parcial
Para medir la contribución de una variable dado que ya tenemos otras variables en el modelo:
Este mide cuánta variación residual explica que no explicaban las demás variables.
Conexión con la correlación múltiple
El R² es el cuadrado del coeficiente de correlación múltiple :
Este siempre está entre 0 y 1 para regresión lineal con intercepto.