Koenker és Machado $ ^ {[1]} $ leírják a $ R ^ 1 $ értéket, amely az adott ($ \ tau $) kvantilis illeszkedésének helyi mértéke.
Legyen $ V ( \ tau) = \ min_ {b} \ sum \ rho_ \ tau (y_i-x_i'b) $
Legyen $ \ hat {\ beta} (\ tau) $ és $ \ tilde {\ beta } (\ tau) $ a teljes modell és egy korlátozott modell együttható-becslése, és a $ \ hat {V} $ és $ \ tilde {V} $ legyenek a megfelelő $ V $ kifejezések.
Meghatározzák a $ R ^ 1 (\ tau) = 1- \ frac {\ hat {V}} {\ tilde {V}} $ illeszkedési kritérium jóságát.
Koenker $ kódot ad V $ itt,
rho <- függvény (u, tau = .5) u * (tau - (u < 0)) V <- sum (rho (f $ resid, f $ tau))
Tehát, ha a $ V $ értéket kiszámítjuk egy modell számára, amelynek csak elfogása van ($ \ tilde {V} $ - vagy V0
az alábbi kódrészletben), majd egy korlátozás nélküli modellt ($ \ hat {V} $) kiszámolhatunk egy R1 <- 1-Vhat / V0
-ot, amely - legalábbis elméletben - némileg hasonló a szokásos $ R ^ 2 $ -hoz.
Szerkesztés: Természetesen a te esetedben a második argumentum, amely p ut abban a helyen, ahol a f $ tau
szerepel a második kódsorban szereplő hívásban, a használt tau
bármelyik értéke lesz. Az első sorban szereplő érték csupán az alapértelmezett értéket állítja be.
A variancia elmagyarázása az átlagról valójában nem az, amit kvantilis regresszióval csinálsz, ezért nem szabad elvárnod, hogy valóban egyenértékű mértéked legyen.
Nem hiszem, hogy a $ R ^ 2 $ fogalma fordítana jól kvantilis regresszióra. Különböző többé-kevésbé analóg mennyiségeket határozhat meg, mint itt, de nem számít, mit választ, az OLS regresszióban nem fogja megadni a valódi $ R ^ 2 $ tulajdonságok nagy részét. Tisztában kell lennie azzal, hogy milyen tulajdonságokra van szüksége, és mi nem - bizonyos esetekben előfordulhat, hogy olyan intézkedés van, amely azt csinálja, amit akar.
-
$ [1] $ Koenker, R és Machado, J (1999),
Az illeszkedési és kapcsolódó következtetési folyamatok jósága a kvantilis regresszióhoz,
az Amerikai Statisztikai Szövetség folyóirata, 94 : 448, 1296-1310