Az xgboost min_child_weight paraméterének definíciója a következőképpen van megadva:
A gyermeknél a példánysúly (hessian) minimális összege szükséges. Ha a A fa particionálási lépés egy levélcsomópontot eredményez a példány összegével súly kisebb, mint min_gyerek_súly, akkor az építési folyamat megadja további felosztás. Lineáris regressziós módban ez egyszerűen megfelel az egyes csomópontokban szükséges minimális példányszámnak. Minél nagyobb, annál konzervatívabb lesz az algoritmus.
Elég sok dolgot olvastam az xgboost-on, beleértve az eredeti papírt (lásd a 8. képletet és a közvetlenül a 9. egyenlet után), ezt a kérdést és a legtöbb tennivalót az xgboost segítségével, amelyek a google keresés első néhány oldalán jelennek meg. ;)
Alapvetően még mindig nem örülök annak, hogy miért szabunk korlátot a hessianus összegére? Az egyetlen gondolatom abban a pillanatban az eredeti cikkből származik, hogy a súlyozott kvantilis vázlat szakaszra vonatkozik (és a 3. egyenlet súlyozott négyzet veszteségének újraszerkesztésére), amelynek $ h_i $ span > az egyes példányok „súlyaként”.
Egy további kérdés arra vonatkozik, miért egyszerűen lineáris regressziós módban a példányok száma? Gondolom, ez összefügg a négyzetek összegének második deriváltjával?