Megnéztem a GradientBoostingRegressor Scikit-Learn dokumentációját.
Itt azt mondja, hogy használhatja az “ls” -t veszteségfüggvényként, amely a legkisebb négyzetregresszió. De zavart vagyok, mivel a legkisebb négyzetek regressziója egy módszer az SSE veszteségfüggvény minimalizálására.
Tehát nem kellene itt megemlíteni az SSE-t?
Válasz
Úgy tűnik, hogy túlértelmezed azt, ami lényegében csak a kényelmi rövidítések elnevezése a modell argumentumainak, és nem a formális terminológiát; itt " ls a legkisebb négyzetek regressziójára utal " úgy kell értelmezni, hogy " “ls” a veszteségfüggvény, amelyet a legkisebb négyzetek regressziójában használnak ".
Formálisan természetesen van egy pontod – sse
itt lenne a megfelelőbb elnevezési eljárás; az ilyen elnevezési szokásokról folytatott beszélgetések nem ritkák a közösség körében, lásd például a loss függvénynév konzisztenciáját a gradiens növelésében (amely BTW megoldódott itt ). És te lennél a leginkább üdvözöljük az itt használt egyezmény releváns kérdésének megnyitását.
Megjegyzések
- Köszönöm a pontosítást
Válasz
Ne feledje, hogy az algoritmust Gradient Boostign Regressor-nak hívják.
Az ötlet az, hogy a döntési fákat a gradiens minimalizálásával növelje. Ez a gradiens veszteségfüggvény, amely több formát ölthet.
Az algoritmus összesíti az egyes döntési fákat a korábban illesztett és előre jelzett döntési fa hibájában. Itt van a kívánt veszteségfüggvény.
Ez a paraméter erre vonatkozik.
Megjegyzések
- Köszönöm a megjegyzést @ carlos. De arra gondoltam, hogy a ' legkisebb négyzet regresszió ' kifejezés, amely a sklearn dokumentációjában szerepel, mint fent, nem ' t pontosan veszteségfüggvény. Szerintem ehelyett meg kellett volna említeniük az SSE-t.