Sickit Learn GradientBoostingRegressor

Megnéztem a GradientBoostingRegressor Scikit-Learn dokumentációját.

Itt azt mondja, hogy használhatja az “ls” -t veszteségfüggvényként, amely a legkisebb négyzetregresszió. De zavart vagyok, mivel a legkisebb négyzetek regressziója egy módszer az SSE veszteségfüggvény minimalizálására.

Tehát nem kellene itt megemlíteni az SSE-t?

Válasz

Úgy tűnik, hogy túlértelmezed azt, ami lényegében csak a kényelmi rövidítések elnevezése a modell argumentumainak, és nem a formális terminológiát; itt " ls a legkisebb négyzetek regressziójára utal " úgy kell értelmezni, hogy " “ls” a veszteségfüggvény, amelyet a legkisebb négyzetek regressziójában használnak ".

Formálisan természetesen van egy pontod – sse itt lenne a megfelelőbb elnevezési eljárás; az ilyen elnevezési szokásokról folytatott beszélgetések nem ritkák a közösség körében, lásd például a loss függvénynév konzisztenciáját a gradiens növelésében (amely BTW megoldódott itt ). És te lennél a leginkább üdvözöljük az itt használt egyezmény releváns kérdésének megnyitását.

Megjegyzések

  • Köszönöm a pontosítást

Válasz

Ne feledje, hogy az algoritmust Gradient Boostign Regressor-nak hívják.

Az ötlet az, hogy a döntési fákat a gradiens minimalizálásával növelje. Ez a gradiens veszteségfüggvény, amely több formát ölthet.

Az algoritmus összesíti az egyes döntési fákat a korábban illesztett és előre jelzett döntési fa hibájában. Itt van a kívánt veszteségfüggvény.

Ez a paraméter erre vonatkozik.

Megjegyzések

  • Köszönöm a megjegyzést @ carlos. De arra gondoltam, hogy a ' legkisebb négyzet regresszió ' kifejezés, amely a sklearn dokumentációjában szerepel, mint fent, nem ' t pontosan veszteségfüggvény. Szerintem ehelyett meg kellett volna említeniük az SSE-t.

Vélemény, hozzászólás?

Az email címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük