Sickit Learn GradientBoostingRegressor

Etsin Scikit-Learn-ohjeistoa GradientBoostingRegressor : lle.

Tässä sanotaan, että voi käyttää ”ls” -tappio-funktiota, joka on pienimmän neliösumman regressio. Mutta olen hämmentynyt, koska pienimmän neliösumman regressio on tapa minimoida SSE-häviöfunktio.

Eikö heidän pitäisi mainita SSE: tä täällä?

Vastaa

Vaikuttaa siltä, että tulkitset liikaa sitä, mikä on lähinnä vain lyhenteiden mukavuusmalleja malliargumenteille, eikä muodollista terminologiaa. > ls viittaa pienimmän neliösumman regressioon " tulisi tulkita " ”ls” on häviöfunktio, jota käytetään pienimmän neliösumman regressiossa ".

Muodollisesti sinulla on tietysti piste – sse olisi sopivampi nimityskäytäntö tässä; keskustelut tällaisista nimeämiskäytännöistä eivät ole harvinaisia yhteisön keskuudessa, katso esimerkiksi säike menetystoiminnon nimen johdonmukaisuus gradientin tehostamisessa (mikä BTW ratkaistiin täällä ). Ja olisit eniten tervetuloa avaamaan asiaa koskeva kysymys täällä käytetylle konventille.

Kommentit

  • Kiitos selvennyksestä

Vastaa

Huomaa, että algoritmia kutsutaan Gradient Boostign Regressoriksi.

Ajatuksena on, että lisäät päätöspuut minimoimalla kaltevuus. Tämä kaltevuus on häviöfunktio, jolla voi olla useampia muotoja.

Algoritmi kootaan kukin päätöspuu aiemmin sovitetun ja ennustetun päätöspuun virheeseen. Siellä on haluamasi menetystoiminto.

Tämä parametri koskee sitä.

Kommentit

  • Kiitos kommentista @ carlos. Mutta mietin sitä, että termi ' pienimmän neliösumman regressio ', joka on sklearn-dokumentaatiossa, kuten yllä ei ole ' t tarkalleen tappio-funktio. Mielestäni heidän olisi pitänyt mainita SSE sen sijaan.

Vastaa

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *