Sickit Learn GradientBoostingRegressor

Jeg så på dokumentasjonen for Scikit-Learn for GradientBoostingRegressor .

Her står det at vi kan bruke «ls» som en tapfunksjon som er minste kvadratregresjon. Men jeg er forvirret siden regresjon av minste kvadrater er en metode for å minimere SSE-tapfunksjonen.

Så burde de ikke nevne SSE her?

Svar

Det ser ut til at du fortolker det som egentlig bare er bekvemmelighetsnavn for modellargumentene, og ikke formell terminologi; her " ls refererer til minste kvadraters regresjon " skal tolkes som " «ls» er tapsfunksjonen som brukes i regresjon med minste kvadrat ".

Formelt sett har du et selvfølgelig poeng – sse ville være en mer passende navngivningskonvensjon her; diskusjoner om slike navngivningskonvensjoner er ikke uvanlige blant samfunnet, se for eksempel tråden tap funksjon navn konsistens i gradient boosting (som BTW ble løst her ). Og du ville være mest velkommen til å åpne et relevant tema for konvensjonen som brukes her.

Kommentarer

  • Takk for avklaring

Svar

Merk at algoritmen heter Gradient Boostign Regressor.

Tanken er at du øker beslutningstrærne og minimerer gradienten. Denne gradienten er en tapsfunksjon som kan ta flere former.

Algoritmen samler hvert avgjørelsestre i feilen til det tidligere monterte og forutsagte beslutningstreet. Der har du ønsket tapsfunksjon.

Denne parameteren gjelder det.

Kommentarer

  • Takk for kommentaren @ carlos. Men det jeg lurte på er at begrepet ' minste kvadrat regresjon ' som er i sklearn-dokumentasjonen som ovenfor isn ' t nøyaktig en tapsfunksjon. Jeg tror de burde ha nevnt SSE i stedet for det.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *