Sickit Learn GradientBoostingRegressor

Jeg kiggede på Scikit-Learn-dokumentationen til GradientBoostingRegressor .

Her står det, at vi kan bruge “ls” som en tabsfunktion, der er mindste kvadraters regression. Men jeg er forvirret, da mindste kvadraters regression er en metode til at minimere SSE-tabsfunktionen.

Så skal de ikke nævne SSE her?

Svar

Det ser ud til, at du fortolker hvad der i det væsentlige bare er bekvemme stenografiske navne til modelargumenterne og ikke formel terminologi; her " ls henviser til mindste kvadraters regression " skal fortolkes som " “ls” er tabsfunktionen, der bruges i mindste kvadraters regression ".

Formelt har du et kursuspunkt – sse ville være en mere passende navngivningskonvention her; diskussioner om sådanne navngivningskonventioner er ikke ualmindelige blandt samfundet, se for eksempel tråden tabsfunktionsnavn konsistens i gradientforøgelse (som BTW blev løst her ). Og du ville være mest velkommen til at åbne et relevant emne for den konvention, der bruges her.

Kommentarer

  • Tak for afklaring

Svar

Bemærk, at algoritmen hedder Gradient Boostign Regressor.

Ideen er, at du øger beslutningstræer, der minimerer gradienten. Denne gradient er en tabsfunktion, der kan tage flere former.

Algoritmen samler hvert beslutningstræ i fejlen i det tidligere monterede og forudsagte beslutningstræ. Der har du din ønskede tabsfunktion.

Denne parameter vedrører det.

Kommentarer

  • Tak for kommentaren @ carlos. Men hvad jeg undrede mig over, er at udtrykket ' mindste kvadratregression ' som er i sklearn-dokumentationen som ovenfor isn ' t nøjagtigt en tabsfunktion. Jeg synes, de burde have nævnt SSE i stedet for det.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *