Sickit Learn GradientBoostingRegressor

Jag tittade på Scikit-Learn-dokumentationen för GradientBoostingRegressor .

Här står det att vi kan använda ”ls” som en förlustfunktion som är minsta kvadratregression. Men jag är förvirrad eftersom regression av minsta kvadrat är en metod för att minimera SSE-förlustfunktionen.

Ska de inte nämna SSE här?

Svar

Det verkar som om du tolkar vad som egentligen bara är bekväma förkortningsnamn för modellargumenten och inte formell terminologi; här " ls avser regression av minsta kvadrat " bör tolkas som " ”ls” är förlustfunktionen som används i regression med minsta kvadrat ".

Formellt har du en självklarhet – sse skulle vara en mer lämplig namnkonvention här; diskussioner om sådana namngivningskonventioner är inte ovanliga bland samhället, se till exempel tråden förlustfunktionsnamn konsistens i gradientförstärkning (vilket BTW löstes här ). Och du skulle vara mest välkommen att öppna en relevant fråga för den konvention som används här.

Kommentarer

  • Tack för förtydligandet

Svar

Observera att algoritmen heter Gradient Boostign Regressor.

Tanken är att du ska öka beslutsträd som minimerar lutningen. Denna lutning är en förlustfunktion som kan ta fler former.

Algoritmen sammanställer varje beslutsträd i felet i det tidigare monterade och förutspådda beslutsträdet. Där har du önskad förlustfunktion.

Denna parameter gäller det.

Kommentarer

  • Tack för kommentaren @ carlos. Men det jag undrade är att termen ' minst kvadrerar regression ' som finns i sklearn-dokumentationen som ovan isn ' t exakt en förlustfunktion. Jag tror att de borde ha nämnt SSE istället för det.

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *