Díval jsem se na dokumentaci Scikit-Learn pro GradientBoostingRegressor .
Zde se říká, že jsme může použít „ls“ jako funkci ztráty, která je regresí nejmenších čtverců. Ale jsem zmatený, protože regrese nejmenších čtverců je metoda k minimalizaci funkce ztráty SSE.
Takže by zde neměli zmínit SSE?
Odpověď
Zdá se, že interpretujete přehnaně to, co je v podstatě jen zkrácená jména pro argumenty modelu, a ne formální terminologie; zde " ls označuje regresi nejmenších čtverců " by mělo být interpretováno jako " „ls“ je funkce ztráty používaná při regrese nejmenších čtverců ".
Formálně samozřejmě máte bod – sse
by zde byla vhodnější konvence pojmenování; diskuse o takových konvenci pojmenování nejsou mezi komunitou neobvyklé, viz například podproces ztráta konzistence názvu funkce při zvyšování gradientu (který BTW byl vyřešen zde ). vítejte při otevření příslušného problému pro zde použitou konvenci.
Komentáře
- Děkujeme za vysvětlení
Odpověď
Všimněte si, že algoritmus se nazývá Gradient Boostign Regressor.
Myšlenka je, že podpoříte rozhodovací stromy minimalizující přechod. Tento přechod je ztrátová funkce, která může mít více forem.
Algoritmus agreguje každý rozhodovací strom s chybou dříve přizpůsobeného a předpovězeného rozhodovacího stromu. Zde máte požadovanou funkci ztráty.
Tento parametr se toho týká.
Komentáře
- Děkujeme za komentář @ Carlos. Co mě ale zajímalo je, že výraz ' nejmenší čtverce regrese ' který je v dokumentaci sklearn, jak je uvedeno výše, není ' přesně funkce ztráty. Myslím, že místo toho měli zmínit SSE.