Sickit Learn GradientBoostingRegressor

Díval jsem se na dokumentaci Scikit-Learn pro GradientBoostingRegressor .

Zde se říká, že jsme může použít „ls“ jako funkci ztráty, která je regresí nejmenších čtverců. Ale jsem zmatený, protože regrese nejmenších čtverců je metoda k minimalizaci funkce ztráty SSE.

Takže by zde neměli zmínit SSE?

Odpověď

Zdá se, že interpretujete přehnaně to, co je v podstatě jen zkrácená jména pro argumenty modelu, a ne formální terminologie; zde " ls označuje regresi nejmenších čtverců " by mělo být interpretováno jako " „ls“ je funkce ztráty používaná při regrese nejmenších čtverců ".

Formálně samozřejmě máte bod – sse by zde byla vhodnější konvence pojmenování; diskuse o takových konvenci pojmenování nejsou mezi komunitou neobvyklé, viz například podproces ztráta konzistence názvu funkce při zvyšování gradientu (který BTW byl vyřešen zde ). vítejte při otevření příslušného problému pro zde použitou konvenci.

Komentáře

  • Děkujeme za vysvětlení

Odpověď

Všimněte si, že algoritmus se nazývá Gradient Boostign Regressor.

Myšlenka je, že podpoříte rozhodovací stromy minimalizující přechod. Tento přechod je ztrátová funkce, která může mít více forem.

Algoritmus agreguje každý rozhodovací strom s chybou dříve přizpůsobeného a předpovězeného rozhodovacího stromu. Zde máte požadovanou funkci ztráty.

Tento parametr se toho týká.

Komentáře

  • Děkujeme za komentář @ Carlos. Co mě ale zajímalo je, že výraz ' nejmenší čtverce regrese ' který je v dokumentaci sklearn, jak je uvedeno výše, není ' přesně funkce ztráty. Myslím, že místo toho měli zmínit SSE.

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *