Sickit Learn GradientBoostingRegressor

Stavo guardando la documentazione di Scikit-Learn per GradientBoostingRegressor .

Qui si dice che noi può usare “ls” come funzione di perdita che è la regressione dei minimi quadrati. Ma sono confuso dal momento che la regressione ai minimi quadrati è un metodo per ridurre al minimo la funzione di perdita SSE.

Quindi non dovrebbero menzionare SSE qui?

Risposta

Sembrerebbe che tu stia interpretando eccessivamente quelli che sono essenzialmente solo nomi abbreviati di convenienza per gli argomenti del modello e non la terminologia formale; qui, " “ls” si riferisce alla regressione dei minimi quadrati " deve essere interpretato come " “ls” è la funzione di perdita utilizzata nella regressione dei minimi quadrati ".

Formalmente hai un punto, naturalmente – sse sarebbe una convenzione di denominazione più appropriata qui; le discussioni su tali convenzioni di denominazione non sono insolite nella comunità, vedi ad esempio il thread coerenza del nome della funzione di perdita nellaumento del gradiente (la cui BTW è stata risolta qui ). E saresti più benvenuto durante lapertura di una questione pertinente per la convenzione utilizzata qui.

Commenti

  • Grazie per i chiarimenti

Risposta

Nota che lalgoritmo si chiama Gradient Boostign Regressor.

Lidea è di aumentare gli alberi decisionali riducendo al minimo il gradiente. Questo gradiente è una funzione di perdita che può assumere più forme.

Lalgoritmo aggrega ogni albero decisionale nellerrore dellalbero decisionale precedentemente adattato e previsto. Ecco la funzione di perdita desiderata.

Questo parametro riguarda questo.

Commenti

  • Grazie per il commento @ carlos. Ma quello che mi chiedevo è che il termine ' regressione dei minimi quadrati ' che si trova nella documentazione di sklearn come sopra non è ' t esattamente una funzione di perdita. Penso che avrebbero dovuto menzionare SSE invece di quello.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *