Sickit Learn GradientBoostingRegressor

Je regardais la documentation Scikit-Learn pour GradientBoostingRegressor .

Ici, il est dit que nous peut utiliser « ls » comme fonction de perte qui est la régression des moindres carrés. Mais je suis confus car la régression des moindres carrés est une méthode pour minimiser la fonction de perte SSE.

Alors ne devrait-il pas mentionner SSE ici?

Réponse

Il semblerait que vous sur-interprétez ce qui nest essentiellement que des noms abrégés pratiques pour les arguments du modèle, et non une terminologie formelle; ici, " ls fait référence à la régression des moindres carrés " doit être interprété comme " « ls » est la fonction de perte utilisée dans la régression des moindres carrés ".

Formellement, vous avez un point bien sûr – sse serait une convention de dénomination plus appropriée ici; les discussions sur ces conventions de dénomination ne sont pas rares au sein de la communauté, voir par exemple le thread perte de cohérence du nom de la fonction dans le renforcement du gradient (dont BTW a été résolu ici ). Et vous seriez le plus Bienvenue en ouvrant une question pertinente pour la convention utilisée ici.

Commentaires

  • Merci pour la clarification

Réponse

Notez que lalgorithme sappelle Gradient Boostign Regressor.

Lidée est de booster les arbres de décision en minimisant le gradient. Ce gradient est une fonction de perte qui peut prendre plusieurs formes.

Lalgorithme agrège chaque arbre de décision dans lerreur de larbre de décision préalablement ajusté et prédit. Là, vous avez la fonction de perte souhaitée.

Ce paramètre concerne cela.

Commentaires

  • Merci pour le commentaire @ carlos. Mais ce que je me demandais, cest que le terme ' régression des moindres carrés ' qui se trouve dans la documentation sklearn comme ci-dessus nest pas ' t exactement une fonction de perte. Je pense quils auraient dû mentionner SSE au lieu de cela.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *