Sickit Learn GradientBoostingRegressor

Eu estava olhando a documentação do Scikit-Learn para GradientBoostingRegressor .

Aqui diz que nós pode usar “ls” como uma função de perda que é a regressão de mínimos quadrados. Mas estou confuso, pois a regressão de mínimos quadrados é um método para minimizar a função de perda de SSE.

Então, eles não deveriam mencionar SSE aqui?

Resposta

Parece que você está interpretando excessivamente o que são essencialmente nomes abreviados de conveniência para os argumentos do modelo, e não a terminologia formal; aqui, " ls refere-se à regressão de mínimos quadrados " deve ser interpretado como " “ls” é a função de perda usada na regressão de mínimos quadrados ".

Formalmente, você tem um ponto, é claro – sse seria uma convenção de nomenclatura mais apropriada aqui; discussões sobre tais convenções de nomenclatura não são incomuns entre a comunidade, consulte, por exemplo, o tópico consistência do nome da função de perda no aumento de gradiente (que BTW foi resolvido aqui ). E você seria o mais bem-vindo, abrindo uma questão relevante para a convenção usada aqui.

Comentários

  • Obrigado pelo esclarecimento

Resposta

Observe que o algoritmo é chamado Gradient Boostign Regressor.

A ideia é que você aumente as árvores de decisão minimizando o gradiente. Este gradiente é uma função de perda que pode assumir mais formas.

O algoritmo agrega cada árvore de decisão no erro da árvore de decisão previamente ajustada e prevista. Aí você tem a função de perda desejada.

Este parâmetro se refere a isso.

Comentários

  • Obrigado pelo comentário @ carlos. Mas o que eu queria saber é que o termo ' regressão de mínimos quadrados ' que está na documentação do sklearn como acima não é ' t exatamente uma função de perda. Acho que eles deveriam ter mencionado SSE em vez disso.

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *