Eu estava olhando a documentação do Scikit-Learn para GradientBoostingRegressor .
Aqui diz que nós pode usar “ls” como uma função de perda que é a regressão de mínimos quadrados. Mas estou confuso, pois a regressão de mínimos quadrados é um método para minimizar a função de perda de SSE.
Então, eles não deveriam mencionar SSE aqui?
Resposta
Parece que você está interpretando excessivamente o que são essencialmente nomes abreviados de conveniência para os argumentos do modelo, e não a terminologia formal; aqui, " ls refere-se à regressão de mínimos quadrados " deve ser interpretado como " “ls” é a função de perda usada na regressão de mínimos quadrados ".
Formalmente, você tem um ponto, é claro – sse
seria uma convenção de nomenclatura mais apropriada aqui; discussões sobre tais convenções de nomenclatura não são incomuns entre a comunidade, consulte, por exemplo, o tópico consistência do nome da função de perda no aumento de gradiente (que BTW foi resolvido aqui ). E você seria o mais bem-vindo, abrindo uma questão relevante para a convenção usada aqui.
Comentários
- Obrigado pelo esclarecimento
Resposta
Observe que o algoritmo é chamado Gradient Boostign Regressor.
A ideia é que você aumente as árvores de decisão minimizando o gradiente. Este gradiente é uma função de perda que pode assumir mais formas.
O algoritmo agrega cada árvore de decisão no erro da árvore de decisão previamente ajustada e prevista. Aí você tem a função de perda desejada.
Este parâmetro se refere a isso.
Comentários
- Obrigado pelo comentário @ carlos. Mas o que eu queria saber é que o termo ' regressão de mínimos quadrados ' que está na documentação do sklearn como acima não é ' t exatamente uma função de perda. Acho que eles deveriam ter mencionado SSE em vez disso.