Sickit Learn GradientBoostingRegressor

Estaba mirando la documentación de Scikit-Learn para GradientBoostingRegressor .

Aquí dice que puede usar «ls» como una función de pérdida que es una regresión de mínimos cuadrados. Pero estoy confundido porque la regresión de mínimos cuadrados es un método para minimizar la función de pérdida de SSE.

Entonces, ¿no deberían mencionar SSE aquí?

Responder

Parecería que está interpretando en exceso lo que son básicamente nombres abreviados de conveniencia para los argumentos del modelo, y no terminología formal; aquí, " ls se refiere a la regresión de mínimos cuadrados " debe interpretarse como " «ls» es la función de pérdida utilizada en la regresión de mínimos cuadrados ".

Formalmente, tienes un punto, por supuesto: sse sería una convención de nomenclatura más apropiada aquí; las discusiones sobre tales convenciones de nomenclatura no son infrecuentes entre la comunidad, consulte, por ejemplo, el hilo pérdida de consistencia del nombre de la función en el aumento de gradiente (que, por cierto, se resolvió aquí ). bienvenido a abrir un tema relevante para la convención utilizada aquí.

Comentarios

  • Gracias por la aclaración

Respuesta

Tenga en cuenta que el algoritmo se llama Gradient Boostign Regressor.

La idea es aumentar los árboles de decisión minimizando el gradiente. Este gradiente es una función de pérdida que puede tomar más formas.

El algoritmo agrega cada árbol de decisión en el error del árbol de decisión previamente ajustado y predicho. Ahí tienes la función de pérdida deseada.

Este parámetro se refiere a eso.

Comentarios

  • Gracias por el comentario @ carlos. Pero lo que me preguntaba es que el término ' regresión de mínimos cuadrados ' que se encuentra en la documentación de sklearn como arriba no es ' t exactamente una función de pérdida. Creo que deberían haber mencionado SSE en lugar de eso.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *