Sickit Learn GradientBoostingRegressor

GradientBoostingRegressor 에 대한 Scikit-Learn 문서를보고있었습니다.

여기에 우리가 최소 제곱 회귀 인 손실 함수로 “ls”를 사용할 수 있습니다. 하지만 최소 제곱 회귀가 SSE 손실 함수를 최소화하는 방법이기 때문에 혼란 스럽습니다.

여기서 SSE를 언급하면 안 되나요?

Answer

기본적으로 형식적인 용어가 아닌 모델 인수에 대한 편리한 속기 이름을 지나치게 해석하는 것 같습니다. 여기에서는 " ls는 최소 제곱 회귀를 나타냅니다. "는 " “ls”로 해석되어야합니다. 최소 제곱 회귀에서 사용되는 손실 함수입니다. ".

공식적으로 당신은 당연한 일입니다-sse는 여기에서 더 적절한 명명 규칙이 될 것입니다. 이러한 명명 규칙에 대한 논의는 커뮤니티에서 드물지 않습니다. 예를 들어 그라디언트 부스팅에서 함수 이름 일관성을 잃는 스레드를 참조하십시오. (BTW는 여기 에서 해결됨). 여기에 사용 된 대회와 관련된 문제를 열어 주셔서 감사합니다.

댓글

  • 설명해 주셔서 감사합니다.

Answer

알고리즘은 Gradient Boostign Regressor라고합니다.

아이디어는 그라디언트를 최소화하는 의사 결정 트리를 향상시키는 것입니다. 이 기울기는 더 많은 형태를 취할 수있는 손실 함수입니다.

알고리즘은 이전에 적합하고 예측 된 의사 결정 트리의 오류에서 각 의사 결정 트리를 집계합니다. 원하는 손실 기능이 있습니다.

이 매개 변수는 이에 관한 것입니다.

댓글

  • @ 댓글 주셔서 감사합니다. 카를로스. 하지만 제가 궁금한 것은 위의 sklearn 문서에있는 ' 최소 제곱 회귀 '라는 용어가 ' 정확히 손실 함수는 아닙니다. 대신 SSE를 언급 했어야한다고 생각합니다.

답글 남기기

이메일 주소를 발행하지 않을 것입니다. 필수 항목은 *(으)로 표시합니다