Sickit Learn GradientBoostingRegressor

GradientBoostingRegressor のScikit-Learnドキュメントを見ていました。

ここでは、最小二乗回帰である損失関数として「ls」を使用できます。しかし、最小二乗回帰はSSE損失関数を最小化する方法であるため、混乱しています。

ここでSSEについて言及するべきではありませんか?

回答

基本的にはモデル引数の便利な省略名であり、正式な用語ではないものを過度に解釈しているようです。ここでは、" lsは最小二乗回帰を指します "は" “ls”として解釈する必要がありますは最小二乗回帰で使用される損失関数です "。

もちろん、ポイントはあります-sseは、ここではより適切な命名規則です。このような命名規則に関する議論は、コミュニティ間で珍しくありません。たとえば、勾配ブーストにおけるスレッド損失関数名の一貫性を参照してください。 (ところで、ここで解決されました)そして、あなたが最もここで使用されているコンベンションに関連する問題を開くことを歓迎します。

コメント

  • 説明していただきありがとうございます

回答

アルゴリズムはGradientBoostignRegressorと呼ばれることに注意してください。

アイデアは、勾配を最小化して決定木をブーストすることです。この勾配は、より多くの形式をとることができる損失関数です。

アルゴリズムは、以前に適合および予測された決定木の誤差で各決定木を集約します。必要な損失関数があります。

このパラメータはそれに関連しています。

コメント

  • コメントありがとうございます@カルロス。しかし、私が疑問に思っていたのは、上記のsklearnドキュメントにある'最小二乗回帰'という用語は正確には損失関数です。その代わりにSSEについて言及すべきだったと思います。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です