「リンク関数」の意味をまだ学ぼうとしています(用語の問題かもしれません)。たとえば、ロジスティック回帰では、応答変数が二項分布から来ると仮定します。

$ \ text {logit} ^ {-1} $ リンク関数は、 $(-\ infty、-\ infty)$ $ \ beta ^ {\ top} x $ からの出力)から確率数 $ [0,1] $ 。しかし、である二項分布にどのように「リンク」しますか。離散分布?

「リンク」は実数と確率数の間にあることは理解していますが、確率数から二項分布に欠落している部分があります。 。

私は正しいですか?

コメント

  • 珍しいリンク関数の詳細な説明は、次の私の回答にあります。 stats.stackexchange.com/a/64039/919 に関心があります。 (質問はあなたの質問と重複している可能性があります。)欠落しているものはありません。ロジスティック回帰の応答はベルヌーイであり、そのパラメーター("確率番号")。
  • いつも助けてくれた@whuberに感謝します。あなたが提供したリンクは価値がありますが、質問のタイトルがおかしいので見つけることはできません…
  • 適切な検索用語を見つけることは常に問題です–I 'あなたや他の誰かがそれを見つけられなかったことを責めないでください。 (その投稿をもう一度見つける必要があるときはいつでも、"ひまわり、"を検索します!)
  • 一般化線形モデルでのリンク関数の目的も参照してください。

回答

したがって、バイナリ応答データがある場合、各観測値に対して「はい/いいえ」または「1/0」の結果が得られます。ただし、バイナリ応答回帰を実行するときに推定しようとしているのは、課す独立変数の値の各セットの1/0の結果ではなく、そのような特性を持つ個人が「はい」の結果になる確率です。 。その場合、応答は離散的ではなくなり、連続的((0,1)間隔)になります。データ内の応答( true $ y_i $)は確かにバイナリですが、 推定応答($ \ Lambda(x_i “b)$または$ \ Phi(x_i” b)$)は確率です。

これらのリンク関数の基本的な意味は次のとおりです。これらは、潜在変数モデルの誤差項に課す分布です。各個人が、結果に「はい」(または1になる)と言う根底にある(観察できない)意欲を持っていると想像してください。個人の特性$ x_i $(多重回帰のベクトル)の線形回帰を使用して、この意欲を$ y_i ^ * $としてモデル化します。

$$ y_i ^ * = x_i “\ beta + \ epsilon_i。$$

これは、いわゆる潜在変数回帰です。この個人の意欲が肯定的だった場合($ y_i ^ * > 0 $) 、個人の観測結果は「はい」($ y_i = 1 $)、それ以外の場合は「いいえ」になります。しきい値の選択は潜在変数として重要ではないことに注意してください。 ariableモデルには切片があります。

線形回帰では、誤差項が正規分布していると仮定します。バイナリ応答やその他のモデルでは、誤差項に分布を課す/仮定する必要があります。リンク関数は、誤差項が従う累積確率関数です。たとえば、ロジスティックである場合(そして、ロジスティック分布が4番目の等式で対称であることを使用します)、

$$ P(y_i = 1)= P(y_i ^ * > 0)= P(x_i” \ beta + \ epsilon_i > 0)= P(\ epsilon_i > -x_i “\ beta)= P(\ epsilon_i < x_i” \ beta)= \ Lambda(x_i “\ beta)。$$

想定した場合エラーが正規分布する場合、$ \ Lambda(\ cdot)$の代わりにプロビットリンク$ \ Phi(\ cdot)$があります。

コメント

  • +1私たちのサイト、アンナへようこそ!あなたが尋ねた質問に加えて、よく構成された答えを提供してくれてありがとう。
  • ありがとう!私が新しいとどうやって見ましたか?新しい人を追跡するものはありますか?あなたはモデレーターですか?少しびっくりしました。しかし、実際、私の意図は質問をすることよりもはるかに多くの答えを与えることでしたが、たまたま質問がありました。
  • このサイトにはたくさんの'があります。 、アンナ。まず、ヘルプセンターを確認してください。詳細については、表示されているほとんどすべてのものをクリックしてください。名前の後にひし形のアイコンが付いているユーザーはモデレーターですが、評判が十分に高いユーザーも同様です。このサイトの仕組みに関するその他の質問については、メタページにアクセスしてください。 (特異な)サイト検索は便利ですが、ターゲットを絞ったGoogle検索(" site:stats.stackexchange.com "を含む)も可能です。より効果的。また、チャットルームを確認してください。
  • @AnnaSdTCいいえ追跡メカニズムはありません。新しいユーザーによる投稿を強調表示するレビューキューがありますが、ほとんどの場合、新しいニックネームとアバターに気付くだけです。また、プロファイル情報には、アカウントがいつ作成されたかに関する情報があります(yourelf stats.stackexchange.com/users/146969/anna-sdtc を参照してください。 " "セクションのメンバー)
  • I ' veしばらくの間、ロジスティック回帰のために"なぜsigmoid "に対する答えを探していましたが、これが断然最良の答えです。 '多くのMLの本がこれに言及しておらず、ロジスティック関数を突然課していることに驚いています。私が見た中で最高の'はGLMについて話しますが、それは" GLMフォーム"を課します突然、それを"正当化"として使用しますが、これは実際には'何でも説明してください。私が理解できる唯一の方法は、この考え方、つまり誤差項の分布に関する仮定を介することです。これが、何も課さない唯一の実際の説明だと思います。

回答

一般化線形モデルは、線形予測子

$$ \ eta = X \ beta $$

次は、$ Y $の条件付き分布と リンク関数 aを説明する確率分布です。 > $ G $は、「線形予測子と分布関数の平均との関係を提供します」。これは、$ Y $の値を予測するのではなく、条件付き平均<予測子$ X $が与えられた$ Y $の/ a>、つまり

$$ E(Y | X)= g ^ {-1}(\ eta)$$

InガウスファミリーGLM(線形回帰)ID関数の場合はリンク関数として使用されるため、$ E(Y | X)= \ eta $であり、ロジスティック回帰の場合ロジット関数が使用されます。 (逆)ロジスティック回帰は確率を予測するため、ロジット関数は$(-\ infty、\ infty)$の$ \ eta $の値を$(0、1)$に変換します成功の、つまりベルヌーイ分布の平均。 ポアソン回帰の対数関数やガンマ回帰の逆リンクなど、他の関数を使用して線形予測子をさまざまな分布の平均に変換します。したがって、リンク関数は$ Y $の値(ロジスティック回帰の場合はバイナリなど)と線形予測子をリンクしませんが、$ Y $と$ \ eta $の分布の平均(実際には、確率を$ 0 $に変換します) sと$ 1 $ “sには、さらに決定ルールが必要です)。したがって、重要なメッセージは、$ Y $の値を予測するのではなく、確率モデルと$ Yの条件付き分布の推定パラメータの観点から説明しているということです。 $ X $を指定します。

リンク関数とGLMの詳細については、 'リンク関数'および'正規リンク関数'のGLM 一般化線形モデルのリンク関数の目的およびロジットモデルとプロビットモデルの違いスレッド、GLMに関する非常に優れた Wikipediaの記事 一般化線形モデル McCullaghとNelderによる本

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です