Loading web-font TeX/Main/Bold

機械学習

多クラスロジスティック回帰⑥ モデル出力を確率で

投稿日:

こちらを読むと

  • 多クラスロジスティック回帰について、モデル出力を確率で表す方法が分かります

確率の表し方

前回までの記事で、多クラスロジスティック回帰のモデル出力がの式で表せることを説明しました。

{\bf y} = f(W{\bf x} + {\bf b})

ここでは、入力データがそれぞれのクラスに分類される確率を出してみましょう。

入力{\bf x}に対して、分類されるいずれかのクラス値をとる確率変数をCとします。2値ロジスティック回帰のときは、C=0またはC=1で表しました。

多クラスでは、C=k (k=1, 2, \dots, K)となります。

ある1つのニューロンの出力y_kを考えると、これは{\bf x}がクラスkに分類される確率になります。

\begin{eqnarray} p(C=k|x) = y_k &=& f({\bf w}_k^T{\bf x} + b_k)\\ &=& \frac {exp({\bf w}_k^T{\bf x} + b_k)}{\sum_{j=1}^N exp({\bf w}_j^T {\bf x} + b_j)} \end{eqnarray}

まとめ

  • 多クラスロジスティック回帰について、モデル出力を確率で表す方法が分かりました

モデル出力を確率で表すことができたので、2値ロジスティック回帰と同様に交差エントロピー誤差関数が使えそうですね。次回はその求め方について書きます。

多クラスロジスティック回帰は式変形が複雑なので、ステップ・バイ・ステップで着実に進めていこうと思います。

Reference

詳解ディープラーニング
https://book.mynavi.jp/manatee/books/detail/id=72424null



-機械学習

執筆者:


comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

関連記事

多クラスロジスティック回帰④ ソフトマックス関数の微分

Table of Contents こちらを読むと前回のおさらいソフトマックス関数の微分(続き)まとめReference こちらを読むと 多クラスロジスティック回帰のソフトマックス関数の微分 の導出過 …

ロジスティック回帰② アルゴリズム

Table of Contents こちらを読むと尤度関数を用いた最尤推定まとめReference こちらを読むと ロジスティック回帰のアルゴリズムを理解できます 前回の記事で、ロジスティック回帰はシ …

BERT 論文 日本語訳

Table of Contents 要約1 序論2 関連業務2.1 教師なし特徴量ベースのアプローチ 2.2 教師なしファイン・チューニングアプローチ2.3 教師ありデータからの転移学習3 BERTモ …

多クラスロジスティック回帰② ソフトマックス関数の微分

Table of Contents こちらを読むとソフトマックス関数のおさらいソフトマックス関数の微分まとめReference こちらを読むと 多クラスロジスティック回帰のソフトマックス関数の微分の導 …

kaggleのKernelでGPUを使うには

Table of Contents こちらを読むとはじめにKernelの設定まとめ こちらを読むと kaggleのKernelでGPUを使う方法が分かります。記事の所要時間は5分です。 はじめに ka …

Twitterフォロー

Twitterタイムライン

S