機械学習

単純パーセプトロン①

投稿日:2019年1月31日 更新日:

[mathjax]

こちらを読むと

  • ニューラルネットワークのパーセプトロンの概要を知ることができます

単純パーセプトロンとは

ニューラルネットワークの1種で、以下のような入力Xに重みwをかけて加算し、
出力yを取り出すネットワークです。

上記の図を式で表すと、以下のようになります。

$$
\begin{eqnarray}
y=\left\{ \begin{array}{ll}
1 & (w_1x_1+w_2x_2 +\cdots+w_nx_n \geq \theta) \\
0 & (w_1x_1+w_2x_2 +\cdots+w_nx_n < \theta) \\
\end{array} \right.
\end{eqnarray}
$$

ここで、以下のような関数を考えます。

$$
\begin{eqnarray}
f(x)=\left\{ \begin{array}{ll}
1 & (x \geq 0) \\
0 & (x < 0 ) \\
\end{array} \right.
\end{eqnarray}
$$

すると、ネットワークの出力yの式は、以下のように書き直すことができます。

$$
y = f(w_1x_1+w_2x_2 +\cdots+w_nx_n -\theta)
$$

まとめ

  • ニューラルネットワークのパーセプトロンの概要を知ることができました

次回は、上記の式変形を行い、ベクトル形式での式表示、および誤り訂正学習法の方法について説明します。

Reference

詳解ディープラーニング
https://book.mynavi.jp/manatee/books/detail/id=72424



-機械学習

執筆者:


  1. […] 前回のブログで、以下のような\(f(x)\)を定義すると、 […]

comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

関連記事

ロジスティック回帰④ 勾配法その2

[mathjax] こちらを読むと ロジスティック回帰の勾配法について、パラメータの更新式へ変換する方法を理解できます 前回の記事で、ロジスティック回帰の交差エントロピー誤差関数について、勾配法で最小 …

多クラスロジスティック回帰③ソフトマックス関数の微分その2

こちらを読むと 多クラスロジスティック回帰のモデル式の導出過程が分かります。 前回の記事で、多クラスロジスティック回帰のソフトマックス関数の微分を途中まで記載しました。今回はその続きです。 前回のおさ …

[機械学習] sklearnのグリッドサーチ(Grid Search)実装

こちらを読むと sklearnのグリッドサーチ実装例が分かりますグリッドサーチしたベストパラメータの見方が分かります やりたいこと 前回、グリッドサーチの概要について説明しました。http://sum …

Google Colaboratoryで大容量ファイルの分析を行う完全準備ガイド

こちらを読むと Google Colaboratoryで大容量ファイルを用いた分析を行うにあたり、準備をする方法が分かります記事の所要時間は5分程度です やりたいこと 自前でGPUを用意するのが難しい …

kaggleのKernelでGPUを使うには

こちらを読むと kaggleのKernelでGPUを使う方法が分かります。記事の所要時間は5分です。 はじめに kaggleはデータサイエンスの競技サイトとして有名ですが、プラットフォームとしても優秀 …