機械学習ReLU関数とその微分をグラフ化してみた purin_it 以下の式で表現される関数をReLU関数といい、ディープラーニングの活性化関数の1つとして利用される。 \[ \begin{eqnarray} f(x) = \left\{ …
機械学習ニューラルネットワークにKerasを利用してみた purin_it これまでは、ニューラルネットワークを自前で作成していたが、TensorflowやKeras、PyTorchといった、深層学習のフレームワ …
機械学習ニューラルネットワークで行列の積を利用してみた purin_it ニューラルネットワークのフォワードプロパゲーションやバックプロパゲーションで、行列の積を利用すると、計算をシンプルにできる。 今回 …
機械学習ニューラルネットワークで活性化関数にtanh関数を利用してみた purin_it これまでは、ニューラルネットワークの活性化関数にシグモイド関数を利用してきたが、偏微分の計算ができれば、活性化関数にシグモイド関数以外も …
機械学習ニューラルネットワークのバックプロパゲーションを実装してみた purin_it 以下の記事で、バックプロパゲーション(最急降下法を用いて、ニューラルネットワークの誤差を効率的に逆伝播させる手法)により、重み\(\bo …
機械学習ニューラルネットワークの誤差関数の微分を計算してみた purin_it 以下の記事で、ニューラルネットワークのフォワードプロパゲーションによる出力値\(y\)を算出してきたが、その際、重み\(\boldsym …
機械学習ニューラルネットワークのフォワードプロパゲーションを実装してみた purin_it ニューラルネットワークは、人間の脳の神経細胞(ニューロン)の仕組みをプログラム上で模したモデルで、機械学習の1手法であるディープラーニン …
機械学習ニューラルネットワーク内の単一ニューロンを実装してみた purin_it ニューラルネットワークは、人間の脳の神経細胞(ニューロン)の仕組みをプログラム上で模したモデルで、機械学習の1手法であるディープラーニン …
機械学習tanh関数とその微分をグラフ化してみた purin_it \(tanh(x)=\displaystyle \frac{e^x - e^{-x}}{e^x + e^{-x}}\)で表現される関数をtanh(ハイパボリックタンジェント)関 …
機械学習scikit-learnを利用してモデル評価後に評価指標を出力してみた purin_it データ分析や機械学習のためのライブラリの一つであるscikit-learnには、評価モデルを作成後、正答率・適合率・再現率・F値等の評価 …