"BOKU"のITな日常

62歳・文系システムエンジニアの”BOKU”は日々勉強を楽しんでます

AI・機械学習知識の文系的まとめ

ディープラーニングの学習時の「誤差逆伝播法」の正体について整理してみる

今回は、ディープラーニングの「学習」の肝になるのは「微分」なんだということを、numpyだけで簡単なニューラルネットワークの学習をするプログラムを書いて確かめてみようかと思います。

SOFTMAX関数と損失関数について文系チックにざっくりと整理してみる/ディープラーニング

今回は「SOFTMAX関数」と「損失関数」について、できるだけ・・数学チックにならないように気をつけながら、ざっくりと整理してみます。

ディープラーニングモデルの分類性能評価指標についてざっくり整理してみる/Neural Network Console

モデルの分類性能の評価指標をの見方を、整理してみようかなと思います。題材には、「Neural Network Console」を使います。

標準化と正規化の違いは何だろう?/Neural Network Consoleで試しにやってみる

データを「正規化する」と「標準化する」という紛らわしい言葉を整理します。その例として、超有名なアヤメ(iris)のデータをネタにそれで精度がどう変化するのかをNeural Network Consoleで試してみます。

CNNのプーリング層「MaxPooling」の仕組みを数式なしで整理してみた/ディープラーニング

今回はPoolingについて、頭の整理を兼ねて、ざっくり整理してみます。Pooling層は、画像認識に優れた性能がある「CNN(Convolutional Neural Network)」の構成要素のひとつですね。

CNNの畳み込み層(Convolution)の仕組みを数式なしで整理してみた/ディープラーニング

今回は、 Convolution=「畳み込み層」について頭の整理を兼ねて、ざっくり整理してみます。

活性化関数「Tanh」「Sigmoid」「ReLu」の仕組みと使い分けを数式なしで整理する/ディープラーニング

ディープラーニングには、活性化関数というのが登場します。Neural Network Consoleだと「Activationレイヤー」と呼ばれてます。今回は頭の整理を兼ねて、こいつをざっくり整理してみます。

全結合層(Affine)の仕組を、数式なしでざっくり整理してみた/ディープラーニング

ディープラーニングで頻繁に登場する「全結合層」は、Neural Network Consoleの場合は「Affine」レイヤーにあたります。この仕組というか、動作のイメージを頭の整理を兼ねて、ざっくり整理しておこう。それが今回のテーマです。

Epoch数とミニバッチサイズの解説と、変化させた時の精度の変化/Neural Network Console

Neural Network Console(ニューラルネットワークコンソール)で、学習回数や学習単位を変えることで、学習精度が変わっていくのを体験します。