"BOKU"のITな日常

還暦越えの文系システムエンジニアの”BOKU”は新しいことが大好きです。

AI

CNNのプーリング層「MaxPooling」の仕組みを数式なしで整理してみた/ディープラーニング

今回はPoolingについて、頭の整理を兼ねて、ざっくり整理してみます。Pooling層は、画像認識に優れた性能がある「CNN(Convolutional Neural Network)」の構成要素のひとつですね。

CNNの畳み込み層(Convolution)の仕組みを数式なしで整理してみた/ディープラーニング

今回は、 Convolution=「畳み込み層」について頭の整理を兼ねて、ざっくり整理してみます。

活性化関数「Tanh」「Sigmoid」「ReLu」の仕組みと使い分けを数式なしで整理する/ディープラーニング

ディープラーニングには、活性化関数というのが登場します。Neural Network Consoleだと「Activationレイヤー」と呼ばれてます。今回は頭の整理を兼ねて、こいつをざっくり整理してみます。

全結合層(Affine)の仕組を、数式なしでざっくり整理してみた/ディープラーニング

ディープラーニングで頻繁に登場する「全結合層」は、Neural Network Consoleの場合は「Affine」レイヤーにあたります。この仕組というか、動作のイメージを頭の整理を兼ねて、ざっくり整理しておこう。それが今回のテーマです。

過学習抑制「Weight Decay」はSGDと相性が良く、Adamと良くない?/Neural Network Consoleの使い方

Neural Network Consoleで、Weight Decayを使った過学習抑制と、Optimizerとの相性の検証をざっくりやってみます。

過学習をわざと発生させて問題点の確認と改善手段を試す/Neural Network Consoleの使い方

Neural Network Console(ニューラルネットワークコンソール)で、「過学習」がどういう状態なのかと、それを抑制する技術について試します

重み(Wait)の初期値の種類と使い分け及び「Optimizer」の種類/Neural Network Consoleの使い方

Neural Network Console(ニューラルネットワークコンソール)で、重み(W)の初期値の与え方と、Optimizerの違いで学習精度が変わるのを試します。

レイヤーの層を単純に深くしても、精度は向上しないことを確認する/Neural Network Consoleの使い方

Neural Network Console(ニューラルネットワークコンソール)で、ニューラルネットワークの階層を単純に深くした時に学習精度の変化を試します。