全体平均プーリング(1/5)背景技術
はぐれ弁理士 PA Tora-O です。今回のテーマとして、全体平均プーリング(GAP;Global Average Pooling)を題材に取り上げていきます。GAPの検討には畳み込みニューラルネットワーク(CNN)の知識が必要です ...
正則化(4/4)総括
はぐれ弁理士 PA Tora-O です。前回(第3回)では、正則化に関するクレーム骨子について説明しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。
前回に提案したクレーム骨子を活かそうとすると、以下 ...
正則化(3/4)クレーム骨子の作成
はぐれ弁理士 PA Tora-O です。前回(第2回)では、正則化の実施例について説明しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。
今回(第3回)は、正則化に関するクレーム骨子を試作・提示した上 ...
正則化(2/4)実施例の検討
はぐれ弁理士 PA Tora-O です。前回(第1回)では、正則化の概要について説明しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。今回(第2回)は、正則化の実施例を具体的に検討したいと思います。
典型的 ...正則化(1/4)発明の概要
はぐれ弁理士 PA Tora-O です。今回のテーマとして、ディープラーニングで頻出の正則化を題材に取り上げていきます。
背景ディープラーニング(DL)では、結合重みやバイアスなどの学習パラメータを逐次的に更新することで学 ...
ReLU関数 (5/5) 総括
はぐれ弁理士 PA Tora-O です。前回(第4回)では、ReLU関数の改良策を色々紹介しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。
前回のレビュー結果を踏まえ、最終的に、次のような発明ストー ...
ReLU関数 (4/5) ReLUの改良案
はぐれ弁理士 PA Tora-O です。前回(第3回)では、活性化関数の要求仕様を踏まえてクレーム第2形態を作成しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。
今回(第4回)は、ReLUの改良案、 ...
ReLU関数 (3/5) 活性化関数の要求仕様<後半>
はぐれ弁理士 PA Tora-O です。前回(第2回)では、活性化関数の要求仕様について説明しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。
前回検討の補足第3要件:活性化区間における傾きが1である ...
ReLU関数 (2/5) 活性化関数の要求仕様<前半>
はぐれ弁理士 PA Tora-O です。前回(第1回)では、ReLU関数の概要について説明しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。
今回(第2回)は、活性化関数の要求仕様について、ReLUを ...
ReLU関数 (1/5) 発明の概要
はぐれ弁理士 PA Tora-O です。今回のテーマとして、ディープラーニングで頻出のReLU関数を題材に取り上げていきます。
背景例えば、教師あり学習では、出力値と教示値の差分の関数である損失関数(あるいは、学習誤差)が ...