NN共通

はぐれ弁理士 PA Tora-O です。今回のテーマとして、全体平均プーリング(GAP;Global Average Pooling)を題材に取り上げていきます。GAPの検討には畳み込みニューラルネットワーク(CNN)の知識が必要です ...

NN共通

はぐれ弁理士 PA Tora-O です。前回(第3回)では、正則化に関するクレーム骨子について説明しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。

前回に提案したクレーム骨子を活かそうとすると、以下 ...

NN共通

はぐれ弁理士 PA Tora-O です。前回(第2回)では、正則化の実施例について説明しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。

今回(第3回)は、正則化に関するクレーム骨子を試作・提示した上 ...

NN共通

はぐれ弁理士 PA Tora-O です。前回(第1回)では、正則化の概要について説明しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。今回(第2回)は、正則化の実施例を具体的に検討したいと思います。

典型的 ...

NN共通

はぐれ弁理士 PA Tora-O です。今回のテーマとして、ディープラーニングで頻出の正則化を題材に取り上げていきます。

背景

ディープラーニング(DL)では、結合重みやバイアスなどの学習パラメータを逐次的に更新することで学 ...

NN共通

はぐれ弁理士 PA Tora-O です。前回(第4回)では、ReLU関数の改良策を色々紹介しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。

前回のレビュー結果を踏まえ、最終的に、次のような発明ストー ...

NN共通

はぐれ弁理士 PA Tora-O です。前回(第3回)では、活性化関数の要求仕様を踏まえてクレーム第2形態を作成しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。

今回(第4回)は、ReLUの改良案、 ...

NN共通

はぐれ弁理士 PA Tora-O です。前回(第2回)では、活性化関数の要求仕様について説明しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。

前回検討の補足

第3要件:活性化区間における傾きが1である ...

NN共通

はぐれ弁理士 PA Tora-O です。前回(第1回)では、ReLU関数の概要について説明しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。

今回(第2回)は、活性化関数の要求仕様について、ReLUを ...

NN共通

はぐれ弁理士 PA Tora-O です。今回のテーマとして、ディープラーニングで頻出のReLU関数を題材に取り上げていきます。

背景

例えば、教師あり学習では、出力値と教示値の差分の関数である損失関数(あるいは、学習誤差)が ...