生成モデル

はぐれ弁理士 PA Tora-O です。前回(第2回)では、VAEの実施例について説明しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。今回(第3回)は、VAEの理論的な裏付けについて説明します。

数学的解 ...

生成モデル

はぐれ弁理士 PA Tora-O です。前回(第1回)では、オートエンコーダの概要について説明しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。今回(第2回)は、VAEの実施例について、ネットワーク構造を中心に説 ...

生成モデル

はぐれ弁理士 PA Tora-O です。今回のテーマとして、深層生成モデルの基礎とも言うべきVAE(Variational Autoencoder)を題材に取り上げていきます。

背景

生成モデル(Generative Mod ...

自然言語処理

はぐれ弁理士 PA Tora-O です。前回(第3回)では、アテンション機構の変形例について検討しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。今回(第4回)は、これまでの検討を踏まえ、クレームを含む発明ストー ...

自然言語処理

はぐれ弁理士 PA Tora-O です。前回(第2回)では、“Seq2Seq with Attention” について説明しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。今回(第3回)は、“Seq2Seq wi ...

自然言語処理

はぐれ弁理士 PA Tora-O です。前回(第1回)では、アテンション機構の概要について説明しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。今回(第2回)は、アテンション機構の実装例として、“Seq2Seq ...

自然言語処理

はぐれ弁理士 PA Tora-O です。今回のテーマとして、ニューラル機械翻訳(NMT)における頻出の手法であるアテンション機構(Attention Mechanism)を題材に取り上げていきます。

背景

いわゆる “Wor ...

自然言語処理

はぐれ弁理士 PA Tora-O です。前回(第3回)では、Seq2Seq の実施例について説明しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。今回は、過去3回分の検討を踏まえ、発明ストーリーの一例を提示します ...

自然言語処理

はぐれ弁理士 PA Tora-O です。前回(第2回)では、Seq2Seq の前提知識として、再帰型ニューラルネットワーク(RNN)の概要について説明しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。今回(第3回 ...

自然言語処理

はぐれ弁理士 PA Tora-O です。前回(第1回)では、Seq2Seq の概要について説明しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。今回(第2回)は、Seq2Seq を理解する上での前提知識ともいえる ...