VAE(4/4)総括

はぐれ弁理士 PA Tora-O です。前回(第3回)では、VAEの理論的な裏付けについて説明しました。改めて復習されたい方は、こちらのリンクから確認をお願いします。今回(第4回)は、クレームを含む発明ストーリーを作成し、これまで3回分の検討を総括します。

発明ストーリー

【従来技術】
所与の学習データセットをベースに、学習データとは異なる新しいデータを人工的に生成する「生成モデル」が知られている。この類のタスクは、データの全体的または局所的なバランスを考慮しつつ、より自然な状態で違和感なく仕上げる必要があるため、その難度が高いと言える。従来から、マルコフ連鎖モンテカルロ法(MCMC法)などを含む統計的手法が多く用いられている。

【問題点と課題】
問題点は、統計的手法では、学習データセットの規模が大きくなるにつれて、データの生成処理に要する演算コストが増えてしまうこと。
課題は、データの生成に要する演算コストを削減しつつも、より自然な状態で違和感なく仕上げること。

【クレーム】(Variational AE
 データの次元数の圧縮処理を行うエンコーダおよび次元数の復元処理を行うデコーダを順次接続してなるオートエンコーダに対して、
[1]エンコーダが、学習データを入力し、学習データに関する特徴ベクトルの確率分布を特定可能な分布情報を出力し、
[2]デコーダが、エンコーダからの分布情報により特定される確率分布に従って確率的に選択された特徴ベクトルを入力し、学習データに一致するデータを出力するように学習処理を行い、
 学習データセットを用いて学習されたオートエンコーダのうちのデコーダを、データの生成モデルとして取得することを特徴とするモデル構築方法。(268文字)

【作用効果】
ニューラルネットワークの一種であるオートエンコーダを用いることで、学習データの母集団に関する統計的演算を行う統計的手法の場合と比べて、データの生成処理に要する計算コストが削減される。
また、エンコーダが学習データに関する特徴ベクトルの確率分布を特定した後に、この確率分布に従って特徴ベクトルを確率的に選択することで、学習データセットを構成する個々の学習データのみならず、その学習データ同士の中間状態を確率論的に表現可能となる。つまり、オートエンコーダ全体の学習を通じて、複数の学習データを尤もらしくアレンジして新たなデータを創作する能力がデコーダに付与される。
これらにより、データの生成処理に要する計算コストを削減しつつも、より自然な状態で違和感なく仕上げることができる。

作者コメント

実際の特許出願では、計算コストの削減効果のみに着目して、「学習済みのオートエンコーダのうちデコーダを、データの生成モデルとして取得する」という上位レベルからクレームを作った方が、特許戦略上より望ましいです。

ところで、今回の事例検討にあたって気になった点があります。生成モデルの最終目的はデータを生成することなので、学習の終了後は、デコーダ部分(以下、デコーダプログラム)のみがあれば事足りる訳です。ところが、VAEのデコーダ部分は、特徴ベクトルを入力とし、画像を出力とするDNN(逆畳み込みニューラルネットワーク)にすぎないので、デコーダプログラム単体では明らかに特許性がないと言わざるを得ません。

今回の事例検討では、VAEの技術的思想を適切に表現するために上記のクレーム案に落ち着いたのですが、この表現(=モデル構築方法)でVAE関連の実施行為を適切にカバーできているか否かが論点になりそうです。この辺りについての考察がある程度まとまったら、個人的な見解としてコメントしてみたいです。

 

以上をもちまして、VAEの事例検討を終了します。次回から、また別のテーマに移ります。
↓ブログランキングに参加しています。よろしければ1クリックお願いします。

にほんブログ村 士業ブログ 弁理士へ
にほんブログ村

にほんブログ村 IT技術ブログ IT技術メモへ
にほんブログ村