Uberが文章生成AIのプラグイン「PPLM」をオープンソース化! トピックが設定できる

昨年11月にはOpenAIにより、人間らしい散文が生成できる言語モデル、GPT-2の完全版が公開され、試された方も多いかと思う。

GPT-2は、複雑な文章を生成できる一方、目的の文章に応じてアーキテクチャの変更、すなわち膨大なデータセットによる再トレーニングやパラメーターの調整が必要になるようだ。

Uber AIがオープンソース化したプラグアンドプレイ言語モデル(PPLM)は、GPT-2などTransformerベースの言語モデルでの生成文章を、シンプルなパラメーターで制御できるという。

・属性モデルにて生成される文章を制御

PPLMでは、事前学習済みの言語モデルに、単一の学習レイヤーのシンプルな分類器をプラグインできる。言語モデルの再トレーニングが不要となれば、大規模なデータセットや高価なGPU、数日かかることもあるトレーニング時間などの制約から解放されるだろう。

感情やトピックに関する言語モデルの出力評価のために「属性モデル」を使用。出力したいテキストの性質に合わせて、ポジティブな感情、政治関連のトピック……といった属性を設定できる。

・トピックの正確性はGPT-2よりも高評価

Transformerベースの言語モデルは、それまでに生成された単語を、次の単語を生成するための入力にするが、属性モデルを介することで生成される一連の単語に、高い確率で設定した属性が出現するようになる。

研究にて実施された人間の評価にて、トピックにもとづく文章の整合性や流暢さがGPT-2よりも優秀なことが示されたようだ。

PPLMのソースコードはGitHubにて確認できる。また、デモに関してもGoogle Colabノートブックに公開されていて、PPLMの導入から文章の生成までが確認できる。

参照元:Plug and Play Language Models: A Simple Approach to Controlled Text Generation/ arXiv


Amazonベストセラー

返信を残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA