人間が書いたものと見分けが付かないぐらいに精度の高い文章を生成できる言語モデル「GPT-2」の後継である「GPT-3」が、人工知能を研究する組織・OpenAIにより公開されました。
この「GPT-2」でもパラメーターは15億個でしたが、新バージョンである「GPT-3」は1750億個のパラメーターを持つとのこと。
ただし、どんな状況にでも最適な言語モデルというわけではなく、言語翻訳やニュース記事生成、大学進学適性試験の解答などの自然言語処理では最先端の結果を得られるものの、常識的な推論の部分では物足りないことがあり、単語文脈分析や中学・高校の試験問題解答においてはやや落ちる部分が出てくるそうです。
なお、論文では「GPT-3」を用いて、人間が書いたものと区別がつかないようなニュース記事が生成されたことが報告されています。
2020-05-31 21:15:29