詐欺などの文脈で、「生成AIが作った文章等がどんどん精巧になってきて、生成AIが作成した、と特定できなくなってきている」ことを社会的な課題としている意見があった。生成AIの生成物であるかどうかを検知・特定することは研究テーマとしてはおもしろいと思うけど、社会的課題としては詐欺的文章などがきちんと検知できるかどうか、特徴モデルを作れるかどうかがポイントなので、どれだけ精巧になっても詐欺だとわかれば良いじゃん、と思った(笑)。
まぁ精巧さが社会的課題に直結していると言えるのは映像や画像のフェイクだろねー。まだ不自然さは残っているから検知はできそうに思えるけども、映像や画像単体では状況証拠的な材料が無ければ見分けることは非常に難しくなってきてると思うし、オリジナル映像側がDRM的な仕掛けでもしないとヤバいだろうなーという感触がある。ハイコンテキストな文脈依存検知は逃れるのが難しいとは思いつつも、モデル化も難しいんだよなー。まーがんばってるけど(笑)。