「●●っぽい」が絵では許されず、文章だと寛容な理由
―― クリエイターもすでにそこには危機感を覚えていて、たとえばX(旧Twitter)のプロフィールに「AI学習禁止」の旨を書いているアカウントも目にするようにはなりました。ただ、Xの規約も相まって実効性はないですよね?
小林 残念ながらまったくありません。
―― そして文章であれば、先ほど例に挙げていただいたように「●●っぽい」は人間でも起こり得るため一定の範囲で許容され、ときには歓迎されたりもしているわけです。ところが、絵だとそうでなくなっていきます。
小林 これは個人的な考えにはなってしまいますが、絵が1枚で完成されたものとして捉えられるのに対して、文章は一連の内容・文脈のかたまりで1つのものとして扱われるという違いはあるかもしませんね。
音楽もそのようなコンテンツではないかと。つまり絵のほうがその人の個性・スタイル=特徴が強烈に現われている。その特徴をコピーしてしまうと、それこそ「贋作」として受け止められてしまう。
―― 音楽であればラップのような「ミックス」という制作スタイル・ジャンルがあったり、文章でも共著があったりして文化として受容されていますが、絵はより個性に依拠していると言えるかもしれませんね。
将来はわかりませんが少なくとも現在はそこにAIが介在することに強烈な違和感、たとえばオリジナルが蔑ろにされているのではないかといった嫌悪感などが生まれてしまっている、ということかもしれません。
あと、先ほどのお話のなかで、「『1984』から学習してきたんだな」という、言わば出典がわかると一定の納得感も生まれ得るわけですが、一方で1枚の絵の中に『ここから学習したんだろうな』と類推できるにもかかわらず出自が明らかにされていないと、いわゆる「トレパク」じゃないのかという感覚が生まれてしまいますよね。
小林 先ほどの文章の検証のように、技術的には「どこから学習をしたのか」は本来ある程度は示せるはずです。絵を描いたクリエイターがAIサービスに学習されているかどうかを検証したい場合も、同様に確かめることもできるかもしれません(参考:NYタイムズ、オープンAIの提訴検討 現地メディア報道/日本経済新聞)。
ただ、自分が描いている絵が非常に特徴的であればそれも可能ですが、そうでなければ確認自体難しくなります。したがって、クリエイターの側からの「学習された」という立証は難しく、開発者でなければわからないということになってしまう。開発側が学習経路を出してくれなければ、クリエイターからはあくまで仮説を積み重ねることしかできないわけです。
―― ベータ版を公開即停止したmimicを思い出します。
ユーザー側が学習させる絵をAIに明示的に与えるタイプのサービスだったので、何を学習したかはハッキリしていて、それが批判を招いたわけですが、一方でネットのクローリングで学習対象が明示されていないStable Difusionや※Midjourneyがmimicのようには批判されていないのは、ある意味興味深いなと。
※MidjourneyではLoraと呼ばれる追加学習によって、特定の作風に沿った出力を得る手法も存在している。
そして、膨大な学習によって成立しているので、クリエイター側が自身の作品を学習/模倣されたと立証するのは難しい。自身の作品を発表して認知拡大を図ろうとすればするほど、AIに「模倣」されるリスクが高くなるというジレンマに陥ってしまいます。
小林 おっしゃる通りですね。
【mimicの今後の展開について】
— mimic(ミミック) (@illustmimic) September 14, 2022
先般はmimicベータ版へ多数のご意見を頂戴し、誠にありがとうございました。
皆様のご意見を踏まえた、mimicの今後の展開について説明させていただきます。長文となり恐縮ですが、ご一読くださいますようお願い申し上げます。 pic.x.com/aYwY0a5bRf
週刊アスキーの最新情報を購読しよう