〈〈後編はこちら〉
AIと向き合うためのカギは「倫理」
AI関連サービスの急速な普及が、さまざまな混乱を巻き起こしている。本連載が扱う、マンガ・アニメの領域でも、たとえばpixivは「FANBOX」でのAI利用を禁止し、定番ツール「CLIP STUDIO PAINT」ではユーザーの反発を受けて、導入予定だったAIパレットの実装を取りやめるに至っている。
アニメ業界でも生産性の向上への期待がある一方、拒絶反応も大きいのが実情だ。技術以前に「AIとどう向き合うべきか」という倫理が問われている状況のなか、注目の書籍『AIの倫理リスクをどうとらえるか:実装のための考え方』リード・ブラックマン(白揚社)の翻訳者・小林啓倫さんにお話をうかがった。
■Amazon.co.jpで購入
-
AIの倫理リスクをどうとらえるかリード・ブラックマン、小林啓倫白揚社
「絵が勝手に使われる」という拒絶反応はどこから来るのか?
―― オンライン上の情報(作品)の特徴を大量に学習して、それを元に絵などを生成するというのが生成AIサービスの基本的な仕組みですが、そのことがクリエイターやユーザーの反発を招いています。この点をまずどう見ていますか?
小林 クリエイターとしては、描いて世に出したものは学習されるものだという前提で行動しなければならなくなったと思います。それはAIサービス――「AI=生成AI」ではない点には注意が必要ですが――を提供している事業者自体が、大量のサンプルデータ(教師データ)をAIに学習させることで優秀なサービスが生まれてきたことと表裏一体です。
ではどこから学習データを調達するかと言えば、本来は自前で用意できれば理想的なのですが、そんな大量のデータは用意できません。そこでネット上の情報をクローリング(巡回)して持ってきているわけです。
このクローリングの結果をもとに文章なり画像なりが生成されるため、「何かと似ている」ということは当然起こり得ます。そしてそれが文章であれば、たとえ「誰々の文章っぽい」言い回しが出てきても、著作権上問題だという意識にはなりにくいのです。
以前記事で紹介したこともあるのですが、ChatGPT4の解析をした人が、出力される文章にオーウェルの『1984』や、「ハリー・ポッター」の特定の巻数を学習しているのではないか、と指摘していたりもします。
私も検証したのですが、それらの作品からある部分のフレーズを持ってきてChatGPTに「これはどの作品からの引用ですか?」とたずねたところ、作品名を正確に答えました。
また、その続きを書くように指示したところ、まったく同一ではありませんが、非常に似た文章を返してきましたので、これはたしかに『1984』を学習しているな、と。
このように、手当たり次第クローリングしてAIに突っ込んで生成させるということを各社が競って実施いるわけですから、クリエイターからすればネット上に出したものは学習されるのだという前提のもと、対応をしていかねばなりません。
週刊アスキーの最新情報を購読しよう
本記事はアフィリエイトプログラムによる収益を得ている場合があります