著作権問題がクリアになればポストエフェクトに活用も
著作権関連の問題が複雑化していく一方、今から画像生成AIの技術がどう発達していくかについてのヒントも出てきています。中でも「今後生成系AIはこちらに動いていくのだろう」と感じさせられたのが、ポストエフェクト的な使い方でした。
ポストエフェクトというのは作成された画像に、後から色味の変更やライティングといったエフェクトをかけることで、より魅力的なものとして出力する方法です。処理が非常に重いため、CGの最終作成などに時間をかけて作成するものでした。しかし、この10年あまりの間に、コンピュータ性能の向上により、Unrel EngineやUnityといったゲームエンジンを使って、リアルタイムにポストエフェクトを使うことが当たり前になりました。今は1枚の画像生成にとても時間がかかっていますが、同じようなことが画像生成AIでも起こると予想がつくのです。
Yep, looks more stable. It's a totally different way of prompting and sometimes doesn't work at all but check out the background in this video. I want to see how much impact negative prompts make. How to use the text and image cfg etc
— TomLikesRobots (@TomLikesRobots) January 29, 2023
"Make it a Van Gogh Painting" pic.twitter.com/fqILt7QOvt
画像から画像を生成する「Image-to-Image(i2i)」機能を使って、コマ撮りにした人物をゴッホ風の絵画にして、コマ撮り動画にするという例が登場してきています。今は動画でないと実現は難しいですが、ゲームや3Dに応用すれば、ローポリなモデルを用意するだけで、テクスチャやライティングなどをAIがリアルタイムで生成してくれるようになるというわけです。これまでゲームや3Dでポストエフェクトにかかっていた膨大なコストという問題が一気に解決できるようになります。
すでにリアルタイム生成ということでも面白い試みが行なわれています。生成した画像にDepth情報を追加で作成し、それをヒントにして、画像の中を矢印キーで歩き回れるようにしているものです。現在は1コマ変わるのに3~4秒くらいかかってしまうんですが、問題なのは計算能力だけなのでチップ性能が上昇化していくことで、いずれ解決するでしょう。いずれ一般的なゲーム機並の60fpsで生成するのが可能な時代も来ると予想できます。
リアルタイムなキーボード入力処理を実装したら、ついにGenerativeお散歩ゲームが形になった!!!
— Izumi Satoshi (@izumisatoshi05) January 21, 2023
突然エッフェル塔が生えたりタイムリープしたり、そもそもfpsが0.3だったりで先は長いんだけど、Stable Diffusionが創る"世界"に触れさせてもらえた、というのが誠に感慨深い
夢の一つが叶った pic.twitter.com/sdOMkpAKmj
極端な想像をするならば、現在の家庭用ゲーム機の世界では、限りなくリアルに近づいたグラフィックスを再現するための、アセットと呼ばれる3Dの素材を作成するコストが跳ね上がっています。しかし、より低コストで生成した、単純なポリゴンで構成された世界を、画像生成AIのi2iを使うことで、複雑な世界を自由に動き回れるようになる世界を作り出すことも、そう遠くない未来に実現されるであろうことが予想できます。
簡素に作った3Dデータを、様々なタッチで好きなように動かせるようになるという世界観。メタバースのような場所も、自分が求める雰囲気の世界を生成し、そこに簡単に入って歩き回れるようになるでしょう。
10年以内にGPUメーカーが「最新のチップでは、画像生成AIを使うことで過去のゲームを〇〇風の画像で60fpsで遊べる」ということを大きな売りにしてきたとしても驚くべき出来事ではないと思います。そうしたことが実現する頃までに、著作権問題について何らかの社会的な決着がついているといいのですが。
週刊アスキーの最新情報を購読しよう
本記事はアフィリエイトプログラムによる収益を得ている場合があります