画像生成AI「Stable Diffusion XL(SDXL)」の使い方 初めてなら「Fooocus」がオススメです
複雑化するStable Diffusion界隈
前回からずいぶん間が空いてしまったが、ようやく第3回である。
届いたパソコンに「Python」、「Git」、動作環境「WebUI(A1111版、以下「WebUI」と略記)」をインストールして、1枚目の画像を生成したところで前回は終わってしまったのだが、もちろんその後なにもせずに1ヵ月が過ぎてしまったわけではない。
実はこの後、プロンプトの研究、各種パラメーターの把握、モデルとVAE(オートエンコーダーの一種)の探求、様々なExtension(拡張機能)の導入、Custom Script、LoRA、ControlNet、LyCORISなどなど様々なことを調べ、試してはいたのだが……。
とにかく調べなきゃいけないことが多すぎる!!!
そもそもStable Diffusion自体が登場から1年もたっていないうえに、オープンソースで公開されているため、世界中の猛者たちが試行錯誤しながら毎日新たなテクニックを考案したり、新たなツールやモデルを開発・公開している世界だ。
それゆえ定番的なテクニックすらすぐに時代遅れになってしまい、毎日の情報キャッチアップが必要になってくる。
Web UI自体も頻繁にアップデートを重ねている上に、派生モデルやLoRA、別の人が開発したExtensionなどを導入していった結果、インストール時点から比べ物にならないほどUIも複雑化してしまった。
そしてとどめとなったのが7月27日に登場したStable Diffusionの最新バージョンとなる「Stable Diffusion XL 1.0(SDXL 1.0)」だ。
参考:最新の画像生成AI「SDXL 1.0」実写系イラストのクオリティがすごい!!
SDXL以前は「Stable Diffusion v1.5(SD v1.5)」が主流となっており、多くの派生モデルや拡張機能が開発されていたのだが、SDXLは以前のバージョンとかなり異なっている。
特に「Base」と「Refiner」という2つのモデルを組み合わせて使う必要があるため、当初「Stable Diffusion Web UI」では、少し面倒な手順を踏む必要(現在は対応済み)があった。
また、画像をある程度コントロールできる「LoRA」の多くは、SD v1.5用でSDXLには対応していないなど、互換性に問題がある。
以上のようなこともあり「さて、どこから説明していけばいいのやら……。」と悩んでしまっていたというのが更新が遅れた理由だ。
(いまごろ始めた『サイバーパンク2077』に時間を吸い取られてしまったことは別として)
週刊アスキーの最新情報を購読しよう
本記事はアフィリエイトプログラムによる収益を得ている場合があります