「性的画像が出にくい」のはv2.1と同じ
Stability AIは、SDXLのデータセットを何から学習したのか明らかにしていません。ドイツの非営利団体LAIONが収集した画像データセットを使っていることが権利的に問題視されていることもあり、今回は学習データ元については明かさない方針にしたものと見られます。
学習元のデータについてはかなりオプトアウトで減らしたと言われています。オプトアウトを進める団体の発表によると画像投稿サイトをドメインごとすべてオプトアウトにする機能がついたので、5月時点で1億4000枚以上は減らしているとしています。そういった影響もあってか、性的画像は出にくくなりました。「足を開いて性器を見せる」などと露骨な指定をしても、まったく出ません。
実は、昨年11月にリリースされたStable Diffusion v2.0のときから既に「性的画像が出にくくなった」という指摘はあったんですね。Stable Diffusion v1.5で「性的画像が出やすい」という批判を受けたため、学習データを除外したり、アルゴリズム的な工夫をしたとも言われています。ただ、そのためにv2.0では人体の学習量が足りないと言われており、人物の画像は腕や足や指がぐちゃぐちゃになりやすい傾向があります。良くも悪くも性的な画像にはヌード画像が多く含まれていて、人体の形状について学習しやすかったようなんです。そのためv2.0はその後にユーザーが追加学習を進めたデータセットでも、人体はきちんと出ない傾向があり、今だにv1.5よりも品質が低いといわれます。
一方のSDXLは、少なくとも人体の描写は全体的にはきちんと出ています。学習データ量を増やすことで補っているようで、新バージョンが出たのに、あまり流行らないという状況は起こらないのではと思っています。
また、同社のCEOのEmad Mostaque氏により、LoRAといった追加学習機能やControlNetといった構図などをコントロールする仕組みへの対応が完了していること、WebUIといったStable Diffusion動作用に普及している環境でも動作が確認されていることがアナウンスされています。v2.0系では中途半端な対応で人気が出なかったという背景もありましたが、SDXLについては環境をしっかり対応してローンチを迎えるように準備を進めているようです。
For those asking on the #SDXL open release some notes from our Applied ML team lead @MysteryGuitarM
— Emad (@EMostaque) June 24, 2023
We are trying to learn & improve from community feedback, appreciate you & look forward to the great things you’ll create 🙏 pic.twitter.com/LeI8YmuSXN
週刊アスキーの最新情報を購読しよう
本記事はアフィリエイトプログラムによる収益を得ている場合があります