
前回の記事で、長々とGoogle Colaboratoryを使ってStable Diffusionを動かす方法をご紹介しましたが、実はもっと簡単に試せる方法があります。
AI開発者向けコミュニティサイト「Hugging Face」で公開されているオンラインデモ版です。
利用するには「Hugging Face」でユーザー登録する必要がありますので、前回の記事を参考にユーザー登録を済ませておいてください。
Stable Diffusion 2.1 Demo
使い方はとても簡単。
「Enter your pronpt」の入力欄に、試したいプロンプトを入力し、「Generate image」ボタンをクリックするだけ。

Google Colaboratoryを使ってStable Diffusionを動かす方法より多少時間はかかりますが、それでも数分程度で完了するので、何かの作業の合間に実験して出力結果を確認するという「ながら作業」がオススメです。
(2022年12月10日追記)
Stable Diffusionオンラインデモがversion 2から2.1にアップデートされました。
変更点は以下の通り
- 出力解像度が 512×512px から 768×768px に上がりました
- ネガティブプロンプトが入力できるようになりました。出力から除外したい要素を英語で入力してください
- オプションで “Guidance Scale” を指定できるようになりました
- Guidance Scaleとは画像とプロンプトの近似度のこと。数値が高いほど、入力した文字列の内容に沿った画像が出力されますが、高すぎるとかえっていびつになります。「7~12」あたりが適当でしょう。
注意点:
唯一注意点があるとすれば、頻繁にビジー状態になってエラーが発生することです。
それでも何度も再試行しているとそのうちプロンプトが実行されるのでトライ&エラーでやってみましょう。
このデモ版でどんな風に出力されるのかテストしたのち、Google Colaboratoryを使って本格的に出力を試みるのが良い使い方かなと思います。
Stable Diffusion バージョン 1.4と2の比較
(2022年12月追記)
Stable Diffusion オンラインデモのバージョンが2にアップデートされました。
前バージョン1.4と2の比較資料を掲載しておきます。


すべて同一のプロンプトでの出力結果です。
比較して見ると、バージョン2の方がエッジがマイルドというか、より柔らかい表現になっている印象です。
対してバージョン1.4はエッジがシャープで明暗のコントラストが強い傾向にあります。
かなり大幅な学習内容の変更かと思われるため、それぞれのバージョンの傾向を把握して、必要あらば適宜、新旧のバージョンを行き来して利用しましょう。
旧バージョン1.4へのリンクはこちら↓
Stable Diffusion 1 Demo
Baseten上のオンラインデモ(version 2)もあります
上記のオンラインデモは「Hugging Face」のものですが、「Baseten」という別のAI開発者向けプラットフォームにもデモ版が用意されているので利用させてもらいましょう。
Stable Diffusion 2 on Baseten

こちらはHugging Faceのものより出力に時間を要しますが、その分 768×768 という大きめの解像度で出力できるのが魅力的です。(ただし一回の出力で一枚しか生成できませんが)
プロンプトをどうやって書いたらいいかわからない!という方へ
Stable Diffusionを使いたいけど、プロンプトをどうやって書いたらいいかわからない!という方に向けて、コピー&ペーストするだけでOKなサンプル集へのリンクや、プロンプト記述補助ツールを紹介したページを作りました。