Stable-Diffusion Controle Netの使い方のおぼえがき

目次

Stability Matrix Web UI Forgeを使いたい

同じ環境のPCで1024×1024の画像生成にかかる時間が約3分から約30秒に短縮してました

安定性やStable-Diffusionとの違いを覚えるのが大変ですが、ぜひ導入したいところだと思います

ステーブルディフュージョン(Stable Diffusion)できれいな画像を効率よく作成するための情報を紹介しているブログをいくつか見つけました。以下に、それぞれのブログの主要なポイントをまとめます。

1. 菊学ブログ:Stable Diffusion拡張機能の活用

このブログでは、Stable Diffusionの拡張機能を使って画像生成の効率を上げる方法を紹介しています。主な内容は:

  • ControlNet:既存の画像を元に新しい画像を生成する機能
  • Latent Couple:複数の画像を組み合わせて新しい画像を作成する機能
  • Depth to Image:深度マップを使って3D的な画像を生成する機能

これらの拡張機能を使うことで、より細かい制御や複雑な画像生成が可能になります。

2. ひかりAIアート:基本的なコツと呪文一覧

このブログでは、Stable Diffusionで画像を生成する際の基本的なコツを3つ紹介しています:

  1. プロンプトの書き方:細かい指示を含めることで、より意図した画像を生成できる
  2. ネガティブプロンプト:不要な要素を除外することで、クオリティを上げられる
  3. サンプリング方法とステップ数:適切な設定で画質と生成速度のバランスを取る

また、効果的な呪文(プロンプト)の一覧も提供されており、これらを参考にすることで効率的に質の高い画像を生成できます。

3. EdgeHUB:プロンプトのコツ

このブログでは、Stable Diffusionのプロンプト作成に関する詳細なコツを紹介しています:

  • キーワードの順序:重要な要素から順に記述する
  • 詳細な指定:画像の構図、スタイル、色彩などを細かく指定する
  • アーティスト名の活用:特定のアーティストのスタイルを参考にする
  • 重みづけ:括弧を使って特定のキーワードの重要度を調整する

これらのテクニックを組み合わせることで、より意図に沿った高品質な画像を効率的に生成することができます。

Stable-Diffusion Controle Netの使い方のおぼえがき

ControlNetはControlNetの欄に下のような元画像を用意して、

  • Promptをいれて
  • プリプロセッサを入れ、
  • モデルを指定して
  • 生成する

ことで、ポーズを指定した画像が生成できる。

このようにほぼ同じポーズのイラストが生成されます。

プリプロセッサとモデルは、よくわからないならcannyでOK(?

PCで自前生成した画像は保存する必要ないです

※生成した画像はStableDiffusionのoutputフォルダに保存されてるので、自分で保存する必要はなし

むしろ、生成失敗したのは定期的に消さないとSSDがやばい。

Stable-Diffusion Controle Netの使い方のおぼえがき

絵柄については、安定拡散チェックポイントで指定したモデル?で、決まる模様。

どんな絵が出力されるかは、PromptとBad Promptの内容もかなり影響する。

背景指定は、simple_Backgroundが無難っぽい?

White_Background とか、Green_Background など、色を指定すると白髪になったり、服が緑になるなどもよくある💦

Controle-netの使い方

Controle-netの使い方で、よく使われそうな機能は次の3つ

  • 棒人間でポーズを指定して画像を生成 (open pose / editor)
  • 画像からポーズを割り出して画像を生成
  • 線画抽出して着彩した画像を生成 (canny)

Open Pose Editorについて

ControlNetを使うと生成するキャラのポーズを厳密に指定することができるが、

無料の拡張機能「Openpose Editor」をつかえば、絵を用意しなくてもポーズが指定できる

導入については、

くろくまそふとさんを参照

当方の環境だと、

  • txt2imgに送る
  • img2imgに送る

を押しても機能しないので、pngを保存してコントロールネットの画像指定枠に放り込めば使えるようになる。

使ったところの様子はこんな感じ

  1. Openpose Editorでモデルにポーズをとらせる
  2. pngを保存
  3. コントロールネットの画像枠にpngをドラッグドロップ
  4. Prompt、バッドプロンプトを指定
  5. プリプロセッサを 「なし(none)」
  6. モデルを「Open pose16・・」などの、OpenPoseを使えるモデルに変更
  7. 生成する

という手順になる

画像からポーズを割り出して画像を生成

  1. コントロールネットの画像枠にベースとなる画像をドラッグドロップ
  2. Prompt、バッドプロンプトを指定
  3. プリプロセッサを 「open pose」
  4. モデルを「Open pose16・・」などの、OpenPoseを使えるモデルに変更
  5. 生成する

画像からポーズを判定して、画像を生成してくれる。

canny (線画抽出して画像を生成して着彩)

  1. コントロールネットの画像枠にpngをドラッグドロップ
  2. Prompt、バッドプロンプトを指定
  3. プリプロセッサを 「canny」
  4. モデルを「canny」モデルに変更
  5. 生成する

線画を抽出して着彩してくれる

自分の描いた画像をベースに色を塗った画像を生成してもらう

用紙色:白に黒の線で描いたイラストをベースに色を塗ってもらいます。

着彩できるのは、原則として一人だけです。

また、線画は選択したモデルをベースに再生成されるので、描いた線画に忠実に色を塗ってくれるわけではないようです。

  1. コントロールネットの画像枠にpngをドラッグドロップ
  2. Prompt、バッドプロンプトを指定
  3. プリプロセッサを 「none」
  4. モデルを「canny」モデルに変更
  5. scribble mode(invert color)にチェックを入れる (用紙色=黒に白で絵を描けば不要)
  6. 生成する

線画からポーズを抽出して画像を生成して着彩してくれます。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

コメント

コメントする

目次