【Stable Diffusion】ControlNetの深度情報用モデル『depth』の使い方を解説!

AIイラスト

    ※当ブログはアフィリエイト・アドセンスによる収益で運営されています。

こういったお悩みにお答えします。

Stable Diffusionに必須と言っても過言ではない拡張機能のControlNetですが、さまざまなモデルが。それぞれに特徴が違うため、どう使い分ければいいのかわかりづらいですよね。

openposeしか使っていない方も多いのでは?

この記事では

これらについて解説していくので、最後まで読むとControlNetのモデル『depth』を使ってイラストを生成する方法がわかります。

この記事ではControlNetの『depth』というモデルについて解説していますが、ControlNet全体や他のモデルについて知りたい方は以下の記事も合わせてお読みください。

>>【Stable Diffusion】拡張機能ControlNetの使い方を解説!

【Stable Diffusion】ControlNetの深度情報用モデル『depth』の特徴とは?

深度情報からイラスト生成

depthを使うと、元画像の深度情報を元にイラストを生成することができます。

『深度情報ってなんやねん』という話ですが

サンプルイラスト
このイラストの深度情報を可視化したマップを作成してみると

leres++サンプル
こんな感じです。手前にある要素ほど白く、奥にある要素ほど黒く表現されているのが特徴。

depthではこの深度情報をベースにイラストを生成するため、元画像の奥行きを再現したいときに使うのがおすすめのモデルです。

leres++再現イラスト
depthで先ほどの深度マップを元に新しくイラストを生成するとこんな感じに。

depth比較
元画像と比較してみると、右手のポーズはもちろん髪の動きもしっかりとトレースできていますね。

その一方、ほぼ何の情報も取得できていない背景に関しては完全オリジナルになっています。

openposeとの比較

今回のイラストを『openpose』で再現してみると

openposeサンプル
このように右手がうまく描けていませんし、なぜか猫耳も生えています。openposeで抽出したボーン情報では

ボーン情報
人体の重なりをうまくトレースできないことも多いためです。

猫耳の有無や髪の動きの情報も含まれていないので、元のイラストとは違ったヘアースタイルにもなっていますね。

もちろんopenposeの方が的確に再現できるケースもあるので、生成したいイラストの特徴によってモデルを使い分けましょう。

ControlNetの深度情報用モデル『depth』の導入方法


depthを導入するには、前提としてControlNetという拡張機能の導入が必須です。

ControlNet未導入の方は以下の記事を参考にインストールしておいてください。

>>【Stable Diffusion】拡張機能ControlNetの使い方を解説!

ControlNet導入済みの方は

depthダウンロードページ
Hugging faceに飛び

    control_v11f1p_sd15_depth_fp16.safetensors

という約700MBのファイルを入手してください。

ダウンロードが完了したら

depthモデル格納場所
『stable-diffusion-webui』→『extensions』→『sd-webui-controlnet』→『models』の中に放り込めば完了です。

その後はStable Diffusionを再起動してもいいですし

depthモデル更新
ControlNet内のモデル選択画面で更新アイコンを押すことでも追加したモデルが反映されます。

ControlNetの線画用モデル『depth』の使い方


depthを使うときは
depth使い方①

  • 参考にする画像をドラッグ&ドロップする
  • Enableにチェックを入れる
  • Preprocessor:depth leres++
  • Model:control_v11p_sd15_depth_fp16
  • 他の項目:そのまま

これらを設定して『Generate』ボタンを押してください。

深度情報の抽出
元イラストから深度情報を抽出し

深度情報からイラスト生成
深度情報をもとに新しいイラストが生成されます。

色に関する情報が含まれていないのもdepthモデルの特徴。

金髪版
『blond hair』と入力しておけば、簡単に髪などの色を変えることができます。

髪色ランダム
ランダムでいろいろな髪色を試して、気に入ったイラストを採用することも可能。

逆に言うと、色の情報を引き継いでくれないため『元画像から色は変えたくない』という場合にはimg2imgなど他の手段を使った方がいいでしょう。

4つのPreprocessorの比較検証

depth系のPreprocessorは

  • depth leres
  • depth leres++
  • depth midas
  • depth zoe

これら4種類がありますが、基本的にはdepth leres++がおすすめ。

depth系Preprocessor比較
比較してみると、depth leres++が一番細かく深度情報を取得できています。

とりあえず筆者はいつもdepth leres++を選んでいますが、元画像や使用環境によって結果が異なる可能性もあります。気になる方はご自身の環境で比べてみてくださいね。

『depth library』を使うと手・指を修正できる


depthの原理を利用した『depth library』という拡張機能を使うと、生成したイラストの手・指をピンポイントで修正することができます。

修正前サンプルイラスト
手の形がおかしいイラストに対して

depth-library使い方⑤
depth libraryを使って手の深度情報を設定すると


正しい形に修正することが可能。手がうまく描けなくてお悩みの方はぜひ導入してみてください。

depth libraryの詳しい使い方や導入方法は以下の記事で解説しています。

>>https://freeblog-video.com/stable-diffusion_extensions_depth-library/

もっとスムーズにイラストを生成したいなら…


もしあなたがもっと快適にAIイラストを生成したいなら、グラボを見直してみるのがおすすめです。

グラボはAIイラストを生成するうえで最も重要なパーツ。いくらCPUやメモリが高性能でもグラボがしょぼかったら致命的です。

本格的に取り組んでいくのなら、グラボにはケチらず投資しましょう。最低でも12GBのVRAMは確保しておきたいところ。VRAMが2GB・4GBくらいしかない古いグラボだと高解像度化や学習に大きな支障が出てしまいます。

コスパを重視する方・予算が5万円以下の方はRTX 3060一択と言っていいでしょう。

もう少し予算が確保できて、さらにハイスペックなグラボに興味がある方は以下の記事もお読みください。きっとあなたに合ったグラボが見つかりますよ。

>>【コスパ重視】Stable Diffusionにおすすめのグラボ3選!

PCごと買い替えを検討している方は以下の記事をお読みください。快適にStable Diffusionを使えるマシン3選を紹介しています。

>>Stable Diffusionにおすすめのパソコン3選と推奨スペックを解説!

生成した大量のイラストを簡単に管理する方法


Stable Diffusionで生成した大量のイラストを効率的に管理するなら『Eagle』というツールがおすすめ。

Eagle使い方①
イラストを生成するとメタデータが自動でEagleに送られ、タグやメモとして保存されます。このタグを使うことで検索や管理がとても楽ちん。

Eagle使い方②
例えば『a dog』というタグで検索すると、そのプロンプトで生成されたイラストだけを表示することができます。『あのイラストどんなプロンプトで生成したっけ?』『LoRAのトリガーワード忘れた』なんて迷わずに済みますよ。

Eagleは本来『約4,000円・買い切り型』の有料ツールですが、30日間の無料体験ができるので、とりあえず試してみてください。

>>公式サイトでEagleを無料体験してみる

『【Stable Diffusion】ControlNetの深度情報用モデル『depth』の使い方を解説!』のまとめ

  • depthはControlNetで使えるモデルの一つ
  • 深度情報を抽出し、それをもとにイラストを生成してくれる
  • 元画像の奥行き保ったまま色を変えたいときなどに使ってみよう

ここまでお読みいただきありがとうございました!

他にもわからないことがあったら以下の記事をお読みください。初心者向けにStable Diffusionの使い方を一から解説しています。

>>【完全初心者用ガイド】Stable Diffusionの使い方を徹底解説!