ComfyUI.Tokyo

SD1.5 ContrlNet Canny

下記のサイトのworkflow、プロンプトを活用させていただきました。

感謝申し上げます。

Workflow

SD15_ContrlNet_Canny.json

SD1.5 Canny ControlNetの概要

Stable Diffusion 1.5(SD1.5)におけるCanny ControlNetは、画像生成AIにおいて非常に人気の高い拡張機能です。以下にその仕組みと特徴をわかりやすく解説します。

Canny ControlNetとは

  • Cannyエッジ検出アルゴリズムを使って、入力画像から輪郭(線画)を抽出
  • 抽出された線画を元に、Stable Diffusionが新しい画像を生成
  • 元画像の構図やポーズを保ちつつ、色やスタイルを変更可能

主な特徴

  • 構造保持:元画像のアウトラインを忠実に維持
  • 柔軟性:エッジ検出の強度をパラメータで調整可能
  • 応用範囲:スケッチ、建築デザイン、イラストの着色など多岐にわたる
  • 安定性:他のControlNetモデルと比べて予測可能な結果が得やすい

使用手順(ComfyUIの場合)

  1. モデルの準備
    • SD1.5ベースモデル(例:dreamshaper_8.safetensors)
    • Canny ControlNetモデル(例:control_v11p_sd15_canny.pth)
    • VAEモデル(任意)
  2. 画像の読み込みとエッジ検出
    • `LoadImage`ノードで画像を読み込み
    • `Canny`ノードでエッジ検出(low_threshold / high_threshold を調整)
  3. ControlNetの適用
    • `ControlNetApplyAdvanced`ノードで強度や影響範囲を設定
    • `strength`値でエッジの追従度を調整(例:1.0で完全追従)
  4. 画像生成
    • プロンプトを入力(ポジティブ/ネガティブ)
    • `KSampler`ノードで生成パラメータを設定(steps, cfg, samplerなど)

活用例

  • 実写画像を線画化してアニメ風に変換
  • イラストの髪色や服装だけを変更
  • 同じ構図で異なるスタイルの画像を生成

checkpointとからの信号は、KSampler(model)へ接続されます。

Clipの信号は、両promptを通りApplyt ControlNetを経てKSamplerに接続されます。

Applyt ControlNetのは、ControlNetのmodel、Cannyを接続します。

models

エッジの効果を試したくて、メカニカル・ロボット・girlみたいなプロンプトでいつものWorkflowで画像生成しました。

これを実験材料にしましょう。

いかがでしたか。


Link