ComfyUI.Tokyo

SD15_InpaintModelConditioning 一番簡単なインペイント

inpaint の実現は主に三つの方法があります。

inpaint手法 役割
VAE Encode (for inpainting) マスク付き画像を latent space に変換
SetLatentNoiseMask マスク領域にノイズを注入し、再生成対象を明示
InpaintModelConditioning マスク情報と元画像の文脈を使って、生成内容を制御

InpaintModelConditioning は、Stable Diffusion 1.5(SD1.5)での inpainting(画像の一部を補完・再生成する処理)において、マスクされた領域に対して適切な生成を行うための条件付け(conditioning)を行うステップです。

以下にその特徴を解説します。

InpaintModelConditioning の特徴

  1. マスク情報を活用した条件付け
    • マスクされた領域(再生成したい部分)と、元画像の未マスク領域(保持したい部分)を区別して処理。
    • モデルは「どこを再生成すべきか」「どこを保持すべきか」を理解するために、マスク情報を条件として受け取る。
  2. 元画像の文脈を保持
    • 未マスク領域の情報を使って、マスク領域に自然な補完を行う。
    • たとえば、顔の一部がマスクされている場合、残りの顔の特徴を参考にして、違和感のない補完を行う。
  3. テキストプロンプトとの融合
    • テキストプロンプト(例:「青い空を背景にした女性」)とマスク情報の両方を使って、生成内容を制御。
    • これにより、マスク領域に対してプロンプトに沿った内容を生成できる。
  4. 特殊なモデルアーキテクチャ
    • 通常のテキスト条件付き生成とは異なり、inpainting用に訓練されたモデル(通常は inpainting suffix が付いた checkpoint)を使用。
    • このモデルは、マスク情報を追加の入力として受け取るように設計されている。

応用例

  • 顔の一部を修復(例:目だけを再生成)
  • 背景の変更(例:建物の一部を空に置き換える)
  • オブジェクトの削除・追加(例:人物の隣に動物を追加)

workflow

SD15_InpaintModelConditioning.json

目の向きが変わってしまいました。


Link