Step 05

応用
ワークフロー

ControlNet・Flux・AnimateDiff・Hires.fix・Inpainting…
実践的な応用ワークフローを全部解説します。

スクロールして読む

Step 3〜4でノードの基本とモデル・カスタムノードの導入方法を学んだあなたは、いよいよ応用ワークフローに挑戦できます。ここで紹介する5つのワークフローを身につければ、ComfyUIでほぼ何でも作れるようになります

ControlNetで
ポーズ・構図を制御する

🎭
CONTROLNET WORKFLOW

骨格・深度・輪郭でポーズを固定

中級

ControlNetは入力画像の構造情報(骨格・輪郭・深度など)を保持しながら、プロンプトで指定した画風で画像を生成する技術です。

ControlNetの主な種類

🦴

OpenPose

人体の骨格を検出。ポーズを完全に再現した画像を生成できる。

🔲

Canny / Lineart

輪郭線を抽出。キャラクターの形状を保ちながらスタイルを変更。

📐

Depth

深度マップを使用。3D的な空間構造を保ちながら変換。

🎨

Reference

参照画像のスタイルや配色を他の画像に適用する。

ControlNet ワークフローの流れ

Load Image AIO Preprocessor Load ControlNet Apply ControlNet KSampler VAE Decode Save Image

主なパラメーター

パラメーター意味推奨値
strengthControlNetの影響の強さ0.6〜0.9(強すぎると硬くなる)
start_percentControlNetを適用し始めるステップ割合0.0(最初から)
end_percentControlNetを終了するステップ割合0.8〜1.0
💡

必要なもの: ControlNet Auxカスタムノード(プリプロセッサー用)と、Civitaiからダウンロードしたモデルに対応したControlNetモデルファイル(ComfyUI/models/controlnet/に配置)。

Fluxで最高品質の
画像を生成する

FLUX WORKFLOW

次世代モデルFluxを使いこなす

中級

FluxはSD系モデルと構造が大きく異なります。UNet・CLIP L・T5 XXL・VAEの4ファイルを別々に読み込む必要があります。

Flux専用ワークフローの流れ

Load Diffusion Model DualCLIPLoader CLIP Text Encode(Flux) EmptySD3LatentImage KSampler / ModelSamplingFlux VAE Decode Save Image

Flux専用の設定ポイント

設定Flux [dev]Flux [schnell]
steps20〜30ステップ4〜8ステップ(高速)
cfg1.0〜3.5(低め!)1.0(固定推奨)
samplereuler / dpm++2meuler
schedulersimple / betasimple
ネガティブプロンプト不要(空白でOK)不要
⚠️

Flux [dev] の利用条件: Flux devはFluxDevライセンスにより、商用利用は別途ライセンス取得が必要です。個人利用はOK。商用なら Flux [schnell](Apache 2.0)を使用してください。

VRAM不足の場合:量子化モデルを使う

  • GGUF版(Q4/Q5/Q8): Civitaiで「Flux GGUF」と検索。VRAMを大幅削減でき、8GB GPUでFlux devが動く。
  • fp8版: 12GBのVRAMがあればfp8版でほぼフルクオリティで動作可能。
  • NF4版: 6〜8GBのVRAMでも動作可能な超圧縮版。画質は若干低下。

AnimateDiffで
動画・アニメーションを作る

🎬
ANIMATEDIFF WORKFLOW

静止画をアニメーションに変換

上級

AnimateDiffは静止画生成のプロセスに「時間軸」を追加し、滑らかなアニメーションを生成する技術です。ComfyUI-AnimateDiff-Evolvedカスタムノードが必要です。

AnimateDiff 基本ワークフロー

Load Checkpoint Load AnimateDiff Model AnimateDiffLoader CLIP Text Encode ×2 KSampler(フレーム数分) VAE Decode × Frames Save as GIF / MP4

主な設定と目安

設定内容目安
frame_count生成するフレーム数16〜32フレーム(VRAM次第)
context_length一度に処理するフレーム数16(標準)
fpsフレームレート8〜16fps
beta_scheduleノイズスケジュールlinear(AnimateDiff専用)
  • モーションLoRA: ズームイン・ズームアウト・パン・回転など特定の動きを追加できます。
  • SD 1.5ベースモデルを使用: AnimateDiffはSD 1.5系モデルと組み合わせる場合がほとんどです。
  • 必要VRAM: 8GB以上推奨。フレーム数が多いほどVRAMを消費します。

Hires.fix & アップスケール
で解像度を上げる

🔍
UPSCALE WORKFLOW

高品質・高解像度に引き上げる

初中級

一度生成した画像を高解像度に引き上げる方法は2つあります。Latent Upscale(Hires.fix)モデルベースアップスケール(ESRGAN等)です。

方法① Latent Upscale(Hires.fix相当)

KSampler(1回目:低解像度生成) Latent Upscale by KSampler(2回目:denoise 0.4〜0.7) VAE Decode Save Image

方法② ESRGANモデルアップスケール

VAE Decode(通常生成) Load Upscale Model(ESRGAN等) ImageUpscaleWithModel Save Image(2〜4倍高解像度)
💡

おすすめアップスケーラー: 写真系なら RealESRGAN x4plus、アニメ・イラストなら 4x-AnimeSharp4x_NMKD-Siax が人気です。models/upscale_models/ に配置して使います。

Inpaintingで
画像の一部を書き換える

🖌️
INPAINTING WORKFLOW

特定エリアだけをAIで塗り替える

中級

Inpaintingはマスクで指定した領域だけをAIで再生成する技術です。背景を変えたり、不要なオブジェクトを消したり、顔だけを修正するのに使います。

Inpainting ワークフロー

Load Image + Mask VAE Encode (for Inpaint) KSampler VAE Decode Save Image
  • マスクの作り方: ComfyUI内のLoad Imageノードから「Open in MaskEditor」でブラシを使って塗れます。
  • denoise値: 0.5〜0.9が一般的。低いほど元画像に近く、高いほど大きく変わります。
  • Inpaint専用モデル: SD1.5の場合は「sd-v1-5-inpainting.ckpt」など専用モデルを使うと品質が上がります。
  • Impact PackのFaceDetailer: 顔専用のInpainting自動化ノード。生成した顔をワンノードで高精細に修正できます。
🎯

実践Tips: 全体を低解像度で生成→アップスケール→顔だけFaceDetailerで再生成、という流れが高品質な人物画像を作る定番の手順です。

他人のワークフローで
学ぶのが最速!

ComfyUIは「他人が作ったワークフローをそのまま使って学ぶ」文化が盛んです。以下のサイトで公開ワークフローを探してみましょう。

🌐 CIVITAI

Civitai Workflows

モデルと一緒にワークフローも多数公開。画像から直接ワークフロー復元も可。

🎨 OPENART

OpenArt Workflows

多数のComfyUIワークフローがカテゴリ別に整理されて公開されている。

⚙️ COMFYWORKFLOWS

ComfyWorkflows.com

ComfyUI専門のワークフロー共有サイト。JSON直接ダウンロード可能。

// 全5ステップ 完走!

ComfyUI完全マスター
おめでとうございます 🎉

Step 1からここまで読んでいただきありがとうございます!
あとは実際に手を動かして、自分だけのワークフローを作ってみましょう。
ImagInAIでは最新のAI画像生成情報を発信中です。

// プロンプトで直せない悩みを解決

手足崩れ修正サービス

← ホームに戻る