ComfyUI ControlNet・構図制御ガイド|7つの手法と選び方
テキストプロンプトだけでAI画像を生成していると、「構図が毎回変わってしまう」「窓の位置やポーズを思い通りにできない」という壁にぶつかります。文章だけで空間の奥行きや人物の姿勢を精密に伝えるのは、実際にはかなり困難です。建築図面ならサイズ線や断面指示で寸法を固定できますが、テキストプロンプトにはそうした精密な拘束力がないためです。
ControlNet(コントロールネット)は、参照画像から構造情報を抽出し、生成プロセスに反映させる追加ネットワークです。ComfyUI(ノードをつないで画像生成AIを動かすツール)と組み合わせると、輪郭線・奥行き・ポーズ・スケッチなど多彩な切り口で構図をコントロールできます。
この記事では、ComfyUI ControlNetの構図制御を7つの手法に分けて、全体像を通して把握できる形でまとめました。どの手法をどんな場面で選べばよいか、選び方の目安も添えています。各手法の詳しい設定手順は配下の個別ガイドで解説しています。
ControlNetとは?構図を画像で指示する技術
ControlNetは、Stable Diffusion(画像生成AIの代表格、テキストから画像を生成するモデル)などの拡散モデルに「構造的な条件」を追加するニューラルネットワークです。テキストでは伝えにくい構図の情報を、画像として渡せる仕組みと考えるとわかりやすいでしょう。建築の世界でたとえるなら、平面図や立面図をAIに下敷きとして渡し、その骨格を保ったまま仕上げ表現だけを変えていくイメージに近い技術です。
処理の流れは2段階です。まず、プリプロセッサ(前処理モジュール)が入力画像から特定の構造情報だけを抽出して「制御マップ」を生成します。次に、ControlNetモデルがその制御マップを拡散モデルへ注入し、指定された構造を保った画像を生成します。
たとえばCanny(エッジ検出)を通すと輪郭線だけの白黒画像が得られ、Depth(深度マップ)推定器を通すと手前が明るく奥が暗いグレースケール画像になります。元画像の色やテクスチャには影響されず、骨格だけを生成に活かせる点がControlNetの特長です。つまり「この構図を保ったまま、別の素材やトーンで描き直す」という作業が、手作業のトレースなしで実行できることになります。
ControlNetの基本的な仕組みや導入手順は、ControlNet概要と使い方|ComfyUIでの接続方法で詳しく解説しています。
7つのControlNet手法一覧と選び方
ControlNetにはさまざまなプリプロセッサとモデルの組み合わせがあります。工具箱にノミ・カンナ・ノコギリが並ぶように、ControlNetにも「何を固定するか」によって使い分ける手法が揃っています。ここでは、実務で使用頻度の高い7つの手法を一覧にまとめます。
| 手法 | 制御対象 | 適した場面 |
|---|---|---|
| Canny | 輪郭線(エッジ) | 建築図面やCADデータからの変換 |
| Depth | 奥行き(深度マップ) | 室内パースの空間構造維持 |
| OpenPose / DensePose | 人体のポーズ | 人物の姿勢指定・建築パースへの人物配置 |
| Scribble | ラフスケッチ | 手描きの落書きからの画像生成 |
| Lineart | 精密な線画 | 完成度の高いスケッチや図面からの変換 |
| IPAdapter | スタイル(色彩・質感) | 参照画像のトーンを別の画像に反映 |
| 複数併用 | 上記の組み合わせ | 空間+ディテール+ポーズの同時制御 |
選び方の基本は「何を固定したいか」で決まります。輪郭を残したいならCanny、空間の奥行きを守りたいならDepth、ポーズを指定したいならOpenPoseです。手元にラフスケッチしかなければScribble、精密な線画があればLineartを選びます。
テキストでは伝えにくい「雰囲気」や「色のトーン」を指定したい場合は、IPAdapterが適しています。そして、1つの手法では制御しきれない場面では複数ControlNetの併用で役割分担するのが扱いやすい進め方です。建築パース制作の現場でも、構図はDepthに任せ、ディテールはCannyで補うといった併用が定番化してきています。
ControlNetの導入と基本接続(ComfyUI)
ComfyUIでControlNetを使い始めるには、2つの準備が必要です(2026年4月現在)。CAD(設計図面を作成する設計ソフト)で外部参照を扱う前に、参照ファイルとプラグインを揃えておくのと似たステップです。
1つ目は、ControlNetモデルの配置です。使用するベースモデル(SD1.5 / SDXL / Flux)に対応したControlNetモデルをダウンロードし、ComfyUI/models/controlnet/ フォルダに配置します。SDXL(Stable Diffusionの高解像度版、SDの後継モデル)環境ではxinsir氏の「ControlNet Union ProMax」が1モデルで12種の制御に対応しており、ファイル管理の手間が減らせます。
2つ目は、プリプロセッサノードの導入です。ComfyUI本体にはプリプロセッサが含まれていないため、Fannovel16氏が配布する「comfyui_controlnet_aux」をComfyUI Managerからインストールします。
基本のノード接続は3ステップで完了します。
- Load ControlNet ModelノードでControlNetモデルを読み込む
- Apply ControlNetノードで、制御マップ画像とテキスト条件を結合する
- 出力をKSampler(画像生成の中核ノード、ノイズから画像を作る)に接続して生成を実行する
strengthパラメータで制御の強さ(0.0〜1.0)を調整し、start_percent / end_percentで適用区間を指定できます。実務では、strengthを0.7〜0.85、end_percentを0.7〜0.9に設定するケースが海外コミュニティでも多く報告されています。強すぎるとプロンプトの自由度が失われ、弱すぎると構図が崩れるため、目的に応じた微調整が仕上がりを左右します。
導入手順やパラメータの詳細は、ControlNet概要と使い方|ComfyUIでの接続方法を参照してください。
主要プリプロセッサの特徴と使い分け
ControlNetの制御品質は、プリプロセッサの選択で大きく変わります。どれだけ高性能なレンダラーでも、下絵の精度が低ければ結果が破綻するのと同じ構造です。ここでは実務で使用頻度の高い4カテゴリを紹介します。
Canny:輪郭線で構図を保持する
Canny(エッジ検出)は輪郭線を白黒マップとして抽出するプリプロセッサです。建築図面やCADデータのように線がはっきりした入力と相性が良く、壁の位置や窓の配置を正確に再現できます。
low_thresholdとhigh_thresholdの2つの閾値で検出感度を調整できる点も特長の一つです。建築図面ならデフォルト値(100 / 200)で十分機能しますが、写真からエッジを抽出する場合は感度を高めに設定すると背景のノイズを抑えやすくなります。
Flux(高品質な新世代画像生成モデル)環境では公式LoRA方式・XLabs・InstantXの3系統が選べる状況です(2026年4月現在)。設定手順の詳細はComfyUI ControlNet Cannyの使い方|線画から実務パース生成で解説しています。
Depth:奥行きで空間構造を固定する
Depth(深度マップ)は画像の各ピクセルのカメラからの距離をグレースケールで表現する制御マップです。手前を白、奥を黒で示すこのマップにより、空間の3D構造をAIに正確に伝えられます。建築で言えばZバッファや断面表示のような、空間の骨格情報を画像化した存在です。
2026年4月現在、プリプロセッサはDepthAnythingV2が標準です。エンコーダはvits / vitb / vitlの3種類があり、静止画ならvitb+fp16がバランスに優れています。
建築パースやバーチャルステージングでは、間取りや天井高を崩さずに内装だけを変える用途で頻繁に活用されます。Blender / SketchUpのZバッファ出力を直接入力する方法もあり、3Dモデルから起こしたパース検討にそのまま接続できます。詳しくはComfyUI ControlNet Depth|深度マップで建築パース制御をご覧ください。
OpenPose / DensePose:人物ポーズを制御する
OpenPoseは人体の関節点を検出し、スケルトンマップ(棒人間図)として出力するプリプロセッサです。body / face / hand / fullの4種類があり、建築パースの人物配置ならbodyかfullで主要な用途をカバーできます。
海外では後継のDWPoseも主流になりつつあり、comfyui_controlnet_auxのDWPreprocessorノードで利用できます。OpenPoseと出力形式が互換のため、プリプロセッサを差し替えるだけで移行できる点が扱いやすさにつながっています。
DensePoseは人体の全ピクセルを3Dサーフェスモデルにマッピングする技術で、体型の再現精度が求められるポートレート用途に適しています。手指の破綻対策にはFaceDetailerやComfyUI-OpenPose-Editorが有効です。詳しくはComfyUI OpenPose/DensePose|人物ポーズ制御の実務ガイドで解説しています。
Scribble / Lineart:手描きスケッチから生成する
Scribbleはラフな手描きの落書きを構図の指示として取り込むプリプロセッサです。太い線やざっくりした構図でも機能するため、設計初期のアイデア出しに向いています。Scribble系は4種類(HED / PiDiNet / XDoG / FakeScribble)があり、建築用途ではクリーンな線を拾えるPiDiNetが扱いやすい選択肢です。
Lineartは精密な線画を抽出するプリプロセッサで、Standard / Realistic / Anime / Mangaの4種類が用意されています。建築の立面図やインテリアスケッチにはLineart_Realisticが有力な候補になります。
ComfyUI-Olm-Sketchノードを導入すれば、ペンタブレットでComfyUI上に直接描画し、即座に生成結果を確認するワークフローも構築できます。手描きから検討案に落とし込むまでのタイムラグが短くなる点が、設計初期の反復検討で扱いやすい利点になります。詳しくはComfyUI Scribble/Lineart|スケッチから建築パース生成法を参照してください。
IPAdapterによるスタイル制御
IPAdapter(Image Prompt Adapter)は、ControlNetとは異なるアプローチで画像生成を制御する技術です。参照画像の色彩・トーン・質感といった「スタイル」を、生成画像に転送します。
ControlNetが構造(形)の制御を担うのに対し、IPAdapterはスタイル(見た目の印象)の制御を担います。建築制作の流れでたとえるなら、ControlNetは間取り図・CAD図面に相当し、IPAdapterはインテリアのムードボードに相当する関係です。
ComfyUIでは、cubiq氏の「ComfyUI_IPAdapter_plus」をインストールして利用します(SD1.5 / SDXL環境、2026年4月現在)。Weight Typeの選択が仕上がりを大きく左右し、スタイル転送なら「style transfer」、構図も含めるなら「composition」が基本の選択肢になります。
Flux / SD3系を使う場合は、cubiq版ではなくFlux専用のIPAdapter(Shakker-Labs / InstantX / XLabsなど)が必要になります。IPAdapterの導入手順やパラメータ調整はIPAdapterによるスタイル転送で詳しく解説しています。
複数ControlNetの併用テクニック
1つのControlNetでは、空間の奥行きとディテールを同時に制御するのが難しい場面があります。そこで有効なのが、複数のControlNetを組み合わせるテクニックです。建築現場で基礎・大工・内装の職人が役割分担するように、担当を分けた複数のControlNetを重ねていく発想です。
ComfyUIでの接続方式は主に3つあります。Apply ControlNetノードを直列につなぐチェーン接続、CR Multi-ControlNet Stackによるスタック方式、そしてSDXL環境で扱いやすいControlNet Union SDXLによる1モデル運用です。
代表的な組み合わせパターンを紹介します。
- Depth+Canny: 空間構造+輪郭ディテール。建築パースの基本構成
- Depth+OpenPose: 空間+人物ポーズ。生活感のあるパース表現に
- Depth+Lineart: 空間+線画。図面からパースを起こすワークフローに適しています
- Canny+Tile: 輪郭保持+高解像度化。印刷用途に
strengthは各ControlNetの合計を1.0前後に抑えるのが目安です。段階的強度適用(Phased Strength)という手法を使えば、生成の前半で空間構造を固め、中盤でディテールを詰め、後半で仕上げるという役割分担も可能になります。工程分担が明確になる分、予期せぬ破綻が減り、再調整もしやすくなります。
併用時はVRAM(GPUの作業メモリ)消費が増加するため、前処理の事前実行やControlNet Unionの活用がVRAM節約で効きます。組み合わせパターンの詳細はComfyUI 複数ControlNet併用テクニック|実務の組み合わせ5選で解説しています。
建築パースでのControlNet活用フロー
建築分野では、ControlNetが設計の可視化を効率化するツールとして定着しつつあります。ここでは、建築パース制作における典型的な活用フローを、プロジェクトの段階ごとに通して紹介します。
設計初期(アイデア出し段階)
手描きのラフスケッチをScribbleで入力し、方向性を可視化します。この段階ではstrengthを低め(0.5〜0.7)に設定すると、AIの創造性も活きて案の幅が広がります。打ち合わせ前に「手書きラフから案を複数出す」フェーズに近い使い方です。
設計中期(構図の確定段階)
CADデータや3Dモデルの出力を使い、CannyやDepthで構図を固定します。Depth+Cannyの併用が建築パースの基本構成で、strengthは0.7〜0.85が扱いやすい範囲です。構図が確定した後の素材検討やバリエーション出しで安定して使える設定帯です。
プレゼン準備(仕上げ段階)
確定した構図に対してIPAdapterでスタイルを統一し、提案資料全体のトーンを揃えます。人物を配置する場合はOpenPoseを追加します。複数案で統一感が出ると、施主プレゼンでの印象が安定します。
このフローの各段階を深掘りした解説は、配下の個別ガイドでまとめています。ComfyUI全体の建築活用については、ComfyUI×建築パース生成 完全ガイドで体系的にまとめています。
まとめ
ComfyUI ControlNetの構図制御は、目的に応じて7つの手法を使い分けるのが基本です。
- 輪郭を残す→Canny、空間の奥行きを守る→Depth
- ポーズを指定する→OpenPose、スケッチから生成する→Scribble / Lineart
- 雰囲気を転送する→IPAdapter、複合制御→複数ControlNet併用
どの手法も、ComfyUIでは数個のノードをつなぐだけで導入できます。まずは自分の用途に近い1つの手法から試し、慣れてきたら併用へステップアップしていく進め方が、挫折せずに手札を増やしていくうえで扱いやすい流れです。
あわせて読みたい
- ControlNet概要と使い方|ComfyUIでの接続方法 — モデルの配置からノード接続まで基本を押さえたい方へ
- ComfyUI ControlNet Cannyの使い方|線画から実務パース生成 — 輪郭線による構図制御の具体手順を知りたい方へ
- ComfyUI ControlNet Depth|深度マップで建築パース制御 — 奥行きマップで空間を固定したい方へ
- ComfyUI OpenPose/DensePose|人物ポーズ制御の実務ガイド — 人物のポーズを指定したい方へ
- ComfyUI Scribble/Lineart|スケッチから建築パース生成法 — 手描きスケッチから画像を生成したい方へ
- IPAdapterによるスタイル転送 — 参照画像のトーンを反映させたい方へ
- ComfyUI 複数ControlNet併用テクニック|実務の組み合わせ5選 — 複数の制御を組み合わせたい方へ
- ComfyUI×建築パース生成 完全ガイド — 建築分野でのComfyUI活用を体系的に学びたい方へ




