ControlNet概要と使い方|ComfyUIでの接続方法
テキストプロンプトだけで構図を思い通りに再現するのは難しく、AI画像生成に取り組む多くの方がぶつかる壁です。窓の位置、人物のポーズ、空間の奥行きといった要素は、文字での指示に限界があります。
ControlNet(コントロールネット)は、入力画像から輪郭や奥行きなどの構造情報を抽出し、生成プロセスへ反映させる追加ネットワークです。ComfyUI(ノードをつないで画像生成AIを動かすツール)と組み合わせれば、ノードを数個つなぐだけで、構図を保ったまま画風だけを変えるといった高度な制御ができます。
この記事では、ComfyUIでのControlNetの使い方を、モデルのダウンロードからノード接続、パラメータ調整まで順を追って解説します。SD1.5・SDXL(Stable Diffusionの高解像度版)・Flux(高品質な新世代画像生成モデル)各モデルの対応状況や、建築パースでの活用ポイントもあわせて紹介します。
ControlNetとは?画像生成を構図から制御する追加ネットワーク
ControlNetは、Stable Diffusion(画像生成AIの代表格、テキストから画像を生成するモデル)などの拡散モデルに「構造的な条件」を追加するニューラルネットワークです。テキストだけでは指定しにくいポーズや構図、奥行き感を、参照画像から自動的に読み取って生成に反映できます。
通常のテキスト指示では「窓の位置を左から30%の場所に」といった精密な構図指定は困難です。ControlNetを使えば、元の写真やスケッチから構造情報を抽出し、それをガイドとして画像を生成できます。建築のたとえで言うと、トレース台の下に図面を敷き、その上から仕上げだけを塗り分けていく作業に近いイメージです。
ControlNetの仕組み(入力画像から制御マップへ)
ControlNetの処理は大きく2段階に分かれます。
- プリプロセッサ(前処理モジュール)が入力画像を制御マップに変換する
- ControlNetモデルが制御マップの情報を拡散モデルへ注入する
制御マップとは、元の画像から特定の構造情報だけを抽出した中間データです。たとえばCanny(エッジ検出)なら輪郭線だけの白黒画像、Depth(深度マップ)推定器なら手前が明るく奥が暗いグレースケール画像になります。
この2段階構造により、元画像の色やテクスチャに影響されず、構造情報だけを生成へ活かせる点がControlNetの特長です。つまり「元のパースの空間骨格を残したまま、素材と光だけ差し替える」といった差分編集が、手作業のトレースなしで進められます。
プリプロセッサの種類(輪郭系・空間系・人物系・領域系)
プリプロセッサは入力画像を制御マップへ変換するモジュールです。建築パースやイラスト実務で使われる代表的な種類を、用途別にまとめます。
輪郭系
- Canny:画像全体の輪郭線を検出します。建築図面の線画保持や、既存パースの構図再利用で扱いやすい選択肢です
- Lineart:Cannyより精細な線画を抽出します。イラスト制作や手描き風の表現との相性が良好です
- MLSD(Mobile Line Segment Detection):直線のみを検出します。建築・インテリア分野で壁や窓枠などの直線要素を強く保持したいときに役立ちます
空間系
- Depth(深度推定):奥行き情報をグレースケールで抽出します。室内パースの空間構造を維持する用途に向いています
- Normal:法線マップを生成します。表面の向きを制御したい3DCG的な用途で使われます
人物系
- OpenPose:人体の関節位置を検出します。人物のポーズを指定したい場面で役立ちます
領域系
- Segmentation:画像を意味単位の領域へ分割します。「この部分は床、こちらは壁」といった素材別の塗り分け生成が可能です
- Scribble(落書き):手描きのラフスケッチをそのまま制御マップとして使えます
建築パース実務では、MLSDで直線を保ちながらDepthで空間感を加えるなど、複数の制御を併用する手法が海外コミュニティで定番として紹介されています(参考:RunComfy Mastering ControlNet in ComfyUI)。各プリプロセッサの詳しい使い方は、以下の個別ガイドで解説しています。
- ComfyUI ControlNet Cannyの使い方|線画から実務パース生成
- ComfyUI ControlNet Depth|深度マップで建築パース制御
- ComfyUI OpenPose/DensePose|人物ポーズ制御の実務ガイド
- ComfyUI Scribble/Lineart|スケッチから建築パース生成法
ComfyUIでControlNetを使う準備
ComfyUIでControlNetを利用するには、モデルファイルの配置とプリプロセッサノードの導入が必要です。CAD(設計図面を作成する設計ソフト)で外部参照ファイルとプラグインを揃えるのと似たステップで進めていきましょう。
ControlNetモデルのダウンロードと配置先
ControlNetモデルは .safetensors または .pth 形式のファイルです。ダウンロード後、以下のフォルダに配置します。
ComfyUI/models/controlnet/
2026年4月現在、主要なControlNetモデルは以下の配布元から入手できます。ファイル名やURLは更新頻度が高いため、配布元名で検索して最新版を確認する運用が扱いやすい進め方です。
- SD1.5用:lllyasviel氏のControlNet v1.1シリーズ(Hugging Faceで公開)
- SDXL用:xinsir氏のControlNet Union ProMax(1モデルで12種の制御に対応)
- Flux用:InstantX FLUX.1-dev-ControlNet-Union-Pro、XLabs flux-controlnet-collections
配布元一覧はComfyUI Wiki ControlNet Modelで体系的にまとめられています。ComfyUI Managerを利用している場合は、「Install Models」からControlNetで検索すると対応モデルの一覧が表示されます。ワンクリックでダウンロードと配置が完了するため、手作業でのファイル移動が不要になります。
モデルを配置したら、ComfyUIを再起動するかブラウザ画面をリロードしてください。Load ControlNet Modelノードのドロップダウンに追加したモデルが表示されれば準備完了です。
プリプロセッサノード(comfyui_controlnet_aux)の導入
プリプロセッサ機能はComfyUI本体には含まれていません。カスタムノードパッケージ「comfyui_controlnet_aux」を別途インストールする必要があります。2026年4月現在、Fannovel16氏が配布するcomfyui_controlnet_auxが事実上の標準です。
ComfyUI Managerからの導入手順は次のとおりです。
- ComfyUI Managerを開く
- 「Install Custom Nodes」を選択
- 「controlnet_aux」で検索
- 「ComfyUI’s ControlNet Auxiliary Preprocessors」をインストール
- ComfyUIを再起動
インストール後、ノード追加メニューに「ControlNet Preprocessors」カテゴリが追加されます。Canny Edge、Depth Anything、OpenPose Estimator、MLSD Lines、Lineart、Segmentationなど主要なプリプロセッサノードが使えるようになります。
なお、複数のプリプロセッサをまとめて切り替えたい場合は「AIO Aux Preprocessor」ノードが便利です。ドロップダウンで種類を切り替えられる統合ノードですが、閾値などの細かな調整はできないため、パラメータ調整が必要な場面では個別ノードを使い分けます。
ComfyUIでのControlNet接続手順
準備が整ったら、実際にノードを接続してControlNetワークフローを構築しましょう。3Dソフトでレンダリング設定をつないでいく感覚に近く、一度組めば使い回しが効く工程です。
基本ワークフロー(3つのノードをつなぐ)
ControlNetの基本接続は、次の3ステップです。なお、Apply ControlNetノードには通常版と「Apply ControlNet (Advanced)」の2種類があります。ネガティブ側の条件付けや適用区間の指定が必要であればAdvanced版、strengthのみの制御で十分であれば通常版を選びます(参考:ComfyUI Wiki Apply ControlNet (Advanced))。
ステップ1:Load ControlNet Modelノードを追加する
ノードメニューから「Load ControlNet Model」を追加し、使いたいControlNetモデルを選択します。
ステップ2:Apply ControlNet(Advanced)ノードを追加する
「Apply ControlNet (Advanced)」ノードを配置します。このノードには以下の入力ポートがあります。
- positive:CLIP(テキストを数値化する仕組み)テキストエンコーダからのポジティブ条件
- negative:ネガティブ条件
- control_net:Load ControlNet Modelの出力
- image:制御マップ画像(プリプロセッサの出力、または直接用意した制御マップ)
ステップ3:KSamplerに接続する
Apply ControlNetノードの出力(positive / negative)をKSampler(画像生成の中核ノード、ノイズから画像を作る)ノードの対応する入力へ接続します。
全体の接続イメージをまとめると、次のような流れになります。
[Load Image] → [Preprocessor] → 制御マップ
↓
[CLIP Text Encode] → [Apply ControlNet] → [KSampler] → [VAE Decode] → [Save Image]
↑
[Load ControlNet Model]
プリプロセッサを使わず、自分で用意したCanny画像やDepthマップを直接Apply ControlNetのimage入力へ接続する方法もあります。また、Apply ControlNetを直列に連結すれば、構図とポーズと深度を同時に制御するといった複数ControlNetの併用も可能です。
strengthとstart_percent / end_percentの調整
Apply ControlNet(Advanced)ノードには、制御の強さとタイミングを調整する3つのパラメータがあります。
strength(強度)
ControlNetが生成結果へ与える影響度を0.0から1.0で指定します。デフォルトは1.0です。
- 1.0:制御マップに忠実に生成します。構図の正確さを優先したいときに使います
- 0.5前後:制御マップを参考にしつつ、AIの創造性も活かしたバランス型です
- 0.3以下:ゆるやかなガイドにとどめ、自由度の高い生成が得られます
建築パースの生成では、目安としてstrength 0.7から0.85あたりを基準に調整する運用例が多く見られます。構図を崩さず、かつ不自然な固さを避けられる範囲のため、実務のバランスが取りやすい設定帯です。
start_percent / end_percent(適用区間)
ControlNetが介入するタイミングを、生成プロセス全体に対する割合で指定します。
- start_percent = 0.0 / end_percent = 1.0(デフォルト):生成の最初から最後までControlNetが効きます
- end_percent = 0.8:生成の後半20%はControlNetの影響を外し、ディテールの自然さを高めます
- start_percent = 0.2:序盤の大まかな構図決定をAIに任せ、途中からControlNetで制約をかけます
実務では、end_percentを0.7から0.9に設定するケースが海外コミュニティでも多く報告されています。最終段階でControlNetの影響を緩めることで、細部の描き込みが自然になるのが主な理由です。
SD1.5・SDXL・Flux用ControlNetの違い
ControlNetモデルはベースモデルごとに専用設計されており、互換性がありません。SD1.5用のControlNetをSDXLモデルへ接続してもエラーになるため、必ず対応するバージョンを選んでください。
各ベースモデルの対応状況と選び方(2026年4月現在)
SD1.5用ControlNet
もっとも充実したラインナップです。lllyasviel氏が公開したControlNet v1.1シリーズが事実上の標準となっています。Canny・Depth・OpenPose・Scribble・Lineart・MLSDなど10種類以上のバリエーションがそろっており、情報量が多く初学者が学習しやすい環境です。
SDXL用ControlNet
2026年4月現在、コミュニティ製のxinsir/controlnet-union-sdxlシリーズ、とくに「Union ProMax」が実務での標準的存在になっています。1モデルでCanny・OpenPose・Depth・Lineart・MLSD・Scribble・HED・Pidi・Teed・Segmentation・Normalなど12種類の制御に対応し、画像編集用途まで含めた機能が統合されています(参考:ControlNet Union Promax for SDXL (Medium))。従来は制御種別ごとに個別ファイルを揃える必要がありましたが、Union系の登場でディスク容量とロード時間を大幅に削減できます。
Flux用ControlNet
Flux.1-dev向けは、InstantX FLUX.1-dev-ControlNet-Union-ProとXLabs flux-controlnet-collectionsの二系統が主流です。InstantX系はUnionとして複数制御を1モデルで扱い、XLabs系はCanny/Depth/HEDなどの個別モデルを積み上げる設計です。Fluxはベースモデルの画質が高いため、ControlNetとの組み合わせでも高品質な結果が得られますが、モデルの種類はSD1.5と比べるとまだ発展途上の段階です(参考:ComfyUI公式 Flux ControlNet Examples)。
どのベースモデルを選ぶか迷った場合は、目的に応じて使い分けるのが近道です。学習用途や情報量重視ならSD1.5、1モデルで多用途をまかないたいならSDXL+Union ProMax、実用的な高画質を求めるならFluxという選び方で、導入後の手戻りが減らせます。
建築パースでのControlNet活用
建築分野において、ControlNetは設計の可視化を効率化するツールです。海外の建築ビジュアライゼーション関連コミュニティでは、3DCADやスケッチからフォトリアルなパースへ変換する工程で、ControlNetの併用が標準技法として定着しつつある状況が報告されています。
構図を保ったまま画風を変える実務テクニック
たとえば、3DCADで作成した建築パースの構図をそのまま活かしつつ、フォトリアルな仕上げへ変換するワークフローが考えられます。
手順の流れは次のとおりです。
- 3DCADの出力画像をLoad Imageノードに読み込む
- Depth推定プリプロセッサで奥行きマップを取得する
- 別ラインでMLSDプリプロセッサから直線の制御マップを取得する
- Apply ControlNetを直列に2段つなぎ、1段目にDepth、2段目にMLSDを適用する
- strengthを0.7から0.8程度に設定し、建物の配置やプロポーションを崩さないようにする
この方法を使えば、間取りや窓の位置、部屋の奥行き感を保ったまま、マテリアルや照明の雰囲気だけを差し替えられます。海外のチュートリアルでも、MLSD+Depth併用が「スケッチからフォトリアル化」の定番として頻繁に紹介されています。
Canny ControlNetも建築で重宝します。立面図やスケッチの輪郭線を抽出し、その線画構造をもとにリアルな外観パースを生成できます。より厳密に直線だけを残したい場合はMLSDへ切り替えると、窓枠や梁の歪みを抑えた生成が可能です。
建築パースのAI生成では、構図制御が成果物の品質を左右する工程になります。ControlNetを導入するだけで試行錯誤の回数が大幅に減り、クライアントへの提案スピードが上がったという報告も多く聞かれます。
まとめ
ControlNetは、テキストプロンプトだけでは実現しにくい構図の精密な制御を可能にする技術です。ComfyUIでは、Load ControlNet ModelとApply ControlNetの2つのノードを接続するだけで導入できます。
導入のポイントを振り返ります。
- モデルファイルは
ComfyUI/models/controlnet/に配置する - プリプロセッサ(comfyui_controlnet_aux)を別途インストールし、必要に応じてAIO Aux Preprocessorで切り替える
- Apply ControlNetは通常版とAdvanced版を使い分ける(ネガティブ条件や適用区間の指定が必要ならAdvanced版)
- strengthは0.7から0.85を基準にし、end_percentで適用区間を調整する
- ベースモデル(SD1.5 / SDXL / Flux)に合ったControlNetモデルを選ぶ。SDXLはUnion ProMax、FluxはInstantXまたはXLabsが2026年4月現在の主流
ControlNetの基本を押さえたら、次はCanny・Depth・MLSD・Scribbleなど個別のプリプロセッサを試してみてください。それぞれの特性を理解すれば、意図した構図をより正確に再現できるようになります。
あわせて読みたい
- ComfyUI ControlNet・構図制御ガイド — ControlNet全体の概要と各手法の使い分けを押さえたい方はこちら
- ComfyUI ControlNet Cannyの使い方|線画から実務パース生成 — 輪郭線を活用した構図制御の具体手順を押さえたい方へ
- ComfyUI ControlNet Depth|深度マップで建築パース制御 — 奥行き情報を使った空間制御の実装を知りたい方へ
- ComfyUI Scribble/Lineart|スケッチから建築パース生成法 — 手描きスケッチから画像を生成したい方向け
- ComfyUI×建築パース生成 完全ガイド — 建築分野でのComfyUI活用を体系的に知りたい方へ




