ComfyUI×建築パース生成 完全ガイド
建築パースの制作は、モデリングからマテリアル設定、ライティング調整まで多くの工程を必要とします。1枚の完成パースに数時間から数日を費やすことも珍しくありません。近年、この制作プロセスを大きく変えつつあるのが、ノードベースの画像生成ツール「ComfyUI(ノードをつないで画像生成AIを動かすツール)」です。
ComfyUIはオープンソースで公開されており、ControlNet(コントロールネット)やIPAdapter(Image Prompt Adapter、画像でスタイル指定するアドオン)といったAI技術をノード単位で自由に組み合わせられます。空室写真への家具配置、手描きスケッチからのフォトリアル変換、3Dモデルの構図を活かしたパース生成など、建築実務のさまざまな場面で活用が進んでいます。
この記事では、ComfyUIを使った建築パース生成の7つの手法を通して整理します。各手法の概要と使いどころを整理し、詳細は個別の記事へ案内する地図役としてまとめました。自分の目的に近いテーマから読み進めてください。
ComfyUI全体の導入や基本操作から押さえたい場合は、ComfyUI完全ガイドを先に読むと、この記事の位置づけがつかみやすくなります。
ComfyUIが建築パース生成に選ばれる理由
まず、ComfyUIがなぜ建築分野で注目されているのかを整理します。導入を検討するうえで、従来のレンダラーとの違いや推奨環境を把握しておくことが判断の起点になります。
ノードベース×オープンソース×ControlNetの強み
ComfyUIの特長は、3つのキーワードに集約できます。
1つ目は「ノードベース」の操作体系です。処理をノードという部品単位で接続するため、ワークフローの可視化と再現性に優れています。CADで言えば、アドインを接続してカスタム処理を組み上げるのに近い感覚です。2つ目は「オープンソース」で、ソフトウェア費用がかからず、2026年4月現在で1,000を超えるカスタムノードパッケージがコミュニティから公開されています。3つ目は「ControlNet」との親和性で、ControlNetは入力画像の構造情報(深度・輪郭・直線など)をAI生成に反映させる技術で、建築パースの構図制御に欠かせない存在です。
ベースモデルはSDXL(Stable Diffusionの高解像度版)系が安定した選択肢ですが、2024年以降はFLUX.1(高品質な新世代画像生成モデル)系モデルが海外の建築ビジュアライゼーションコミュニティで主流になりつつあります。光の表現や素材感の再現度が高く、用途に応じてSDXLとFLUX.1を使い分ける運用が定着してきました。
従来レンダラーとの使い分け
V-RayやLumionなどの物理ベースレンダラーは、光学シミュレーションの精度で最終納品用のパース制作に適しています。一方で、1枚のレンダリングに数十分から数時間を要するため、初期段階のデザイン検討には重い選択肢です。
ComfyUIなら1枚あたり数十秒から数分で生成が完了します。同じ構図から素材違い・照明違いのバリエーションを短時間で量産できる点が、設計初期のイメージ共有やクライアントとの方向性確認に向いています。実務では「初期検討はComfyUI、最終プレゼンは物理ベースレンダラー」という使い分けが効率的です。
推奨環境の目安
ComfyUIはローカルPCで動作するため、NVIDIA GPU搭載のマシンが前提となります。2026年4月現在の目安は、VRAM(GPUの作業メモリ)12GB以上(RTX 4060 Ti以上)が快適動作のラインです。ControlNetとIPAdapterを同時に使うワークフローではVRAM消費が増えるため、16GB以上あるとより安定します。
バーチャルステージングとインテリア変換
ComfyUIの建築活用で、最もニーズが高い領域がバーチャルステージングとインテリアスタイル変換です。
空室写真を家具付きイメージに変換する
バーチャルステージングは、空室の物件写真にAIで家具やインテリアを配置する技術です。ComfyUIでは、DepthとCannyの2種類のControlNetを同時に使う「Dual-ControlNet構成」が定番の手法になっています。
Depth ControlNetで部屋の奥行きと天井高を保持し、Canny ControlNetで窓枠やドアなどの建築ディテールを補完します。そのうえでインペインティング機能を使い、床面にソファやテーブルを配置する流れです。
月100枚を超える規模であれば、SaaS型サービス(Decor8 AIやREimagineHome等)よりもComfyUIのほうがコスト面で有利になります。ワークフローの詳細や推奨パラメータはComfyUIバーチャルステージング活用ガイドで解説しています。
インテリアのスタイルを丸ごと変換する
「この部屋を北欧風にしたらどう見える?」という要望に応えるのが、インテリアスタイル変換です。ControlNet Depthで空間レイアウトを維持しつつ、IPAdapterで目的のスタイルを参照画像から転写します。
参照画像を差し替えるだけでスタイルが切り替わるため、1枚の空間写真から複数のスタイルバリエーションを短時間で生成できます。デノイズ強度を0.5から0.7に設定すれば、間取りを保ちながら雰囲気を大きく変えられるバランスです。
具体的な手順とWeight Typeの選び方はComfyUIインテリアスタイル変換ガイドにまとめています。
スケッチからフォトリアルパースを生成する
設計初期のエスキース段階では、ラフなスケッチしかない場合がほとんどです。ComfyUIのControlNet機能を使えば、手描きスケッチからフォトリアルな建築パースを数分で生成できます。
スケッチの線画情報をAIに「構図の指示」として渡し、テクスチャや照明をAIが補完する仕組みです。ControlNetプリプロセッサは入力スケッチの精度に応じて使い分けます。
- Scribble:走り書きレベルのラフスケッチ向き
- Lineart:定規を使った整った線画向き
- MLSD:直線検出に特化し、矩形建築の外観向き
デノイズ強度は0.65前後が建築パースの起点として扱いやすい値です。ControlNet strength 0.85、stop_at 0.65あたりから試すと、構図の骨格を崩さずにフォトリアルな質感が得られます。
1つのスケッチから素材違い・色味違いのバリエーションをプロンプト変更だけで量産できるため、クライアントへの初回提案時に3パターン以上を用意する進め方が効率的です。手順の全体はComfyUI建築スケッチ変換ガイドを参照してください。
Depthで建築空間の構図を精密制御する
AIで建築パースを生成するとき、天井高が低く見えたり奥行きが不自然に潰れたりする問題に悩んだことはないでしょうか。Depth ControlNetを使えば、深度マップで空間の奥行きや高さを指定し、構図を精密にコントロールできます。
深度マップの作成方法は3つあります。
- 間取り図からグレースケール画像を手動で作成する
- BlenderのZバッファから深度マップを自動出力する
- SketchUpのフォグ機能で擬似深度マップを取得する
設計データに忠実な空間表現を求めるなら、Blenderからの直接出力が最も精度の高い選択肢です。建築空間ではstrengthを0.9以上に設定し、Depth+Cannyのデュアル制御を導入すると、壁の境界線や開口部の輪郭も補強されます。
深度マップを固定してプロンプトだけを切り替えれば、同じ空間で素材違いのバリエーションを効率よく量産できます。具体的な設定と課題への対処法はComfyUI Depth建築構図制御ガイドで解説しています。
外観パースの自動生成とバリエーション展開
外観パースの生成は、インテリアとは異なる難しさを持っています。空・植栽・周辺環境といった要素の再現が加わり、太陽光の角度や建物が落とす影など照明条件も複雑になるためです。
ComfyUIではControlNetのCanny、Depth、MLSDを組み合わせて建物形状を制御し、背景要素はプロンプトで方向性を示すアプローチが効果的です。建物形状は忠実に再現しつつ、背景にはAIの生成力を活かす考え方になります。
時間帯・季節・天候のバリエーションはプロンプトの差し替えだけで一括生成が可能です。夕景・夜景・雪景色・桜の季節など、クライアントの反応がよいパターンを短時間で揃えられます。アウトペインティング機能を使えば、画角の拡張も対応できます。
外観パース特有のワークフロー構築はComfyUI外観パース生成ガイドで体系的にまとめています。
Flux Kontextでマテリアル変更・家具差替え
2026年4月現在、建築パースの部分編集で注目を集めているのがFlux Kontextです。テキスト指示だけで壁材・床材・家具を差替えられるため、従来の3DCGソフトでの貼り直し作業が大幅に短縮されます。
Flux Kontextの特長は、入力画像のコンテキストを高精度に保持する点にあります。壁の位置関係や天井高、窓の配置といった空間構造を崩さず、変更したい箇所だけをピンポイントで書き換えられます。マスク作成も不要です。
Dev版(ローカルGPUで動作)、Pro版(API経由)、Max版(最上位API)の3グレードがあり、日常のマテリアル検討はDev版、クライアント提出前の仕上げはPro/Max APIというハイブリッド運用が実務では効率的です。
1枚のパースから壁材・床材・照明を変えた複数バリエーションを10分程度で作成できる点は、提案業務のスピードを大きく変えます。詳しい手順はFlux Kontext建築活用ガイドを参照してください。
Blender・SketchUp連携で3Dモデルを活かす
すでにBlenderやSketchUpで建築モデルを持っている場合、その構図をそのまま活かしたパース生成が可能です。3Dソフトから深度マップや法線マップをエクスポートし、ComfyUIのControlNetに読み込ませる方法です。
Blenderの場合はCompositorノードを使い、深度パスと法線パスを16bit PNGで出力します。Map Rangeノードで値を0から1に正規化する工程が必須で、この正規化忘れは海外チュートリアルでも頻出のつまずきポイントとして知られています。
SketchUpではフォグ機能による擬似深度マップ、V-RayやEnscapeプラグインでの深度パス出力、Depth Anything V2による推定の3択があります。プラグインがない場合は推定から始め、品質に不足を感じたらプラグイン導入を検討するステップが手堅い進め方です。
Blender統合アドオン「ComfyUI-BlenderAI-node」を使えば、Blenderのビューポートで構図を決めた瞬間にmask/depth/outlineを自動でComfyUIに渡せます(2026年4月現在、Blender 4.x系対応)。往復作業が不要になり、構図の微調整から生成までの時間を大きく短縮できます。
書き出し手順から生成までの全工程はComfyUI Blender/SketchUp連携ガイドで解説しています。
ComfyUI×建築パースまとめと次の一歩
ComfyUIを使った建築パース生成は、バーチャルステージング、インテリアスタイル変換、スケッチ変換、Depth構図制御、外観パース、Flux Kontextによるマテリアル編集、Blender/SketchUp連携の7分野に整理できます。
いずれの手法にも共通するのは、ControlNetで建築空間の構造を保持しながら、テクスチャや照明をAIに任せるという考え方です。従来のレンダリングでは数時間かかっていた作業が数分で完了し、同じ構図からバリエーションを量産できる点が実務上の大きな強みになります。
導入の第一歩としては、手元の空室写真や建築スケッチを1枚用意し、ControlNet付きのワークフローで生成してみるのが最も手軽な方法です。2026年4月現在、VRAM 12GB以上のGPUがあれば、この記事で紹介した手法のほとんどを試せます。
ComfyUIの基本操作や導入手順から確認したい場合はComfyUI完全ガイドへ進んでください。
あわせて読みたい
- ComfyUIバーチャルステージング活用ガイド — 空室写真にAIで家具を配置し、不動産の魅力発信を効率化する手法を解説
- ComfyUIインテリアスタイル変換ガイド — ControlNet DepthとIPAdapterで空間を保ちながらスタイルを転写する手順を紹介
- ComfyUI建築スケッチ変換ガイド — 手描きスケッチからフォトリアルパースを生成する具体的な設定値を解説
- ComfyUI Depth建築構図制御ガイド — 深度マップで天井高や奥行きを精密に制御する方法をまとめています
- ComfyUI外観パース生成ガイド — 外観パースの自動生成と時間帯バリエーションの一括制作を体系的に紹介
- Flux Kontext建築活用ガイド — テキスト指示だけでマテリアル変更と家具差替えを行う実践手順を解説
- ComfyUI Blender/SketchUp連携ガイド — 3Dモデルから深度・法線マップを書き出してパースを生成する全工程を紹介
- ComfyUI完全ガイド — ComfyUIの導入から基本操作までを押さえる全体ガイド




