ComfyUI × Blender/SketchUp連携|3Dモデルからパース生成
BlenderやSketchUpで作った3Dモデルの構図をそのまま活かしつつ、フォトリアルな建築パースを短時間で仕上げたい。そんなニーズに応えるのが、ComfyUI(ノードをつないで画像生成AIを動かすツール)との連携ワークフローです。
3Dソフトから深度マップや法線マップをエクスポートし、ComfyUIのControlNet(コントロールネット)に読み込ませると、モデルの形状や奥行きを保ったまま、AIがテクスチャや照明を自動生成してくれます。従来のレンダラーでは数時間かかっていた作業が、数分で完了するケースも少なくありません。
この記事では、BlenderとSketchUpそれぞれの書き出し方法から、ComfyUI ControlNetでの具体的なワークフロー構築、さらに海外で主流になりつつある統合アドオンの選択肢まで、実務で使える手順を一つずつ解説します。
3DモデルからComfyUIパース生成が注目される理由
建築パースの制作で3Dモデルを使う最大の利点は、構図やプロポーションが正確に保たれる点にあります。手描きスケッチからの生成では構図のゆらぎが起きやすい一方、3Dモデルからの制御マップは寸法どおりの空間情報を持ちます。
ComfyUIのControlNet Depth/Normalモデルは、この空間情報をそのまま受け取れます。つまり、モデリングで決めた構図を崩さずに、テクスチャ・マテリアル・ライティングだけをAIに任せられる構成になります。
では、従来のV-RayやD5 Renderなどの物理ベースレンダラーとは何が違うのでしょうか。物理ベースレンダラーは精密な光学シミュレーションを行う一方、1枚のパースに数十分から数時間を要します。ComfyUIなら同じ構図から複数のテクスチャバリエーションを数分で生成でき、初期段階のデザイン検討向きといえます。
実務では、設計初期のイメージ共有にはComfyUIで素早くバリエーションを出し、最終プレゼンでは物理ベースレンダラーで仕上げるという使い分けが増えています。
Blenderから深度マップ・法線マップをエクスポートする方法
BlenderはCompositorノードを使うことで、深度パスと法線パスを画像として書き出せます。Cycles・Eeveeどちらのレンダラーでも対応できます。
海外の建築ビジュアライゼーションでは、mask(マスク)/ depth(深度)/ outline(輪郭)の3シーケンスを同時出力してComfyUIに渡すのが定番ワークフローです。まずは深度と法線の基本出力から押さえていきましょう。
Compositorで深度パスを有効にする手順
まず、View Layer Propertiesパネルで「Passes」セクションを開きます。「Data」カテゴリ内にある「Z」チェックボックスを有効にしてください。これで深度情報がレンダー結果に含まれます。
次に、CompositorタブでUse Nodesを有効化します。Render Layersノードの「Depth」出力からMap Rangeノードを接続し、値を0から1の範囲に正規化します。Map Rangeの「From Min/Max」にはシーンのカメラ距離に合った値を設定してください。近距離を白(1)、遠距離を黒(0)にするのが一般的です。
最後にCompositeノードへ接続すれば、レンダリング時に深度マップが生成されます。
法線マップの出力とノーマライズ設定
法線パスも同じView Layer Propertiesの「Passes」セクションで有効にできます。「Normal」にチェックを入れ、CompositorでRender Layersの「Normal」出力をCompositeノードへつなぐだけで済みます。
法線マップはRGB各チャンネルにX・Y・Z方向の法線情報を格納しています。Blenderの出力はそのままComfyUIのNormal ControlNetで読み取れるため、特別な変換は不要です。
PNG形式で書き出す際の注意点
深度マップは階調の精度が品質を左右します。Output Propertiesで画像フォーマットをPNGに設定し、Color Depthを16bitにしてください。8bitでは階調が粗くなり、ControlNetの制御精度が落ちてしまいます。
法線マップは8bit PNGでも問題ありませんが、統一して16bitで書き出しておくと安心です。保存先はComfyUIのinputフォルダに直接指定すると、読み込みの手間が省けます。
Blender統合アドオンで往復を省く選択肢
Blenderで書き出してComfyUIに読み込ませる往復作業が煩わしい場合、Blender内からComfyUIノードを直接操作できる統合アドオンを使う手があります。代表的なのがAIGODLIKE製の公式連携アドオン「ComfyUI-BlenderAI-node」(2026年4月現在、Blender 4.x系に対応し活発に更新中)です。
このアドオンを導入すると、Blenderのビューポートで構図を決めた瞬間に、mask/depth/outlineの3種を自動で書き出してComfyUIのワークフローに引き渡せます。ファイルのやり取りが不要になり、構図の微調整から生成までの往復時間を大きく短縮できます。
海外の建築ビジュアライゼーション現場では、Blender⇔ComfyUIを行き来する従来型から、アドオンで統合する運用に移行する事例が増えています。往復に疲れた方は、まずこのアドオンを一度試してみる進め方が扱いやすい入り口です。
SketchUpから深度情報を取得する方法
SketchUpはBlenderのような深度パス出力を標準機能として持っていません。では、どうやって深度情報を取得するのでしょうか。代表的な3つの方法を紹介します。
フォグ機能を使った擬似深度マップの作成
SketchUpのフォグ(Fog)機能を使うと、カメラからの距離に応じたグラデーションを作成できます。手順は以下のとおりです。
スタイル設定でフォグを有効にし、面のスタイルをモノクロに変更します。影をオフにして、フォグの開始距離と終了距離をシーンの奥行きに合わせて調整してください。背景色を黒、フォグ色を白に設定すると、手前が明るく奥が暗い深度マップに近い画像が得られます。
精密な深度情報ではありませんが、建築パース程度のスケール感であれば十分実用的です。
レンダリングプラグインでの深度パス出力
V-Ray for SketchUpやEnscape(2026年4月現在、いずれもSketchUp対応版を提供中)を導入済みであれば、レンダリング設定から深度パス(Z-Depth)をEXRやPNG形式で出力できます。
V-Rayの場合は、Render Elementsに「VRayZDepth」を追加するだけで出力が有効になります。Enscapeでは出力設定からDepthチャンネルを有効にします。プラグイン経由の深度マップは精度が高く、ComfyUI ControlNetとの相性も良好です。
Depth Anythingで深度推定する代替手段
プラグインを持っていない場合はどうすればよいでしょうか。SketchUpの画面キャプチャからAIベースの深度推定を行う方法があります。ComfyUIにはDepth Anything V2などの深度推定ノードが用意されており、通常のスクリーンショットから深度マップを自動生成できます。
精度はBlenderやプラグイン出力に劣りますが、追加コストなしで使える手軽さが魅力です。まずこの方法で試作し、品質に不足を感じたらプラグイン導入を検討するステップが、コスト面で手堅い進め方です。
ComfyUI ControlNetで3Dモデルの構図を再現する
書き出した深度マップや法線マップをComfyUIに読み込み、ControlNetで構図を制御する手順を見ていきます。Depth ControlNetの基本的なしくみについては、ComfyUI ControlNet Depth入門で詳しく扱っています。
Depth ControlNetワークフローの構築手順
ComfyUIでの基本ワークフローは次の5ステップです。
- Load Imageノードで深度マップPNGを読み込む
- ControlNet Loaderで対応モデル(control_v11f1p_sd15_depthなど、2026年4月現在)を読み込む
- Apply ControlNetノードで深度画像とモデルを接続する
- KSampler(画像生成の中核ノード)のpositive条件にControlNet出力をつなぐ
- プロンプトに建築パースの指示を記述して生成する
3Dソフトから書き出した深度マップを使う場合はこの流れで問題ありません。一方、スクリーンショットや写真から深度を推定する場合は、プリプロセッサの選定が品質を左右します。2026年4月現在、建築・インテリアシーンでは複雑な空間構造への強さからZoe-DepthMapPreprocessorがもっとも評価が高く、海外の公式ドキュメントでもベスト選択として紹介されています。
strengthパラメータは0.7から0.9の範囲が目安となります。1.0に近いほど深度マップに忠実になりますが、テクスチャの自然さが損なわれることがあります。実務では0.8前後から調整を始めるケースが多い印象です。
Normal ControlNetを加えたマルチControlNet活用
深度マップだけでは壁面の向きや天井の傾斜といった面情報が伝わりにくい場合があります。そんなとき、法線マップを追加してマルチControlNet構成にすると効果的に補えます。面の方向性まで制御でき、より正確な空間表現が実現します。
Apply ControlNetノードを2つ並列に配置し、それぞれDepthモデルとNormalモデルを読み込みます。両方のstrengthは0.6から0.8に設定し、合計が過剰にならないようバランスを取ってください。マルチControlNetの詳しい設定はComfyUIマルチControlNet活用ガイドを参照してください。
Depth + Lineart併用で空間構造と輪郭を両立
海外の建築ビジュアライゼーションでは、Depth単体ではなくDepth + Lineartを併用する構成が定番になりつつあります。深度マップが空間の奥行きを、Lineartが壁や窓枠など輪郭線を保持する役割を担い、サッシのシャープさや家具のエッジ感を両立できる構成です。
具体的な組み方は、Blender側のoutputに加えてCompositorのFreestyle機能から線画を出力するか、ComfyUI側のLineartプリプロセッサで深度マップから輪郭を抽出します。strengthはDepthを0.7、Lineartを0.4から0.5程度に抑えると、構造も輪郭も崩さずテクスチャ生成の自由度を保てます。
プロンプト設計のコツ(建築パース向け)
建築パースで高品質な結果を得るには、プロンプトに空間の用途と素材感を具体的に記述するのがポイントです。
たとえば「photorealistic interior, modern living room, natural light from large windows, wooden flooring, white walls, 8k」のように、空間タイプ・光源・素材・画質を明示します。「beautiful」「amazing」といった抽象語よりも、「concrete」「glass curtain wall」「warm lighting」のような具体的な素材・照明の指定が効果的です。
構図はControlNetが制御するため、プロンプトでは構図指定を省略しても問題ありません。テクスチャと雰囲気の記述に集中してください。
従来レンダラーとの使い分け
ComfyUIと従来の物理ベースレンダラーは、競合ではなく補完関係にあります。それぞれの得意領域を整理します(2026年4月現在の整理)。
V-RayやLumionなどの物理ベースレンダラーは、光の反射・屈折・GIを正確に計算するため、最終納品用の精密なパースに適しています。ただしレンダリング時間が長く、テクスチャ設定にも専門知識が求められます。
一方、ComfyUIは生成速度が速く、1枚あたり数十秒から数分で完了します。同じ構図から素材違い・照明違いのバリエーションを一度に出せるため、設計初期のデザインスタディや施主との方向性すり合わせに向いています。
プロジェクトのフェーズに応じて使い分けるのが、もっとも効率的なアプローチです。
ワークフロー全体図:モデリングから最終調整まで
3DモデルからComfyUIパースを完成させるまでの流れを3ステップで整理します。
ステップ1はモデリングと構図決定です。BlenderまたはSketchUpで建築モデルを作成し、カメラアングルを確定させます。この段階でモデルの精度は高くなくても構いません。壁・床・天井・窓の位置関係が正しければ十分です。
ステップ2は制御マップの書き出しです。Blenderの場合はCompositorで深度パスと法線パスを16bit PNGで出力します。SketchUpの場合はフォグ機能またはプラグインで深度マップを取得してください。書き出した画像はComfyUIのinputフォルダに保存します。統合アドオン「ComfyUI-BlenderAI-node」を使えばこのステップを自動化できます。
ステップ3はComfyUIでの生成と調整です。ControlNet Depthワークフローを構築し、プロンプトで素材感と照明を指定して生成します。必要に応じてNormal ControlNetやLineartを追加し、strengthを微調整してください。ゼロから組むのが難しい場合、Civitaiで配布されている建築ビジュアライゼーション特化のワークフロー(「PH’s Archviz x AI」などSDXL+FLUX系、2026年4月現在)を起点にする方法もあります。生成結果にPhotoshopやGIMPで色調補正やディテールの加筆を行えば完成です。
この3ステップなら、モデリング済みのデータがあれば30分以内にフォトリアルなパースを複数枚用意できます。
まとめ
BlenderやSketchUpの3Dモデルから深度マップ・法線マップを書き出し、ComfyUI ControlNetに読み込ませることで、構図を正確に保ったフォトリアルなパースを短時間で生成できます。
Blenderの場合はCompositorノードを使い、深度パスと法線パスを16bit PNGで出力するのが確実です。往復作業を減らしたいなら、統合アドオン「ComfyUI-BlenderAI-node」を選択肢に加えてみてください。SketchUpではフォグ機能やプラグイン、またはDepth Anythingによる推定が選択肢になります。
生成時にはDepth ControlNetのstrengthを0.8前後、プリプロセッサは建築・インテリア向きのZoe-DepthMapPreprocessorを起点にし、プロンプトには空間タイプ・素材・照明を具体的に記述してください。より高品質を狙うならDepth + Lineart併用も試す価値があります。設計初期のデザイン検討にはComfyUI、最終プレゼンには物理ベースレンダラーという使い分けが、効率化のポイントです。
あわせて読みたい
- ComfyUI×建築パース総合ガイド — ComfyUIを建築パース制作に活用する全体像をつかめます
- ComfyUI Depth×建築パース活用法 — 深度マップを使った建築パース生成のさらに詳しい手法を解説しています
- ComfyUI ControlNet Depth入門 — Depth ControlNetの基本設定と仕組みを基礎から学べます
- ComfyUIスケッチからレンダリング — 手描きスケッチからパースを生成する別アプローチを紹介しています
- ComfyUIマルチControlNet活用ガイド — DepthとNormalを組み合わせるマルチControlNet構成の詳細です




