Blender × AI建築パース 実務ワークフロー完全ガイド|ComfyUI連携の6ステップと商用利用判断【2026年版】
Blenderで作った建築3Dシーンを、AIで質感や雰囲気だけ仕上げる手順は、2026年に入って一気に実務適用できる段階まで来ました。ComfyUI v0.20.1(2026年4月27日リリース)でSDXL・Flux・Qwen-Image 2.0のControlNet対応が拡充され、Blender側もLTS 4.5および5.1の安定版が出そろっています。建築archviz(建築ビジュアライゼーション、建築パース制作)の現場で「形状は崩したくない、けれど質感はAIに任せたい」というニーズに、技術が追いついた格好です。
この記事では、BlenderとComfyUIをつなぐ4つの接続方式、ベースモデルの選定と商用利用の判断、ControlNetでの構図保持、そして実務6ステップを順に解説します。
2026年5月時点で「実務適用できる範囲」と「まだ実験的な範囲」も明示するので、受託案件にどこまで組み込めるかの判断材料として読み進めてください。
Blender × AI建築パースの全体像|「AIで仕上げる」は実務に組み込める段階に来た
Blenderと生成AI(画像を新しく作る人工知能技術)の組み合わせは、テキストだけでパースを作る使い方ではなく、「Blenderで構図と寸法を確定し、AIで質感と雰囲気だけ仕上げる」役割分担で実務に入ってきています。2026年に環境が整ったのは、ComfyUI・Blender・連携addonの3つの公式リリースが同じ時期に揃ったことが大きな理由です。
2026年に実務適用できる根拠は、ComfyUI v0.20.1・Blender 5.1/4.5 LTS・連携addon複数系統という3つの公式情報に集約できます。順を追って、AIと3DCGの役割分担、Blender単体・D5連携・AI連携の使い分け、そして公式リリースの内容を見ていきます。
AIは3DCGの「置き換え」ではなく「仕上げ補助」
建築archvizでAIをテキスト生成だけで使うやり方は、実務にはなじみません。設計図に書かれた寸法・窓の位置・天井高・梁の位置を、AIが正確に再現できないためです。クライアントに提出するパースは「この建物の、この部屋の、この角度」が決まっているので、構図と寸法の再現性がない出力は使えません。
そこで現実的なのが、Blenderで3Dモデルを組んで構図を確定し、AIには質感と光と空気感だけを担当させる役割分担です。形状の正確さはBlenderが、自然な質感はAIが、それぞれ得意な領域を受け持ちます。この切り分けがすべての出発点になります。
Blender単体/D5連携/AI連携の使い分け
仕上げの選択肢は3つあります。Blender単体(CyclesまたはEeveeでレンダリング)、Blender→D5 Render連携、Blender→AI(ComfyUI)連携です。
| 仕上げ手段 | 強み | 弱み | 向いている用途 |
|---|---|---|---|
| Blender単体 | 無料・商用可・質感を自分で詰められる | レンダリング時間が長い、ライティング設計に経験が必要 | 学習用・最終納品で品質を詰めたい案件 |
| Blender→D5 Render | リアルタイムプレビュー・短時間でプレゼン品質 | D5側のライセンス費が必要、クラウドレンダ別料金 | プレゼン用・スピード重視の受託 |
| Blender→AI(ComfyUI) | 構図を保ったまま質感バリエーションを短時間で複数案出せる | モデルのライセンス確認が必要、品質ばらつきあり | 初期検討用パース・スタイル提案・社内検証 |
D5連携の詳しい手順はBlenderからD5 Renderへ繋ぐ方法で解説しています。この記事はAI連携にしぼり、ComfyUIをバックエンドにした仕上げワークフローを解説します。
なぜ「2026年に実務適用できる」と言えるのか
実務適用できる根拠は、公式情報で確認できる3つの環境整備にあります。
1つ目は、ComfyUI v0.20.1(2026年4月27日公式リリース)です。SDXL・Flux・Qwen-Image系のControlNet対応が拡充され、特にQwen Diffsynth ControlNet(CannyとDepth)にネイティブ対応しました(ComfyUI Changelog、2026年5月時点)。建築archvizで使える「構図保持の選択肢」がそれだけ増えたという意味です。
2つ目は、Blender 5.1(2026年3月17日公式リリース)と現行LTSのBlender 4.5(2025年7月15日リリース、2027年7月までサポート)が出そろったことです(Blender Release Notes)。Compositor(合成ノードエディタ)でDepth・Normal・Mistパスを16-bit PNGまたはEXRで直接書き出せるので、ControlNet用の入力素材をBlenderで完結して用意できます。
3つ目は、Blender↔ComfyUI連携addonが複数選べる段階に来たことです。ComfyUI-BlenderAI-node・ComfyUI-Blender・StableGenの3系統に加え、手動連携の選択肢もあります。ただしaddonごとにBlender 5.x対応状況に差があり、選定時には公式GitHubで対応バージョンを確認する手間が現時点では必要です。
Blender × ComfyUI を繋ぐ4つの方法|addon 比較と選び方
BlenderからComfyUIを呼び出す方法は、addon系3つと手動連携1つの計4系統です。建築archvizの実務で選ぶときの決め手は、Blenderバージョン互換性・Blender内完結の度合い・カメラ入力対応・学習コストの4つになります。
| addon/手法 | 提供元 | 対応Blender | Blender内完結 | カメラ入力対応 | 学習コスト | 建築archviz適性 |
|---|---|---|---|---|---|---|
| ComfyUI-BlenderAI-node | AIGODLIKE | 公式は3.5/3.6/4.0推奨、5.x未明示 | ◎ | ◎ | 中 | ○ |
| ComfyUI-Blender | alexisrolland | API通信ベースで依存少 | ○ | △ | 中 | ○ |
| StableGen | sakalond/Madxthree | 4.2-4.5および5.1+(5.0非対応) | ◎ | ◎ | 中〜高 | ◎(PBRマテリアル生成まで) |
| 手動連携(Python/静的画像経由) | 個別実装 | 非依存 | × | × | 低〜高 | ○ |
評価は◎=最適 / ○=対応 / △=制限あり / ×=非対応。
ComfyUI-BlenderAI-node(AIGODLIKE製)
ComfyUI-BlenderAI-nodeは、ComfyUIのノードをBlenderのノードエディタ上に変換して表示するaddonです(AIGODLIKE/ComfyUI-BlenderAI-node 公式GitHub)。Blender内で完結してComfyUIを操作できるので、Blender作業中にウィンドウを切り替える必要がありません。
最大の強みは、Blenderのカメラビューを直接ControlNet入力ソースに使えることです。Blender内で構図を決めて、そのままAI生成に流せます。撮影感覚でAIに素材を渡せるので、構図と生成画像の対応関係を頭で組み立てやすくなります。
互換性で注意したいのは、公式READMEがBlender 3.5・3.6・4.0を推奨と明示している点です。2026年5月時点で、Blender 5.x公式対応の表明はありません。Blender 5.1を導入済みの環境では動作しない可能性があるので、ComfyUI-BlenderAI-nodeを使うならLTSのBlender 4.5環境を選ぶのが現実的でしょう。新規にBlenderを導入する人ほど、ここで「最新版が最善」と考えて躓きやすいポイントになります。
ComfyUI-Blender(alexisrolland製)
ComfyUI-Blenderは、ComfyUI側で組んだワークフローをBlenderに取り込んで使う方式のaddonです。ComfyUIで作ったワークフローをAPI export(API形式での書き出し)し、BlenderにimportするとUIが自動生成されます(ComfyUI-Blender Wiki Usage Examples)。
向いているのは、ComfyUI側のワークフローを社内・チームで再利用したいケースです。ComfyUI担当者がワークフローを設計し、Blender担当者がそれをUIから操作する分業ができます。API通信ベースで動くため、Blenderバージョンへの依存が比較的少ないのも利点です。Blender 5.xでも動作する可能性が高い設計といえます。
弱みは、ComfyUI側のワークフロー設計力が前提になることです。Blenderカメラビューを直接ソースに使う仕組みは標準では弱く、カメラ入力経由のControlNet運用は別途設計が必要になります。ComfyUIをまだ習得していない読者は、ComfyUI完全解説ガイド できること・始め方・学習ロードマップでComfyUI自体の基礎を押さえてから検討するとスムーズです。
StableGen(sakalond/Madxthree製)
StableGenは、Blender内のUIからComfyUIサーバと通信し、カメラビューからControlNet入力を自動生成するaddonです。3Dモデルへのテクスチャ生成とPBRマテリアル分解に強みがあります(sakalond/StableGen GitHub)。
v0.3.0(2026年3月5日リリース)で大きく進化しました。TRELLIS.2による画像→3Dメッシュ生成、PBR分解(albedo・roughness・metallic・normal・height)、リモートComfyUIバックエンドへの対応が追加されています。建築archvizでは、たとえば家具の脚元の素材感をPBR分解で取り出し、Blender側のマテリアルとして取り込み直す使い方ができます。単に2D画像を出力するだけでなく、3Dマテリアルとして再利用できる点が他のaddonと大きく違うところでしょう。
互換性で重要な注意点があります。StableGen v0.3.0の対応Blenderは4.2-4.5および5.1以降で、Blender 5.0は非対応です。OSL(Open Shading Language)とRaycast仕様の変更が5.0で入った関係で、現時点では5.0だけスキップする形になっています。5.0をすでに導入した環境では、5.1への更新かLTS 4.5への移行が前提になります。ライセンスはGPL-3.0です。
手動連携(Python/静的画像経由)
手動連携は、addonを使わず、BlenderのCompositorでDepth/NormalパスをPNGまたはEXRに書き出し、ComfyUIに手で投入する方式です。一見遠回りに見えますが、学習段階としては妥当な選択になります。
理由は3つあります。第一に、addonに依存しないのでBlenderバージョン追従の心配がありません。Blender 5.xでも問題なく動きます。第二に、各工程がファイル単位で可視化されるので、Depthパスがどんな見た目で、ComfyUI側でどう使われるかを目で確認しながら理解を深められます。第三に、自由度が最も高く、ComfyUI側のワークフローを自由に組み替えられます。
公式GitHubのIssue傾向を見ても、初学者がaddon導入時のエラーで足止めされる事例が多く報告されています。初学者はまず手動連携で各工程の意味を理解し、慣れてからaddonに移行する順番がスムーズでしょう。addonは便利ですが、内部で何が起きているか見えにくいため、最初から使うとトラブル時に切り分けができなくなりがちです。
ベースモデル選定|SDXL/Flux Dev/Flux Schnell/Qwen-Image 2.0 の使い分けと商用利用判断
建築archvizで実用候補になるベースモデル(画像生成の核となるAIモデル)は2026年5月時点で4つあります。SDXL・Flux.1 Dev・Flux.1 Schnell・Qwen-Image 2.0で、商用利用可否と建築archviz適性に違いがあります。
LoRA(特定スタイルを後から学習させる小さなモデル)の使いどころも、商用利用条件と合わせて押さえておきたいポイントです。
| モデル | リリース | ライセンス | モデル本体の商用利用 | 生成物の商用利用 | 建築archviz適性 |
|---|---|---|---|---|---|
| SDXL | 2023年7月 | CreativeML Open RAIL-M / OpenRAIL++ | ◎ | ◎ | ◎(ControlNet・LoRA成熟) |
| Flux.1 Dev | 2024年8月 | Non-Commercial(生成物のみ商用可、本体はBFLポータルで購入) | △(公式ポータル経由で可) | ◎ | ○(質感の自然さ) |
| Flux.1 Schnell | 2024年8月 | Apache 2.0 | ◎ | ◎ | ○(高速・商用安全) |
| Qwen-Image 2.0 | 2026年2月10日 | Apache 2.0 | ◎ | ◎ | △(評価中、2K対応に強み) |
SDXL:ControlNet エコシステムが成熟した「実務の主力」
SDXL(Stable Diffusion XL)は、2026年5月時点で建築archviz実務の主力モデルです。ControlNet Union SDXLなど主要なControlNetが整備されており、複数の制御を1つのモデルで併用できます(ControlNet for SDXL(ComfyUI Wiki)、2026年5月時点)。
建築archviz向けLoRAも豊富で、Interior-Design-Universal SDXLやArchitecture SDXL(beta)など、Civitaiで多数公開されています。住宅案件で「モダン」「和風」「インダストリアル」のスタイル違いを短時間で複数案出したいときに、LoRAを差し替えるだけで方向性を変えられます。
ライセンスはCreativeML Open RAIL-MおよびOpenRAIL++で、モデル本体・生成物ともに商用利用が可能です。受託案件で安心して使える点が、現時点でSDXLが「主力」と呼べる最大の理由になります。
Flux.1 Dev / Schnell:質感の自然さと「商用利用の落とし穴」
Flux.1はBlack Forest Labs(BFL)が提供する画像生成モデルで、質感の自然さとテキスト追従性でSDXLを上回る場面が出てきています。ただし商用利用の条件がDevとSchnellで大きく違うので、ここで判断を誤ると受託案件で問題になります。
Flux.1 [dev]は、Non-Commercial Licenseです。モデル本体(重みファイル自体)の商用利用は、無償では認められていません(FLUX.1-dev LICENSE.md、2026年5月時点)。一方で、生成された画像そのものは商用利用が可能と整理されています。つまり「個人や社内で試して、出力画像を案件に使う」までは問題ありません。一方、「Devモデルを自社サーバに常設して有料サービスとして提供する」のはNon-Commercial Licenseの範囲外になります。
Devモデル本体を商用利用したい場合の選択肢として、2025年6月にBFLが公式ライセンスポータル(bfl.ai/licensing)を開設しました。月次利用量ベースで商用ライセンスを購入できる経路が明文化されており、Non-Commercial Purposeの定義もこの更新で整理されています。Devを業務フローに本格的に組み込むなら、この公式ライセンス購入を検討するのが筋になります。
Flux.1 [schnell]は、Apache 2.0ライセンスです(LICENSE-FLUX1-schnell)。モデル本体を含めて商用利用が無条件で可能で、Schnellは「速い」という意味のドイツ語のとおり生成速度も速いので、受託案件でフローに組み込みやすい選択肢でしょう。
実務判断の整理は次のとおりです。受託案件で安全側に倒すならSchnell、表現の質を最優先するならDev(ただしモデル本体は社内検証用にとどめる、または公式ライセンス購入)、自社プレゼンや社内検証ならDevをそのまま試す、という使い分けが現実的です。
Qwen-Image 2.0:2K対応の新顔(評価中)
Qwen-Image 2.0は、Alibaba Tongyi Labが2026年2月10日に公開した新しい画像生成モデルです(Qwen-Image GitHub)。アーキテクチャは20B MMDiT(Multimodal Diffusion Transformer)で、ライセンスはApache 2.0、モデル本体を含めて商用利用が可能です。
Qwen-Image 2.0の建築archvizでの強みは2点あります。1つはnative 2K対応で、高解像度のパース出力に向くこと。2K(おおむね2048×2048)の出力を直接生成できるので、A3プレゼンボード用の素材として使いやすくなります。もう1つはDiffSynth ControlNet(Canny/Depth/Inpaint)にComfyUI v0.20.1がネイティブ対応していることです。従来のSDXLやFluxとは違い「patch model」方式で動作する点が特徴で、ベースモデルにControlNetの機能をパッチとして当てる設計になっています(Comfy-Org/Qwen-Image-DiffSynth-ControlNets)。
弱みは、建築archviz向けのLoRAエコシステムがSDXLに比べて小規模なことです。Civitaiでの建築向けLoRAの蓄積がまだ少なく、スタイル付けの選択肢で見劣りします。2026年5月時点の編集部の位置づけは「評価中」「実験的採用」が現実的です。受託の本番フローに即投入するよりも、自社プレゼンや社内検証から試して、自社案件の素材傾向との相性を見極めるのが安全な進め方になるでしょう。
建築archviz 向け LoRA の使いどころ
LoRAは、ベースモデルにスタイルを後から重ねる小さなモデルです。建築archvizでは、スタイル統一(同じ案件で複数カット出すときの一貫性確保)、特定の建築様式の補強(モダン・和風・北欧・インダストリアルなど)、特定マテリアルの強調(コンクリート打ち放し・木材・タイル)といった用途で効きます。
注意点は、商用利用可否がLoRAごとに異なることです。Civitaiで公開されているLoRAでも、配布元が独自のライセンスを設定しているケースがあり、ベースモデル側が商用OKでもLoRA側が非商用というパターンも出てきます。受託案件で使う前に、配布ページで必ずライセンス表記を確認する手順を、運用ルールとして決めておくと安全でしょう。
LoRAの選び方と建築archviz向けの定番リストは、ComfyUI LoRAの使い方|導入から建築向けおすすめの選び方で解説しています。
ControlNet で「形状を崩さない」AI仕上げ|Depth/Canny/Normal の使い分け
ControlNetは、AIに「この構図のまま、この線のまま、この奥行きのまま生成して」と指示するための制御機構です。建築archvizでAIを実務適用できる最大の理由がここにあり、ControlNetなしでは設計図に忠実なパース生成は成立しません。
| 種別 | Blender側の書き出し元 | 効果 | 建築archvizでの用途 | 推奨ウェイト目安 |
|---|---|---|---|---|
| Depth | Compositor の Z パス | 奥行きを保つ | 内観・外観どちらにも汎用的 | 0.6〜0.9 |
| Canny/Lineart | Freestyle ライン or 通常レンダ画像 | 直線・エッジを保つ | 外観・図面ベース | 0.5〜0.8 |
| Normal | Compositor の Normal パス | 面の向きを保つ | マテリアル切り替え用途 | 0.4〜0.7 |
| Qwen DiffSynth Depth/Canny | 上記と同じ素材を入力 | patch型でQwen-Image 2.0と組み合わせ | 2K高解像度パース | 0.6〜0.8 |
ControlNet Depth:奥行きを保ち「立体感そのまま AI 仕上げ」
ControlNet Depthは、深度情報(カメラからの距離)を渡して、奥行きと立体感をそのまま保ったままAIに仕上げさせる機構です。建築archvizで最も汎用的で、内観・外観どちらにも使えます。
Blender側の手順は、CompositorでZパス(カメラから各ピクセルまでの距離を記録したパス)を有効化し、16-bit PNGまたはEXRで書き出すだけです。書き出した画像をComfyUI側でControlNet Depthのプリプロセッサ済み入力として読み込みます(ComfyUI公式 Depth ControlNetチュートリアル)。
建築archvizで効くのは、リビング・ダイニング・キッチンの3カット納品案件のようなシーンです。同じ間取りの異なる視点で複数枚出すとき、Depthを使えば各カットの空間スケール感が崩れません。AIに任せる範囲は「ソファの素材」「壁紙のニュアンス」「窓から差し込む光の色温度」といった質感面に絞れるので、設計意図を保ったまま雰囲気だけ複数案出せます。Depthの詳細はComfyUI Depth×建築空間の構図制御|実務で使える深度マップ活用法で解説しています。
ControlNet Canny / Lineart:直線・エッジを保ちたい外観・図面ベース
ControlNet CannyとLineartは、エッジ(線)情報を渡して、直線基調の形状を厳密に保つ機構です。建築外観や、図面風の表現で特に有効になります。
Blender側の選択肢は2つあります。1つはFreestyleでライン画像を直接書き出す方法、もう1つは通常のレンダ画像をComfyUI側でCannyプリプロセッサに通す方法です。Freestyleはエッジ抽出のしきい値をBlender側で細かく制御できる利点があり、通常レンダ画像経由はBlender側の設定を増やさずに済む手軽さがあります。
外観パースでは、Cannyだけだと窓のサッシ位置がぶれることがあるため、後述するDepthとの併用が定番です。直線基調のオフィスビル外観や、店舗ファサードの図面風スタイル提案で、ファサードのラインを保ったまま素材違いを複数案出せます。
ControlNet Normal:マテリアル感を強く出したいとき
ControlNet Normalは、法線情報(面の向きを示すベクトル)を渡して、面の向きを保ったままAIにマテリアルを差し替えさせる機構です。マテリアル感を強く出したい場面で力を発揮します。
Blender側の手順は、CompositorでNormalパスを有効化し、書き出した画像をComfyUIのControlNet Normalに入力します。Normalパスは面の向きをRGB情報として持つので、AIが「ここは床」「ここは壁」「ここは天井」を誤解しにくくなります。ライティングをBlenderではなくAI側に任せたい場合に有効です。たとえば、Blenderで仮ライティングのみ仕込んでおいて、AIに「夕方の柔らかい光」「朝の冷たい光」「夜の間接照明」といった光環境を後から振る使い方ができます。
複数 ControlNet 併用|建築archviz 実用パターン
実務では、ControlNetを単独で使うよりも、複数併用するパターンが主流です。建築archvizで定番なのは2パターンあります。
1つはDepth+Cannyの組み合わせで、外観パースで多用されます。Depthで奥行きを、Cannyで直線エッジを両方保つことで、ファサードのライン崩れと空間スケールずれの両方を防げます。もう1つはDepth+Normalの組み合わせで、内観パースで定番です。奥行きと面の向きを両方保つので、家具配置と空間感の両方が崩れにくくなります。
ウェイト調整(各ControlNetの効きの強さの配分)は経験頼みの部分が大きく、案件ごとに調整が必要になります。実務で使える組み合わせの目安と、各組み合わせの効きどころはComfyUI 複数ControlNet併用テクニック|実務の組み合わせ5選で解説しています。
実務6ステップ|Blender → ComfyUI → 仕上げの通しでつなぐワークフロー
Blenderで構図を作り、ComfyUIでAI仕上げ、後工程ソフトで最終調整するまでの実務6ステップは、次の流れで進めます。建築archvizで「形状を崩さず、質感だけAIに任せる」を実装するための、現実的な工程設計です。
| ステップ | 担当ツール | 出力物 | 所要目安 |
|---|---|---|---|
| 1. モデリング | Blender | 3Dシーン | 案件規模に依存 |
| 2. カメラ・ライティング | Blender | 構図確定済みシーン | 1〜3時間 |
| 3. ベースレンダリング | Blender(Cycles/Eevee) | 仮質感のベース画像 | 数分〜数十分 |
| 4. ControlNet 入力書き出し | Blender Compositor | Depth/Normal/Canny用画像 | 数十秒 |
| 5. ComfyUI で AI 加工 | ComfyUI(SDXL/Flux/Qwen) | 質感仕上げ済み画像 | 1枚あたり数十秒〜数分 |
| 6. 仕上げ | Photoshop/GIMP | 最終納品画像 | 30分〜数時間 |
ステップ1〜2|Blender でモデリング・カメラ・ライティング確定
最初の2ステップで、AI仕上げの前提となるBlender側の制作を完成させます。モデリングはCADやBIMからの取り込みでも、Blender単体で組んでも構いません。AutoCAD・Vectorworks・Jw_cadからのインポートは別の手順が必要で、Blenderで建築パースを効率的に作るためのワークフローで解説しています。
カメラと大まかな光源配置はBlender側で確定させてください。これがこのワークフローの最重要原則です。AIの段階で構図を変えると、STEP 4で書き出すDepthやCannyとの整合が崩れ、ControlNetの構図保持機能が意味を失います。「ベースレンダの段階で構図はもう動かさない」と決めて進めるのが、品質を安定させるコツになります。質感は仮で問題ありません。むしろ詰めすぎると次の工程での差し替えが大変になります。
ステップ3〜4|Cycles/Eevee でベース画像と Compositor で ControlNet 入力書き出し
ステップ3では、ベース画像をCyclesまたはEeveeでレンダリングします。質感は仮で構わないので、構図とライティングの方向性が伝われば十分です。サンプリング数も最低限で問題ありません。
ステップ4が、このワークフローで最も躓きやすいポイントです。CompositorでZパス(Depth)とNormalパスを16-bit PNGまたはEXRで書き出します。16-bit精度を選ぶ理由は、Depthの階調が滑らかでないとControlNetの効きが粗くなるためです。8-bit PNGでは奥行きの微妙な差が潰れます。
ここで重要な実務注記が1つあります。ZパスをDepthとして使うときは、CompositorでNormalizeノード(0〜1の範囲に正規化するノード)を通したあと、Invert Colorノード(白黒を反転するノード)で「遠方=黒」に整える必要があります。Blenderの標準仕様ではZパスは遠方が白で出力されますが、Stable DiffusionやControlNetが期待する慣習は遠方=黒で逆向きです(sandner.art Stable Diffusion×Blender実務記事、2026年5月時点で確認)。ここを通さずに渡すと、奥行きが反転して認識され、生成結果がまったく意図と合わなくなります。AIの応答が不自然なときに最初に疑うべき箇所でしょう。
Canny用には、Freestyleでライン画像を書き出すか、通常レンダ画像をそのままComfyUI側でCannyプリプロセッサに通す方法を選びます。外観案件ではFreestyleの方が線の出方を制御しやすく、内観案件では通常レンダ経由でも十分なケースが多いです。
ステップ5|ComfyUI で AI 加工(SDXL/Flux/Qwen-Image + ControlNet)
ステップ5が中核です。ComfyUIで、選んだベースモデル(SDXL/Flux Schnell/Qwen-Image 2.0)にControlNet Depth・Cannyを組み合わせて、質感と雰囲気を生成します。
プロンプト設計の基本は、「建築の用途」「時間帯」「質感の方向性」「光の雰囲気」を明確に指定することです。例えば「modern living room, late afternoon, warm wood floor, soft natural light from west window, photorealistic interior, 4K detailed materials」のように、用途と光と素材を順に並べると、生成結果が安定します。逆に「beautiful interior」のような抽象的な言葉だけだと、AIが解釈の自由度を増やし、意図と外れた結果になりがちです。
デノイズ強度(元のベース画像をどれだけAIで上書きするかの度合い)は、建築archvizでは0.5〜0.8あたりから探るのが現実的でしょう。構図保持を優先したいなら0.5〜0.6、質感の刷新を強く効かせたいなら0.7〜0.8、と幅を持って試してください。低めから始めて、結果を見ながら徐々に上げる順番が安全です。
ステップ6|Photoshop / GIMP で最終調整
最後のステップで、AIから出てきた画像をPhotoshopまたはGIMPに取り込み、色温度・露出・コントラスト・部分的なディテール強調を整えます。AIの出力はそのままでも見栄えする場合がありますが、案件ごとのブランドトーン(クライアントの好む色味や明度)に合わせ込むのは、後工程ソフトでの調整が現実的です。
編集部の所感では、ステップ1〜6の全体で「初期検討段階でクライアント提示用のスタイル違いを短時間で複数案出せる」状態が見込めるのは、モデリングが完成済みのケースに限られます。モデリングがない状態からAIだけで建築パースを作ることは、構図再現性の制約上、2026年5月時点では実用レベルに達していません。AIは「仕上げ補助」であって「3DCGの置き換え」ではない、というこの記事の出発点が、6ステップの設計にもそのまま反映されています。
2026年5月時点の実務適用範囲|できること・まだ難しいこと
2026年5月時点で、Blender×AI建築パースのワークフローは「すべての案件で万能」ではありません。実務に適用しやすい用途と、慎重に運用すべき用途、そして商用利用前に必ず確認すべき項目を、現実的な線引きで見ていきます。
| 用途 | 2026年5月時点の評価 | 注意点 |
|---|---|---|
| 初期検討用パース | ◎(積極活用可) | スタイル違いの提示に最適 |
| インテリアスタイル変更 | ◎(安定運用可) | Depth+IPAdapter併用が定番 |
| 最終納品用の高解像度パース | △(部分活用) | AI加工部分とPhotoshop合成の組み合わせ推奨 |
| 動画・アニメーション | △(発展途上) | 専用ツールでも未成熟 |
実務適用しやすい用途
積極的に活用できるのは、初期検討段階のプレゼン用静止画です。構図を確定したあとに、クライアント提示用のスタイル違いを短時間で複数案出せるので、提案フェーズの幅出しに直接効きます。住宅案件で「モダン寄り」「北欧寄り」「和モダン寄り」の3パターンを2時間で出してクライアントの方向性を引き出す、といった使い方が現実的に組めます。
既存モデルの内装スタイル変更も、安定運用が見込める用途です。ControlNet Depth+IPAdapter(参照画像のスタイルを取り込む機構)の組み合わせで、家具配置はそのままに「インダストリアル」「ナチュラル」「ホテルライク」のスタイル変換ができます。家具を組み直す手間がない分、スタイル提案のサイクルが速くなります。建築空間でのDepth活用の細部はComfyUI Depth×建築空間の構図制御で解説しています。
慎重に運用すべき用途
最終納品用の高解像度パース(A1サイズ印刷想定など)は、AI単独での仕上げよりも、AI加工部分とPhotoshop合成を組み合わせる方が安定します。AI生成の解像度限界とディテール再現性が、案件によっては最終納品の要求水準に届かないケースがあるためです。AIで雰囲気のたたきを作り、構造的なディテール(窓のサッシ・建具のジョイント・タイル目地など)はPhotoshopで重ねる二段階の作り方が、品質を担保しやすい現実解になります。
動画・アニメーションは、2026年時点でなお発展途上です。Wan(Alibaba)やHunyuanVideo(Tencent)といった動画生成モデルが出てきていますが、建築archvizの実務基準で「使えるレベル」と言うには、フレーム間の整合性や尺の自由度でまだ課題が残ります。動画AI領域の現状はComfyUI 動画生成ガイドで解説しています。
商用利用前の必須チェック
受託案件や公開素材として使う前に、必ず以下の3点を確認してください。
1点目は、モデル本体のライセンスです。モデル本体のライセンスはモデルごとに条件が違い、Flux Devだけが非商用(BFL公式ポータルで購入経路あり)、他3つ(Flux Schnell・SDXL・Qwen-Image 2.0)は商用可です。社内で「このプロジェクトはどのモデルを使うか」を案件単位で決めておくと、運用が安定します。
2点目は、LoRAのライセンスです。ベースモデル側が商用OKでも、LoRA側が非商用というケースがあります。Civitaiの配布ページで都度確認する手間は省けません。
3点目は、クライアントとの権利関係です。生成物の著作権をどちらが持つか、AI生成物であることをクライアントに開示するか否か、納品物のリテイクが必要になったときの対応など、契約段階で擦り合わせておくとトラブルを避けられます。AI生成物の取り扱いに敏感なクライアント(特に上場企業や公共案件)では、事前確認の有無が信頼関係を左右します。
Blender × AI建築パースが現場の制作フローにもたらす変化
ここまでの6ステップを身につけた建築実務者の現場は、これまでとは違う姿になります。設計フェーズと仕上げフェーズの間にAIが入ることで、「クライアントへの方向性提案」の幅と速さが大きく変わります。
これまでのフローでは、クライアントから「もう少し雰囲気を変えたい」と言われると、Blenderでのライティング再調整やマテリアル組み直しに数時間かかっていました。Blender×AIワークフローを身につけたあとは、構図はそのまま、ControlNet Depthでスタイル違いを20分で3案出して持っていく動き方ができます。提案の往復回数を増やせるので、初期段階でクライアントの好みの解像度が上がり、結果として手戻りが減るでしょう。
学んだ先に広がるのは、「Blenderの基礎を持っている人」と「持っていない人」の差がより鮮明になる景色です。AIだけで建築パースを作ろうとする人と、Blenderで構図を作ってAIで仕上げる人では、寸法再現性と表現幅の両方で大きな差が出ます。設計図に忠実なパースを、しかも複数バリエーション出せる人材は、設計事務所からも建築パース専業会社からも需要が高まるでしょう。
AI連携の効果を最大化する土台になるのは、Blender側の構図設計力とライティング設計力です。AIに渡すDepth・Cannyマップの質はBlenderの構図と陰影で決まるため、Blenderの基礎が固まっているほど、ControlNetで出せる引き出しの数が一段増えます。AI側の進化は速いものの、構図設計とライティング設計の原則は建築写真の歴史と同じく安定した知識なので、ここを固めておくと数年単位で効いてくる投資になります。
まとめ|Blender × AI建築パースを実務に組み込む3つの指針
Blender×AI建築パースのワークフローは、2026年5月時点で実務に組み込める段階に来ました。記事全体の要点を3つの指針に集約します。
第一に、役割分担を守ることです。Blenderで構図と寸法を確定し、AIには質感と雰囲気だけを仕上げさせる切り分けが、建築archvizでAIを実用化する2026年時点で実用に耐える基本パターンになります。AIに構図まで任せようとした瞬間に、設計図への忠実性が崩れます。
第二に、モデル選定では商用利用可否を必ず確認することです。受託案件で安全側に倒すならSDXLかFlux SchnellかQwen-Image 2.0が安心、表現重視でFlux Devを使うならBFL公式ライセンスポータルでの商用ライセンス購入を検討します。LoRAの商用利用条件も配布元ごとに確認する運用ルールを社内で決めておくとトラブルを防げます。
第三に、ControlNet Depth+CannyまたはNormalの併用が建築archvizの鍵になります。Depthだけでは外観のラインがぶれることがあり、CannyやNormalを重ねることで構図の崩れを最小化できます。複数併用のウェイト調整は経験で詰める領域なので、案件を重ねながら自分の標準値を持っておくと判断が速くなります。
あわせて読みたい
- Blenderで建築パースを効率的に作るためのワークフロー — Blender単体の建築パース制作工程を全体感で押さえたい人へ
- BlenderからD5 Renderへ繋ぐ方法 — リアルタイムプレゼンにはD5連携、AI連携と比較したい人へ
- ComfyUI完全解説ガイド できること・始め方・学習ロードマップ — ComfyUI自体をこれから学ぶ人の入り口
- ComfyUI Depth×建築空間の構図制御|実務で使える深度マップ活用法 — ControlNet Depthを建築archvizで深掘りしたい人へ
- ComfyUI × Blender/SketchUp連携|3Dモデルからパース生成 — SketchUpも含めたComfyUI側からの3Dソフト連携視点



