建築パースで画像生成AIを使う流れ|参考画像・ラフレンダリング・仕上げの順番
建築パース制作で画像生成AIを導入したいと考えつつ、「何から始めればいいか分からない」と感じている方は多いのではないでしょうか。ツール紹介の記事は増えていますが、実際に手を動かすときの具体的な流れをまとめた情報はまだ少ないのが現状です。
建築パースで画像生成AIを使う流れは、大きく「参考画像を集める」「3DCGでラフレンダリングを作る」「AIで仕上げる」の3ステップに整理できます。この記事では、この3ステップの進め方と判断基準、失敗しやすいポイント、ツール選定の考え方までを実務視点で解説します。
画像生成AIを使った建築パース制作の全体像
建築パースでの画像生成AI活用は「参考画像→3DCGラフレンダリング→AI仕上げ」の3ステップで進めるのが原則です。3DCGで構図・寸法・ライティングを先に確定させることで、AIの役割を質感変換に集中させ、修正回数を最小化できます。
3つのステップで考える
建築パースでの画像生成AIの使い方は、「参考画像の収集」「3DCGラフレンダリングの作成」「AIによる仕上げ」の3ステップに分けると整理しやすくなります。
各ステップの成果物は明確に異なります。ステップ1の参考画像収集では完成イメージの方向性を確定させ、ステップ2の3DCGラフレンダリングでは構図と寸法を確定させます。そしてステップ3のAI仕上げで質感と雰囲気を完成させるという流れです。
PERSC JOURNALでは、この3ステップを案件テンプレートとして保存することを推奨しています。参考画像ボード、ラフレンダリングの3Dファイルと設定、プロンプトをセットで残しておけば、2案件目以降はステップ1を省略・簡略化でき、制作時間を大幅に短縮できます。
なぜ「参考画像→ラフレンダリング→仕上げ」の順番なのか
いきなりプロンプトだけでAI生成すると、建物の寸法やプロポーション、開口部の位置がすべてAI任せになります。実在する物件のパースでは、これでは使いものになりません。
3DCGで構図・寸法・ライティングを先に確定させてからAIに渡すと、AIの役割は「質感・雰囲気の変換」に集中します。ラフレンダリングがしっかりしていれば、AIが構造を大きく崩すリスクが減り、修正回数も少なく済むでしょう。テキストだけでAIに指示を出す方法(txt2img)はコンセプト段階には有効ですが、実施設計レベルのパースではラフレンダリングありきの方法(img2img)が前提です。
ラフレンダリングがAI出力の品質を決めるという考え方の詳細は、「AI建築パースのプロンプトの考え方|言葉よりラフレンダリングが重要な理由」で掘り下げています。
ワークフローのバリエーション
案件の種類によって、3ステップの比重は変わります。代表的なパターンは3つです。
1つ目は「フル3DCG→AI仕上げ」のパターンです。精度重視の実施設計パース向けで、寸法が正確な3DCGラフレンダリングを作り、AIで質感を仕上げます。
2つ目は「ラフ3DCG→AI変換」のパターン。提案用コンセプトパース向けで、マス(ボリューム)モデル程度の簡易な3DCGからAIで全体の雰囲気を作ります。スピード重視の案件に向いています。
3つ目は「写真→AI変換」のパターンで、リノベーション提案に適しています。既存建物の写真をAIで変換する手法で、詳細は「AIホームステージングとは?既存写真から印象を変える活用法」で解説しています。
ステップ1:参考画像を集める
参考画像の役割は「完成イメージの方向性」をAIと自分自身に伝えることであり、テイスト・構図・素材感の3軸で合計10枚以内に絞るのが実務的な進め方です。
参考画像の役割
参考画像の役割は、AI(と自分自身)に「完成イメージの方向性」を伝えることです。選ぶ際の観点は3つあります。テイスト(建築スタイル・雰囲気)、構図(アングル・画角)、素材感(外壁・床材・植栽の質感)の3つで方向性を固めましょう。
参考画像の使い方には2種類あります。1つはAIへの直接入力として使う方法で、Image to ImageやスタイルリファレンスとしてAIに渡します。もう1つは、自分の方向性確認のために使う方法です。
AIへの直接入力では、IP-Adapterという技術が有効です。IP-Adapterを使えば、参考画像のテイスト(雰囲気・色調・質感)をAI生成に直接反映できます。ControlNetと併用でき、構造を保持しながら参考画像のスタイルだけを転写する使い方が海外の建築ビジュアル制作者の間で広がっています。
ゴールは「AIに渡す指示の方向性が明確になる状態」を作ること。枚数を集めることが目的ではありません。
どこで集めるか
参考画像の収集先はいくつかありますが、それぞれ得意分野が異なります。
Pinterestはテイスト・雰囲気の参考に向いています。ボード機能で案件別に整理できるため、プロジェクト管理と相性がよいでしょう。
ArchDailyやDezeenなどの建築メディアは、実在建物の高品質な写真が揃っています。設計意図の解説も読めるため、デザインの背景を理解した上で参考にできる点が強みです。
Behanceも見逃せない収集先です。CGアーティストの建築ビジュアル作品が多く掲載されており、ライティングや質感表現の参考として非常に有用です。海外のハイクオリティな作例を直接確認できるため、AI生成のゴールイメージを具体化するのに役立ちます。
Google画像検索は、特定の素材感(「コンクリート打ち放し 外壁」など)やアングルの参考をピンポイントで探したいときに向いています。
選び方のコツ:「何を揃えるか」ではなく「何を伝えたいか」
参考画像の選定で陥りがちな失敗は、とにかく大量に集めてしまうことです。重要なのは「1枚に1つの判断基準を持つ」ことで、「この写真の何を参考にするか」を言語化してから保存しましょう。
目安枚数はテイスト参考3〜5枚、構図参考2〜3枚、素材感参考2〜3枚で、合計10枚以内に絞るのが手間のかからない進め方です。矛盾する方向性の画像(モダンとクラシックの混在など)を集めると、AIへの指示も矛盾してしまいます。テイストは1方向に統一することを意識してください。
ステップ2:3DCGでラフレンダリングを作る
ラフレンダリングの品質が最終出力の品質上限を決めます。「構図とライティングが正しい60点のラフレンダリング」を目指し、マテリアルの作り込みはAIに委ねるのが効率と品質の両立点です。
ラフレンダリングで確定させるべきこと
ラフレンダリングで必ず確定させるべき要素は3つです。
1つ目は寸法・プロポーション。建物の高さ・幅・開口部の位置を図面通りに正確にモデリングします。AIでは寸法の補正ができないため、ここが最も重要な工程です。
2つ目は構図・カメラアングル。画角・視線の高さ・消失点を確定させます。AI変換後に構図を変えることはできません。
3つ目はライティングの方向です。太陽の位置と影の方向を決めておきましょう。影の方向が間違っていると、AIが質感を変換しても影の矛盾が残り、不自然な仕上がりになります。
AIに任せてよい範囲
3DCGで完璧なレンダリングを仕上げる必要はありません。「構図とライティングが正しい60点のラフレンダリング」でAIが質感を90点に引き上げてくれます。
AIに任せてよい要素は、マテリアルの精緻な質感(外壁の汚れ・木目の表情・ガラスの反射)、植栽のディテール、空・雲の表現、人物の追加などです。これらを3DCGで作り込む必要はありません。
逆に、3DCGで80点まで仕上げてしまうと問題が生じます。AI変換時にDenoising Strengthを下げざるを得なくなり、質感変換の効果が薄れてしまうためです。実務では「構図・ライティングは確定、マテリアルは最低限」というバランスが効率と品質の両立点になります。
ラフレンダリングの品質がAI出力を左右する
ラフレンダリングの品質レベルによって、AI出力の結果は大きく変わります。
構図が曖昧なラフレンダリングをAIに渡すと、AIが建物のプロポーションを独自に解釈し、窓が増えたり階数が変わったりします。ライティングが未設定のラフレンダリングでは、影の方向が破綻して生成画像全体が不自然になるでしょう。開口部が不正確なラフレンダリングでは、AIがサッシの形状やガラスの反射を再解釈してしまい、意図しないデザインに変わってしまいます。
PERSC JOURNALでは「ラフレンダリングの品質がAI出力の品質を決める」ことを繰り返しお伝えしています。プロンプトの工夫よりも、ラフレンダリングの精度を上げることが最も効果的な品質向上策です。
使用するツールと設定の目安
ラフレンダリング作成にはBlender、SketchUp、3ds Maxなどの3DCGソフトを使用します。出力設定では、解像度を最終出力の用途に合わせることが重要です。Web掲載用なら1920×1080px程度、印刷用なら2048×1024px以上が目安になります。レンダリング品質は中程度で十分です。
ControlNetに渡す場合は、深度マップやノーマルマップも同時に出力しておくと後工程がスムーズに進みます。3DCGソフトから直接出力すれば、ControlNetのプリプロセッサ処理を省略でき、精度も向上するでしょう。
ツール操作の詳細は「Midjourney・Stable Diffusionで建築パースを作る方法完全ガイド」で解説しています。
ステップ3:画像生成AIで仕上げる
仕上げ工程はImage to Imageで全体変換→ControlNetで形状保護→Inpaintingで部分修正→手動レタッチの順で進め、「AIで90点、手動で100点」に仕上げるのが実務の基本です。
Image to Imageで全体を変換する
まずラフレンダリング画像をImage to Imageに入力し、全体の質感・雰囲気をAIで変換します。プロンプトでスタイル(フォトリアル、イラスト風など)を指定して、方向性を定めましょう。
Stable Diffusionベースのモデルを使う場合、Denoising Strengthの調整が鍵になります。0.3〜0.4ではラフレンダリングにかなり忠実で質感変化が控えめ、0.5〜0.6がバランス型として推奨される範囲です。0.7以上では大幅な変換がかかりますが、構図崩れのリスクも高まるため注意が必要です。
なお、FLUX.2など別のエンジンではパラメータ体系が異なるため、数値をそのまま流用することはできません。使用するモデルに合わせた調整が必要です。詳細は「Image to Imageとは?建築パースの雰囲気調整で使う基本」をご確認ください。
ControlNetで形状を保護する
ControlNetは、ラフレンダリングのエッジや深度情報を抽出し、その構造を保持したままAIに画風変換させる技術です。建築パースでは寸法の正確さが必須のため、ControlNetの併用がほぼ必須といえます。
建築パースでよく使われるプリプロセッサはCannyとDepthの2つです。Cannyはエッジ(輪郭線)を保持し、Depthは奥行き感を保持します。実務ではこの2つを組み合わせるケースが多いでしょう。
複数のControlNetを同時に適用するMulti-ControlNetという手法もあり、海外の建築ビジュアル制作者の間では標準的に使われています。詳細な使い分けやMulti-ControlNetの設定については「ControlNetとは?建築AIで形を崩しにくくする基本」で解説しています。
Inpaintingで部分修正する
1回の全体生成で完璧な結果が出ることはまずありません。窓枠の歪み、家具の浮遊、植栽の不自然さなど、気になる箇所をマスクで指定し、その部分だけを再生成するのがInpaintingです。
実務では全体生成を1〜2回試したあと、Inpaintingでの部分修正を2〜3回繰り返すのが標準的な流れです。1箇所ずつ問題を潰していくアプローチが、結果的に最も手戻りの少ない進め方でしょう。
修正箇所の優先順位も意識してください。まず建物の構造(窓・壁・屋根)を修正し、次に家具・人物、最後に植栽・空の順で対応します。構造的な破綻が残ったまま細部を直しても、後から構造を直すと細部の修正がやり直しになるためです。
最終チェックと手動修正
AI生成画像の品質を確認し、Photoshop等で手動レタッチを施して完成させます。
チェック項目として重要なのは以下の4つです。
- 窓の整合性(数・形・反射)
- 影の方向(光源との一致)
- 家具のスケール(部屋サイズとの比率)
- 人物の自然さ(関節・手指)
詳しいチェック方法は「AI建築パースの破綻チェックリスト|窓・家具・人・光で確認する」にまとめています。
考え方としては、AIで90点まで仕上げてからPhotoshop等で手動レタッチして100点に持っていくイメージです。完璧をAIだけに求めないことが、無駄のないワークフローの鍵になります。
印刷用途の場合は、AI生成後にアップスケーラー(Real-ESRGANなど)で高解像度化する工程が入ります。AI生成画像は一般的に1024〜2048px程度で出力されるため、大判印刷にはそのまま使えません。2〜4倍のアップスケールを行い、必要な解像度を確保しましょう。
各ステップで起きやすい失敗と対策
参考画像の方向性バラつき、ラフレンダリングの完成度が低すぎる(または高すぎる)、AIの再生成を繰り返す「ガチャ回し」——各ステップには典型的な失敗パターンがあり、事前に把握しておけば回避できます。
ステップ1の失敗:参考画像の方向性がバラバラ
テイスト・構図・素材感が矛盾する参考画像を集めてしまうと、プロンプトでもAI入力でも矛盾した指示になります。その結果、生成画像がちぐはぐな仕上がりになるケースは少なくありません。
対策はシンプルです。参考画像を「テイスト」「構図」「素材」の3カテゴリに分けて管理し、各カテゴリ内では方向性を1つに統一してください。
PERSC JOURNALでは案件ごとにPinterestのボードを分けて管理する方法を採用しています。
ステップ2の失敗:ラフレンダリングの完成度が低すぎる、または高すぎる
ラフレンダリングの品質が極端な場合、どちらも問題が発生します。
完成度が低すぎる場合、構図やプロポーションが曖昧なままAIに渡すことになり、AIが独自解釈して破綻します。最低限「寸法・構図・ライティング」は図面通りに確定させることが不可欠です。
一方で完成度が高すぎる場合も非効率になります。3DCGで完璧にレンダリングするとAI変換の余地がなくなり、マテリアル設定にかけた時間がムダになりかねません。最適なバランスは「構図・ライティングは確定、マテリアルは最低限」です。
ステップ3の失敗:AIに頼りすぎて修正が終わらない
1回の全体生成で完璧を目指して何十回も再生成する「ガチャ回し」は、時間を浪費する典型的な失敗パターンです。全体生成は2〜3回に留めましょう。
効率のよい進め方は3段階に分けることです。まず全体生成で80点を作り、次にInpaintingで部分修正して95点に高め、最後に手動レタッチで100点に仕上げます。この3段階を守れば、修正作業が収束しやすくなります。
ControlNetのパラメータ(Weight、Guidance Start/End)を適切に調整して生成を安定させるほうが、同じ設定で何度も回すガチャ回しよりも作業時間を短縮できます。
画像生成AIのツール選定の考え方
ツール選定の基本はシンプルで、コンセプト段階にはMidjourney/GPT-4o、仕上げ段階にはStable Diffusion/FLUX.2+ControlNetが適しています。制作フェーズに応じた使い分けが品質と効率を左右します。
コンセプト段階はMidjourney / GPT-4oが向く
イメージの方向性を素早く出したいコンセプト段階では、テキストプロンプトから高品質な画像を生成できるツールが適しています。
Midjourneyはプロンプトだけで高品質な建築イメージを高速生成でき、コンセプト段階のバリエーション出しに向いています。複数案を短時間で提示したい場面で力を発揮します。
GPT-4oの画像生成もコンセプト段階で有力な選択肢です。ChatGPT内でGPT-4oがDALL·E 3に代わるネイティブ画像生成機能を搭載しており、日本語プロンプトに対応しています。建築的な条件指示(階数、素材、ファサード形状など)の再現精度が高い点が特徴です。さらにマルチターンの会話で「窓をもう少し大きく」「素材を木目に変更」といった段階的な修正も可能です。
ただし、どちらのツールも寸法の精密制御はできません。コンセプト段階での方向性確認には適していますが、実施設計用パースには向かないでしょう。
仕上げ段階はStable Diffusion / FLUX.2 + ControlNetが向く
精密な制御が必要な仕上げ段階では、Stable DiffusionまたはFLUX.2にControlNetを組み合わせた構成が主要な選択肢です。いずれもラフレンダリングの形状を保ちながら質感を変換する高い制御性を備えています。
FLUX.2(Black Forest Labs)はStable Diffusion XLの主要開発者が手がけた次世代モデルで、フォトリアルな質感表現に定評があります。FLUX.2 [dev](品質重視、32Bパラメータ)とFLUX.2 [klein](軽量・高速)の2バリエーションから、案件の優先度に応じて選べる構成です。
仕上げ工程ではControlNetで寸法を保護し、Image to Imageで質感を変換し、Inpaintingで部分修正します。この3つの技術を組み合わせて実務品質を実現するのが基本的な流れです。
ComfyUIでワークフローを構築すれば、案件ごとにラフレンダリングを差し替えるだけで作業が回せるようになります。海外ではComfyUIの建築パース向けワークフロー(.jsonファイル)がGitHubやCivitAIで共有されており、ゼロから構築する必要はありません。たとえばCivitAIで公開されている「PH’s Archviz x AI Workflow」は、SDXLとFLUXを段階的に使い分ける建築パース特化のワークフローです。超高解像度出力にも対応しています。こうした既存ワークフローをベースにカスタマイズするのが、実務ではスムーズな進め方でしょう。
なお、Stable Diffusionは最新のSD 4までリリースされており、世代ごとにControlNetの対応状況も異なります。使用するモデルの世代に合わせた設定確認が必要です。
用途別の推奨ツール構成
案件タイプによって最適なツール構成は異なります。以下に代表的な3パターンを示します。
| 案件タイプ | 推奨ツール構成 | 特徴 |
|---|---|---|
| 提案用コンセプトパース | Midjourney、GPT-4o画像生成 | スピード重視で方向性を提示 |
| 実施設計用パース | 3DCGラフレンダリング+ SD or FLUX.2 + ControlNet | 寸法の正確さと質感のリアルさを両立 |
| プレゼン用クイックパース | Veras(Chaos)、ArchiVinciなど | 3Dモデルから直接AI変換でき、中間工程が少ない |
Verasは最新バージョン4.2がリリースされており、SketchUp、Revit、Rhino、Archicadなど主要な設計ソフトに対応しています。提供元はChaosで、モデリングソフト上から直接AI変換を実行できます。画像生成エンジンにはGemini Image(Google DeepMind)を搭載しており、ワークフローの中間工程を省きたい場合に検討する価値があるでしょう。
初心者の方は、まずMidjourneyまたはGPT-4oでコンセプト生成から始めてみるのがおすすめです。テキストプロンプトだけで建築イメージを生成する感覚をつかんでから、3DCGラフレンダリングを使ったワークフローに進むと、各工程の役割が理解しやすくなります。
詳細なツール操作については「Midjourney・Stable Diffusionで建築パースを作る方法完全ガイド」で網羅的に解説しています。
まとめ
本記事では、建築パースで画像生成AIを使う流れを3ステップに分けて解説しました。要点を整理します。
- 建築パースで画像生成AIを使う流れは「参考画像→ラフレンダリング→仕上げ」の3ステップで考えると、各工程でやるべきことが明確になります
- ラフレンダリングで「寸法・構図・ライティング」を確定させることが、AI仕上げの品質を決める最大の要因です
- 仕上げはImage to Image→ControlNet→Inpainting→手動修正の順で進めると無駄がありません
- 各ステップに失敗パターンがあるため、事前に把握しておくことで制作時間のロスを減らせます
- ツール選定は「コンセプト段階はMidjourney / GPT-4o、仕上げ段階はSD or FLUX.2 + ControlNet」が実務的な使い分けです
初心者の方は、まずMidjourneyまたはGPT-4oでコンセプトイメージの生成を試してみてください。テキスト指示から建築イメージが生成される感覚をつかんだ上で、3DCGラフレンダリングを使ったワークフローに進むとスムーズです。
この記事のツール情報は2026年3月時点のものです。画像生成AIの進化は速いため、最新情報もあわせて確認することを推奨します。
各工程の技術詳細をさらに深く知りたい場合は、以下の記事もあわせてご覧ください。
- プロンプト設計の詳細: 「AI建築パースのプロンプトの考え方|言葉よりラフレンダリングが重要な理由」
- ControlNetの使い方: 「ControlNetとは?建築AIで形を崩しにくくする基本」
- ツール操作の全体ガイド: 「Midjourney・Stable Diffusionで建築パースを作る方法完全ガイド」
- ワークフロー全体像: 「3DCG→AI補助ワークフロー|建築ビジュアル制作で失敗しない判断軸と全体像」


