ComfyUIインテリアスタイル変換|Depth+IPAdapter実務5手順
「この部屋をもし北欧風にしたら?」「和モダンにしたらどう変わる?」クライアントからこうした要望を受けたとき、手作業でイメージパースを何枚も作るのは大きな負担になります。
ComfyUI(ノードをつないで画像生成AIを動かすツール)を使ったインテリアスタイル変換なら、1枚の空間写真から複数のスタイルバリエーションを短時間で生成できます。ポイントは、ControlNet(コントロールネット)Depthで空間の奥行きや家具配置を保持しつつ、IPAdapter(Image Prompt Adapter、画像でスタイル指定するアドオン)で目的のスタイルを転写する組み合わせです。
この記事では、ComfyUIでComfyUIインテリアスタイル変換|Depth+IPAdapter実務5手順を構築する具体的な手順と、デノイズ強度の調整方法や活用パターンを紹介します。SDXL(Stable Diffusionの高解像度版)系モデル+IPAdapter Plus(cubiq版)を前提に解説します(2026年4月現在、SD1.5でも基本的な考え方は同じです)。
インテリアスタイル変換に必要な2つの技術
ComfyUIでスタイル変換を行うには、「空間構造の維持」と「スタイルの転写」を同時に実現する必要があります。建築で言えば、間取りは変えずに内装だけ差し替える工事のようなイメージで、この2つを担うのがControlNet DepthとIPAdapterです。
ControlNet Depthで空間レイアウトを保持する
ControlNet Depthは、入力画像から深度マップ(奥行き情報)を抽出し、生成画像に空間構造を引き継ぐ技術です。
深度マップを使うことで、壁・床・天井の位置関係や家具の配置がそのまま維持されます。通常のimg2imgだけでは間取りが崩れてしまうケースでも、Depthを併用すれば部屋の骨格を保ったままスタイルだけを変えられます。
動作検証では、Zoe-DepthMapPreprocessorが室内空間の奥行き表現に適している挙動が確認されています。解像度パラメータを上げるほど細部まで深度を拾えますが、処理時間とのバランスを考慮して512〜768px程度が扱いやすい範囲です。
ControlNet Depthの詳しい設定方法は「ComfyUI ControlNet Depth 建築活用ガイド」で解説しています。
IPAdapterでスタイルの雰囲気を転写する
IPAdapterは、参照画像のスタイル要素を生成画像に反映させるカスタムノードです。テキストプロンプトだけでは伝えにくい質感や配色を、画像ベースで指定できます。
たとえば、北欧風リビングの参照画像を読み込めば、木目の温かみやニュートラルカラーの配色が生成結果に反映されます。現在の標準は IPAdapter Plus(cubiq版) であり、無印IPAdapterは旧世代となっています(2026年4月現在)。本記事でもIPAdapter Plusを前提に進めていきます。
IPAdapterの基本的な導入手順は「ComfyUI IPAdapter スタイル転写ガイド」を参考にしてください。
ComfyUIでのスタイル変換ワークフロー構築手順
ここからは、実際にワークフローを組み立てる手順を説明します。CADのテンプレートにプラグインを追加していくのと同じ感覚で、モデルとノードを順に揃えていきます。
必要なモデルとカスタムノードの準備
スタイル変換ワークフローには以下のモデルが必要です(2026年4月現在)。
- チェックポイントモデル:SDXL系またはSD1.5系(建築・インテリア生成に適したモデルを選択)
- ControlNet Depthモデル:control_v11f1p_sd15_depth(SD1.5用)またはSDXL対応のDepthモデル
- IPAdapterモデル:ip-adapter-plus_sdxl_vit-h.safetensors または SD1.5対応版
- Depth前処理ノード:ComfyUI ControlNet Auxiliary Preprocessors(Zoe-DepthMapPreprocessor含む)
- IPAdapterノード:ComfyUI IPAdapter Plus(cubiq版)
VRAM(GPUの作業メモリ)要件は8GB以上が推奨です(2026年4月現在)。ControlNetとIPAdapterを同時に使うため、VRAM 6GBでは生成が不安定になることがあります。
ワークフローの接続と設定ポイント
ワークフロー全体の流れは次のとおりです。
ステップ1:元画像の読み込みと深度マップ生成
LoadImageノードで変換元のインテリア写真を読み込み、Zoe-DepthMapPreprocessorに接続します。生成された深度マップをControlNet Applyノードに渡すことで、空間構造の制約が設定されます。
ステップ2:参照スタイル画像の読み込みとIPAdapter適用
もう1つのLoadImageノードで、目標とするスタイルの参照画像を読み込みます。IPAdapter Advancedノードに接続し、モデルパイプラインに組み込みます。
スタイル変換の核となる設定が Weight Type の選択です。SDXLを使う場合は「Style Transfer (SDXL)」を選ぶと、構図を変えずにスタイル要素だけを強く反映できます。構図も合わせて転写したい場合は「Composition (SDXL)」、バランス型は「standard」を使い分けます。
IPAdapterのweight(強度)は 0.5〜0.9 が推奨レンジです。実務では0.7前後から調整を始めると、スタイル転写と画質のバランスが取りやすくなります。weightを1.0超にすると画質劣化やアーティファクトの主因となるため、上限は0.9までに抑えるのが安全です。
ステップ3:KSamplerの設定
KSampler(画像生成の中核ノード)では、ステップ数20〜30、CFG(Classifier-Free Guidance、プロンプト追従度)スケール7〜8程度を基本設定とします。サンプラーはeuler_ancestralまたはdpmpp_2m_sdeが安定した結果を出しやすい傾向にあります。
デノイズ強度によるスタイル変換の度合い調整
img2imgモードで使用する デノイズ強度 は、スタイル変換の度合いを決める最重要パラメータです。IPAdapter weightと併せて調整すると狙いどおりの仕上がりに近づきます。
| デノイズ強度 | 変換の度合い | 用途 |
|---|---|---|
| 0.3〜0.5 | 軽微な雰囲気変更 | 照明や色調の微調整、季節感の演出 |
| 0.5〜0.7 | 中程度のスタイル変換 | 家具テイストの変更、素材感の転換(推奨レンジ) |
| 0.7〜0.9 | 大胆なスタイル変更 | 和風からモダン、クラシックからインダストリアルなど全面的な転換 |
0.5〜0.7の範囲が、空間構造を維持しつつスタイルをしっかり反映できるバランスの良い設定です。ControlNet Depthの制約があるため、デノイズ強度を高めに設定しても間取りの崩れは抑えられます。
上級テクニックとして Time stepping があります。生成ステップの前半はベースモデルに任せ、後半でIPAdapterを強くかけるなど、ステップ単位で融合度を制御する手法です。スタイルと構図の配分を細かくチューニングしたい場面で扱いやすい選択肢になります。
img2imgワークフローの基本は「ComfyUI img2img ワークフロー解説」で紹介しています。
スタイル変換の実例と活用パターン
ComfyUIのスタイル変換は、建築・インテリア分野で幅広いパターンに応用できます。ここでは代表的な変換パターンを具体例で紹介したうえで、同一空間から複数バリエーションを高速生成する活用法へと進みます。
代表的なスタイル変換パターン
ComfyUIのスタイル変換で実現できる代表的なパターンを紹介します。
モダンから和風(Japanese style)
参照画像に畳・障子・木格子のある和室を指定し、プロンプトに「Japanese style, tatami, wooden lattice, natural lighting」を追加します。デノイズ強度0.7程度で、洋室の間取りを保ちながら和の要素が反映されます。
ミニマルからクラシック(Classic elegant)
アンティーク家具やシャンデリアのある空間を参照画像に設定します。プロンプトでは「classic elegant interior, chandelier, ornate molding, rich textures」と指定すると、重厚感のある仕上がりになります。
北欧からインダストリアル(Industrial)
コンクリート壁やスチール什器の参照画像を使い、「industrial loft, exposed brick, metal fixtures, raw concrete」といったプロンプトを組み合わせます。
いずれのパターンでも、参照画像の選び方が変換品質を大きく左右します。理想に近い実際のインテリア写真を用意すると精度が高まります。
同一空間から複数バリエーションを高速生成する
スタイル変換の真価は、1枚の空間写真から複数のスタイル提案を短時間で作成できる点にあります。
参照画像を差し替えるだけでスタイルが切り替わるため、1案あたり数十秒から数分で新しいバリエーションを生成できます。検証レベルでは、5パターンのスタイル提案を30分以内に作成できる目安です。
クライアント提案資料に活用する場合は、以下の流れが効率的です。
- ヒアリングで候補スタイルを3〜5パターンに絞る
- 各スタイルの参照画像を用意する
- 同一の元写真からバッチ的にスタイル変換を実行
- 生成画像を比較資料として提示
バーチャルステージングとの組み合わせも有効です。空室に家具を配置した後、さらにスタイル変換をかけることで提案の幅が広がります。詳しくは「ComfyUI バーチャルステージング活用ガイド」をご覧ください。
スタイル変換の品質を高めるコツ
最後に、品質向上のための実践的なポイントをまとめます。
IPAdapter weightは0.5〜0.9に収める
weightを上げるほどスタイルが強く反映されますが、1.0を超えると画質劣化やアーティファクトの主因になります。まずは0.6〜0.7で試し、必要に応じて0.9まで上げるアプローチが安定します。
ControlNetウェイトで空間維持の強さを調整する
ControlNet Depthのウェイトは0.8〜1.0が標準です。ウェイトを下げるとスタイル変換の自由度が上がる一方、空間構造が崩れやすくなります。実務ではまず1.0に設定し、スタイル反映が弱い場合に0.8まで下げる方法が安全です。
MLSDノード併用で建築ラインを保持する
MLSD(直線検出)ノードをControlNetに追加すると、壁・窓枠・ドア枠・家具のエッジといった直線要素が保持されやすくなります。Depth単体で間取りが甘くなる場合の補強として、室内空間では特に有効な組み合わせです。
プロンプトとIPAdapterを併用する
IPAdapterだけに頼ると、参照画像の要素が過剰に入り込むことがあります。テキストプロンプトで素材感や照明の方向性を補足すると、意図に近い結果を得やすくなります。ネガティブプロンプトで不要な要素を除外するのも効果的です。
(任意)SDXLレイヤー別にスタイルと構図を分離する
IPAdapter PlusではSDXLの特定レイヤーだけにスタイルを注入する方法もあります。レイヤー6付近はスタイル要素、レイヤー3付近は構図要素を担当するとされており、レイヤーを絞れば「スタイルのみ」「構図のみ」の転写に近づけられます。慣れてきたら試してみたい上級テクニックです。
img2imgウェイトは0.1前後に抑える
img2imgのウェイトは照明や色調の一貫性に寄与しますが、0.2以上に設定すると構図が変わりやすくなります。微調整にとどめると仕上がりが安定します。
まとめ:ComfyUIでインテリアスタイル変換を始めよう
ComfyUIを使ったインテリアスタイル変換は、ControlNet Depthで空間構造を保持し、IPAdapterで目的のスタイルを転写する組み合わせで実現できます。IPAdapter Advancedの Weight Typeを「Style Transfer (SDXL)」に設定し、weightを0.5〜0.9、デノイズ強度を0.5〜0.7に収めれば、間取りを維持しながら雰囲気を大きく変えられます。
1枚の写真から複数のスタイル提案を短時間で作成できるため、クライアントへの提案効率が大幅に向上します。まずは手元のインテリア写真で試し、参照画像とデノイズ強度の調整感覚をつかんでみてください。
なお、2026年4月現在ではFlux(高品質な新世代画像生成モデル)系モデルでもControlNet+IPAdapter相当のワークフローが登場し始めていますが、VRAM要件の観点から当面はSDXL系が現実解となります。
ワークフローの土台となる技術について、さらに詳しく学びたい方は以下の記事も参考にしてください。
あわせて読みたい
- ComfyUI ControlNet 建築活用ガイド — ControlNetを建築分野で活用するための総合的な設定方法と応用事例を紹介
- ComfyUI ControlNet Depth 建築活用ガイド — 深度マップの生成から建築パースへの応用まで、Depth ControlNetの詳細な使い方を解説
- ComfyUI IPAdapter スタイル転写ガイド — IPAdapterの導入手順とスタイル転写の基本設定を詳しく解説
- ComfyUI バーチャルステージング活用ガイド — 空室写真への家具配置からスタイル提案まで、ステージングワークフローの全体像を紹介




