IPAdapterによるスタイル転送|参照画像のスタイルを反映
「あの画像の雰囲気を、別の画像にも反映させたい」と感じたことはありませんか。ComfyUI(ノードをつないで画像生成AIを動かすツール)のIPAdapter(Image Prompt Adapter)を使えば、参照画像のスタイルを生成画像にそのまま転送できます。テキストプロンプトでは伝えにくい色彩やトーン、質感といった視覚的な要素を、画像そのもので指定できる技術です。
この記事では、ComfyUI IPAdapterによるスタイル転送の仕組みから導入方法、Weight Typeの選び方、建築パースでの活用、ControlNet(コントロールネット)との併用ワークフローまでを順を追って解説します。
IPAdapterとは?画像でスタイルを指定する技術
IPAdapterは、画像を使って生成画像のスタイルを指示できる独自の技術です。ここでは仕組みの基本を押さえたうえで、ControlNetとの役割の違いも整理します。
IPAdapter(Image Prompt Adapter)の仕組み
IPAdapterは、テキストプロンプトの代わりに参照画像を使って生成画像の方向性を指示する技術です。正式名称はImage Prompt Adapterで、画像を「もうひとつのプロンプト」として扱います。インテリアの打ち合わせで、口頭説明ではなく現物のムードボードを1枚見せた方が早いのと同じ発想です。
内部ではCLIP(テキストや画像を数値化する処理)Visionエンコーダが参照画像の特徴量を抽出します。抽出された特徴量はクロスアテンション層を通じて拡散モデルに注入され、参照画像の色調・質感・雰囲気が生成結果に反映される仕組みです。テキストだけでは表現しにくい微妙なトーンやテクスチャを、視覚情報として直接伝えられる点が大きな強みといえます。
ControlNetとの役割の違い
IPAdapterとControlNetは、どちらも生成画像を制御する技術ですが、制御する対象が異なります。
ControlNetは構造の制御が得意です。エッジ検出やポーズ推定、深度マップなどを使い、画像の「形」をコントロールします。一方、IPAdapterはスタイルの制御を担います。参照画像の色彩・雰囲気・テクスチャといった「見た目の印象」を生成画像に反映させるのが役割です。
たとえるなら、ControlNetは建物の骨格を決める設計図であり、IPAdapterはインテリアの雰囲気を決めるムードボードです。ControlNetの基本的な使い方は、ControlNet概要と使い方|ComfyUIでの接続方法で詳しく紹介しています。
ComfyUI IPAdapter Plusの導入方法
ComfyUIでIPAdapterを使うには、cubiq氏が開発したIPAdapter Plusの導入が必要です。ここではインストール手順からモデルの配置、Flux系・SD3系で必要となる別系統の扱いまでを順に解説します。
cubiq/ComfyUI_IPAdapter_plusのインストール
ComfyUIでIPAdapterを使うには、cubiq氏が開発した「ComfyUI_IPAdapter_plus」をインストールします(2026年4月現在、SD1.5・SDXL(Stable Diffusionの高解像度版)系で引き続き主流の実装です)。公式リポジトリはcubiq/ComfyUI_IPAdapter_plus(GitHub)で確認できます。
導入はCADソフトのプラグイン追加と同じ感覚で、2通りの方法から選べます。
ComfyUI Managerを使う方法(推奨)
- ComfyUI Managerを開く
- 「Install Custom Nodes」で「IPAdapter」と検索
- 「ComfyUI_IPAdapter_plus」を選択してインストール
- ComfyUIを再起動
git cloneを使う方法
ComfyUIのcustom_nodesディレクトリで以下を実行します。
git clone https://github.com/cubiq/ComfyUI_IPAdapter_plus.git
FaceID機能を使う場合は、追加でinsightfaceとonnxruntimeが必要です。
pip install insightface onnxruntime-gpu
スタイル転送のみであれば、insightfaceのインストールは不要です。
必要なモデルのダウンロードと配置
IPAdapterの動作には、IPAdapterモデルとCLIP Visionモデルの2種類が必要です(2026年4月現在)。
IPAdapterモデル(配置先: ComfyUI/models/ipadapter/)
| モデル名 | 対応ベースモデル | 用途 |
|---|---|---|
| ip-adapter_sd15.safetensors | SD 1.5 | 標準スタイル転送 |
| ip-adapter-plus_sd15.safetensors | SD 1.5 | 高精度スタイル転送 |
| ip-adapter_sdxl_vit-h.safetensors | SDXL | 標準スタイル転送 |
| ip-adapter-plus_sdxl_vit-h.safetensors | SDXL | 高精度スタイル転送 |
CLIP Visionモデル(配置先: ComfyUI/models/clip_vision/)
CLIP VisionはベースモデルごとにパラメータサイズとViTスケールが異なります。
| ベース | 推奨CLIP Vision | 特徴 |
|---|---|---|
| SD 1.5 | OpenCLIP ViT-H-14(約632Mパラメータ) | 標準的なスタイル抽出精度 |
| SDXL | OpenCLIP ViT-BigG-14(約1845Mパラメータ) | より大規模で細部の特徴抽出に強い |
モデルはHugging Faceの公式リポジトリからダウンロードできます。ベースモデルとCLIP Visionを取り違えるとロードエラーの原因になるため、配置先と組み合わせをあらかじめ確認しておくと初期トラブルを避けられます(参考: IP-Adapters: All you need to know(Stable Diffusion Art))。
IPAdapter Unified Loaderノードを使うと、ベースモデルに合ったIPAdapterモデルを自動選択してくれるため、モデル選択の手間が省けます。
Flux系・SD3系を使う場合は別系統のIPAdapterが必要
cubiq版のComfyUI_IPAdapter_plusは、2026年4月現在Flux(高品質な新世代画像生成モデル)モデルには対応していません。Fluxで参照画像によるスタイル制御を行う場合は、以下のいずれかを選びます。
- Shakker-Labs/ComfyUI-IPAdapter-Flux:Flux向けIPAdapter実装
- InstantX FLUX.1-dev IP-Adapter:2024年11月リリースの公式Flux対応
- XLabs-AI/flux-ip-adapter:XLabs版Flux IP-Adapter
- Flux Redux:Flux向け画像参照のデファクト候補のひとつ
SD3系も現状未対応のため、利用時は同様に別系統を探す必要があります。この記事は主にSD 1.5・SDXL環境を前提に解説を進めます。
スタイル転送ワークフローの基本構成
IPAdapterによるスタイル転送は、最小構成のノード接続から始められます。ここでは基本のノード接続を押さえたうえで、Weight Typeの使い分けやパラメータ調整のコツへと進みます。
基本ノードの接続
スタイル転送の最小構成は、以下のノードで実現できます。3Dソフトでマテリアルスロットにテクスチャをセットする作業に近く、どこに何をつなぐかが分かれば組み立て自体はシンプルです。
- Load Image: 参照画像(スタイルの元)を読み込む
- IPAdapter Unified Loader: IPAdapterモデルとCLIP Visionモデルを読み込む
- IPAdapter Advanced: 参照画像のスタイルを適用する
- KSampler(画像生成の中核ノード): スタイルが反映された画像を生成する
Load Imageで読み込んだ参照画像をIPAdapter Advancedの「image」入力に接続し、IPAdapter Unified Loaderの出力をIPAdapter Advancedの「ipadapter」と「clip_vision」に接続します。あとは通常のワークフローと同様に、KSamplerで画像を生成するだけです。
Weight Typeの全体像と選び方
IPAdapter Advancedノードの「weight_type」は、スタイル転送の仕上がりを左右する重要な設定です。2026年4月現在、主要なWeight Typeは以下のとおりです(cubiq Discussion #376 / Discussion #607を参照)。
| weight_type | 主な用途 | 特徴 |
|---|---|---|
| linear(デフォルト) | 汎用 | 全レイヤーへ均等に適用。迷ったらまずここから |
| style transfer | スタイル転送 | スタイル関連レイヤーへ適用を強化、色彩・雰囲気の反映に特化 |
| style transfer precise | 精密スタイル転送 | 参照画像と生成画像が大きく異なる際、style/compositionの干渉を抑える |
| composition | 構図優先 | スタイルよりレイアウトの影響を優先 |
| style & composition(SDXL) | 併用 | スタイルと構図を別入力・別weightで同時制御 |
| strong style transfer | 強力スタイル転送 | 参照画像の雰囲気を強めに出したい場合 |
選び方は「参照画像と生成画像の乖離度」「スタイルだけ欲しいか、構図も欲しいか」の2軸で考えると決めやすくなります。SDXLで色調と構図を同時に合わせたい場合は、専用ノードのIPAdapter Style & Composition SDXLを使うと、スタイルと構図に別々のweightを設定できるため制御の自由度が上がります。
SDXL環境で標準的なスタイル転送を行う場合、まず「style transfer」を試すと目的どおりの挙動が得られやすく、初期調整の手戻りも減ります。SD 1.5環境では「linear」から始めて、結果を見ながら「style transfer」系へ切り替えていくと段階的に詰められます。
パラメータ調整のコツ
スタイル転送の仕上がりを微調整するパラメータは3つあります。
weight(0.0〜2.0、推奨: 0.6〜1.0)
スタイル転送の強度を決定します。値が高いほど参照画像の影響が強くなりますが、1.0を超えると画像が崩れやすくなります。実務では0.8前後をスタート値として微調整を重ねるのが効率的です。
start_at(0.0〜1.0、推奨: 0.0)
IPAdapterの効果が適用を開始するステップの割合です。0.0なら生成開始時からスタイルを適用します。0.2以上に設定すると、生成の初期段階ではスタイルの影響を受けず、途中からスタイルが反映されます。
end_at(0.0〜1.0、推奨: 0.8〜1.0)
IPAdapterの効果が終了するステップの割合です。1.0だと最後までスタイルが適用されますが、生成結果にノイズが残ることがあります。扱いやすい設定は0.8〜0.9で、最終ステップ付近のノイズを抑えやすくなります。
建築パースでのIPAdapter活用法
IPAdapterは建築パース制作において、スタイルを流用したいシーンで効果を発揮します。ここでは既存パースの雰囲気を別案件に活かす使い方と、複数プロジェクトのトーン統一という応用を紹介します。
既存パースの雰囲気を別プロジェクトに適用する
建築パース制作では、クライアントから「前回のプロジェクトと同じトーンで仕上げてほしい」と依頼されることがあります。IPAdapterを使えば、過去のパース画像を参照画像として読み込み、その雰囲気を新しいパースに反映できます。
具体的な手順は以下のとおりです。
- 過去のプロジェクトで好評だったパース画像を参照画像として設定
- 新しいプロジェクトの3Dモデルからレンダリングした基本画像をテキストプロンプトで指定
- weight_typeを「style transfer」に、weightを0.7前後に設定
- 生成結果を確認しながらweightを微調整
テキストプロンプトだけでトーンを再現しようとすると試行錯誤が増えがちですが、IPAdapterなら参照画像一枚で方向性が定まります。
複数プロジェクトのトーン統一
設計事務所がポートフォリオや提案資料を作成する際、複数のプロジェクト画像のトーンを揃えたい場面があります。
同一の参照画像を使って複数のパースにスタイル転送を適用すれば、色調や光の雰囲気を統一できます。設計事務所の運用では、事務所のブランドカラーや好みのトーンを反映した「スタイル基準画像」を1枚用意しておくと、プロジェクトごとの差が出にくくなり、提案資料全体の印象が整いやすくなります。
建築パースにおけるスタイル変換の詳細は、ComfyUIインテリアスタイル変換|Depth+IPAdapter実務5手順で詳しくまとめています。
ControlNetとIPAdapterを併用する実践ワークフロー
ControlNetとIPAdapterを併用すれば、構造とスタイルを同時にコントロールできます。ここでは2つを組み合わせる基本ワークフローから、重みバランスの調整までを順に解説します。
構造制御とスタイル制御を組み合わせる
ControlNetとIPAdapterを同時に使うことで、「この構造で、この雰囲気の画像」を生成できます。ControlNetが骨格を、IPAdapterが表面の質感を担当する形で、建築で言えば躯体屋と内装屋の役割分担に近い構成です。
併用ワークフローの基本構成は以下のようになります。
- ControlNet側: 構造の参照画像(エッジ検出やDepthマップ)をControlNet Applyに接続
- IPAdapter側: スタイルの参照画像をIPAdapter Advancedに接続
- 両方の出力をKSamplerのpositiveに統合
建築パースの場合、ControlNetで間取りや構造線を指定し、IPAdapterで「北欧スタイル」「モダンな雰囲気」といったテイストを適用する使い方が効果的です。
併用時のバランス調整
ControlNetとIPAdapterを同時に使う場合、それぞれの影響度のバランスが仕上がりを左右します。
調整のポイントは以下のとおりです。
- ControlNetのstrength: 0.7〜1.0(構造を強く維持したい場合は高めに設定)
- IPAdapterのweight: 0.5〜0.8(併用時は単体使用より低めに抑える)
- IPAdapterのend_at: 0.8(最終ステップ付近でのノイズを防ぐ)
実務では、まずControlNetのstrengthを固定した状態でIPAdapterのweightを徐々に上げていく調整方法が扱いやすい進め方です。スタイルの影響が強すぎると構造が崩れるため、バランスを見ながら調整することが大切です。
ControlNetで複数のモデルを組み合わせる方法は、ComfyUI 複数ControlNet併用テクニック|実務の組み合わせ5選で解説しています。
まとめ
ComfyUI IPAdapterによるスタイル転送は、参照画像の雰囲気を生成画像に反映させる実用的な手法です。テキストでは伝えにくい色彩やトーンを、画像一枚で指定できます。
導入はcubiq/ComfyUI_IPAdapter_plusをインストールし、IPAdapterモデルとCLIP Visionモデル(SD 1.5はViT-H-14、SDXLはViT-BigG-14)を配置するだけで完了します。Weight Typeの選択とweight値の調整が、スタイル転送の品質を決める重要なポイントです。
建築パース制作では、過去のプロジェクトのトーンを再現したり、複数画像の雰囲気を統一したりする場面で力を発揮します。ControlNetと併用すれば、構造とスタイルの両面から画像を制御できます。
なお、FluxやSD3系を使う場合は、cubiq版ではなくFlux専用のIPAdapter(Shakker-Labs / InstantX / XLabs / Flux Redux)が必要な点は押さえておきましょう(2026年4月現在)。IPAdapterを含むControlNet関連の制御技術の全体像は、ComfyUI ControlNet・構図制御ガイドで体系的にまとめています。
あわせて読みたい
- ControlNet概要と使い方|ComfyUIでの接続方法 — ControlNetの基礎を押さえたい方向け
- ComfyUI 複数ControlNet併用テクニック|実務の組み合わせ5選 — IPAdapterとControlNetの同時使用をさらに深掘りしたい方向け
- ComfyUIインテリアスタイル変換|Depth+IPAdapter実務5手順 — 建築パースのスタイル変換テクニックを知りたい方向け
- Flux Kontext 画像編集ワークフロー|部分編集・スタイル変換 — Flux Kontextを使った画像編集手法と比較したい方向け
- ComfyUI ControlNet・構図制御ガイド — IPAdapter・ControlNetの制御技術を押さえたい方向け




