Impact Pack完全ガイド|FaceDetailer・セグメンテーション
ComfyUI(ノードをつないで画像生成AIを動かすツール)で画像を生成したとき、全身構図や複数人物のシーンで顔が崩れた経験はないでしょうか。建築パースに人物を配置する場面では、建物の品質は高いのに顔だけが不自然になるケースが少なくありません。
ComfyUI Impact Packは、この課題を根本から解消するカスタムノードパックです。FaceDetailerによる顔の自動検出と部分再生成、SAMセグメンテーションによる精密な領域分割など、Detector・Detailer・Upscaler・Pipe系の豊富なノード群が画像品質の向上を支えています(2026年4月現在)。
この記事では、Impact Packのインストールから、Detector 3タイプの違い、FaceDetailerの実践的な設定、SAMセグメンテーションの活用、さらにDetailerパイプラインの構築まで、公式仕様に基づいて解説します。
ComfyUI Impact Packとは
ComfyUI Impact Pack(正式名称:ComfyUI-Impact-Pack)は、開発者ltdrdata氏が公開しているカスタムノードパックです(GitHub公式リポジトリ)。2026年4月現在も活発にアップデートが続き、ComfyUIの拡張機能のなかでも利用者の多いパックのひとつとなっています。写真現像ソフトの「自動顔補正フィルタ」や3DCGレンダリング後の後処理プラグインに近い位置づけで、本体の生成処理が終わった後に「仕上げ工程」だけを自動化するイメージです。
Impact Packの主要機能とDetector 3タイプ
Impact Packが提供する機能は、大きく5つのカテゴリに分かれます。
- Detector(検出): 画像内の顔や物体を自動的に検出するノード群。YOLOv8(物体検出AI)ベースのbbox検出やセグメンテーション検出に対応
- Detailer(詳細化): 検出された領域を部分的に再生成し、品質を高めるノード群。FaceDetailerが代表格
- Upscaler(高解像度化): 画像全体や特定領域のアップスケール処理を担うノード群
- Pipe(パイプライン): モデル・プロンプト・VAE(画像と潜在表現を相互変換する処理)などをまとめて管理し、ワークフローの接続を簡素化する仕組み
- Util(ユーティリティ): 画像の合成やマスク操作など、補助的な処理をおこなうノード群
このなかでもDetectorは、使い分けを押さえておきたい重要カテゴリです。公式Detectorチュートリアルでは、以下の3タイプが定義されています。
| タイプ | 役割 | 代表モデル | 単独利用 |
|---|---|---|---|
| BBOX_DETECTOR | 矩形(バウンディングボックス)で位置を検出 | face_yolov8m.pt | ○ |
| SEGM_DETECTOR | シルエット(セグメント)を直接取得 | person_yolov8n-seg.pt | ○ |
| SAM_MODEL(Segment Anything Model、領域分割AI) | 指定領域の輪郭を精密に分離 | sam_vit_b_01ec64.pth | ×(BBOXと併用) |
SAMは単独では使えず、BBOXで特定した位置を基に輪郭を切り出す補助役、と捉えるのが正確です。SEGMモデルは人物シルエットを直接取得できるため、BBOX+SAMの代替になる場面もあります。
実務では、DetectorとDetailerの組み合わせだけでも画像品質が大きく変わります。まずはこの2系統から触れていく進め方が扱いやすい入り口になります。
インストール方法
Impact Packの導入はComfyUI Manager経由が扱いやすい進め方です。手順は次のとおりです(2026年4月現在)。
- ComfyUIを起動し、メニューから「Manager」を開く
- 「Install Custom Nodes」を選択
- 検索欄に「impact」と入力
- 「ComfyUI-Impact-Pack」を選択してインストール
- ComfyUIを再起動する
インストール後、検出モデルのダウンロードが必要です。ComfyUI Managerの「Install Models」から、顔検出用にface_yolov8m.pt、SAM用にsam_vit_b_01ec64.pthを取得してください。YOLOモデルは精度重視ならm/l、速度重視ならn/sを選ぶのが基本の選び方です。
FaceDetailerの基本的な使い方
FaceDetailerは、Impact Packのなかでも使用頻度の高いノードです。画像内の顔を自動検出し、その部分だけを高品質で再生成する仕組みを備えています。Photoshopで顔領域だけ選択して部分再現像するのに近い挙動を、ワークフロー内で1ノードに押し込めた存在です。Stable Diffusion(画像生成AIの代表格)WebUIの「ADetailer」をご存じの方もいるのではないでしょうか。FaceDetailerはその同等機能をComfyUI上で実現するノードで、内部ではDetectorとDetailerが統合されている構造です。
FaceDetailerノードの追加と接続
FaceDetailerをワークフローに追加する手順は以下のとおりです。
- キャンバスの空白部分をダブルクリックし、ノード検索を開く
- 「FaceDetailer」と入力して選択
- 以下の入力端子を接続する
FaceDetailerに必要な接続は6系統です。
- image: 元画像(KSampler(画像生成の中核ノード)の出力やVAE Decodeの出力)
- model / clip / vae: 使用するチェックポイントモデルの各要素
- positive / negative: プロンプト(CLIP(テキストを数値化する処理)Text Encodeの出力)
- bbox_detector: 顔検出モデル(UltralyticsDetectorProviderノードから接続)
UltralyticsDetectorProviderノードでは、model_nameにface_yolov8m.ptを指定します。顔の位置を特定する検出器の役割を果たすノードです(RunComfyノードドキュメント)。
パラメータ調整のポイント
FaceDetailerの出力品質を左右する重要なパラメータを押さえておきましょう。
sampler / scheduler の選択が結果に大きく影響します。デフォルトのeulerでは品質が安定しないことがあるため、dpmpp_2mとkarrasの組み合わせが多くの場面で好結果につながります。
guide_sizeは、検出された顔領域をどの程度の解像度で再生成するかを制御するパラメータです。384〜512の範囲で設定するのが一般的です。値が大きいほど精細になりますが、処理時間も長くなる点に注意してください。
denoise(デノイズ強度)は0.3〜0.5程度が目安です。値を上げすぎると元画像との一貫性が崩れ、低すぎると修正効果が薄くなります。0.4から始めて微調整すると原因の切り分けがしやすく効率的です。
cycle(サイクル数)は再生成を繰り返す回数です。1〜3回が推奨されています。2回以上に設定すると、1回目の結果をさらに修正するため品質が安定しやすくなります。
Multi-Pass Refinement(2段掛け)のテクニック
顔が大きく破綻してしまったケースでは、FaceDetailerを2段掛けする「Multi-Pass Refinement」が有効です。1段目のFaceDetailerでdenoiseを高め(0.5〜0.6)に設定して大枠を修復し、出力画像を2段目のFaceDetailerに再投入してdenoise 0.3〜0.4で詳細を整える流れが基本形です(RunComfyチュートリアル)。一発でうまくいかない場合の保険として覚えておくと、トラブル時の復旧が早くなります。
SAMモデルとの連携
FaceDetailerにはオプションでSAMモデルを接続できます。SAMを併用すると、顔の輪郭をより正確に切り出せるようになります。
bbox_detectorだけの場合、検出領域は矩形(バウンディングボックス)のみです。ここにSAMモデルを加えると、顔の形状に沿った精密なマスクが生成されます。背景への影響を最小限に抑えたい場面で役立つ組み合わせです。
接続方法はシンプルで、SAMLoaderノードからsam_vit_b_01ec64.pthを読み込み、FaceDetailerのsam_model_opt入力に接続するだけで済みます。マスクの精度が上がるため、併用するとマスク境界のばらつきが抑えられます。2026年4月現在、SAM1系(sam_vit_b/l/h)が主流で、SAM2対応ノードはコミュニティ拡張として出始めている段階です。
SAMセグメンテーションの活用
SAM(Segment Anything Model)はMeta社が開発した汎用セグメンテーションモデルです。Impact PackではSAMDetectorノードとして組み込まれており、顔以外のさまざまな領域分割にも活用できます(公式SAM解説)。CADで1枚の図面から「壁」「窓」「家具」のレイヤーを自動で切り出すような仕組みを、AI画像に対して行うイメージです。
SAMDetectorの仕組み
SAMDetectorは、画像のなかから意味のあるまとまり(セグメント)を自動的に識別するノードです。たとえば建築パースのなかの窓、ドア、家具、人物といった要素を個別に分離する処理が可能です。
Impact PackではSAMDetectorCombinedとSAMDetectorSegmentedの2種類が用意されています。Combinedは検出結果をひとつのマスクにまとめ、Segmentedは個別のマスクとして出力します。どちらを選ぶかは用途次第です。
Simple Detector (SEGS) で配線を簡略化
検出まわりの配線をすっきりまとめたい場合は、Simple Detector (SEGS)ノードが便利です。このノードはBBOX_DETECTORを軸に、SAM_MODELまたはSEGM_DETECTORを任意で追加し、内部でマスク演算を行って改良済みのSEGS(セグメント情報)を出力する統合ノードになります(ComfyAI Runドキュメント)。
複雑なBBox+SAMワークフローを組むより、まずはSimple Detectorで手早く動かし、精度に不満が出たら個別ノードに分解していく進め方が実務では効率的です。
BBoxDetector + SAMDetectorの組み合わせ
より精度を突き詰めたい場合は、BBoxDetectorで大まかな位置を検出し、SAMDetectorで精密な輪郭を取得する2段構えが効果的です。
具体的な流れは次のとおりです。
- BBoxDetectorForEachノードで対象物(顔など)の矩形領域を検出
- 検出結果をSAMDetectorCombinedに渡す
- SAMが矩形内の対象物を正確にセグメント化
- 生成されたマスクをDetailerノードに入力
さらに公式advancedチュートリアルでは、Segs & Mask (intersection)を使ってBBox領域とSAMシルエットの積集合を取るパターンが紹介されています。矩形だけでは拾いすぎる背景を除外でき、SAM単独ではブレやすい境界も安定させられる組み合わせです。
dilation・thresholdの調整
SAMDetectorの精度は、2つのパラメータで細かく制御できます。具体的にどう設定すればよいのでしょうか。
dilation(膨張)は、検出されたセグメント領域を外側に拡張する値です。0に設定すると対象物ぴったりのマスクになりますが、境界にノイズが出る場合があります。4〜8程度に設定するとバッファが生まれ、自然な仕上がりにつながります。
threshold(しきい値)は、SAMモデルの検出感度を制御します。値を下げると検出範囲が広がり、上げると厳密になります。デフォルトの0.5を基準に、対象の特性に合わせて微調整してください。
建築パースの人物修正ではdilation=6、threshold=0.45前後が扱いやすい起点として紹介されています。安定した結果が得られやすい設定帯のため、出発点にしやすい値です。
Detailerパイプラインの構築
Impact Packの真価は、複数のノードを組み合わせたパイプライン構築にあります。
BasicPipeとFaceDetailer (pipe) の使い分け
DetailerパイプラインのベースとなるのがBasicPipe(基本パイプ)です。以下の5要素をひとつにまとめて管理します。
- model(チェックポイントモデル)
- clip(テキストエンコーダ)
- vae(画像エンコーダ/デコーダ)
- positive(ポジティブプロンプト)
- negative(ネガティブプロンプト)
ToBasicPipeノードでこれら5要素を束ね、FromBasicPipeノードで取り出す流れです。FaceDetailerにはFaceDetailer (pipe)バリアントがあり、このBasicPipeを1本の線でまとめて受け取れます。多段リファインや同じモデル群を複数箇所で使い回す場合、配線が大幅にスッキリする設計です。myBywaysの比較記事では、非pipe版よりpipe版のほうが出力品質が安定する傾向も報告されています。
SDXL(Stable Diffusionの高解像度版)系モデルを使う場合は、FromDetailer (SDXL/pipe)やEdit DetailerPipe (SDXL)を組み合わせてリファイナモデルを差し込めます。ベース/リファイナの2段構成を扱う際の専用パイプとして用意されているノード群です。
DetailerForEachの活用
FaceDetailerが顔専用であるのに対し、DetailerForEachは任意の検出結果に対して部分再生成を実行できる汎用ノードです。
たとえば手の修正、服の質感向上、建築パースの特定部材の精細化など、用途は多岐にわたります。BasicPipeとSEGS(セグメント情報)を入力するだけで動作するため、カスタマイズ性の高いワークフローを構築できます。
実務では、FaceDetailerで顔を修正したあと、DetailerForEachで手や装飾品を追加修正するといった多段処理も効果的です。顔だけでなく画像全体の品質を引き上げたい場合に試してみてください。
建築パースでの人物顔修正ワークフロー
建築パースに人物を配置するケースでは、以下のワークフロー構成が実用的です。
- 画像生成: KSamplerで建築パース全体を生成
- 顔検出・積集合マスク: BBoxDetectorForEach(face_yolov8m)+ SAMDetectorCombined + Segs & Maskで高精度マスクを作成
- 顔修正: DetailerForEach (pipe) でBasicPipeとマスクを渡し、顔領域を再生成
- 追加修正: 必要に応じてDetailerForEachで手や衣服を調整
- アップスケール: 最終画像をアップスケーラーで高解像度化
このパイプラインをテンプレートとして保存しておくと、異なる建築パースでも同じ品質基準で人物の顔修正を適用できます。
海外コミュニティの報告でも、FaceDetailerを適用するだけで人物の顔品質が目に見えて改善するケースが多く挙がっています。全身構図で小さく写る顔ほど効果が顕著です。
まとめ
ComfyUI Impact Packは、画像生成の品質を底上げする総合的なカスタムノードパックです。
Detectorの3タイプ(BBOX/SEGM/SAM)を使い分け、FaceDetailerで顔の検出から部分再生成までを自動化できます。Simple Detector (SEGS) や積集合マスクを活用すれば、配線を整理しつつ精度も確保できます。Pipe系ノードでパイプラインを整理すれば、複雑なワークフローでも管理しやすくなります。
建築パースでの人物配置をはじめ、ポートレートや集合写真の顔修正にも幅広く対応できるツールです。まずはFaceDetailerの基本設定から試してみてください。
あわせて読みたい
- ComfyUIカスタムノード導入ガイド — Impact Packを含むカスタムノード全般のインストールと管理方法を解説
- ComfyUIおすすめカスタムノード — Impact Pack以外にも導入しておきたい定番ノードパックを紹介
- ComfyUIインペインティングガイド — 部分修正の基礎となるインペインティング技法を網羅
- ComfyUI ControlNet OpenPose活用法 — 人物のポーズ制御とImpact Packの顔修正を組み合わせる手法を解説
- ComfyUIアップスケーリングガイド — FaceDetailer適用後の高解像度化ワークフローを紹介




