ComfyUI Copilot|AI自動ワークフロー構築

ComfyUI(ノードをつないで画像生成AIを動かすツール)でワークフローを組むとき、ノードの選定や接続に時間がかかった経験はありませんか。初めて使うモデルやカスタムノードを試す場面では、正しい設定を探すだけで数十分を費やすこともあります。

ComfyUI Copilotは、自然言語の指示だけでワークフローを自動生成できるAIアシスタントです。Alibaba AIDC-AIが開発したこのカスタムノードは、2026年4月現在で19,000人以上のユーザーに利用され、85,000件を超えるクエリを処理してきました。ACL 2025のデモトラックにも採択されており、学術的な裏付けも備えています。

この記事では、ComfyUI Copilotの導入手順から自然言語生成、GenLabやMCP統合といった最新機能、ComfyGPTとの違いや注意点までを解説します。

Blenderで作る
初めての建築3DCGパース

Blenderの導入から基本操作、太陽光の入る白い部屋の制作まで。全3本のカリキュラムを体験できます。

Blenderの導入から基本操作、
太陽光の入る白い部屋の制作まで。
全3本のカリキュラムを体験できます。

目次

ComfyUI Copilotとは

ComfyUI Copilotは、LLM(大規模言語モデル)を基盤としたComfyUI専用のインテリジェントアシスタントです。設計事務所に「ComfyUI専任の新人アシスタント」が1人加わったようなイメージで、チャット形式で指示を出すだけで、ワークフローの生成からデバッグ、パラメータ調整までを一貫してサポートします。

主な特徴は次の4つです。

  • ワークフロー自動生成: 「風景画をSDXL(Stable Diffusionの高解像度版)で生成したい」のような自然言語入力から、ノード構成を自動で組み立てます
  • ノード・モデル推奨: 用途に合ったカスタムノードやチェックポイント、LoRA(軽量な追加学習ファイル)モデルを提案します
  • ワンクリックデバッグ: 接続ミスやパラメータエラーを自動検出し、修正案を表示します
  • パラメータチューニング: 値の範囲を指定すると、複数パターンを自動実行して結果を比較できます

階層型マルチエージェント構造

v2.0からは階層型マルチエージェント構造を採用しています(2026年4月現在 v2.x 系、GitHub Stars 約3K+)。中央のアシスタントエージェントがユーザーの意図を解析し、ワークフロー生成・ノード推奨・モデル推奨それぞれの専門エージェントへ処理を振り分ける仕組みです。単純なワークフロー生成であれば数秒で完了します。

ナレッジベースの規模

Copilotが参照するナレッジベースは大規模で、週次で更新されています。

  • ノード: 約7,000種類
  • モデル: 約62,000件
  • ワークフロー: 約9,000件

実務では、この豊富なナレッジがあるからこそ「マイナーなカスタムノードも提案してくれる」という信頼感につながっています。

ComfyUI Copilotの導入方法

ComfyUI Copilotのインストールには2つの方法があります。CADに新しいアドインを追加するときと同じで、Manager経由の自動インストールか手動配置のどちらかを環境に合わせて選びます。

ComfyUI Managerからインストール

もっとも手軽な方法です。

  1. ComfyUIを起動し、ComfyUI Managerを開きます
  2. 「Custom Nodes Manager」をクリックします
  3. 検索欄に「ComfyUI-Copilot」と入力します
  4. 表示されたプラグインの「Install」ボタンを押します
  5. ComfyUIを再起動すれば導入完了です

環境によってはManager経由のインストールでエラーが出る場合があります。そのときは次の手動インストールを試してください。

Gitクローンによる手動インストール

ターミナルでComfyUIのcustom_nodesフォルダに移動し、以下のコマンドを実行します。

cd ComfyUI/custom_nodes
git clone https://github.com/AIDC-AI/ComfyUI-Copilot.git

クローン後にComfyUIを再起動すれば認識されます。アップデートは同フォルダ内でgit pullを実行するだけです。

APIキーの取得と初期設定

インストール後、ComfyUIの画面左側にCopilotの起動ボタンが表示されます。

  1. 起動ボタンをクリックします
  2. ポップアップにメールアドレスを入力します
  3. 届いたAPIキーを入力欄に貼り付けて保存します

これでチャットパネルが使えるようになります。設定画面では、チャット用モデルとワークフロー生成用モデルを個別に切り替えられます。DeepSeek-V3やGPT-4oなど複数のLLMに対応しているため、用途やコストに応じた選択が可能です。LMStudioを経由すれば、Llama 3.1 8B Instructなどのローカルモデルも利用できます(2026年4月現在)。

自然言語でワークフローを自動生成する使い方

ComfyUI Copilotの中核機能がワークフローの自動生成です。新人スタッフに「こういう仕上がりの画像が欲しい」と口頭で指示するのに近い感覚で、テキストで要件を伝えるだけでノード構成が出来上がります。

ワークフロー生成の基本操作

チャットパネルに「I want a workflow for〜」と入力するのが基本の操作です。たとえば次のように指示します。

  • 「I want a workflow for generating anime-style images with SDXL」
  • 「I want a workflow for image upscaling with ControlNet(コントロールネット)」

Copilotはライブラリから品質の高いワークフロー候補を3つ提示し、AI生成の1つを加えた計4パターンを返します。気に入ったものを選ぶと、キャンバスに自動配置されます。

実務では、まずシンプルな指示で基本構成を生成し、あとから個別のノードを調整するやり方がスムーズです。

ノード推奨機能の活用

特定の処理に使うノードを探したいときは、「I want a node for〜」と入力します。Copilotは候補ノードを推奨理由とともに提示します。

「I want a node for face detection」と聞けば、ReActorやInsightFaceなどの選択肢が理由付きで表示されます。ノード名だけでなく機能の違いまで説明されるため、カスタムノードに詳しくない方でも適切に選べます。

モデル推奨(チェックポイント・LoRA)

ワークフローに最適なチェックポイントやLoRAモデルも提案されます。生成したい画風や解像度を伝えると、対応するモデルを候補として返します。

推奨されたモデルがローカルに未ダウンロードでも、モデル名が明示されるため、CivitaiやHugging Faceで探す際の手がかりになります。

ワークフローの修正・最適化機能

ワークフローを作った後の改善作業にもComfyUI Copilotは力を発揮します。設計レビュアーに図面チェックしてもらう工程を、Copilotが代行してくれるイメージです。

ワンクリックデバッグ

「One-Click Debug」ボタンを押すと、現在のワークフロー全体が自動スキャンされます。検出対象は主に2種類です。

  • 接続エラー: ノード間の入出力タイプが合わない箇所
  • パラメータエラー: 範囲外の数値や未設定の必須項目

エラー箇所ごとに修正候補が表示されるため、1つずつ確認しながら修正できます。動作確認の場では、初学者がつまずきやすい型の不一致エラーがきちんと検出される挙動も報告されています。

パラメータチューニング

特定のパラメータの最適値を探りたいとき、範囲を設定すると複数パターンを自動実行します。CFG(Classifier-Free Guidance、プロンプト追従度)スケールを5から15まで1刻みで試し、結果画像を並べて比較する、といった使い方ができます。

手動で1回ずつ変えながら生成するよりも大幅な時短になります。

GenLab(バッチパラメータテスト)

v2.0で強化された実験ワークベンチがGenLabです。数値レンジ指定、カテゴリカル選択、条件分岐を組み合わせて、複数パラメータを一括テストできます。結果はサイドバイサイドで並べて出力されるため、最適値の判断が視覚的に行えます。

ただしGenLab関連ではGitHub Issue #102で応答停止の事例も報告されており、安定性は発展途上です。重要な検証では段階的にレンジを狭めて実行すると安全に回せます。

ワークフロー書き換え(リライト)

既存ワークフローに対して「高解像度化のステップを追加して」のような指示を出すと、構成を維持したまま必要なノードが挿入・変更されます。

ゼロから組み直す手間が省けるため、段階的な改良に向いています。

MCP統合でCopilotを拡張する

v2.0ではMCP(Model Context Protocol)統合が大きく進化しました。Copilot自身が外部ツールやサービスと連携できるようになっています(2026年4月現在)。

  • MCP-Client in Canvas: ComfyUIキャンバス内から外部MCPサーバーを呼び出せる
  • Copilot-Local: ローカルサービスをstdio経由でCopilotに接続できる
  • SSE対応: リモートMCPサーバーとはServer-Sent Eventsで通信する

たとえばClaude DesktopやMCP対応のナレッジベースと連携させて、社内ドキュメントを参照しながらワークフローを構築する、といった高度な使い方ができます。

MCPまわりの周辺知識や連携事例はComfyUI × LLM/MCP連携ガイドで深掘りしていますので、あわせてご覧ください。

ComfyGPTとの違い

ComfyUI Copilotと並んで注目されるのがComfyGPTです。どちらもAIでワークフローを生成しますが、設計思想が大きく異なります。

項目 ComfyUI Copilot ComfyGPT
開発元 Alibaba AIDC-AI 学術研究プロジェクト
位置づけ プロダクション寄り 研究寄り
アーキテクチャ 階層型マルチエージェント(Central Assistant+Worker 3種) ReformatAgent/FlowAgent/RefineAgent/ExecuteAgent
生成手法 検索+AI合成、対話補助型 ノード間リンク予測、完全自動生成型
学習手法 LLMプロンプトベース 教師あり学習+強化学習(GRPO)
リアルタイム操作 チャットで随時指示 バッチ的にワークフローを出力
デバッグ機能 ワンクリックデバッグあり 実行フィードバックで自己修正

Copilotは「作業パートナーとして対話しながら補助する」アシスタントの位置づけです。ComfyGPTは「要件から完全なワークフローをリンク予測で生成する」リサーチ寄りのエンジンにあたります。実装成熟度にも差があり、Copilotは誰でも使えるプロダクションツール、ComfyGPTは論文実装として触れるレベルです。

実務では、日常の制作はCopilot、新しい生成アプローチの検証はComfyGPT、といった使い分けが効率的です。ほかにもComfy-CozyやComfyUI-WorkflowGeneratorといった選択肢があり、領域としては2025年以降活発に拡大しています。

ComfyUI Copilotの限界と注意点

便利なツールですが、万能ではありません。

複雑なワークフローには手動調整が必要です。ノード数が多い大規模ワークフローや、ニッチなカスタムノードを組み合わせるケースでは、AIの提案をそのまま使えないことがあります。自動生成をたたき台にして、細部は自分で仕上げる姿勢が大切です。

ローカルLLM利用時は推奨モデルを選びましょう。LMStudioで小型モデルを使う場合、クラウドAPIと比べて推奨精度が落ちます。公式セットアップではLlama 3.1 8B Instructが推奨されており、快適に動かすにはVRAM(GPUの作業メモリ)8GB以上が目安です(2026年4月現在)。

APIキーとデータ送信先に注意が必要です。デフォルトではAlibaba側のサーバーにクエリが送信されます。社外秘の情報を含むプロンプトを送る際は、ローカルLLM環境への切り替えを検討してください。

対応言語は英語中心です。日本語で指示を出すことも可能ですが、精度は英語よりも低下する傾向があります。キーワードだけでも英語にすると、より正確な結果が得られます。

新機能は発展途上です。GenLabやMCP統合などv2.0の新機能は改善が続いており、GitHub Issueで不具合報告もあがっています。重要なプロジェクトで使う前に、最新Releaseノートと既知Issueを確認する習慣をつけておきましょう。

まとめ

ComfyUI Copilotは、自然言語の指示でワークフローを自動生成できるAIアシスタントです。導入はComfyUI ManagerまたはGitクローンで完了し、APIキーを設定すればすぐに使い始められます。

ワークフロー生成、ノード推奨、ワンクリックデバッグ、GenLabによるバッチテスト、MCP統合と、制作の各段階を幅広くサポートします。階層型マルチエージェント構造と7K/62K/9K規模のナレッジベースが裏付けとなり、提案精度の高さにつながっています。

複雑な構成では手動調整が必要な場面もあるため、AIの提案を起点に自分で仕上げるスタイルが実務には合っています。ComfyGPTのような完全自動生成型とは役割が違うため、用途に応じて使い分けるのが扱いやすい進め方です。

ComfyUIのカスタムノード環境をさらに深く活用したい方は、関連記事もあわせてご覧ください。

あわせて読みたい

この記事が気に入ったら
フォローしてね!

よかったらシェアしてね!
  • URLをコピーしました!

PERSC Experience Course

未経験から、
最初の一枚を完成させる。

未経験から、
最初の一枚を完成させる。

Blenderの導入から基本操作、
そして建築パースを1作品完成させるところまで。
全3本の体験カリキュラムを無料体験できます。

Blenderの導入から基本操作、
そして建築パースを1作品完成させるところまで。
全3本の体験カリキュラムを無料体験できます。


CONTENTS

3 LESSONS


基礎編① インストール&7項目の初期設定

Blenderの導入から制作に必要な基本設定

基礎編② 画面構成と基本的な操作方法

未経験でも迷わない画面の見方と操作の基本

実践編① 太陽光の入る白い部屋

建築パースを1作品完成させるまでを体験


BONUSES
体験カリキュラム限定の3大特典


実践編完成データ(.blend)

ショートカット・チートシート

マテリアル ライブラリセット

この記事を書いた人

橘 美咲のアバター 橘 美咲 PERSC 専任講師

「CADは裏切らない。昨日引けなかった線が、今日は引ける。それが楽しいの」

元・完全未経験の文系女子。新卒で入った建築現場で「図面が読めない」と絶望し、悔し涙を流しながらCADを独学で習得した過去を持つ。 その後、設計事務所、ゼネコンを経てフリーランスへ転身。現在はPERSCにて「現場で本当に使える技術」を伝授する鬼(?)コーチとして活動中。 「線一本にも意味がある」が口癖。趣味は、完成した建物を見上げながらのビールと、深夜の猫動画巡回。

目次