ComfyUI Docker/クラウドGPU運用ガイド|料金比較と選び方
ComfyUIをローカルPCにインストールして使う方法は広く知られています。しかしチームでの共同運用やAPI(ソフト同士を連携させるための仕組み)連携を前提とした常時稼働を目指すなら、Docker環境やクラウドGPU(グラフィックボード。画像生成の計算を高速に処理するパーツ)の活用が有力な選択肢になります。
Docker(ソフトウェアの実行環境をまるごとパッケージにして管理する仕組み)を使えば、Python(プログラミング言語。ComfyUIの動作基盤)のライブラリ同士の衝突を避けつつ、モデル(AIが画像を生成するために使うデータファイル)やカスタムノード(追加機能のパーツ)をコンテナ(Dockerで作られた実行環境の箱)更新後もそのまま引き継げます。クラウドGPUと組み合わせれば、手元に高性能GPUがなくても本格的な画像生成の環境を構築できます。
この記事では、ComfyUIのDocker環境セットアップからイメージの選び方、クラウドGPUの料金比較、API化、セキュリティ対策までを解説します。個人で初めてComfyUIを試す段階ではここまでの構成は不要です。チームでの運用やAPIとして使いたい場合に参考にしてください。
ComfyUIをDocker環境で動かすメリット
ComfyUIをDocker上で動かすと、ローカル環境に直接インストールする方式では得られない安定性が手に入ります。ここではライブラリの衝突回避とデータの永続化という2つの主要メリットを整理します。
ライブラリの衝突を防げる
ComfyUIはPythonベースのツールで、多くのカスタムノードがそれぞれ異なるライブラリ(ソフトの部品群)のバージョンを要求します。PC本体に直接インストールすると、ライブラリ同士が衝突してエラーが出ることがあります。
Dockerコンテナなら、ComfyUIの実行環境がPC本体から完全に分離されます。イメージとしては、「PC本体とは別の仮想的なPCの中でComfyUIを動かす」ようなものです。ほかのプロジェクトに影響を与えず、環境の再現性も高いので、「昨日まで動いていたのに急に動かなくなった」というトラブルを大幅に減らせます。
モデルやカスタムノードを安全に保存できる
Dockerコンテナは削除すると中身が消えてしまいます。しかし「名前付きボリューム」(コンテナの外にデータを保存する仕組み)を使えば、モデルファイルやカスタムノードをコンテナとは別の場所に保存できます。
イメージとしては、「作業デスク(コンテナ)を片付けても、書類棚(ボリューム)のデータは残る」ようなものです。models(モデル)、outputs(出力画像)、custom_nodes(追加機能)、workflows(作業手順)の4つを分けて保存しておけば、コンテナイメージを更新しても数十GBにもなるモデルを毎回ダウンロードし直す手間がなくなります。
Docker環境でのComfyUIセットアップ手順
Docker版を動かすには、事前準備からコンテナ起動、構成管理までを押さえる必要があります。ここでは必要なツールと手順を、最初のセットアップから順を追って整理します。
事前準備
Docker環境でComfyUIのGPU機能を使うには、以下の3つが必要です。
- NVIDIA製GPUと最新ドライバー(GPUを動かすためのソフト)
- Docker Engine(Docker Desktop含む)
- NVIDIA Container Toolkit(Linux環境の場合。GPUをDockerから使えるようにするツール)
Windows環境ではDocker DesktopがWSL2(Windows上でLinuxを動かす仕組み)経由でGPUパススルー(GPUの処理能力をコンテナに渡す機能)に対応しているため、NVIDIA Container Toolkitの個別インストールは不要です。ストレージは30GB程度を目安に確保しておくと、モデル保存まで余裕を持って運用できます。
主要Dockerイメージの選び方
自前の設定ファイル(Dockerfile)を書く前に、すでに公開されているイメージを使うのが効率的です。2026年4月現在、主要な選択肢は以下の3つです。
ComfyUI公式CUDAイメージ: NVIDIA PyTorchコンテナをベースに、xFormers(GPU計算を高速化するライブラリ)などの最適化ライブラリが同梱されています。生成速度を重視する場合の第一候補です。
ai-dock/comfyui: Docker Compose(複数の設定をファイルでまとめて管理するツール)でモデル・出力画像・カスタムノード・ワークフロー(画像生成の一連の処理手順)をボリュームマウントする構成が標準で組まれています。初めてDocker Composeを書く方の参考になります。公式リポジトリはai-dock/comfyui(GitHub)で公開されています。
mmartial/ComfyUI-Nvidia-Docker: ユーザー権限の制御が細かく設定できるため、複数人で使うサーバー環境に向いています。Ubuntu + CUDA(GPU計算を高速化する技術)の複数バージョンが用意されており、GPU世代に合わせて選べます。
個人運用なら公式CUDAイメージかai-dock、チームやサーバー運用ならmmartialという使い分けが目安になります。
docker runコマンドでの起動
コミュニティで広く使われているyanwk/comfyui-bootイメージを例に、起動コマンドを紹介します。
docker run -d
--gpus all
-p 8188:8188
-v comfyui_models:/root/comfy/ComfyUI/models
-v comfyui_output:/root/comfy/ComfyUI/output
-v comfyui_custom_nodes:/root/comfy/ComfyUI/custom_nodes
--name comfyui
--restart unless-stopped
yanwk/comfyui-boot:latest
--gpus allでGPUアクセスを有効にし、-vオプションで3つの名前付きボリュームを指定しています。起動後はhttp://localhost:8188でComfyUIのWeb画面にアクセスできます。
CUDAバージョンごとにタグ(バージョン指定の目印)が分かれているため、GPUの世代に合ったタグを選んでください。最新のタグ情報は各イメージの公式ページで確認できます。
Docker Composeによる構成管理
複数の設定をファイルで管理したい場合は、Docker Composeが便利です。以下のようなYAML(設定ファイルの記述形式)ファイルを用意します。
services:
comfyui:
image: yanwk/comfyui-boot:latest
container_name: comfyui
ports:
- "8188:8188"
volumes:
- comfyui_models:/root/comfy/ComfyUI/models
- comfyui_output:/root/comfy/ComfyUI/output
- comfyui_custom_nodes:/root/comfy/ComfyUI/custom_nodes
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: all
capabilities: [gpu]
restart: unless-stopped
volumes:
comfyui_models:
comfyui_output:
comfyui_custom_nodes:
docker compose up -dで起動し、docker compose downで停止します。設定変更はこのファイルを編集するだけで済むため、チームでの共有にも向いています。
WSL2上でDockerコンテナを動かす方法(Windows向け)
Windows環境でDocker版ComfyUIを使うには、WSL2の仕組みを理解して設定するのが近道です。ここではWSL2とDocker Desktopの基本設定から、GPUパススルーの確認方法までを順に見ていきます。
WSL2とDocker Desktopの設定
Windows環境ではWSL2(Windows Subsystem for Linux 2。Windows上でLinuxの環境を動かす仕組み)を有効にしたうえで、Docker Desktopをインストールするのが最も手軽な方法です。イメージとしては、「Windows PCの中にLinuxの小部屋を作り、その中でDockerを動かす」ようなものです。
Docker Desktopの設定画面で「Use the WSL 2 based engine」にチェックが入っていることを確認してください。これだけでLinuxコンテナをWindows上で実行でき、GPUパススルーも自動的に有効になります。
GPUパススルーの確認
コンテナ内でGPUが正しく認識されているかは、以下のコマンドで確認できます。
docker exec comfyui nvidia-smi
GPUの型番やドライバーバージョンが表示されれば成功です。表示されない場合は、NVIDIAドライバーを最新版に更新してからDocker Desktopを再起動してみてください。
RTX 50シリーズなど最新世代のGPUでは、Docker Desktop経由で正しく認識されないケースも報告されています。その場合はWSL2内に直接Dockerをインストールする方法が選択肢になります。
クラウドGPUサービスの選び方と料金比較
ローカルに高性能GPUがない場合や、一時的に処理能力を増やしたい場合に役立つのがクラウドGPUです。ここでは2026年4月現在の主要サービスの使い分け、料金目安、用途別の選び方を順に比較します。
主要サービスの使い分け
ローカルに高性能GPUがなくても、クラウドGPUサービスを使えばComfyUIを運用できます。イメージとしては、「高性能PCを時間単位でレンタルする」ようなものです。2026年4月現在、代表的な3サービスは以下のように使い分けられています。
RunPod: コンテナベースの常時稼働型(Pods)と、リクエストがあるときだけ動くサーバーレス型(Serverless)の両方を提供しています。ComfyUI専用テンプレート(設定済みの環境)が公式に用意されており、数クリックで環境を立ち上げられます。安定性が高く、商用運用に向いています。
Vast.ai: 個人が余らせているGPUを貸し借りするマーケットプレイス型です。価格が業界最安水準なのが最大のメリットですが、マシンごとに品質が異なるため、途中で停止するリスクがあります。検証用途やコスト優先の短時間作業に向いています。
Lambda: 機械学習研究向けのハイエンドGPU(H100など)に特化したサービスです。価格は高めですが、研究用途に最適化されたサポート体制が整っています。
2026年4月現在の料金目安
主要GPU料金目安は以下のとおりです(2026年4月現在。GPUクラウド比較メディアのまとめ値)。
| GPU | RunPod | Vast.ai | Lambda |
|---|---|---|---|
| A100 PCIe 40GB | 約$0.60/時 | 約$0.52/時 | 取り扱い限定的 |
| A100 SXM 80GB | 約$0.79/時 | 約$0.67/時 | 約$1.29/時 |
| H100 | 約$1.99/時 | 約$1.87/時 | 約$2.99/時 |
| RTX 4090 | 約$0.34/時 | 約$0.27/時 | 取り扱いなし |
数値は執筆時点の概算で、実勢は日々変動します。出典はLambda Labs vs RunPod vs Vast.ai: Complete Comparison 2026(GPUCloudList)およびVast.ai vs RunPod pricing in 2026(Medium)で、いずれも2026年2月時点の集計値です。最新価格は各サービスの公式ページで確認してください。
用途別の選び方
価格と安定性のバランスを考えると、検証用途で短時間だけ使うならVast.ai、本番運用や商用APIに使うならRunPodが合理的です。初めてクラウドGPUを試す場合は、RunPodのテンプレートから始めるとトラブルが少なく済みます。テンプレートにComfyUIの環境が一式組み込まれているため、自分でDocker環境を構築する手間を省けるためです。
クラウドGPU上で常時稼働させるセットアップ
クラウドGPUを本格的に活用するには、環境構築の手順とAPI連携の設計を押さえておくと運用がスムーズです。ここでは代表的なRunPodテンプレートから、常時稼働に向けた構成までを順に紹介します。
RunPodテンプレートを使った環境構築
RunPodにはComfyUI専用のテンプレートが公式に用意されています。2026年4月現在の手順は以下のとおりです。
- RunPodコンソールにログイン
- 「Pods」から「Deploy」を選択
- GPU(A100やRTX 4090など)を選ぶ
- テンプレートで「ComfyUI」を選択して起動
起動後はブラウザからComfyUIのWeb画面にアクセスできます。モデルのダウンロードもPod内のターミナル(コマンドを入力する画面)から直接実行できます。Podは常時稼働型のため、止めない限り課金が続く点に注意してください。使わないときはPodを停止しておくとコストを抑えられます。
API連携を見据えたサーバーレス構成
画像生成をAPIとして外部サービスから呼び出したい場合、RunPodの「Serverless」が選択肢になります。イメージとしては、「注文が入ったときだけキッチンが動く出前サービス」のようなものです。リクエストがないときはGPUが自動停止するため、コストを抑えながら必要なときだけ稼働させる運用ができます。
公式テンプレートのworker-comfyui(GitHub)を使えば、ワークフローJSON(画像生成の手順を記録したファイル)をアップロードするだけで、必要なカスタムノードやモデルを自動検出してDockerイメージを生成してくれます。
サーバーレスの注意点として、cold start(初回起動時の待ち時間)があります。2026年4月現在、ComfyUIのサーバーレスでは10〜15秒程度の待ち時間が発生します。待ち時間を短縮する方法として、How I Got ComfyUI Cold Starts Down to Under 3 Seconds on Modal(Tolga Oğuz)ではModalのmemory snapshotting機能で3秒未満まで短縮した事例が報告されています。ViewComfyやRunComfyのような待ち時間を短縮するマネージドサービスも登場しています。
APIの詳しい設定は、ComfyUI API完全ガイド|/promptエンドポイントで実務自動化もあわせて参考にしてください。
セキュリティ対策のポイント
ComfyUIをクラウドや外部ネットワークで運用する場合、セキュリティ対策は必須です。ここではポート公開と認証の設定、アクセス制御の考え方を順に見ていきます。
ポート公開と認証の設定
ComfyUIはデフォルトでポート8188(通信の出入口の番号)を使用し、認証機能がありません。自分のPC内だけで使う場合は問題ありませんが、クラウド上で外部に公開する際はセキュリティ対策が必須です。対策なしで公開すると、誰でもComfyUIにアクセスできてしまいます。
イメージとしては、「家の鍵をかけずにドアを開けっ放しにしている」状態です。対策として、リバースプロキシ(外部からのアクセスを中継するサーバー。NginxやCaddyが代表的)を前段に置き、パスワード認証を追加する方法が一般的です。Caddyであれば数行の設定でHTTPS化(通信の暗号化)と認証を両立できます。
クラウド運用時のアクセス制御
RunPodやVast.aiでは、Podのポートを公開する際にIPアドレス制限(特定のIPからのみ接続を許可する設定)をかけられます。不特定多数がアクセスできる状態は避けてください。
より手軽な方法として、SSHトンネル(暗号化された通信経路を通す仕組み)やTailscale(簡単にプライベートネットワークを作れるツール)があります。Tailscaleを使えば、クラウド上のComfyUIを自分のデバイスからだけアクセスできるようにできます。SSHトンネルの場合はssh -L 8188:localhost:8188 user@cloud-serverのように接続すれば、ローカルブラウザからhttp://localhost:8188でクラウド上のComfyUIに安全にアクセスできます。
ローカルDockerとクラウドGPUの使い分け
ComfyUIのDocker運用には、ローカルとクラウドそれぞれに適した用途があります。
| 観点 | ローカルDocker | クラウドGPU |
|---|---|---|
| 初期コスト | GPU購入費が必要 | 不要(従量課金) |
| ランニングコスト | 電気代のみ | 利用時間に応じた課金 |
| 適した用途 | 日常的なワークフロー開発・テスト | 大量バッチ処理・API連携・チーム共有 |
| セットアップ難度 | 低い | 中程度 |
| スケーラビリティ | GPUスペックに依存 | 必要に応じて拡張可能 |
日常的にワークフローを試行錯誤する段階ではローカルDocker、完成したワークフローを量産する段階ではクラウドGPUという使い分けが効率的です。
ローカル環境の詳しい構築手順については、ComfyUI 導入・環境構築ガイドで解説しています。Desktop版やPortable版との違いが気になる方はComfyUI Desktop vs Portable vs Colab 完全比較|環境の選び方も参考になります。
まとめ
ComfyUIをDocker環境で運用すると、ライブラリの衝突を避けられ、名前付きボリュームでモデルやカスタムノードを安全に保存できます。公式CUDAイメージやai-dock、mmartialといった公開イメージを使えば、設定ファイルを一から書かずに環境を整えられます。
クラウドGPUサービスを使えば、高性能GPUを持っていなくてもComfyUIの本格運用が可能です。2026年4月現在は、常時稼働ならRunPod Pods、検証用途ならVast.ai、API化ならworker-comfyuiを使ったServerlessという使い分けが現実的です。リバースプロキシでの認証やSSHトンネルの設定も押さえておけば、コストを抑えつつ安全な画像生成環境を構築できます。
あわせて読みたい
- ComfyUIとは?できること・始め方・学習ロードマップ完全ガイド — ComfyUIの基礎知識から活用事例まで押さえたい方向け
- ComfyUI 導入・環境構築ガイド — ローカル環境を含む各種セットアップ手順をまとめて確認したい方向け
- ComfyUI API完全ガイド|/promptエンドポイントで実務自動化 — Dockerで構築した環境を外部サービスから呼び出したい方向け
- ComfyUIヘッドレスモード・CLI実行ガイド|GUIなしで実務バッチ自動化 — GUIなしでComfyUIを実行・運用する手順を確認したい方向け




