ComfyUI Docker/クラウドGPU運用ガイド|料金比較と選び方

ComfyUIをローカルPCにインストールして使う方法は広く知られています。しかしチームでの共同運用やAPI(ソフト同士を連携させるための仕組み)連携を前提とした常時稼働を目指すなら、Docker環境やクラウドGPU(グラフィックボード。画像生成の計算を高速に処理するパーツ)の活用が有力な選択肢になります。

Docker(ソフトウェアの実行環境をまるごとパッケージにして管理する仕組み)を使えば、Python(プログラミング言語。ComfyUIの動作基盤)のライブラリ同士の衝突を避けつつ、モデル(AIが画像を生成するために使うデータファイル)やカスタムノード(追加機能のパーツ)をコンテナ(Dockerで作られた実行環境の箱)更新後もそのまま引き継げます。クラウドGPUと組み合わせれば、手元に高性能GPUがなくても本格的な画像生成の環境を構築できます。

この記事では、ComfyUIのDocker環境セットアップからイメージの選び方、クラウドGPUの料金比較、API化、セキュリティ対策までを解説します。個人で初めてComfyUIを試す段階ではここまでの構成は不要です。チームでの運用やAPIとして使いたい場合に参考にしてください。

Blenderで作る
初めての建築3DCGパース

Blenderの導入から基本操作、太陽光の入る白い部屋の制作まで。全3本のカリキュラムを体験できます。

Blenderの導入から基本操作、
太陽光の入る白い部屋の制作まで。
全3本のカリキュラムを体験できます。

目次

ComfyUIをDocker環境で動かすメリット

ComfyUIをDocker上で動かすと、ローカル環境に直接インストールする方式では得られない安定性が手に入ります。ここではライブラリの衝突回避とデータの永続化という2つの主要メリットを整理します。

ライブラリの衝突を防げる

ComfyUIはPythonベースのツールで、多くのカスタムノードがそれぞれ異なるライブラリ(ソフトの部品群)のバージョンを要求します。PC本体に直接インストールすると、ライブラリ同士が衝突してエラーが出ることがあります。

Dockerコンテナなら、ComfyUIの実行環境がPC本体から完全に分離されます。イメージとしては、「PC本体とは別の仮想的なPCの中でComfyUIを動かす」ようなものです。ほかのプロジェクトに影響を与えず、環境の再現性も高いので、「昨日まで動いていたのに急に動かなくなった」というトラブルを大幅に減らせます。

モデルやカスタムノードを安全に保存できる

Dockerコンテナは削除すると中身が消えてしまいます。しかし「名前付きボリューム」(コンテナの外にデータを保存する仕組み)を使えば、モデルファイルやカスタムノードをコンテナとは別の場所に保存できます。

イメージとしては、「作業デスク(コンテナ)を片付けても、書類棚(ボリューム)のデータは残る」ようなものです。models(モデル)、outputs(出力画像)、custom_nodes(追加機能)、workflows(作業手順)の4つを分けて保存しておけば、コンテナイメージを更新しても数十GBにもなるモデルを毎回ダウンロードし直す手間がなくなります。

Docker環境でのComfyUIセットアップ手順

Docker版を動かすには、事前準備からコンテナ起動、構成管理までを押さえる必要があります。ここでは必要なツールと手順を、最初のセットアップから順を追って整理します。

事前準備

Docker環境でComfyUIのGPU機能を使うには、以下の3つが必要です。

  • NVIDIA製GPUと最新ドライバー(GPUを動かすためのソフト)
  • Docker Engine(Docker Desktop含む)
  • NVIDIA Container Toolkit(Linux環境の場合。GPUをDockerから使えるようにするツール)

Windows環境ではDocker DesktopがWSL2(Windows上でLinuxを動かす仕組み)経由でGPUパススルー(GPUの処理能力をコンテナに渡す機能)に対応しているため、NVIDIA Container Toolkitの個別インストールは不要です。ストレージは30GB程度を目安に確保しておくと、モデル保存まで余裕を持って運用できます。

主要Dockerイメージの選び方

自前の設定ファイル(Dockerfile)を書く前に、すでに公開されているイメージを使うのが効率的です。2026年4月現在、主要な選択肢は以下の3つです。

ComfyUI公式CUDAイメージ: NVIDIA PyTorchコンテナをベースに、xFormers(GPU計算を高速化するライブラリ)などの最適化ライブラリが同梱されています。生成速度を重視する場合の第一候補です。

ai-dock/comfyui: Docker Compose(複数の設定をファイルでまとめて管理するツール)でモデル・出力画像・カスタムノード・ワークフロー(画像生成の一連の処理手順)をボリュームマウントする構成が標準で組まれています。初めてDocker Composeを書く方の参考になります。公式リポジトリはai-dock/comfyui(GitHub)で公開されています。

mmartial/ComfyUI-Nvidia-Docker: ユーザー権限の制御が細かく設定できるため、複数人で使うサーバー環境に向いています。Ubuntu + CUDA(GPU計算を高速化する技術)の複数バージョンが用意されており、GPU世代に合わせて選べます。

個人運用なら公式CUDAイメージかai-dock、チームやサーバー運用ならmmartialという使い分けが目安になります。

docker runコマンドでの起動

コミュニティで広く使われているyanwk/comfyui-bootイメージを例に、起動コマンドを紹介します。

docker run -d 
  --gpus all 
  -p 8188:8188 
  -v comfyui_models:/root/comfy/ComfyUI/models 
  -v comfyui_output:/root/comfy/ComfyUI/output 
  -v comfyui_custom_nodes:/root/comfy/ComfyUI/custom_nodes 
  --name comfyui 
  --restart unless-stopped 
  yanwk/comfyui-boot:latest

--gpus allでGPUアクセスを有効にし、-vオプションで3つの名前付きボリュームを指定しています。起動後はhttp://localhost:8188でComfyUIのWeb画面にアクセスできます。

CUDAバージョンごとにタグ(バージョン指定の目印)が分かれているため、GPUの世代に合ったタグを選んでください。最新のタグ情報は各イメージの公式ページで確認できます。

Docker Composeによる構成管理

複数の設定をファイルで管理したい場合は、Docker Composeが便利です。以下のようなYAML(設定ファイルの記述形式)ファイルを用意します。

services:
  comfyui:
    image: yanwk/comfyui-boot:latest
    container_name: comfyui
    ports:
      - "8188:8188"
    volumes:
      - comfyui_models:/root/comfy/ComfyUI/models
      - comfyui_output:/root/comfy/ComfyUI/output
      - comfyui_custom_nodes:/root/comfy/ComfyUI/custom_nodes
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: all
              capabilities: [gpu]
    restart: unless-stopped

volumes:
  comfyui_models:
  comfyui_output:
  comfyui_custom_nodes:

docker compose up -dで起動し、docker compose downで停止します。設定変更はこのファイルを編集するだけで済むため、チームでの共有にも向いています。

WSL2上でDockerコンテナを動かす方法(Windows向け)

Windows環境でDocker版ComfyUIを使うには、WSL2の仕組みを理解して設定するのが近道です。ここではWSL2とDocker Desktopの基本設定から、GPUパススルーの確認方法までを順に見ていきます。

WSL2とDocker Desktopの設定

Windows環境ではWSL2(Windows Subsystem for Linux 2。Windows上でLinuxの環境を動かす仕組み)を有効にしたうえで、Docker Desktopをインストールするのが最も手軽な方法です。イメージとしては、「Windows PCの中にLinuxの小部屋を作り、その中でDockerを動かす」ようなものです。

Docker Desktopの設定画面で「Use the WSL 2 based engine」にチェックが入っていることを確認してください。これだけでLinuxコンテナをWindows上で実行でき、GPUパススルーも自動的に有効になります。

GPUパススルーの確認

コンテナ内でGPUが正しく認識されているかは、以下のコマンドで確認できます。

docker exec comfyui nvidia-smi

GPUの型番やドライバーバージョンが表示されれば成功です。表示されない場合は、NVIDIAドライバーを最新版に更新してからDocker Desktopを再起動してみてください。

RTX 50シリーズなど最新世代のGPUでは、Docker Desktop経由で正しく認識されないケースも報告されています。その場合はWSL2内に直接Dockerをインストールする方法が選択肢になります。

クラウドGPUサービスの選び方と料金比較

ローカルに高性能GPUがない場合や、一時的に処理能力を増やしたい場合に役立つのがクラウドGPUです。ここでは2026年4月現在の主要サービスの使い分け、料金目安、用途別の選び方を順に比較します。

主要サービスの使い分け

ローカルに高性能GPUがなくても、クラウドGPUサービスを使えばComfyUIを運用できます。イメージとしては、「高性能PCを時間単位でレンタルする」ようなものです。2026年4月現在、代表的な3サービスは以下のように使い分けられています。

RunPod: コンテナベースの常時稼働型(Pods)と、リクエストがあるときだけ動くサーバーレス型(Serverless)の両方を提供しています。ComfyUI専用テンプレート(設定済みの環境)が公式に用意されており、数クリックで環境を立ち上げられます。安定性が高く、商用運用に向いています。

Vast.ai: 個人が余らせているGPUを貸し借りするマーケットプレイス型です。価格が業界最安水準なのが最大のメリットですが、マシンごとに品質が異なるため、途中で停止するリスクがあります。検証用途やコスト優先の短時間作業に向いています。

Lambda: 機械学習研究向けのハイエンドGPU(H100など)に特化したサービスです。価格は高めですが、研究用途に最適化されたサポート体制が整っています。

2026年4月現在の料金目安

主要GPU料金目安は以下のとおりです(2026年4月現在。GPUクラウド比較メディアのまとめ値)。

GPU RunPod Vast.ai Lambda
A100 PCIe 40GB 約$0.60/時 約$0.52/時 取り扱い限定的
A100 SXM 80GB 約$0.79/時 約$0.67/時 約$1.29/時
H100 約$1.99/時 約$1.87/時 約$2.99/時
RTX 4090 約$0.34/時 約$0.27/時 取り扱いなし

数値は執筆時点の概算で、実勢は日々変動します。出典はLambda Labs vs RunPod vs Vast.ai: Complete Comparison 2026(GPUCloudList)およびVast.ai vs RunPod pricing in 2026(Medium)で、いずれも2026年2月時点の集計値です。最新価格は各サービスの公式ページで確認してください。

用途別の選び方

価格と安定性のバランスを考えると、検証用途で短時間だけ使うならVast.ai、本番運用や商用APIに使うならRunPodが合理的です。初めてクラウドGPUを試す場合は、RunPodのテンプレートから始めるとトラブルが少なく済みます。テンプレートにComfyUIの環境が一式組み込まれているため、自分でDocker環境を構築する手間を省けるためです。

クラウドGPU上で常時稼働させるセットアップ

クラウドGPUを本格的に活用するには、環境構築の手順とAPI連携の設計を押さえておくと運用がスムーズです。ここでは代表的なRunPodテンプレートから、常時稼働に向けた構成までを順に紹介します。

RunPodテンプレートを使った環境構築

RunPodにはComfyUI専用のテンプレートが公式に用意されています。2026年4月現在の手順は以下のとおりです。

  1. RunPodコンソールにログイン
  2. 「Pods」から「Deploy」を選択
  3. GPU(A100やRTX 4090など)を選ぶ
  4. テンプレートで「ComfyUI」を選択して起動

起動後はブラウザからComfyUIのWeb画面にアクセスできます。モデルのダウンロードもPod内のターミナル(コマンドを入力する画面)から直接実行できます。Podは常時稼働型のため、止めない限り課金が続く点に注意してください。使わないときはPodを停止しておくとコストを抑えられます。

API連携を見据えたサーバーレス構成

画像生成をAPIとして外部サービスから呼び出したい場合、RunPodの「Serverless」が選択肢になります。イメージとしては、「注文が入ったときだけキッチンが動く出前サービス」のようなものです。リクエストがないときはGPUが自動停止するため、コストを抑えながら必要なときだけ稼働させる運用ができます。

公式テンプレートのworker-comfyui(GitHub)を使えば、ワークフローJSON(画像生成の手順を記録したファイル)をアップロードするだけで、必要なカスタムノードやモデルを自動検出してDockerイメージを生成してくれます。

サーバーレスの注意点として、cold start(初回起動時の待ち時間)があります。2026年4月現在、ComfyUIのサーバーレスでは10〜15秒程度の待ち時間が発生します。待ち時間を短縮する方法として、How I Got ComfyUI Cold Starts Down to Under 3 Seconds on Modal(Tolga Oğuz)ではModalのmemory snapshotting機能で3秒未満まで短縮した事例が報告されています。ViewComfyRunComfyのような待ち時間を短縮するマネージドサービスも登場しています。

APIの詳しい設定は、ComfyUI API完全ガイド|/promptエンドポイントで実務自動化もあわせて参考にしてください。

セキュリティ対策のポイント

ComfyUIをクラウドや外部ネットワークで運用する場合、セキュリティ対策は必須です。ここではポート公開と認証の設定、アクセス制御の考え方を順に見ていきます。

ポート公開と認証の設定

ComfyUIはデフォルトでポート8188(通信の出入口の番号)を使用し、認証機能がありません。自分のPC内だけで使う場合は問題ありませんが、クラウド上で外部に公開する際はセキュリティ対策が必須です。対策なしで公開すると、誰でもComfyUIにアクセスできてしまいます。

イメージとしては、「家の鍵をかけずにドアを開けっ放しにしている」状態です。対策として、リバースプロキシ(外部からのアクセスを中継するサーバー。NginxやCaddyが代表的)を前段に置き、パスワード認証を追加する方法が一般的です。Caddyであれば数行の設定でHTTPS化(通信の暗号化)と認証を両立できます。

クラウド運用時のアクセス制御

RunPodやVast.aiでは、Podのポートを公開する際にIPアドレス制限(特定のIPからのみ接続を許可する設定)をかけられます。不特定多数がアクセスできる状態は避けてください。

より手軽な方法として、SSHトンネル(暗号化された通信経路を通す仕組み)やTailscale(簡単にプライベートネットワークを作れるツール)があります。Tailscaleを使えば、クラウド上のComfyUIを自分のデバイスからだけアクセスできるようにできます。SSHトンネルの場合はssh -L 8188:localhost:8188 user@cloud-serverのように接続すれば、ローカルブラウザからhttp://localhost:8188でクラウド上のComfyUIに安全にアクセスできます。

ローカルDockerとクラウドGPUの使い分け

ComfyUIのDocker運用には、ローカルとクラウドそれぞれに適した用途があります。

観点 ローカルDocker クラウドGPU
初期コスト GPU購入費が必要 不要(従量課金)
ランニングコスト 電気代のみ 利用時間に応じた課金
適した用途 日常的なワークフロー開発・テスト 大量バッチ処理・API連携・チーム共有
セットアップ難度 低い 中程度
スケーラビリティ GPUスペックに依存 必要に応じて拡張可能

日常的にワークフローを試行錯誤する段階ではローカルDocker、完成したワークフローを量産する段階ではクラウドGPUという使い分けが効率的です。

ローカル環境の詳しい構築手順については、ComfyUI 導入・環境構築ガイドで解説しています。Desktop版やPortable版との違いが気になる方はComfyUI Desktop vs Portable vs Colab 完全比較|環境の選び方も参考になります。

まとめ

ComfyUIをDocker環境で運用すると、ライブラリの衝突を避けられ、名前付きボリュームでモデルやカスタムノードを安全に保存できます。公式CUDAイメージやai-dock、mmartialといった公開イメージを使えば、設定ファイルを一から書かずに環境を整えられます。

クラウドGPUサービスを使えば、高性能GPUを持っていなくてもComfyUIの本格運用が可能です。2026年4月現在は、常時稼働ならRunPod Pods、検証用途ならVast.ai、API化ならworker-comfyuiを使ったServerlessという使い分けが現実的です。リバースプロキシでの認証やSSHトンネルの設定も押さえておけば、コストを抑えつつ安全な画像生成環境を構築できます。

あわせて読みたい

この記事が気に入ったら
フォローしてね!

よかったらシェアしてね!
  • URLをコピーしました!

PERSC Experience Course

未経験から、
最初の一枚を完成させる。

未経験から、
最初の一枚を完成させる。

Blenderの導入から基本操作、
そして建築パースを1作品完成させるところまで。
全3本の体験カリキュラムを無料体験できます。

Blenderの導入から基本操作、
そして建築パースを1作品完成させるところまで。
全3本の体験カリキュラムを無料体験できます。


CONTENTS

3 LESSONS


基礎編① インストール&7項目の初期設定

Blenderの導入から制作に必要な基本設定

基礎編② 画面構成と基本的な操作方法

未経験でも迷わない画面の見方と操作の基本

実践編① 太陽光の入る白い部屋

建築パースを1作品完成させるまでを体験


BONUSES
体験カリキュラム限定の3大特典


実践編完成データ(.blend)

ショートカット・チートシート

マテリアル ライブラリセット

この記事を書いた人

橘 美咲のアバター 橘 美咲 PERSC 専任講師

「CADは裏切らない。昨日引けなかった線が、今日は引ける。それが楽しいの」

元・完全未経験の文系女子。新卒で入った建築現場で「図面が読めない」と絶望し、悔し涙を流しながらCADを独学で習得した過去を持つ。 その後、設計事務所、ゼネコンを経てフリーランスへ転身。現在はPERSCにて「現場で本当に使える技術」を伝授する鬼(?)コーチとして活動中。 「線一本にも意味がある」が口癖。趣味は、完成した建物を見上げながらのビールと、深夜の猫動画巡回。

目次