📋 最終確認: 2026年4月14日ComfyUI GitHubCHANGELOG・VS Code Marketplaceで最新情報を再確認済み

【2026年4月版】ComfyUIの使い方完全ガイド|Flux.2対応・インストールから動画生成まで徹底解説

AI画像生成ツールの中でも、「自分でカスタマイズしたい」「再現性の高いワークフローを組みたい」と思ったらたどり着くのがComfyUIです。GitHubスター数6万超えのオープンソースツールで、世界中のAI画像生成クリエイターに愛用されています。

2026年現在、Desktop V1の正式リリースとComfy Cloud(公式クラウド版)の無料プラン提供に加え、Flux.2 Kleinの登場により画像生成の速度と品質が劇的に向上しました。> Key Takeaway: ComfyUI v0.19対応。Flux.2 Klein/WAN 2.2/LTX-2の使い方、Desktop版インストール、Comfy Cloud無料プランまで網羅した2026年4月最新ガイド。

この記事の要点

  • ComfyUIとは何か・なぜAIクリエイターに選ばれるのか
  • Desktop版の簡単インストール方法(Windows/Mac対応)
  • Comfy Cloud無料プランでGPUなしでも試せる方法
  • 基本ワークフローの組み方とFlux.2 Klein対応
  • LTX-2音声同期動画の生成方法
  • LoRA・ControlNetの活用テクニック
  • 5ツール比較(ComfyUI/A1111/Fooocus/Forge/InvokeAI)

30秒で結論

  • カスタマイズ性・再現性・効率で最強。 ノードベースなので複雑なワークフローも視覚的に管理できる
  • 2026年4月時点の最新版v0.19.0でDesktop版ワンクリックインストール可能。Pythonの知識は不要
  • GPUがない人でもComfy Cloudの無料枠(月400クレジット)で始められる
  • Flux.2 Klein対応で20-60倍高速化。RTX 4090なら0.4秒で画像生成
  • 学習コストはやや高め。「手軽に1枚生成したい」だけならMidjourneyやDALL-Eで十分
  • 画像生成だけでなく、WAN 2.2動画・LTX-2音声同期動画・Hunyuan3Dまで1ツールで完結

ComfyUIとは?ノードベース画像生成の革命

ComfyUIは、Stable Diffusionを操作するためのノードベースGUIツールです。2023年に個人開発者(comfyanonymous氏)がオープンソースで公開し、その柔軟性と効率性から瞬く間に世界的なAI画像生成コミュニティの標準ツールになりました。2026年4月時点の最新版はv0.19.0(2026年4月7日リリース)で、Flux.2 Klein、LTX-2、WAN 2.2など最新モデルにいち早く対応しています。

「ノードベース」とはどういうことか?

従来のStable Diffusion WebUI(A1111)は、スライダーやテキストボックスが並ぶ「フォーム型」インターフェースです。対してComfyUIは、処理の各ステップを「ノード」というブロックで表現し、線でつないでワークフローを構築します。

例えば「テキストを読み込む → モデルに渡す → サンプリングする → 画像をデコードして出力する」という一連の処理が、画面上にブロック図として可視化されます。一見複雑そうに見えますが、慣れると「どこで何が起きているか」が一目でわかるため、高度な処理も直感的に組めます。

ComfyUIが選ばれる5つの理由

1. 高いVRAM効率 同じモデルを使っても、A1111より少ないVRAMで動作します。8GB GPUでもFlux.1が動くケースがあります。

2. 完全な再現性 ワークフローをJSONファイルとして保存・共有できます。他人のワークフローを読み込めば、同じ結果を完全に再現できます。

3. バッチ処理の強さ 複数のプロンプト・パラメータを並列で処理するバッチ生成が得意。同じキャラクターの表情違い・角度違いを一括生成する場合などに強みを発揮します。

4. 最新モデルへの対応の速さ Flux.2 Klein、WAN 2.2、LTX-2など、新モデルが出たらコミュニティが即座にワークフローを公開します。公式の対応を待たずに最新技術を試せます。

5. 完全無料・オープンソース ローカルで使う限りコストはゼロ。GitHub上でソースコードも公開されており、自分でカスタマイズすることも可能です。

2026年のComfyUI:Desktop版とComfy Cloud

ComfyUI Desktop V1の正式リリース

2024年末にアナウンスされたDesktop版は、現在正式に一般公開されています。Pythonのインストール・Git操作・環境構築は一切不要。約200MBのインストーラーをダウンロードして実行するだけです。

Desktop版の主な特徴:

機能 詳細
ワンクリックインストール Python/Git知識不要
対応OS Windows / macOS(Apple Silicon対応)
ComfyUI Manager内蔵 カスタムノードをGUI管理
テンプレートライブラリ搭載 すぐに使えるワークフローが多数
自動モデルダウンロード 不足モデルを自動取得
自動更新機能 常に最新バージョン
AMD GPU対応 ROCm統合済み(v0.7.0以降)

Comfy Cloud:GPUなしでも使えるクラウド版

2026年3月に公式クラウド「Comfy Cloud」の無料枠(Free Tier)が提供開始されました。クレジットカード登録なしでGoogleアカウントだけでサインアップでき、毎月400クレジットが付与されます。

Comfy Cloud の料金プラン:

プラン 月額 クレジット GPU 特徴
Free $0 400/月 RTX Pro 6000(96GB VRAM) カード登録不要、翌月繰り越し不可
Pro $20/月 制限なし(使用量課金) RTX Pro 6000(96GB VRAM) ワークフロー上限なし

Free枠でできること:

  • 350種類以上のテンプレートワークフロー実行
  • 画像生成(Flux、SDXL等)
  • 動画生成(WAN 2.2 Image-to-Videoで月約35本)
  • 3Dモデル生成(Hunyuan3D)
  • 音声生成(ACE)
  • 1回のワークフロー実行につき最大10分の制限あり

ポイント: Comfy Cloudは900種類以上のモデルが利用可能。ローカルGPUがない人でもプロ品質の生成を体験できます。

ComfyUIのインストール方法【2026年最新版】

方法1:Desktop版(初心者推奨)

推奨スペック:

項目 最低限 推奨
GPU NVIDIA 6GB VRAM NVIDIA 12GB+ VRAM
RAM 8GB 16GB+
ストレージ HDD 50GB SSD 100GB+
OS Windows 10 / macOS 12+ Windows 11 / macOS 14+

インストール手順:

  1. https://www.comfy.org にアクセス
  2. 「Download Desktop」からWindows版またはmacOS版をダウンロード
  3. インストーラーを実行(約200MB)
  4. ComfyUI Desktopが起動したら完了
  5. テンプレートライブラリからワークフローを選択して生成開始

AMD GPU(Radeon)ユーザーも、v0.7.0からROCmが正式統合されたため追加設定不要です。

方法2:Comfy Cloud(GPU不要・ブラウザだけ)

  1. https://app.comfy.org にアクセス
  2. 「Sign in with Google」でログイン
  3. テンプレートを選ぶか、ワークフローをインポート
  4. 「Run」をクリックしてクラウドGPUで実行

ローカルGPUがなくても、RTX Pro 6000(96GB VRAM)というハイエンドGPUで実行されます。

方法3:CLIインストール(上級者向け)

既存のA1111環境とモデルを共有したい場合や、サーバー環境で動かしたい場合はCLI版も選べます:

# Pythonのインストール(3.11推奨)
# CUDA対応PyTorchのインストール
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

# ComfyUIのクローン
git clone https://github.com/comfyanonymous/ComfyUI
cd ComfyUI

# 依存パッケージのインストール
pip install -r requirements.txt

# 起動
python main.py

起動後、ブラウザで `http://127.0.0.1:8188` にアクセスするとComfyUIのUIが表示されます。

## ComfyUIの基本ワークフロー

![ノードが連結されたComfyUIの基本ワークフロー](/article-images/comfyui-complete-guide-2026-1.png)


### 最初の画像を生成する

ComfyUI Desktopを起動するとキャンバスが表示されます。テンプレートライブラリから「Text-to-Image(Basic)」を選択すると、基本的なワークフローがキャンバス上に展開されます。

<strong>基本ワークフローのノード構成:</strong>

[CLIP Text Encode (Prompt)] ─────────────────────────────────┐
[CLIP Text Encode (Negative Prompt)] ──────────────┐         │
[Load Checkpoint] ─── [KSampler] ─── [VAE Decode] ─── [Save Image]
                           ↑
                    [Empty Latent Image]

各ノードの役割:
- <strong>Load Checkpoint</strong>: 使用するモデル(.safetensors)を読み込む
- <strong>CLIP Text Encode</strong>: プロンプト(ポジティブ/ネガティブ)をテキストエンコード
- <strong>KSampler</strong>: サンプリングアルゴリズムでノイズを除去して画像を生成
- <strong>VAE Decode</strong>: 潜在空間から実際の画像にデコード
- <strong>Save Image</strong>: 生成した画像を保存

### プロンプトの入力方法

CLIP Text Encodeノードのテキストエリアに直接プロンプトを入力します。基本的に英語で入力します:

# ポジティブプロンプト例
masterpiece, best quality, 1girl, blue eyes, long hair,
white dress, sitting in garden, sunlight, bokeh

# ネガティブプロンプト例
nsfw, worst quality, low quality, blurry, extra fingers

## Flux.1とSDXLの使い方

### Flux.1への対応

2025年に登場したBlack Forest Labs(旧Stability AI研究者チーム)の<strong>Flux.1</strong>は、SDXL以上のクオリティを誇る最新オープンソースモデルです。ComfyUIはFlex.1の主要サポートプラットフォームとして早期から対応しています。

Flux.1のモデルバリエーション:

| モデル | 特徴 | VRAM目安 | 用途 |
|--------|------|---------|------|
| <strong>Flux.1 [schnell]</strong> | 高速(4ステップで生成) | 8GB | 素早いプロトタイプ |
| <strong>Flux.1 [dev]</strong> | 高品質 | 16GB | 本番用高品質生成 |
| <strong>Flux.1 [pro]</strong> | 最高品質 | API経由 | 商業利用最高品質 |

Flux対応ワークフローのキーノード:
[FluxGuidance] ─ ノードを追加してGuidance Scale設定
[Load Diffusion Model] ─ Flux専用モデルローダー

## LoRAとControlNetの活用テクニック

![LoRAとControlNetで生成を制御する構成図](/article-images/comfyui-complete-guide-2026-2.png)


LoRAとControlNetを使いこなすことで、ComfyUIの真価が発揮されます。

### LoRAの使い方

LoRA(Low-Rank Adaptation)は、特定のキャラクター・スタイル・概念を追加学習させた軽量な拡張モデルです。Civitai(https://civitai.com)で数万種類が無料公開されています。

<strong>LoRA適用方法:</strong>

# ダウンロードしたLoRAファイルを配置
ComfyUI/models/loras/[LoRAファイル名.safetensors]

# ワークフロー上でLoad LoRAノードを追加
[Load Checkpoint] ─ [Load LoRA] ─ [KSampler]
                         ↑
                  strength: 0.5〜0.8(調整)

複数のLoRAを組み合わせることも可能です。キャラクターLoRA(0.7)+スタイルLoRA(0.4)のように重みを調整しながら重ねがけします。

### ControlNetでポーズ・構図を固定する

ControlNetは、参照画像からポーズや構図を抽出して生成を制御する技術です。「このポーズのキャラクターを生成したい」「この構図のまま絵柄を変えたい」という用途に最適です。

<strong>ControlNet主要モード:</strong>

| モード | 用途 |
|--------|------|
| <strong>Canny</strong> | エッジ(輪郭線)の抽出・維持 |
| <strong>Depth</strong> | 深度マップによる空間構造の維持 |
| <strong>OpenPose</strong> | 人体のポーズ制御 |
| <strong>Scribble</strong> | ラフスケッチから画像生成 |
| <strong>IP-Adapter</strong> | 参照画像のスタイル転写 |

## ComfyUI vs A1111 vs Fooocus vs Forge vs InvokeAI|5ツール比較

2026年4月現在、AI画像生成の選択肢は広がっています。主要5ツールの違いを整理します。

| 比較項目 | ComfyUI | A1111 WebUI | Fooocus | Forge | InvokeAI |
|---------|---------|-------------|---------|-------|----------|
| <strong>難易度</strong> | 中〜上級 | 初級〜中級 | 初級 | 中級 | 中級 |
| <strong>インターフェース</strong> | ノードベース(フロー) | フォーム型(タブUI) | シンプルUI | フォーム型 | キャンバス型 |
| <strong>再現性</strong> | ◎ ワークフロー共有が容易 | △ 設定の再現が難しい | △ 限定的 | △ 限定的 | ○ ワークフロー対応 |
| <strong>VRAM効率</strong> | ◎ 非常に効率的 | ○ 標準的 | ◎ 最適化済み | ◎ 高効率 | ○ 標準的 |
| <strong>バッチ処理</strong> | ◎ 得意 | △ 限定的 | △ 限定的 | △ 限定的 | ○ 対応 |
| <strong>最新モデル対応</strong> | ◎ コミュニティが即対応 | ○ 少し遅れる | △ 対応モデル限定 | ○ 少し遅れる | ○ 少し遅れる |
| <strong>Flux.2 Klein</strong> | ✅ 対応 | △ 遅い | ✅ 対応 | ✅ 対応 | △ 対応 |
| <strong>動画生成</strong> | ◎ WAN/LTX対応 | △ 限定的 | ❌ 非対応 | △ 限定的 | ❌ 非対応 |
| <strong>拡張性</strong> | ◎ 豊富 | ◎ 業界最大 | △ 限定的 | ○ 豊富 | ○ 豊富 |
| <strong>初心者向け</strong> | △ 学習コストあり | ◎ 直感的 | ◎ 最も簡単 | ○ A1111よりは簡単 | ○ キャンバス型 |
| <strong>MCP対応</strong> | ✅ 対応 | ❌ 非対応 | ❌ 非対応 | ❌ 非対応 | ❌ 非対応 |
| <strong>オープンソース</strong> | ✅ | ✅ | ✅ | ✅ | ✅ |

<strong>ComfyUIがおすすめな人:</strong>
- ワークフローの再現・共有をしたい
- VRAMが少ない環境で動かしたい
- Flux.2 Kleinなど最新モデルをすぐ試したい
- 動画生成まで一貫して使いたい
- バッチ処理・量産制作が多い
- MCP連携で外部ツールと統合したい

<strong>A1111がおすすめな人:</strong>
- はじめてStable Diffusionを触る
- 特定のextension(WebUIにしかない機能)が必要
- フォーム型UIのほうが作業しやすい

<strong>Fooocusがおすすめな人:</strong>
- 最小限の設定で高品質な画像を生成したい
- Flux.2を手軽に試したい
- 学習コストを抑えたい

<strong>Forgeがおすすめな人:</strong>
- A1111のUIに慣れているが高速化したい
- Flux.2 Kleinを使いたいがComfyUIは難しい

<strong>InvokeAIがおすすめな人:</strong>
- キャンバス型のUIで画像を編集しながら生成したい
- ControlNetを直感的に使いたい

## 編集部の利用レポート

AI PICKS編集部では、ComfyUI Desktop v0.19.0をMacBook Pro M4で実際に使用しています。

- <strong>インストール</strong>: dmgダウンロード→ダブルクリックで完了。約3分
- <strong>初回起動</strong>: テンプレートライブラリからFlux.2 Klein 4Bを選択→初回モデルDL含め約10分で初生成
- <strong>日常使い</strong>: Flux.2 Klein 4B Distilledで1枚あたり約2秒(Apple Silicon)
- <strong>動画生成</strong>: WAN 2.2 I2Vで5秒動画を約3分で生成
- <strong>つまずきポイント</strong>: カスタムノードの依存関係衝突(ComfyUI Manager経由なら自動解決)
- <strong>コツ</strong>: `--fp16-intermediates`と`--enable-dynamic-vram`フラグで低VRAM環境でも安定動作

## AI PICKSの独自評価

AI PICKSでは、500以上のAIツールを独自の評価基準でスコアリングしています。外部レビュー・SNSバズ・トレンド指数・サイト人気度・プロダクト品質の5軸で総合評価しています。

| ツール名 | 総合スコア | 料金タイプ |
|---|---|---|
| Stable Diffusion | 86pt | 無料 |
| [Midjourney](/tool/midjourney) | 91pt | 有料 |
| [DALL-E 3](/tool/dalle) | 85pt | フリーミアム |

*スコアはAI PICKSの独自基準で算出。詳細は[評価基準について](/about/editorial-policy)をご覧ください。*

## よくある質問(FAQ)

### Q. ComfyUIは完全無料ですか?
ローカルで使う場合は完全無料です。GPUと電気代のみが実費です。Comfy Cloud(公式クラウド版)には無料枠(月400クレジット)があり、カード登録不要で始められます。本格利用なら月$20のProプランが必要です。

### Q. GPUなしでも使えますか?
2つの選択肢があります。①Comfy Cloud(クラウド版)を使う ②ローカルでCPUモードで動かす。CPUモードはStable Diffusionの生成に数分〜数十分かかるため実用的ではありません。本格利用にはGPUが必要です。ComfyUIを試したいだけならComfy Cloudの無料枠が最も手軽です。

### Q. AppleシリコンMacで使えますか?
はい、ComfyUI Desktop版はApple Silicon(M1/M2/M3/M4)に対応しています。MacのGPU(Metal)を使って生成できますが、NVIDIAのCUDAほど高速ではありません。M4 Pro以上であれば実用的な速度で動作します。

### Q. ComfyUIとCivitaiのモデルはどう使いますか?
Civitai(civitai.com)でモデルやLoRAをダウンロードし、対応するフォルダに配置するだけです。ローカル版の場合は `ComfyUI/models/checkpoints/`(モデル)または `ComfyUI/models/loras/`(LoRA)に.safetensorsファイルを入れます。ComfyUI Desktopではモデルライブラリからドラッグ&ドロップで管理できます。

### Q. AUTOMATIC1111からComfyUIに移行できますか?
モデルファイル(.safetensors)は共通して使えます。`extra_model_paths.yaml`を設定することで、A1111のモデルフォルダをComfyUIから参照することも可能です。ただし、ワークフローや設定は互換性がないため、新たにComfyUI用のワークフローを組み直す必要があります。

### Q. ComfyUI Managerとは何ですか?
カスタムノード(プラグイン)のインストール・更新・管理を行うツールです。Desktop版には標準搭載されています。主要なカスタムノード(ControlNet、IP-Adapter、WAN動画生成など)をGUI上でワンクリックインストールできます。

### Q. Flux.1を動かすのに何GBのVRAMが必要ですか?
Flux.1 [schnell]であれば<strong>8GB VRAM</strong>で動作する場合があります(量子化モデル使用時)。高品質なFlux.1 [dev]は16GBが推奨です。Comfy Cloudなら96GBのVRAMがあるので制限なく使えます。

### Q. ComfyUIで動画も生成できますか?
はい、対応しています。WAN 2.2(動画生成)、LTX-2(音声同期動画)、AnimateDiff(アニメーション)など複数の動画生成ワークフローが公開されています。Comfy Cloudの無料枠では、WAN 2.2 Image-to-Videoで5秒の動画を月約35本生成できます。

### Q. Flux.2 KleinとFlux.1はどう違いますか?
Flux.2 KleinはFlux.1の後継モデルで、<strong>20-60倍高速化</strong>されています。RTX 4090なら約0.4秒で画像生成が可能。4Bと9Bの2サイズ、Base/Distilledの2タイプが用意され、画像生成だけでなく画像編集も統合されています。Apache 2.0ライセンスで商用利用もOKです。

### Q. ComfyUIで音声付き動画を作れますか?
LTX-2を使えば音声同期動画の生成が可能です。NVIDIAとの公式パートナーシップによりNVFP4/NVFP8最適化されており、ローカルで4K動画生成も可能です。

### Q. ComfyUI v0.19の新機能は?
v0.19の主な変更点はV3 Schema Migration、ByteDance画像ノード、Ideogram v3キャラクターリファレンス対応、Dynamic VRAM強化などです。アップデートはComfyUI Managerから可能です。

### Q. マルチGPUで使えますか?
はい。ParallelAnythingノードを使えば複数GPUで並列処理が可能です。RTX 4090×2枚のような構成で、バッチ生成の効率を大幅に向上できます。

## あわせて読みたい

- [【2026年最新】Stable Diffusion入門ガイド|ローカル環境で始めるAI画像生成の全手順](/mag/stable-diffusion-beginners-guide-2026)
- [【2026年最新】AI画像生成ツール完全比較|Midjourney vs DALL·E vs Stable Diffusion vs FLUX vs Ideogram](/mag/ai-image-generation-complete-guide-2026)
- [【2026年最新】AI画像生成ツール8選|用途別おすすめと料金・品質を徹底比較](/mag/best-ai-image-generators-2026)