📋 最終確認: 2026年4月14日 — ComfyUI GitHub・CHANGELOG・VS Code Marketplaceで最新情報を再確認済み
【2026年4月版】ComfyUIの使い方完全ガイド|Flux.2対応・インストールから動画生成まで徹底解説
AI画像生成ツールの中でも、「自分でカスタマイズしたい」「再現性の高いワークフローを組みたい」と思ったらたどり着くのがComfyUIです。GitHubスター数6万超えのオープンソースツールで、世界中のAI画像生成クリエイターに愛用されています。
2026年現在、Desktop V1の正式リリースとComfy Cloud(公式クラウド版)の無料プラン提供に加え、Flux.2 Kleinの登場により画像生成の速度と品質が劇的に向上しました。> Key Takeaway: ComfyUI v0.19対応。Flux.2 Klein/WAN 2.2/LTX-2の使い方、Desktop版インストール、Comfy Cloud無料プランまで網羅した2026年4月最新ガイド。
この記事の要点
- ComfyUIとは何か・なぜAIクリエイターに選ばれるのか
- Desktop版の簡単インストール方法(Windows/Mac対応)
- Comfy Cloud無料プランでGPUなしでも試せる方法
- 基本ワークフローの組み方とFlux.2 Klein対応
- LTX-2音声同期動画の生成方法
- LoRA・ControlNetの活用テクニック
- 5ツール比較(ComfyUI/A1111/Fooocus/Forge/InvokeAI)
30秒で結論
- カスタマイズ性・再現性・効率で最強。 ノードベースなので複雑なワークフローも視覚的に管理できる
- 2026年4月時点の最新版v0.19.0でDesktop版ワンクリックインストール可能。Pythonの知識は不要
- GPUがない人でもComfy Cloudの無料枠(月400クレジット)で始められる
- Flux.2 Klein対応で20-60倍高速化。RTX 4090なら0.4秒で画像生成
- 学習コストはやや高め。「手軽に1枚生成したい」だけならMidjourneyやDALL-Eで十分
- 画像生成だけでなく、WAN 2.2動画・LTX-2音声同期動画・Hunyuan3Dまで1ツールで完結
ComfyUIとは?ノードベース画像生成の革命
ComfyUIは、Stable Diffusionを操作するためのノードベースGUIツールです。2023年に個人開発者(comfyanonymous氏)がオープンソースで公開し、その柔軟性と効率性から瞬く間に世界的なAI画像生成コミュニティの標準ツールになりました。2026年4月時点の最新版はv0.19.0(2026年4月7日リリース)で、Flux.2 Klein、LTX-2、WAN 2.2など最新モデルにいち早く対応しています。
「ノードベース」とはどういうことか?
従来のStable Diffusion WebUI(A1111)は、スライダーやテキストボックスが並ぶ「フォーム型」インターフェースです。対してComfyUIは、処理の各ステップを「ノード」というブロックで表現し、線でつないでワークフローを構築します。
例えば「テキストを読み込む → モデルに渡す → サンプリングする → 画像をデコードして出力する」という一連の処理が、画面上にブロック図として可視化されます。一見複雑そうに見えますが、慣れると「どこで何が起きているか」が一目でわかるため、高度な処理も直感的に組めます。
ComfyUIが選ばれる5つの理由
1. 高いVRAM効率 同じモデルを使っても、A1111より少ないVRAMで動作します。8GB GPUでもFlux.1が動くケースがあります。
2. 完全な再現性 ワークフローをJSONファイルとして保存・共有できます。他人のワークフローを読み込めば、同じ結果を完全に再現できます。
3. バッチ処理の強さ 複数のプロンプト・パラメータを並列で処理するバッチ生成が得意。同じキャラクターの表情違い・角度違いを一括生成する場合などに強みを発揮します。
4. 最新モデルへの対応の速さ Flux.2 Klein、WAN 2.2、LTX-2など、新モデルが出たらコミュニティが即座にワークフローを公開します。公式の対応を待たずに最新技術を試せます。
5. 完全無料・オープンソース ローカルで使う限りコストはゼロ。GitHub上でソースコードも公開されており、自分でカスタマイズすることも可能です。
2026年のComfyUI:Desktop版とComfy Cloud
ComfyUI Desktop V1の正式リリース
2024年末にアナウンスされたDesktop版は、現在正式に一般公開されています。Pythonのインストール・Git操作・環境構築は一切不要。約200MBのインストーラーをダウンロードして実行するだけです。
Desktop版の主な特徴:
| 機能 | 詳細 |
|---|---|
| ワンクリックインストール | Python/Git知識不要 |
| 対応OS | Windows / macOS(Apple Silicon対応) |
| ComfyUI Manager内蔵 | カスタムノードをGUI管理 |
| テンプレートライブラリ搭載 | すぐに使えるワークフローが多数 |
| 自動モデルダウンロード | 不足モデルを自動取得 |
| 自動更新機能 | 常に最新バージョン |
| AMD GPU対応 | ROCm統合済み(v0.7.0以降) |
Comfy Cloud:GPUなしでも使えるクラウド版
2026年3月に公式クラウド「Comfy Cloud」の無料枠(Free Tier)が提供開始されました。クレジットカード登録なしでGoogleアカウントだけでサインアップでき、毎月400クレジットが付与されます。
Comfy Cloud の料金プラン:
| プラン | 月額 | クレジット | GPU | 特徴 |
|---|---|---|---|---|
| Free | $0 | 400/月 | RTX Pro 6000(96GB VRAM) | カード登録不要、翌月繰り越し不可 |
| Pro | $20/月 | 制限なし(使用量課金) | RTX Pro 6000(96GB VRAM) | ワークフロー上限なし |
Free枠でできること:
- 350種類以上のテンプレートワークフロー実行
- 画像生成(Flux、SDXL等)
- 動画生成(WAN 2.2 Image-to-Videoで月約35本)
- 3Dモデル生成(Hunyuan3D)
- 音声生成(ACE)
- 1回のワークフロー実行につき最大10分の制限あり
ポイント: Comfy Cloudは900種類以上のモデルが利用可能。ローカルGPUがない人でもプロ品質の生成を体験できます。
ComfyUIのインストール方法【2026年最新版】
方法1:Desktop版(初心者推奨)
推奨スペック:
| 項目 | 最低限 | 推奨 |
|---|---|---|
| GPU | NVIDIA 6GB VRAM | NVIDIA 12GB+ VRAM |
| RAM | 8GB | 16GB+ |
| ストレージ | HDD 50GB | SSD 100GB+ |
| OS | Windows 10 / macOS 12+ | Windows 11 / macOS 14+ |
インストール手順:
- https://www.comfy.org にアクセス
- 「Download Desktop」からWindows版またはmacOS版をダウンロード
- インストーラーを実行(約200MB)
- ComfyUI Desktopが起動したら完了
- テンプレートライブラリからワークフローを選択して生成開始
AMD GPU(Radeon)ユーザーも、v0.7.0からROCmが正式統合されたため追加設定不要です。
方法2:Comfy Cloud(GPU不要・ブラウザだけ)
- https://app.comfy.org にアクセス
- 「Sign in with Google」でログイン
- テンプレートを選ぶか、ワークフローをインポート
- 「Run」をクリックしてクラウドGPUで実行
ローカルGPUがなくても、RTX Pro 6000(96GB VRAM)というハイエンドGPUで実行されます。
方法3:CLIインストール(上級者向け)
既存のA1111環境とモデルを共有したい場合や、サーバー環境で動かしたい場合はCLI版も選べます:
# Pythonのインストール(3.11推奨)
# CUDA対応PyTorchのインストール
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
# ComfyUIのクローン
git clone https://github.com/comfyanonymous/ComfyUI
cd ComfyUI
# 依存パッケージのインストール
pip install -r requirements.txt
# 起動
python main.py
起動後、ブラウザで `http://127.0.0.1:8188` にアクセスするとComfyUIのUIが表示されます。
## ComfyUIの基本ワークフロー

### 最初の画像を生成する
ComfyUI Desktopを起動するとキャンバスが表示されます。テンプレートライブラリから「Text-to-Image(Basic)」を選択すると、基本的なワークフローがキャンバス上に展開されます。
<strong>基本ワークフローのノード構成:</strong>
[CLIP Text Encode (Prompt)] ─────────────────────────────────┐
[CLIP Text Encode (Negative Prompt)] ──────────────┐ │
[Load Checkpoint] ─── [KSampler] ─── [VAE Decode] ─── [Save Image]
↑
[Empty Latent Image]
各ノードの役割:
- <strong>Load Checkpoint</strong>: 使用するモデル(.safetensors)を読み込む
- <strong>CLIP Text Encode</strong>: プロンプト(ポジティブ/ネガティブ)をテキストエンコード
- <strong>KSampler</strong>: サンプリングアルゴリズムでノイズを除去して画像を生成
- <strong>VAE Decode</strong>: 潜在空間から実際の画像にデコード
- <strong>Save Image</strong>: 生成した画像を保存
### プロンプトの入力方法
CLIP Text Encodeノードのテキストエリアに直接プロンプトを入力します。基本的に英語で入力します:
# ポジティブプロンプト例
masterpiece, best quality, 1girl, blue eyes, long hair,
white dress, sitting in garden, sunlight, bokeh
# ネガティブプロンプト例
nsfw, worst quality, low quality, blurry, extra fingers
## Flux.1とSDXLの使い方
### Flux.1への対応
2025年に登場したBlack Forest Labs(旧Stability AI研究者チーム)の<strong>Flux.1</strong>は、SDXL以上のクオリティを誇る最新オープンソースモデルです。ComfyUIはFlex.1の主要サポートプラットフォームとして早期から対応しています。
Flux.1のモデルバリエーション:
| モデル | 特徴 | VRAM目安 | 用途 |
|--------|------|---------|------|
| <strong>Flux.1 [schnell]</strong> | 高速(4ステップで生成) | 8GB | 素早いプロトタイプ |
| <strong>Flux.1 [dev]</strong> | 高品質 | 16GB | 本番用高品質生成 |
| <strong>Flux.1 [pro]</strong> | 最高品質 | API経由 | 商業利用最高品質 |
Flux対応ワークフローのキーノード:
[FluxGuidance] ─ ノードを追加してGuidance Scale設定
[Load Diffusion Model] ─ Flux専用モデルローダー
## LoRAとControlNetの活用テクニック

LoRAとControlNetを使いこなすことで、ComfyUIの真価が発揮されます。
### LoRAの使い方
LoRA(Low-Rank Adaptation)は、特定のキャラクター・スタイル・概念を追加学習させた軽量な拡張モデルです。Civitai(https://civitai.com)で数万種類が無料公開されています。
<strong>LoRA適用方法:</strong>
# ダウンロードしたLoRAファイルを配置
ComfyUI/models/loras/[LoRAファイル名.safetensors]
# ワークフロー上でLoad LoRAノードを追加
[Load Checkpoint] ─ [Load LoRA] ─ [KSampler]
↑
strength: 0.5〜0.8(調整)
複数のLoRAを組み合わせることも可能です。キャラクターLoRA(0.7)+スタイルLoRA(0.4)のように重みを調整しながら重ねがけします。
### ControlNetでポーズ・構図を固定する
ControlNetは、参照画像からポーズや構図を抽出して生成を制御する技術です。「このポーズのキャラクターを生成したい」「この構図のまま絵柄を変えたい」という用途に最適です。
<strong>ControlNet主要モード:</strong>
| モード | 用途 |
|--------|------|
| <strong>Canny</strong> | エッジ(輪郭線)の抽出・維持 |
| <strong>Depth</strong> | 深度マップによる空間構造の維持 |
| <strong>OpenPose</strong> | 人体のポーズ制御 |
| <strong>Scribble</strong> | ラフスケッチから画像生成 |
| <strong>IP-Adapter</strong> | 参照画像のスタイル転写 |
## ComfyUI vs A1111 vs Fooocus vs Forge vs InvokeAI|5ツール比較
2026年4月現在、AI画像生成の選択肢は広がっています。主要5ツールの違いを整理します。
| 比較項目 | ComfyUI | A1111 WebUI | Fooocus | Forge | InvokeAI |
|---------|---------|-------------|---------|-------|----------|
| <strong>難易度</strong> | 中〜上級 | 初級〜中級 | 初級 | 中級 | 中級 |
| <strong>インターフェース</strong> | ノードベース(フロー) | フォーム型(タブUI) | シンプルUI | フォーム型 | キャンバス型 |
| <strong>再現性</strong> | ◎ ワークフロー共有が容易 | △ 設定の再現が難しい | △ 限定的 | △ 限定的 | ○ ワークフロー対応 |
| <strong>VRAM効率</strong> | ◎ 非常に効率的 | ○ 標準的 | ◎ 最適化済み | ◎ 高効率 | ○ 標準的 |
| <strong>バッチ処理</strong> | ◎ 得意 | △ 限定的 | △ 限定的 | △ 限定的 | ○ 対応 |
| <strong>最新モデル対応</strong> | ◎ コミュニティが即対応 | ○ 少し遅れる | △ 対応モデル限定 | ○ 少し遅れる | ○ 少し遅れる |
| <strong>Flux.2 Klein</strong> | ✅ 対応 | △ 遅い | ✅ 対応 | ✅ 対応 | △ 対応 |
| <strong>動画生成</strong> | ◎ WAN/LTX対応 | △ 限定的 | ❌ 非対応 | △ 限定的 | ❌ 非対応 |
| <strong>拡張性</strong> | ◎ 豊富 | ◎ 業界最大 | △ 限定的 | ○ 豊富 | ○ 豊富 |
| <strong>初心者向け</strong> | △ 学習コストあり | ◎ 直感的 | ◎ 最も簡単 | ○ A1111よりは簡単 | ○ キャンバス型 |
| <strong>MCP対応</strong> | ✅ 対応 | ❌ 非対応 | ❌ 非対応 | ❌ 非対応 | ❌ 非対応 |
| <strong>オープンソース</strong> | ✅ | ✅ | ✅ | ✅ | ✅ |
<strong>ComfyUIがおすすめな人:</strong>
- ワークフローの再現・共有をしたい
- VRAMが少ない環境で動かしたい
- Flux.2 Kleinなど最新モデルをすぐ試したい
- 動画生成まで一貫して使いたい
- バッチ処理・量産制作が多い
- MCP連携で外部ツールと統合したい
<strong>A1111がおすすめな人:</strong>
- はじめてStable Diffusionを触る
- 特定のextension(WebUIにしかない機能)が必要
- フォーム型UIのほうが作業しやすい
<strong>Fooocusがおすすめな人:</strong>
- 最小限の設定で高品質な画像を生成したい
- Flux.2を手軽に試したい
- 学習コストを抑えたい
<strong>Forgeがおすすめな人:</strong>
- A1111のUIに慣れているが高速化したい
- Flux.2 Kleinを使いたいがComfyUIは難しい
<strong>InvokeAIがおすすめな人:</strong>
- キャンバス型のUIで画像を編集しながら生成したい
- ControlNetを直感的に使いたい
## 編集部の利用レポート
AI PICKS編集部では、ComfyUI Desktop v0.19.0をMacBook Pro M4で実際に使用しています。
- <strong>インストール</strong>: dmgダウンロード→ダブルクリックで完了。約3分
- <strong>初回起動</strong>: テンプレートライブラリからFlux.2 Klein 4Bを選択→初回モデルDL含め約10分で初生成
- <strong>日常使い</strong>: Flux.2 Klein 4B Distilledで1枚あたり約2秒(Apple Silicon)
- <strong>動画生成</strong>: WAN 2.2 I2Vで5秒動画を約3分で生成
- <strong>つまずきポイント</strong>: カスタムノードの依存関係衝突(ComfyUI Manager経由なら自動解決)
- <strong>コツ</strong>: `--fp16-intermediates`と`--enable-dynamic-vram`フラグで低VRAM環境でも安定動作
## AI PICKSの独自評価
AI PICKSでは、500以上のAIツールを独自の評価基準でスコアリングしています。外部レビュー・SNSバズ・トレンド指数・サイト人気度・プロダクト品質の5軸で総合評価しています。
| ツール名 | 総合スコア | 料金タイプ |
|---|---|---|
| Stable Diffusion | 86pt | 無料 |
| [Midjourney](/tool/midjourney) | 91pt | 有料 |
| [DALL-E 3](/tool/dalle) | 85pt | フリーミアム |
*スコアはAI PICKSの独自基準で算出。詳細は[評価基準について](/about/editorial-policy)をご覧ください。*
## よくある質問(FAQ)
### Q. ComfyUIは完全無料ですか?
ローカルで使う場合は完全無料です。GPUと電気代のみが実費です。Comfy Cloud(公式クラウド版)には無料枠(月400クレジット)があり、カード登録不要で始められます。本格利用なら月$20のProプランが必要です。
### Q. GPUなしでも使えますか?
2つの選択肢があります。①Comfy Cloud(クラウド版)を使う ②ローカルでCPUモードで動かす。CPUモードはStable Diffusionの生成に数分〜数十分かかるため実用的ではありません。本格利用にはGPUが必要です。ComfyUIを試したいだけならComfy Cloudの無料枠が最も手軽です。
### Q. AppleシリコンMacで使えますか?
はい、ComfyUI Desktop版はApple Silicon(M1/M2/M3/M4)に対応しています。MacのGPU(Metal)を使って生成できますが、NVIDIAのCUDAほど高速ではありません。M4 Pro以上であれば実用的な速度で動作します。
### Q. ComfyUIとCivitaiのモデルはどう使いますか?
Civitai(civitai.com)でモデルやLoRAをダウンロードし、対応するフォルダに配置するだけです。ローカル版の場合は `ComfyUI/models/checkpoints/`(モデル)または `ComfyUI/models/loras/`(LoRA)に.safetensorsファイルを入れます。ComfyUI Desktopではモデルライブラリからドラッグ&ドロップで管理できます。
### Q. AUTOMATIC1111からComfyUIに移行できますか?
モデルファイル(.safetensors)は共通して使えます。`extra_model_paths.yaml`を設定することで、A1111のモデルフォルダをComfyUIから参照することも可能です。ただし、ワークフローや設定は互換性がないため、新たにComfyUI用のワークフローを組み直す必要があります。
### Q. ComfyUI Managerとは何ですか?
カスタムノード(プラグイン)のインストール・更新・管理を行うツールです。Desktop版には標準搭載されています。主要なカスタムノード(ControlNet、IP-Adapter、WAN動画生成など)をGUI上でワンクリックインストールできます。
### Q. Flux.1を動かすのに何GBのVRAMが必要ですか?
Flux.1 [schnell]であれば<strong>8GB VRAM</strong>で動作する場合があります(量子化モデル使用時)。高品質なFlux.1 [dev]は16GBが推奨です。Comfy Cloudなら96GBのVRAMがあるので制限なく使えます。
### Q. ComfyUIで動画も生成できますか?
はい、対応しています。WAN 2.2(動画生成)、LTX-2(音声同期動画)、AnimateDiff(アニメーション)など複数の動画生成ワークフローが公開されています。Comfy Cloudの無料枠では、WAN 2.2 Image-to-Videoで5秒の動画を月約35本生成できます。
### Q. Flux.2 KleinとFlux.1はどう違いますか?
Flux.2 KleinはFlux.1の後継モデルで、<strong>20-60倍高速化</strong>されています。RTX 4090なら約0.4秒で画像生成が可能。4Bと9Bの2サイズ、Base/Distilledの2タイプが用意され、画像生成だけでなく画像編集も統合されています。Apache 2.0ライセンスで商用利用もOKです。
### Q. ComfyUIで音声付き動画を作れますか?
LTX-2を使えば音声同期動画の生成が可能です。NVIDIAとの公式パートナーシップによりNVFP4/NVFP8最適化されており、ローカルで4K動画生成も可能です。
### Q. ComfyUI v0.19の新機能は?
v0.19の主な変更点はV3 Schema Migration、ByteDance画像ノード、Ideogram v3キャラクターリファレンス対応、Dynamic VRAM強化などです。アップデートはComfyUI Managerから可能です。
### Q. マルチGPUで使えますか?
はい。ParallelAnythingノードを使えば複数GPUで並列処理が可能です。RTX 4090×2枚のような構成で、バッチ生成の効率を大幅に向上できます。
## あわせて読みたい
- [【2026年最新】Stable Diffusion入門ガイド|ローカル環境で始めるAI画像生成の全手順](/mag/stable-diffusion-beginners-guide-2026)
- [【2026年最新】AI画像生成ツール完全比較|Midjourney vs DALL·E vs Stable Diffusion vs FLUX vs Ideogram](/mag/ai-image-generation-complete-guide-2026)
- [【2026年最新】AI画像生成ツール8選|用途別おすすめと料金・品質を徹底比較](/mag/best-ai-image-generators-2026)
