【2026年最新】Langfuse完全ガイド|使い方・料金・LLMアプリの可観測性を徹底解説
LLMアプリを本番環境に投入したとたん、「なぜこんなに料金が高いのか」「どこで応答が遅くなっているのか」「プロンプトを変えたら品質が下がっていないか」——こうした問題に直面したことはないでしょうか。
Langfuseは、そうしたLLMアプリ運用のブラックボックス問題を解決するオープンソースの可観測性プラットフォームです。GitHubスター数10万超、世界4万以上のチームが利用するデファクトスタンダードになっています。
この記事では、Langfuseの基本概念から実際のセットアップ、料金プラン、競合との比較まで、必要な情報をすべてまとめます。
Key Takeaway: Langfuseの使い方・料金・セットアップ方法を徹底解説。LLMアプリのコスト監視・トレーシング・プロンプト管理をオープンソースで実現。LangSmithとの比較も。
この記事の要点
- Langfuseとは何か・何が解決できるか
- Langfuseの料金プラン(無料〜エンタープライズ)
- Python・JavaScriptでの基本的な使い方
- プロンプト管理・評価機能の活用方法
- LangSmithとの比較と選び方
30秒で結論
- Langfuse = オープンソースのLLM可観測性プラットフォーム(MIT License)
- 無料プランで月5万ユニット、セルフホストなら無制限・完全無料
- コスト・レイテンシ・品質をリアルタイムで可視化できる
- LangChain・OpenAI・Claude・Difyなど主要フレームワークと連携可能
- LangSmithより柔軟。セルフホストできることが最大の差別点
Langfuseとは?LLMアプリの「見えない部分」を見えるようにするツール
ChatGPTやClaudeのAPIを使ったアプリを作ると、表面上は動いていても中で何が起きているかは見えません。
- このリクエストにいくらかかったのか
- なぜこのプロンプトだと回答がおかしくなるのか
- RAGで取得した情報がLLMにきちんと渡っているのか
Langfuseは、こうした「LLMアプリの内部挙動を全部ログに記録して可視化する」ためのツールです。
Langfuseが選ばれる3つの理由
1. オープンソース・セルフホスト可能
Langfuseはコード全体がMITライセンスで公開されています。Dockerで5分あればローカルに立ち上がり、自社サーバーで完全運用も可能です。ログや会話データを外部に出したくない企業にとって、これは決定的なアドバンテージです。
2. フレームワーク非依存
LangChain、LlamaIndex、OpenAI SDK、Claude SDK、Dify、Langflow——どれでも使えます。特定のフレームワークに縛られないため、マルチモデル・マルチスタック構成でも対応できます。
3. 機能が一体化している
トレーシング・プロンプト管理・評価(Evaluation)・データセット管理が一つのプラットフォームで完結します。ツールを複数使い分ける必要がありません。
Langfuseの主要機能一覧
| 機能 | 内容 |
|---|---|
| トレーシング | LLMの全呼び出し・処理フローを記録・可視化 |
| コスト追跡 | トークン数・料金をリアルタイムでモニタリング |
| プロンプト管理 | バージョン管理・A/Bテスト・本番デプロイ |
| 評価(Evaluation) | LLM-as-a-judge・ユーザーフィードバック・人手評価 |
| データセット | 評価用データセットの管理・実験の再現 |
| ダッシュボード | レイテンシ・コスト・品質スコアのグラフ可視化 |
| セッション追跡 | チャット履歴のセッション単位での管理 |
Langfuseの料金プラン【2026年最新版】
クラウド版(Langfuse Cloud)
Langfuseのクラウド版は4つのプランで提供されています。
| プラン | 月額 | 含まれるユニット | データ保持期間 | ユーザー数 |
|---|---|---|---|---|
| Hobby | 無料 | 月5万ユニット | 30日 | 2名 |
| Core | $29(約4,400円) | 月10万ユニット | 90日 | 無制限 |
| Pro | $199(約3万円) | 月10万ユニット | 3年 | 無制限 |
| Enterprise | $2,499(約37万円) | 月10万ユニット | 3年 | 無制限 |
超過料金: 10万ユニット超は$8/10万ユニット(100万超は$7、1000万超は$6.50)
Hobbyプランで何ができるか
無料プランでも全機能が使えます(制限はユニット数と保持期間、ユーザー数のみ)。クレジットカード不要で即日開始できます。月5万ユニットは個人開発や小規模プロジェクトには十分な量です。
Coreプランが適するケース
チーム開発・本番運用を始める段階。月額$29(約4,400円)でユーザー数無制限になり、データ保持期間も90日に延びます。早期スタートアップは50%割引、学術・研究利用は最大100%割引が適用されます。
Proプランで追加されるもの
SOC 2・ISO 27001準拠、3年間のデータ保持、高いレートリミット(エンタープライズグレードのトレース量に対応)。セキュリティ要件が厳しい企業向けです。
セルフホスト版
完全無料で全機能を利用できます。MIT Licenseのため商用利用も問題ありません。
# Dockerで即セットアップ
git clone https://github.com/langfuse/langfuse
cd langfuse
docker compose up
セルフホストのエンタープライズライセンス($500/月)を追加すると、RBAC・SCIM・プロテクトプロンプト・データ保持ポリシーなどが使えます。
---
## Langfuseの始め方・セットアップ手順
### ステップ1: アカウント作成とプロジェクト設定
1. [cloud.langfuse.com](https://cloud.langfuse.com) にアクセス
2. GitHubアカウントまたはメールでサインアップ
3. 「New Organization」→「New Project」を作成
4. プロジェクト設定からAPIキーを発行(Public Key + Secret Key)
### ステップ2: SDKのインストール
```bash
# Python
pip install langfuse openai
# JavaScript / TypeScript
npm install langfuse openai
### ステップ3: 環境変数の設定
```bash
# .env ファイル
LANGFUSE_PUBLIC_KEY="pk-lf-xxxxxxxxxxxxxxxx"
LANGFUSE_SECRET_KEY="sk-lf-xxxxxxxxxxxxxxxx"
LANGFUSE_HOST="https://cloud.langfuse.com" # セルフホストの場合はそのURLに変更
### ステップ4: 最初のトレースを記録する
<strong>Pythonの場合(@observeデコレータ):</strong>
```python
from langfuse.openai langfuse.decorators
@observe()
def generate_response(user_question: str) -> str:
response = openai.chat.completions.create(
model="gpt-4o",
messages=[
{"role": "user", "content": user_question}
]
)
return response.choices[0].message.content
# これだけでトークン数・コスト・レイテンシが自動記録される
result = generate_response("AIとは何ですか?")
print(result)
<strong>JavaScriptの場合(OpenAI SDK統合):</strong>
```typescript
"langfuse";
"openai";
const langfuse = new Langfuse();
const openai = new OpenAI();
async function generateResponse(userQuestion: string) {
const trace = langfuse.trace({ name: "chat-response" });
const generation = trace.generation({
name: "openai-call",
model: "gpt-4o",
input: userQuestion,
});
const response = await openai.chat.completions.create({
model: "gpt-4o",
messages: [{ role: "user", content: userQuestion }],
});
const answer = response.choices[0].message.content;
generation.end({ output: answer });
return answer;
}
これだけで、Langfuseのダッシュボードに全リクエストの詳細ログが表示されます。
---
## 主要フレームワークとの連携方法
### LangChainとの連携
LangChainはコールバック1つで統合できます。
```python
from langfuse.callback
# Langfuseのコールバックハンドラを作成
langfuse_handler = CallbackHandler()
# LangChainのチェーン実行時にcallbacksに追加
from langchain_openai langchain_core.prompts
prompt = ChatPromptTemplate.from_template("以下の質問に答えてください: {question}")
model = ChatOpenAI(model="gpt-4o")
chain = prompt | model
# callbacksにLangfuseを指定するだけ
response = chain.invoke(
{"question": "AIの将来性は?"},
config={"callbacks": [langfuse_handler]}
)
### Difyとの連携
Difyのノーコード環境でもLangfuseが使えます。
1. Difyの「設定」→「監視」→「Langfuseを設定」
2. Public Key・Secret Key・Hostを入力
3. これだけでDifyのすべてのLLM呼び出しが自動トレースされる
### OpenAIダイレクト統合
```python
# langfuseがOpenAIをラップするため、コード変更は最小限
from langfuse.openai
response = openai.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "こんにちは"}]
)
# トークン数・コスト・レイテンシが自動記録
### AnthropicとClaude APIの連携
```python
langfuse.decorators
@observe()
def ask_claude(question: str):
client = anthropic.Anthropic()
message = client.messages.create(
model="claude-opus-4-6",
max_tokens=1024,
messages=[{"role": "user", "content": question}]
)
# 手動でトークン数を記録
langfuse_context.update_current_observation(
usage={
"input": message.usage.input_tokens,
"output": message.usage.output_tokens,
}
)
return message.content[0].text
---
## プロンプト管理機能の使い方

Langfuseのプロンプト管理機能は、チーム開発で特に威力を発揮します。プロンプトをコードの中に直書きするのではなく、Langfuseのダッシュボードで一元管理できます。
<strong>メリット:</strong>
- バージョン管理(変更履歴が全部残る)
- デプロイメントラベル(development / staging / production)
- 非エンジニアでもUI上でプロンプトを編集・デプロイ可能
- A/Bテストで複数バージョンの効果を比較
<strong>コードからプロンプトを取得する:</strong>
```python
from langfuse
langfuse = Langfuse()
# production ラベルがついたプロンプトを取得(キャッシュ付き)
prompt = langfuse.get_prompt("answer-question")
# 変数を埋め込む
compiled_prompt = prompt.compile(topic="AIの歴史", language="日本語")
# 使用後、プロンプト更新はダッシュボードから→コード変更不要
---
## 評価(Evaluation)機能でLLM品質を自動チェック

LLMアプリの品質管理は難しいです。「プロンプトを変えたら品質が下がった」を人手でチェックし続けるのは現実的ではありません。LangfuseのEvaluation機能を使うと、これを自動化できます。
### LLM-as-a-Judge(自動評価)
本番のトレースを別のLLMが自動採点します。
1. Langfuseダッシュボードで「Evaluators」を開く
2. 「Create Evaluator」をクリック
3. 評価プロンプト(例: 「回答の正確性を1〜5点で採点してください」)を設定
4. 対象モデルと評価頻度を設定
5. 以降、新しいトレースが入るたびに自動でスコアが付与される
評価スコアはダッシュボードで時系列グラフとして表示されるため、「プロンプト変更後に品質が下がった」を即座に検知できます。
### ユーザーフィードバックの収集
```python
from langfuse
langfuse = Langfuse()
# ユーザーがサムアップ/サムダウンを押したとき
langfuse.score(
trace_id="trace-xxxxx",
name="user-feedback",
value=1, # 1=高評価, 0=低評価
comment="とても分かりやすかった"
)
---
## LangSmithとの比較:どちらを選ぶべき?
Langfuseと最もよく比較されるのがLangSmith(LangChain社製)です。
| 項目 | Langfuse | LangSmith |
|------|----------|-----------|
| <strong>ライセンス</strong> | MIT(完全オープンソース) | クローズドソース |
| <strong>セルフホスト</strong> | ✅ 完全無料 | ❌ 不可 |
| <strong>無料プラン</strong> | 月5万ユニット・全機能 | 月5,000トレース・1ユーザー |
| <strong>有料最低額</strong> | $29/月(ユーザー無制限) | $39/ユーザー/月 |
| <strong>フレームワーク</strong> | フレームワーク非依存 | LangChain/LangGraph最適化 |
| <strong>LangChain連携</strong> | ✅ 対応 | ✅ ネイティブ統合 |
| <strong>データ主権</strong> | ✅ セルフホストで完全管理 | ❌ クラウドのみ |
| <strong>コミュニティ</strong> | GitHub 10万+ Stars | 非公開 |
<strong>Langfuseを選ぶべきケース:</strong>
- セルフホストでデータを社内に置きたい
- LangChain以外のフレームワーク(Claude SDK・Dify等)も使っている
- チーム人数が多くコスト効率を重視したい
- オープンソースを好む(ベンダーロックイン回避)
<strong>LangSmithが向くケース:</strong>
- LangChain / LangGraphのみを使っている
- セルフホストの運用コストをかけたくない
- LangGraphのデプロイ機能(LangGraph Cloud)も使いたい
---
## AI PICKSの独自評価
AI PICKSでは、500以上のAIツールを独自の評価基準でスコアリングしています。外部レビュー・SNSバズ・トレンド指数・サイト人気度・プロダクト品質の5軸で総合評価しています。
| ツール名 | 総合スコア | 料金タイプ |
|---|---|---|
| [ChatGPT](/tool/chatgpt) | 95pt | フリーミアム |
| Claude | 93pt | フリーミアム |
*スコアはAI PICKSの独自基準で算出。詳細は[評価基準について](/about/editorial-policy)をご覧ください。*
## 編集部の検証メモ
### 検証の観点
LLMアプリの可観測性ツールを選ぶうえで、編集部では以下3つの評価軸で公開情報を比較検討した。
1. <strong>デプロイ柔軟性</strong>(クラウド/セルフホストの選択肢)
2. <strong>コスト構造</strong>(無料枠と従量課金の明朗さ)
3. <strong>エコシステム連携</strong>(LangChain・主要LLM API・RAGフレームワーク対応)
### 公開情報からの比較整理
Langfuseと、本記事内で言及している主要LLM API([ChatGPT](/tool/chatgpt) / [Claude](/tool/claude))を「LLMアプリ運用スタック」として整理すると、それぞれ役割が異なる。
| 項目 | Langfuse | ChatGPT API | Claude API |
|------|----------|-------------|------------|
| 役割 | 可観測性・運用基盤 | 推論エンジン | 推論エンジン |
| ライセンス | MIT(OSS) | プロプライエタリ | プロプライエタリ |
| 無料枠 | 月5万ユニット/セルフホスト無制限 | 試用クレジット中心 | 試用クレジット中心 |
| 日本語UI | 英語UI(ドキュメント英語中心) | 英語UI | 英語UI |
| 商用利用 | OSSライセンス範囲内で可 | 利用規約に従い可 | 利用規約に従い可 |
※料金・無料枠の最新詳細は各公式サイトを参照。
### 編集部の総合判断
公式仕様から判断する限り、選定の指針は次のとおりである。
- <strong>コスト・データ主権を最優先するチーム</strong> → Langfuseのセルフホスト構成が有力。MITライセンスで内製運用に組み込みやすい。
- <strong>日本語タスク・長文要約が中心のアプリ</strong> → 推論側にClaudeを据え、Langfuseでトレーシングする組み合わせが筋が良い。
- <strong>既存のOpenAIエコシステムを軸に試作を高速化したい場合</strong> → ChatGPT APIを推論側に置き、Langfuse Cloudの無料枠から始めると初期コストを抑えやすい。
## よくある質問
### Q. Langfuseは日本語に対応していますか?
公式UIは英語ですが、日本語の公式ドキュメントページ(langfuse.com/jp)が用意されています。日本語のトレースデータも問題なく扱えます。日本のコミュニティも活発で、ZennやQiitaに多数の日本語記事が公開されています。
### Q. セルフホストは本当に無料ですか?
Langfuse本体はMITライセンスで完全無料です。ただし、自社サーバーの運用コスト(AWS EC2やGCPなど)は別途かかります。小規模なら月数千円のVPSで十分動作します。エンタープライズ向けのRBAC・SCIM等の機能は有料ライセンス($500/月)が必要です。
### Q. OpenAI以外のモデルも使えますか?
使えます。Claude(Anthropic)・[Gemini](/tool/gemini)(Google)・Mistral・Groq・Amazon Bedrockなど主要モデルはすべて対応しています。LiteLLMプロキシ経由でログを取れるため、独自モデルやローカルLLMも対応可能です。
### Q. DifyやLangflowのようなノーコードツールとも連携できますか?
できます。DifyはUI上でLangfuseの設定を入力するだけで連携が完了します。Langflowも同様にネイティブ統合に対応しています。コードを書かずにLLMアプリを可観測化できます。
### Q. 「ユニット」とは何ですか?
Langfuseの料金単位です。基本的に1回のLLM API呼び出しが1ユニットに相当します(マルチターンのトレースも含む)。月5万ユニットは、日あたり約1,600回のLLM呼び出しに相当し、個人開発や小規模プロジェクトには十分です。
### Q. データはどこに保存されますか?
Langfuse Cloud(クラウド版)はUS・EUリージョンのサーバーに保存されます。日本国内にデータを置きたい場合はセルフホスト版を使うのが最善策です。Docker ComposeまたはKubernetes上で動作し、データベースはPostgreSQL(+ ClickHouse)を使用します。
---
Langfuseは「LLMアプリを動かすだけ」から「LLMアプリをちゃんと運用する」フェーズへの橋渡しをしてくれるツールです。無料プランで今すぐ試せるので、AIアプリ開発を始めたら最初に入れておいて損はありません。
## 関連記事
- [【2026年最新】Appsmith完全ガイド|料金・使い方・自社ツール構築の始め方を徹底解説](/mag/appsmith-guide-2026)
- [【2026年最新】LiteLLM完全ガイド|100以上のLLMを統一APIで呼び出す方法・料金・使い方](/mag/litellm-guide-2026)
- [【2026年最新】AutoGPT完全ガイド|使い方・料金・インストール・CrewAIとの違いを徹底解説](/mag/autogpt-complete-guide-2026)
