Skip to Content

Langfuse

Langfuseは、LLMアプリケーション向けに特別に設計されたオープンソースのオブザーバビリティプラットフォームです。

: 現在、AI関連の呼び出しのみが詳細なテレメトリーデータを含みます。他の操作はトレースを作成しますが、情報は限られています。

設定

LangfuseをMastraと一緒に使用するには、次の環境変数を設定する必要があります:

LANGFUSE_PUBLIC_KEY=your_public_key LANGFUSE_SECRET_KEY=your_secret_key LANGFUSE_BASEURL=https://cloud.langfuse.com # オプション - デフォルトはcloud.langfuse.com

重要: テレメトリーエクスポート設定を構成する際、Langfuseの統合が正しく機能するためには、traceNameパラメータを"ai"に設定する必要があります。

実装

こちらは、MastraをLangfuseで使用するための設定方法です:

import { Mastra } from "@mastra/core"; import { LangfuseExporter } from "langfuse-vercel"; export const mastra = new Mastra({ // ... other config telemetry: { serviceName: "ai", // this must be set to "ai" so that the LangfuseExporter thinks it's an AI SDK trace enabled: true, export: { type: "custom", exporter: new LangfuseExporter({ publicKey: process.env.LANGFUSE_PUBLIC_KEY, secretKey: process.env.LANGFUSE_SECRET_KEY, baseUrl: process.env.LANGFUSE_BASEURL, }), }, }, });

ダッシュボード

設定が完了すると、cloud.langfuse.com のLangfuseダッシュボードでトレースと分析を表示できます。