Skip to Content
ドキュメントはじめに

Mastraについて

Mastraは、オープンソースのTypeScriptエージェントフレームワークです。

AIアプリケーションや機能を構築するために必要なプリミティブを提供するように設計されています。

Mastraを使用して、メモリを持ち関数を実行できるAIエージェントを構築したり、決定論的なワークフローでLLM呼び出しをチェーンしたりできます。Mastraのローカル開発環境でエージェントとチャットしたり、RAGでアプリケーション固有の知識を提供したり、Mastraの評価でその出力をスコア化したりできます。

主な機能には以下が含まれます:

  • モデルルーティング: MastraはVercel AI SDKをモデルルーティングに使用し、OpenAI、Anthropic、Google Geminiを含む任意のLLMプロバイダーとやり取りするための統一されたインターフェースを提供します。
  • エージェントメモリとツール呼び出し: Mastraを使用すると、エージェントが呼び出すことができるツール(関数)を提供できます。エージェントメモリを永続化し、最新性、意味的類似性、または会話スレッドに基づいて取得できます。
  • ワークフローグラフ: LLM呼び出しを決定論的な方法で実行したい場合、Mastraはグラフベースのワークフローエンジンを提供します。個別のステップを定義し、各実行の各ステップで入力と出力をログに記録し、それらを観測可能性ツールにパイプできます。Mastraワークフローには、分岐とチェーンを可能にする制御フロー(.then().branch().parallel())のシンプルな構文があります。
  • エージェント開発環境: ローカルでエージェントを開発している際、Mastraのエージェント開発環境でエージェントとチャットし、その状態とメモリを確認できます。
  • 検索拡張生成(RAG): Mastraは、ドキュメント(テキスト、HTML、Markdown、JSON)をチャンクに処理し、埋め込みを作成し、ベクターデータベースに保存するAPIを提供します。クエリ時には、関連するチャンクを取得してLLM応答をあなたのデータに基づかせ、複数のベクターストア(Pinecone、pgvectorなど)と埋め込みプロバイダー(OpenAI、Cohereなど)の上に統一されたAPIを提供します。
  • デプロイメント: Mastraは、既存のReact、Next.js、またはNode.jsアプリケーション内、またはスタンドアロンエンドポイントへのエージェントとワークフローのバンドルをサポートします。Mastraデプロイヘルパーを使用すると、Honoを使用してエージェントとワークフローをNode.jsサーバーに簡単にバンドルしたり、Vercel、Cloudflare Workers、Netlifyなどのサーバーレスプラットフォームにデプロイしたりできます。
  • 評価: Mastraは、モデルグレード、ルールベース、統計的手法を使用してLLM出力を評価する自動評価メトリクスを提供し、毒性、バイアス、関連性、事実の正確性のための組み込みメトリクスを備えています。独自の評価を定義することもできます。