Agent.getLLM()
.getLLM()
メソッドは、エージェントに設定された言語モデルインスタンスを取得し、それが関数である場合は解決します。このメソッドにより、エージェントの機能を駆動する基盤のLLMにアクセスできます。
使い方の例
await agent.getLLM();
パラメータ
options?:
{ runtimeContext?: RuntimeContext; model?: MastraLanguageModel | DynamicArgument<MastraLanguageModel> }
= {}
ランタイムコンテキストとオプションのモデルオーバーライドを含むオプションの設定オブジェクト。
返り値
llm:
MastraLLMV1 | Promise<MastraLLMV1>
エージェント用に設定された言語モデルのインスタンス。直接のインスタンス、またはLLMへと解決される Promise のいずれかです。
詳細な使用例
await agent.getLLM({
runtimeContext: new RuntimeContext(),
model: openai('gpt-4')
});
オプションパラメータ
runtimeContext?:
RuntimeContext
= new RuntimeContext()
依存性注入やコンテキスト情報のためのランタイムコンテキスト。
model?:
MastraLanguageModel | DynamicArgument<MastraLanguageModel>
任意のモデルの上書き。指定した場合、エージェントで設定されたモデルではなく、このモデルが使用されます。