Agent.getLLM()
.getLLM()
メソッドは、エージェントに設定された言語モデルのインスタンスを取得し、それが関数である場合は実体を解決します。このメソッドにより、エージェントの機能を支える基盤となる LLM にアクセスできます。
使い方の例
await agent.getLLM();
パラメータ
options?:
{ runtimeContext?: RuntimeContext; model?: MastraLanguageModel | DynamicArgument<MastraLanguageModel> }
= {}
ランタイムコンテキストと、モデルの上書き設定(任意)を含むオプションの設定オブジェクト。
戻り値
llm:
MastraLLMV1 | Promise<MastraLLMV1>
エージェント向けに構成された言語モデルのインスタンス。直接のインスタンス、または LLM へ解決される Promise のいずれかです。
拡張的な使用例
await agent.getLLM({
runtimeContext: new RuntimeContext(),
model: openai('gpt-4')
});
オプションパラメータ
runtimeContext?:
RuntimeContext
= new RuntimeContext()
依存性注入とコンテキスト情報のためのランタイムコンテキスト。
model?:
MastraLanguageModel | DynamicArgument<MastraLanguageModel>
モデルの任意の上書き。指定された場合、エージェントに設定されたモデルではなくこのモデルが使用されます。