AI エージェントとエージェント システムに関するほとんどの説明は、エージェントの想定される使用例のさまざまな状況において、ユーザーの介入なしにエージェントが自律的に行動する能力に焦点を当てています。一部のエージェントはヒューマン イン ザ ループ モデルで動作し、ユーザーが不確実性に遭遇した場合にのみユーザーと関わりますが、一般的な特定の状況下では自律的に行動します。
AIエージェントの主な特徴は自律性であるため、エージェントがユーザーの入力から独立して行動するために必要なサポート機能があります。
能力とアクセス -権限や関連システムへの認証されたアクセスなど、ユーザーに代わって行動する能力。
推論と計画 -エージェントのアクションを導く構造化された思考プロセス (多くの場合、チェーン、ツリー、グラフ、またはアルゴリズムとして定義されます) 内で推論を使用して決定を下します。
コンポーネント オーケストレーション -プロンプト、LLM、使用可能なデータ ソース、コンテキスト、メモリ、履歴、潜在的なアクションの実行とステータスなど、複数の部分の調整。
ガードレール -エラーを回避したり、障害が発生した場合に役立つ診断情報を提供したりするための安全策を含む、エージェントの集中力と効率性を維持するためのメカニズム。
これら 4 つの要件にはそれぞれ異なるインフラストラクチャ ニーズがあります。能力とアクセスに関しては、主なニーズはソフトウェア統合と資格情報管理です。推論と計画は主に LLM やその他の AI モデルによってサポートされます。ガードレールのトピックは広範で、関連するユース ケースに固有のものであることが多いため、今後の記事で取り上げます。ここでは、オーケストレーションと、意思決定時に必要になる可能性のある多数の可動部分と長いデータ履歴およびコンテキストにわたるインテリジェントなオーケストレーションをサポートするために必要なインフラストラクチャに焦点を当てたいと思います。
上記の最初の 2 つの要件 (能力、アクセス、推論、計画など) が意図したとおりに機能していると仮定すると、コンポーネント オーケストレーションの主な課題は知識管理になります。エージェント システムは、コア タスクと目標、さまざまな関連システムの状態、ユーザーや他の外部システムとのやり取りの履歴など、さまざまなレベルで認識を維持する必要があります。
LLM では、「コンテキスト ウィンドウ」という概念を使用して、通常はプロンプト時にモデルが利用できる情報セットを説明します。これは、プロンプト自体に含まれる情報とは異なり、モデルのトレーニング プロセス中に形成された LLM の内部知識セットとも異なります。
長いテキストでは、コンテキスト ウィンドウはプロンプト時に LLM が利用できる情報の「最近の履歴」と考えることができます。これは、LLM とプロンプトのアーキテクチャに暗黙的に含まれています。このように、ほとんどの LLM はコンテキストの 1 次元の概念を持ち、古いコンテキストは時間の経過とともにウィンドウから消えてしまいます。
エージェントが決定を下す必要があるときはいつでも、最も重要または緊急のコンテキストが優先されるように、エージェントにはコンテキストと知識を管理するためのより洗練されたシステムが必要です。単一のモノリシックなコンテキストではなく、AI エージェントはさまざまな重要度のレベルのさまざまな種類のコンテキストを追跡する必要があります。
これは、コンピュータ システムのメモリに例えることができます。コンピュータ システムでは、キャッシュ、RAM、ハード ドライブなど、さまざまな種類のストレージが、アクセス可能性と使用頻度に基づいてさまざまな目的に使用されます。AI エージェントの場合、コンテキストを概念的に 3 つの主要なレベルに構造化できます。
主要なコンテキスト –エージェントの中心的なタスク リストまたは目標。これは常に最優先に考え、すべてのアクションの指針となる必要があります。
直接的なコンテキスト -メッセージング システム、データ フィード、重要な API、ユーザーの電子メールやカレンダーなどのリソースを含む、接続された関連システムと直接的な環境の状態。
外部コンテキスト –一般的な知識、または関連性があるかもしれないが、エージェント システムのコア部分として明示的に設計されていない情報。外部コンテキストは、インターネットや Wikipedia の検索のような単純なものによって提供される場合があります。または、サードパーティのニュースや更新から生じる予期しない要因など、緊急かつ複雑なものになる可能性があり、エージェントが動的にアクションを適応させる必要があります。
これらのコンテキスト レベルは決定的なものではなく、それらの間の境界は非常に曖昧になる可能性があり、コンテキストの種類を説明する他の便利な方法もありますが、この概念構造はここでの議論に役立ちます。
AI エージェントのストレージのニーズは、管理されるコンテキストの種類によって異なります。プライマリ、直接、外部の各コンテキスト レベルには、異なるデータ構造、取得メカニズム、更新頻度が必要です。重要な課題は、エージェントの処理パイプラインに過負荷をかけずに、効率的なアクセス、長期的な永続性、動的な更新を確保することです。
AI エージェントは、コンテキストをモノリシックなエンティティとして扱うのではなく、構造化データ モデルと非構造化データ モデルを融合したハイブリッド ストレージ アーキテクチャのメリットを享受します。これにより、高速な検索、セマンティック検索、スケーラブルな永続性が可能になり、冗長なデータ処理を最小限に抑えながら、必要なときに関連コンテキストを利用できるようになります。
プライマリ コンテキストは、エージェントのコア目標とアクティブなタスクで構成され、意思決定の基盤となります。この情報は、すべてのエージェントのアクションをガイドするため、永続的で、高度に構造化され、簡単にクエリ可能である必要があります。
潜在的なストレージのニーズ:
エージェントの実装例
タスク キューを管理するスケジュール アシスタントでは、次のものを保存する必要があります。
分散型の高可用性データ ストアにより、エージェントが新しいイベントやコンテキストの更新を処理している場合でも、タスクが確実に追跡されます。
直接コンテキストには、カレンダー、メッセージング プラットフォーム、API、データベース、その他のリアルタイム データ ソースなど、関連システムの現在の状態が含まれます。プライマリ コンテキストとは異なり、直接コンテキストは動的であり、多くの場合、構造化ストレージ ソリューションとリアルタイム ストレージ ソリューションの組み合わせが必要になります。
潜在的なストレージのニーズ:
エージェントの実装例:
ライブユーザーインタラクションを追跡するカスタマーサポート AI エージェントは、以下を保存する必要があります。
時間に敏感なデータ ストアと長期データ ストアを組み合わせて直接コンテキスト ストレージを構築することにより、AI エージェントは過度の遅延なしに環境を認識して動作できます。
外部コンテキストには、エージェントの直接制御外のソースからの一般的な知識と予期しない更新が含まれます。これは、オンデマンドの検索クエリから動的に取り込まれる外部データまで多岐にわたる可能性があり、保存と取得には柔軟なアプローチが必要です。エージェントの進行中のタスクや接続されたシステムに密接に結びついているプライマリ コンテキストや直接コンテキストとは異なり、外部コンテキストは構造化されておらず、広範で、関連性が非常に多様であることが多いです。
潜在的なストレージの考慮事項:
エージェントの実装例:
気候変動研究における最新の科学的発見に関するレポートをまとめるパーソナル アシスタントには、次のことが求められます。
高速な検索とセマンティックな編成を中心に外部コンテキスト ストレージを構築することで、AI エージェントは、取得したデータの関連性、信頼性、および実行可能性を維持しながら、新しい情報に継続的に適応できます。
コンテキスト認識型 AI エージェントを設計するには、重要な情報への効率的なアクセスとメモリや処理の過負荷の回避との間で慎重にバランスを取る必要があります。AI エージェントは、意思決定を最適化するために、コンテキストを動的に保存、取得、処理するタイミングを決定する必要があります。
トランザクション、ベクトル、時系列、イベント駆動型モデルを統合したハイブリッド ストレージ アーキテクチャにより、AI エージェントはコンテキストの永続性、検索効率、適応型インテリジェンスを維持できます。これらはすべて、大規模な自律性にとって重要です。このバランスを実現するには、次の 3 つの主要な側面にわたる構造化された戦略が必要です。
レイテンシと永続性 -頻繁にアクセスされるコンテキスト (アクティブなタスク状態など) は低レイテンシのストレージに保存する必要がありますが、頻繁には必要とされないが重要な知識 (履歴インタラクションなど) は長期ストレージからオンデマンドで取得する必要があります。
構造化データと非構造化データ -タスク、目標、システム状態は構造化ストレージ (キー値データベースやドキュメント データベースなど) の恩恵を受けますが、より広範な知識検索には、コンテキストを効果的にキャプチャするための非構造化埋め込みとグラフ関係が必要です。
リアルタイム認識と履歴認識 -一部のコンテキストでは継続的な監視が必要ですが (例: ライブ API 応答)、その他のコンテキスト (例: 以前の決定やレポート) は、エージェントの現在のタスクに関連する場合にのみ取得する必要があります。
これらの異なるタイプのコンテキストを考慮すると、AI エージェントは情報を保存およびアクセスするための構造化されたアプローチを必要とします。LLM コンテキスト ウィンドウのみに依存するのは非効率的です。エージェントが長期的なインタラクションや変化する状況を追跡する能力が制限されるからです。代わりに、コンテキストは永続的に保存され、動的に取得され、関連性と緊急性に基づいて優先順位が付けられる必要があります。
実際には、スケーラブルな AI エージェント アーキテクチャには、短期キャッシュ、永続データベース、外部取得メカニズムを組み合わせた多層メモリ モデルが必要です。ハイブリッド ストレージ アプローチを活用することで、AI エージェントは次のことが可能になります。
これらのストレージ戦略を統合することで、AI エージェントは自律的に機能し、長期間にわたってコンテキスト認識を維持し、新しい情報に動的に応答できるようになり、真にインテリジェントでスケーラブルなエージェント システムの基盤が築かれます。
AI エージェント用のハイブリッド ストレージ アーキテクチャを実装するには、さまざまなタイプのコンテキストを効率的に処理するために適切なデータベースとストレージ ツールを選択する必要があります。最適な選択は、レイテンシ要件、スケーラビリティ、データ構造の互換性、取得メカニズムなどの要因によって異なります。
適切に設計された AI エージェント ストレージ システムには通常、次のものが含まれます。
それぞれの要素を詳しく見てみましょう。
AI エージェントには、タスク、目標、構造化メタデータを確実に保存するための、スケーラブルで可用性の高いトランザクション データベースが必要です。これらのデータベースにより、プライマリ コンテキストが常に利用可能になり、効率的にクエリできるようになります。
リアルタイムのシステム監視を行うには、AI エージェントに、ログ記録、イベント追跡、状態の永続性に最適化されたデータベースが必要です。
非構造化知識を扱う AI エージェントには、セマンティック検索、類似性マッチング、検索拡張生成 (RAG) などのタスクの埋め込みを効率的に保存、検索、取得する方法が必要です。最適化されたベクトル検索システムにより、エージェントはメモリやコンテキスト ウィンドウに過負荷をかけることなく、関連する過去のやり取り、ドキュメント、または事実を思い出すことができます。
AI エージェントは頻繁に参照されるコンテキストへの低遅延アクセスを必要とするため、キャッシュはハイブリッド ストレージ アーキテクチャの重要なコンポーネントになります。
これらの多様なストレージ ソリューションを統合することで、AI エージェントは短期記憶、永続的な知識、リアルタイム更新を効率的に管理し、大規模でシームレスな意思決定を実現できます。トランザクション データベース、時系列ストレージ、ベクトル検索、キャッシュを組み合わせることで、エージェントは速度、スケーラビリティ、コンテキスト認識のバランスを取り、新しい入力に動的に適応できます。
AI 駆動型アプリケーションが進化し続ける中、複雑で絶えず変化する環境で確実に動作できる自律的で応答性に優れたインテリジェントなエージェント システムを実現するには、適切なハイブリッド ストレージ アーキテクチャを選択することが重要になります。
AI システムが複雑化するにつれて、短期および長期のメモリ、構造化データと非構造化データ、リアルタイムおよび履歴の洞察を管理するためにハイブリッド データベースが重要になります。検索拡張生成 (RAG)、セマンティック インデックス、分散推論の進歩により、AI エージェントはより効率的でインテリジェントになり、適応性も高まります。将来の AI エージェントは、継続性を維持し、長期にわたって情報に基づいた意思決定を行うために、高速でスケーラブルなコンテキスト認識型ストレージに依存するようになります。
AI エージェントには、速度、スケーラビリティ、回復力を確保しながら、さまざまな種類のコンテキストを効率的に管理するストレージ ソリューションが必要です。ハイブリッド データベースは、高速な構造化データと詳細なコンテキスト検索という両方の長所を兼ね備えており、インテリジェント AI システムの基盤となります。ハイブリッド データベースは、長期的な知識ストレージのためのベクトルベースの検索、低レイテンシのトランザクション検索、リアルタイムのイベント駆動型更新、フォールト トレランスのための分散スケーラビリティをサポートします。
インテリジェントな AI エージェントをサポートするには、開発者はシームレスなコンテキスト管理のために複数のデータ モデルを組み合わせたストレージ アーキテクチャを設計する必要があります。
ベクトル検索と列データ –構造化されたメタデータとともに意味的コンテキストを保存し、高速検索を実現します。
イベント駆動型ワークフロー– リアルタイム更新をストリーミングして、AIエージェントが変化するデータを認識できるようにします。
グローバルな規模と回復力 -分散ネットワーク全体に展開して高可用性とフォールトトレランスを実現
トランザクション処理、ベクトル検索、リアルタイム更新を統合することで、
著者:Brian Godsey、DataStax