Die meisten Beschreibungen von KI-Agenten und Agentensystemen konzentrieren sich auf die Fähigkeit der Agenten, in vielen Situationen in den vorgesehenen Anwendungsfällen der Agenten autonom und ohne Benutzereingriff zu handeln. Einige Agenten arbeiten mit einem Human-in-the-Loop-Modell und greifen nur dann in den Benutzer ein, wenn Unsicherheiten auftreten, handeln aber unter typischen und bestimmten Umständen dennoch autonom.
Da Autonomie das wichtigste Merkmal von KI-Agenten ist, gibt es unterstützende Fähigkeiten, die Agenten benötigen, um unabhängig von Benutzereingaben zu handeln.
Fähigkeit und Zugriff – Die Fähigkeit, im Namen des Benutzers zu handeln, einschließlich Berechtigungen und authentifiziertem Zugriff auf relevante Systeme.
Argumentation und Planung – Verwenden von Argumentation, um Entscheidungen innerhalb eines strukturierten Denkprozesses zu treffen – oft definiert als Kette, Baum, Diagramm oder Algorithmus –, der die Aktionen des Agenten leitet.
Komponenten-Orchestrierung – Koordination mehrerer Teile, einschließlich Eingabeaufforderungen, LLMs, verfügbarer Datenquellen, Kontext, Speicher, Verlauf sowie Ausführung und Status potenzieller Aktionen.
Leitplanken – Mechanismen, die dafür sorgen, dass der Agent konzentriert und effektiv bleibt. Dazu gehören Sicherheitsvorkehrungen, um Fehler zu vermeiden oder im Fehlerfall hilfreiche Diagnoseinformationen bereitzustellen.
Jede dieser vier Anforderungen hat unterschiedliche Infrastrukturanforderungen. Für Fähigkeiten und Zugriff sind die wichtigsten Anforderungen Softwareintegrationen und Anmeldeinformationsverwaltung. Argumentation und Planung werden hauptsächlich durch LLMs und andere KI-Modelle unterstützt. Das Thema Leitplanken ist umfangreich und oft spezifisch für die jeweiligen Anwendungsfälle, daher werden wir es für einen zukünftigen Artikel aufheben. Hier möchte ich mich auf Orchestrierung und die Infrastruktur konzentrieren, die zur Unterstützung intelligenter Orchestrierung über eine große Anzahl beweglicher Teile und eine lange Historie von Daten und Kontexten erforderlich ist, die zum Zeitpunkt der Entscheidung möglicherweise benötigt werden.
Vorausgesetzt, dass die ersten beiden oben genannten Anforderungen – einschließlich Fähigkeit, Zugriff, Argumentation und Planung – wie vorgesehen funktionieren, läuft die Hauptherausforderung der Komponentenorchestrierung auf das Wissensmanagement hinaus. Das agentenbasierte System muss auf mehreren Ebenen auf dem Laufenden bleiben: seine Kernaufgaben und -ziele, den Zustand verschiedener relevanter Systeme, den Verlauf der Interaktionen mit dem Benutzer und anderen externen Systemen und möglicherweise mehr.
Bei LLMs verwenden wir das Konzept eines „Kontextfensters“, um den Informationssatz zu beschreiben, der dem Modell im Allgemeinen zum richtigen Zeitpunkt zur Verfügung steht. Dies unterscheidet sich von den Informationen, die in der Eingabeaufforderung selbst enthalten sind, und auch vom internen Wissenssatz des LLM, der während des Modelltrainingsprozesses gebildet wurde.
In langen Texten kann man sich Kontextfenster als „jüngste Geschichte“ von Informationen vorstellen, die dem LLM zum richtigen Zeitpunkt zur Verfügung stehen – dies ist implizit in der Architektur von LLMs und der Eingabeaufforderung enthalten. Auf diese Weise haben die meisten LLMs ein eindimensionales Kontextkonzept, und älterer Kontext fällt mit der Zeit einfach aus dem Fenster.
Agenten benötigen ein ausgefeilteres System zur Verwaltung von Kontext und Wissen, um sicherzustellen, dass der wichtigste oder dringendste Kontext Priorität hat, wenn der Agent eine Entscheidung treffen muss. Statt eines einzigen monolithischen Kontexts müssen KI-Agenten verschiedene Kontexttypen mit unterschiedlichen Wichtigkeitsstufen verfolgen.
Dies lässt sich mit dem Speicher in Computersystemen vergleichen, wo verschiedene Speichertypen – Cache, RAM und Festplatten – je nach Zugänglichkeit und Nutzungshäufigkeit unterschiedlichen Zwecken dienen. Für KI-Agenten können wir den Kontext konzeptionell in drei Hauptebenen strukturieren:
Primärer Kontext – Die Kernaufgabenliste oder Ziele des Agenten. Dies sollte immer oberste Priorität haben und alle Aktionen leiten.
Direkter Kontext – Der Status verbundener, relevanter Systeme und der unmittelbaren Umgebung, einschließlich Ressourcen wie Nachrichtensysteme, Datenfeeds, kritische APIs oder E-Mails und Kalender eines Benutzers.
Externer Kontext – Allgemeines Wissen oder alle Informationen, die relevant sein könnten, aber nicht ausdrücklich als Kernbestandteil des Agentensystems konzipiert sind. Externer Kontext kann durch etwas so Einfaches wie eine Suche im Internet oder auf Wikipedia bereitgestellt werden. Oder er kann dringend und kompliziert sein, wie etwa unerwartete Faktoren, die sich aus Nachrichten oder Updates von Drittanbietern ergeben und erfordern, dass der Agent seine Aktionen dynamisch anpasst.
Diese Kontextebenen sind nicht endgültig, die Grenzen zwischen ihnen können sehr fließend sein und es gibt andere nützliche Möglichkeiten, Kontexttypen zu beschreiben – aber diese konzeptionelle Struktur ist für unsere Diskussion hier nützlich.
Der Speicherbedarf von KI-Agenten variiert je nach Art des verwalteten Kontexts. Jede Ebene – primärer, direkter und externer Kontext – erfordert unterschiedliche Datenstrukturen, Abrufmechanismen und Aktualisierungshäufigkeiten. Die größte Herausforderung besteht darin, effizienten Zugriff, langfristige Persistenz und dynamische Aktualisierungen sicherzustellen, ohne die Verarbeitungspipeline des Agenten zu überlasten.
Anstatt Kontext als monolithische Einheit zu behandeln, profitieren KI-Agenten von hybriden Speicherarchitekturen, die strukturierte und unstrukturierte Datenmodelle kombinieren. Dies ermöglicht schnelle Suchvorgänge, semantische Abfragen und skalierbare Persistenz und stellt sicher, dass relevanter Kontext bei Bedarf verfügbar ist, während redundante Datenverarbeitung minimiert wird.
Der primäre Kontext besteht aus den Kernzielen und aktiven Aufgaben des Agenten – der Grundlage für die Entscheidungsfindung. Diese Informationen müssen dauerhaft, stark strukturiert und leicht abfragbar sein, da sie alle Aktionen des Agenten steuern.
Möglicher Speicherbedarf:
Beispiel für eine Agentimplementierung
Ein Planungsassistent, der eine Aufgabenwarteschlange verwaltet, muss Folgendes speichern:
Ein verteilter, hochverfügbarer Datenspeicher stellt sicher, dass Aufgaben zuverlässig verfolgt werden, selbst wenn der Agent neue Ereignisse und Kontextaktualisierungen verarbeitet.
Der direkte Kontext umfasst den aktuellen Status relevanter Systeme – Kalender, Messaging-Plattformen, APIs, Datenbanken und andere Echtzeit-Datenquellen. Im Gegensatz zum primären Kontext ist der direkte Kontext dynamisch und erfordert häufig eine Kombination aus strukturierten und Echtzeit-Speicherlösungen.
Möglicher Speicherbedarf:
Beispiel einer Agentenimplementierung:
Ein KI-Agent für den Kundensupport, der Live-Benutzerinteraktionen verfolgt, muss Folgendes speichern:
Durch die Strukturierung der direkten Kontextspeicherung mit einer Kombination aus zeitkritischen und langfristigen Datenspeichern können KI-Agenten unter Berücksichtigung ihrer Umgebung und ohne übermäßige Latenz agieren.
Externer Kontext umfasst allgemeines Wissen und unerwartete Aktualisierungen aus Quellen außerhalb der unmittelbaren Kontrolle des Agenten. Dies kann von Suchanfragen auf Abruf bis hin zu dynamisch aufgenommenen externen Daten reichen, die einen flexiblen Ansatz für Speicherung und Abruf erfordern. Im Gegensatz zu primären und direkten Kontexten, die eng mit den laufenden Aufgaben des Agenten und den verbundenen Systemen verknüpft sind, ist externer Kontext häufig unstrukturiert, umfangreich und von sehr unterschiedlicher Relevanz.
Mögliche Überlegungen zur Speicherung:
Beispiel einer Agentenimplementierung:
Ein persönlicher Assistent, der einen Bericht über die neuesten wissenschaftlichen Erkenntnisse der Klimaforschung zusammenstellt, muss:
Durch die Strukturierung der externen Kontextspeicherung rund um schnelles Abrufen und semantische Organisation können sich KI-Agenten kontinuierlich an neue Informationen anpassen und gleichzeitig sicherstellen, dass die abgerufenen Daten relevant, glaubwürdig und umsetzbar bleiben.
Die Entwicklung kontextsensitiver KI-Agenten erfordert ein ausgewogenes Verhältnis zwischen effizientem Zugriff auf wichtige Informationen und der Vermeidung von Speicher- oder Verarbeitungsüberlastungen. KI-Agenten müssen dynamisch entscheiden, wann Kontext gespeichert, abgerufen und verarbeitet werden soll, um die Entscheidungsfindung zu optimieren.
Eine hybride Speicherarchitektur, die Transaktions-, Vektor-, Zeitreihen- und ereignisgesteuerte Modelle integriert, ermöglicht es KI-Agenten, Kontextpersistenz, Abrufeffizienz und adaptive Intelligenz aufrechtzuerhalten, die alle für Autonomie im großen Maßstab entscheidend sind. Um dieses Gleichgewicht zu erreichen, sind strukturierte Strategien in drei Schlüsseldimensionen erforderlich:
Latenz versus Persistenz – Kontext, auf den häufig zugegriffen wird (z. B. aktive Aufgabenzustände), sollte in einem Speicher mit geringer Latenz gespeichert werden, während weniger häufig benötigtes, aber wesentliches Wissen (z. B. historische Interaktionen) bei Bedarf aus einem Langzeitspeicher abgerufen werden sollte.
Strukturierte versus unstrukturierte Daten – Aufgaben, Ziele und Systemzustände profitieren von einer strukturierten Speicherung (z. B. Schlüssel-Wert- oder Dokumentdatenbanken), während für die umfassendere Wissensabfrage unstrukturierte Einbettungen und Graphbeziehungen erforderlich sind, um den Kontext effektiv zu erfassen.
Echtzeit versus historische Kenntnis – Einige Kontexte erfordern eine kontinuierliche Überwachung (z. B. Live-API-Antworten), während andere (z. B. frühere Entscheidungen oder Berichte) nur abgerufen werden sollten, wenn sie für die aktuelle Aufgabe des Agenten relevant sind.
Angesichts dieser unterschiedlichen Kontexttypen benötigen KI-Agenten einen strukturierten Ansatz zum Speichern und Zugreifen auf Informationen. Sich ausschließlich auf LLM-Kontextfenster zu verlassen, ist ineffizient, da es die Fähigkeit des Agenten einschränkt, langfristige Interaktionen und sich entwickelnde Situationen zu verfolgen. Stattdessen sollte der Kontext dauerhaft gespeichert, dynamisch abgerufen und basierend auf Relevanz und Dringlichkeit priorisiert werden.
In der Praxis sind für skalierbare KI-Agentenarchitekturen mehrstufige Speichermodelle erforderlich, die Kurzzeit-Caches, persistente Datenbanken und externe Abrufmechanismen kombinieren. Durch die Nutzung eines hybriden Speicheransatzes können KI-Agenten:
Durch die Integration dieser Speicherstrategien können KI-Agenten autonom funktionieren, ihr Kontextbewusstsein über lange Zeiträume bewahren und dynamisch auf neue Informationen reagieren – und so den Grundstein für wirklich intelligente und skalierbare Agentensysteme legen.
Die Implementierung einer hybriden Speicherarchitektur für KI-Agenten erfordert die Auswahl der richtigen Datenbanken und Speichertools, um unterschiedliche Kontexttypen effizient zu verarbeiten. Die beste Wahl hängt von Faktoren wie Latenzanforderungen, Skalierbarkeit, Datenstrukturkompatibilität und Abrufmechanismen ab.
Ein gut konzipiertes KI-Agent-Speichersystem umfasst normalerweise:
Sehen wir uns jedes dieser Elemente genauer an.
KI-Agenten benötigen skalierbare, hochverfügbare Transaktionsdatenbanken, um Aufgaben, Ziele und strukturierte Metadaten zuverlässig zu speichern. Diese Datenbanken stellen sicher, dass der primäre Kontext immer verfügbar und effizient abfragbar ist.
Für die Echtzeit-Systemüberwachung benötigen KI-Agenten Datenbanken, die für Protokollierung, Ereignisverfolgung und Statuspersistenz optimiert sind.
KI-Agenten, die mit unstrukturiertem Wissen arbeiten, benötigen effiziente Möglichkeiten zum Speichern, Suchen und Abrufen von Einbettungen für Aufgaben wie semantische Suche, Ähnlichkeitsabgleich und Retrieval-Augmented Generation (RAG). Ein gut optimiertes Vektorsuchsystem ermöglicht es Agenten, relevante vergangene Interaktionen, Dokumente oder Fakten abzurufen, ohne den Speicher oder Kontextfenster zu überlasten.
KI-Agenten erfordern einen Zugriff mit geringer Latenz auf häufig referenzierten Kontext, weshalb das Caching eine wesentliche Komponente hybrider Speicherarchitekturen ist.
Durch die Integration dieser unterschiedlichen Speicherlösungen können KI-Agenten Kurzzeitgedächtnis, persistentes Wissen und Echtzeit-Updates effizient verwalten und so eine nahtlose Entscheidungsfindung im großen Maßstab gewährleisten. Die Kombination aus Transaktionsdatenbanken, Zeitreihenspeicher, Vektorsuche und Caching ermöglicht es Agenten, Geschwindigkeit, Skalierbarkeit und Kontextbewusstsein auszubalancieren und sich dynamisch an neue Eingaben anzupassen.
Da sich KI-gesteuerte Anwendungen ständig weiterentwickeln, ist die Auswahl der richtigen hybriden Speicherarchitektur von entscheidender Bedeutung für die Ermöglichung autonomer, reaktionsschneller und intelligenter Agentensysteme, die in komplexen und sich ständig ändernden Umgebungen zuverlässig arbeiten können.
Da KI-Systeme immer komplexer werden, werden hybride Datenbanken für die Verwaltung des Kurz- und Langzeitgedächtnisses, strukturierter und unstrukturierter Daten sowie Echtzeit- und historischer Erkenntnisse von entscheidender Bedeutung sein. Fortschritte bei der Retrieval-Augmented Generation (RAG), der semantischen Indizierung und der verteilten Inferenz machen KI-Agenten effizienter, intelligenter und anpassungsfähiger. Zukünftige KI-Agenten werden auf schnellen, skalierbaren und kontextsensitiven Speicher angewiesen sein, um Kontinuität zu gewährleisten und im Laufe der Zeit fundierte Entscheidungen zu treffen.
KI-Agenten benötigen Speicherlösungen, die unterschiedliche Kontexttypen effizient verwalten und gleichzeitig Geschwindigkeit, Skalierbarkeit und Ausfallsicherheit gewährleisten. Hybriddatenbanken bieten das Beste aus beiden Welten – strukturierte Daten mit hoher Geschwindigkeit und tiefem Kontextabruf – und bilden damit die Grundlage für intelligente KI-Systeme. Sie unterstützen vektorbasierte Suche für die langfristige Wissensspeicherung, transaktionale Suchvorgänge mit geringer Latenz, ereignisgesteuerte Aktualisierungen in Echtzeit und verteilte Skalierbarkeit für Fehlertoleranz.
Um intelligente KI-Agenten zu unterstützen, sollten Entwickler Speicherarchitekturen entwerfen, die mehrere Datenmodelle für ein nahtloses Kontextmanagement kombinieren:
Vektorsuche und spaltenbasierte Daten – Speichern Sie den semantischen Kontext neben strukturierten Metadaten für einen schnellen Abruf
Ereignisgesteuerte Workflows – Streamen Sie Echtzeit-Updates, um KI-Agenten über sich ändernde Daten auf dem Laufenden zu halten
Globale Reichweite und Belastbarkeit – Bereitstellung über verteilte Netzwerke für hohe Verfügbarkeit und Fehlertoleranz
Durch die Integration von Transaktionsverarbeitung, Vektorsuche und Echtzeit-Updates
Geschrieben von Brian Godsey, DataStax