Wenn es um die einzigartigen Vorteile der Erstellung von KI-Agenten geht, werden hauptsächlich zwei Dinge diskutiert: die Fähigkeit, Werkzeuge aufzurufen, um Aufgaben zu erledigen, und die Fähigkeit, sich im Laufe der Zeit zu verbessern. Speicher bildet die Grundlage für die Entwicklung selbstverbessernder Agenten, die bessere Erlebnisse für unsere Nutzer schaffen können.
In dieser Lektion werden wir uns ansehen, was Speicher für KI-Agenten bedeutet und wie wir ihn verwalten und für unsere Anwendungen nutzen können.
Diese Lektion behandelt:
• Verständnis des Speichers von KI-Agenten: Was Speicher ist und warum er für Agenten unverzichtbar ist.
• Implementierung und Speicherung von Speicher: Praktische Methoden, um Speicherfunktionen in Ihre KI-Agenten einzubauen, mit Fokus auf Kurzzeit- und Langzeitspeicher.
• Selbstverbesserung von KI-Agenten: Wie Speicher es Agenten ermöglicht, aus vergangenen Interaktionen zu lernen und sich im Laufe der Zeit zu verbessern.
Nach Abschluss dieser Lektion werden Sie wissen, wie man:
• Zwischen verschiedenen Arten von KI-Agenten-Speicher unterscheidet, einschließlich Arbeits-, Kurzzeit- und Langzeitspeicher sowie spezialisierter Formen wie Persona- und episodischer Speicher.
• Kurzzeit- und Langzeitspeicher für KI-Agenten implementiert und verwaltet mit dem Semantic Kernel Framework, unter Nutzung von Tools wie Mem0 und Whiteboard-Speicher sowie der Integration mit Azure AI Search.
• Die Prinzipien hinter selbstverbessernden KI-Agenten versteht und wie robuste Speicherverwaltungssysteme zu kontinuierlichem Lernen und Anpassung beitragen.
Im Kern bezieht sich Speicher für KI-Agenten auf Mechanismen, die es ihnen ermöglichen, Informationen zu behalten und abzurufen. Diese Informationen können spezifische Details über ein Gespräch, Nutzerpräferenzen, vergangene Aktionen oder sogar erlernte Muster umfassen.
Ohne Speicher sind KI-Anwendungen oft zustandslos, was bedeutet, dass jede Interaktion von vorne beginnt. Dies führt zu einer repetitiven und frustrierenden Nutzererfahrung, bei der der Agent den vorherigen Kontext oder die Präferenzen “vergisst”.
Die Intelligenz eines Agenten hängt stark von seiner Fähigkeit ab, vergangene Informationen abzurufen und zu nutzen. Speicher ermöglicht es Agenten, folgende Eigenschaften zu entwickeln:
• Reflexion: Lernen aus vergangenen Aktionen und Ergebnissen.
• Interaktivität: Kontext über ein laufendes Gespräch hinweg aufrechterhalten.
• Proaktivität und Reaktivität: Bedürfnisse antizipieren oder angemessen auf Basis historischer Daten reagieren.
• Autonomie: Unabhängiger arbeiten, indem gespeichertes Wissen genutzt wird.
Das Ziel der Implementierung von Speicher ist es, Agenten zuverlässiger und leistungsfähiger zu machen.
Stellen Sie sich dies wie ein Stück Notizpapier vor, das ein Agent während einer einzelnen, laufenden Aufgabe oder eines Denkprozesses verwendet. Es hält unmittelbare Informationen, die für den nächsten Schritt benötigt werden.
Für KI-Agenten erfasst das Arbeitsgedächtnis oft die relevantesten Informationen aus einem Gespräch, auch wenn die vollständige Chat-Historie lang oder gekürzt ist. Es konzentriert sich darauf, Schlüsselaspekte wie Anforderungen, Vorschläge, Entscheidungen und Aktionen zu extrahieren.
Beispiel für Arbeitsgedächtnis
In einem Reisebuchungs-Agenten könnte das Arbeitsgedächtnis die aktuelle Anfrage des Nutzers erfassen, wie “Ich möchte eine Reise nach Paris buchen”. Diese spezifische Anforderung wird im unmittelbaren Kontext des Agenten gehalten, um die aktuelle Interaktion zu steuern.
Diese Art von Speicher behält Informationen für die Dauer eines einzelnen Gesprächs oder einer Sitzung. Es ist der Kontext des aktuellen Chats, der es dem Agenten ermöglicht, auf vorherige Gesprächsbeiträge zurückzugreifen.
Beispiel für Kurzzeitgedächtnis
Wenn ein Nutzer fragt: “Wie viel würde ein Flug nach Paris kosten?” und anschließend sagt: “Was ist mit der Unterkunft dort?”, stellt das Kurzzeitgedächtnis sicher, dass der Agent weiß, dass “dort” sich auf “Paris” bezieht, innerhalb desselben Gesprächs.
Dies sind Informationen, die über mehrere Gespräche oder Sitzungen hinweg bestehen bleiben. Es ermöglicht Agenten, Nutzerpräferenzen, historische Interaktionen oder allgemeines Wissen über längere Zeiträume hinweg zu speichern. Dies ist wichtig für die Personalisierung.
Beispiel für Langzeitgedächtnis
Ein Langzeitgedächtnis könnte speichern, dass “Ben gerne Ski fährt und Outdoor-Aktivitäten mag, Kaffee mit Bergblick bevorzugt und aufgrund einer früheren Verletzung fortgeschrittene Skipisten vermeiden möchte”. Diese Informationen, die aus früheren Interaktionen gelernt wurden, beeinflussen Empfehlungen in zukünftigen Reiseplanungs-Sitzungen und machen sie hochgradig personalisiert.
Dieser spezialisierte Speicher hilft einem Agenten, eine konsistente “Persönlichkeit” oder “Rolle” zu entwickeln. Er ermöglicht es dem Agenten, Details über sich selbst oder seine beabsichtigte Rolle zu speichern, wodurch Interaktionen flüssiger und fokussierter werden.
Beispiel für Persona-Speicher
Wenn der Reiseagent als “Experte für Ski-Planung” konzipiert ist, könnte der Persona-Speicher diese Rolle verstärken und seine Antworten so beeinflussen, dass sie dem Ton und Wissen eines Experten entsprechen.
Dieser Speicher speichert die Abfolge von Schritten, die ein Agent während einer komplexen Aufgabe unternimmt, einschließlich Erfolgen und Misserfolgen. Es ist wie das Erinnern an spezifische “Episoden” oder vergangene Erfahrungen, um daraus zu lernen.
Beispiel für episodischen Speicher
Wenn der Agent versucht hat, einen bestimmten Flug zu buchen, dies jedoch aufgrund von Nichtverfügbarkeit scheiterte, könnte der episodische Speicher diesen Misserfolg aufzeichnen, sodass der Agent alternative Flüge ausprobieren oder den Nutzer bei einem erneuten Versuch besser über das Problem informieren kann.
Hierbei geht es darum, spezifische Entitäten (wie Personen, Orte oder Dinge) und Ereignisse aus Gesprächen zu extrahieren und zu speichern. Dies ermöglicht es dem Agenten, ein strukturiertes Verständnis der besprochenen Schlüsselelemente aufzubauen.
Beispiel für Entitätenspeicher
Aus einem Gespräch über eine vergangene Reise könnte der Agent “Paris”, “Eiffelturm” und “Abendessen im Restaurant Le Chat Noir” als Entitäten extrahieren. In einer zukünftigen Interaktion könnte der Agent sich an “Le Chat Noir” erinnern und anbieten, dort eine neue Reservierung vorzunehmen.
Während RAG eine umfassendere Technik ist, wird “strukturierter RAG” als eine leistungsstarke Speichertechnologie hervorgehoben. Es extrahiert dichte, strukturierte Informationen aus verschiedenen Quellen (Gesprächen, E-Mails, Bildern) und nutzt sie, um Präzision, Abruf und Geschwindigkeit bei Antworten zu verbessern. Im Gegensatz zu klassischem RAG, das ausschließlich auf semantischer Ähnlichkeit basiert, arbeitet strukturierter RAG mit der inhärenten Struktur von Informationen.
Beispiel für strukturierten RAG
Anstatt nur Schlüsselwörter abzugleichen, könnte strukturierter RAG Flugdaten (Ziel, Datum, Uhrzeit, Fluggesellschaft) aus einer E-Mail analysieren und sie strukturiert speichern. Dies ermöglicht präzise Abfragen wie “Welchen Flug habe ich am Dienstag nach Paris gebucht?”
Die Implementierung von Speicher für KI-Agenten umfasst einen systematischen Prozess der Speicherverwaltung, der das Generieren, Speichern, Abrufen, Integrieren, Aktualisieren und sogar das “Vergessen” (oder Löschen) von Informationen einschließt. Das Abrufen ist dabei ein besonders wichtiger Aspekt.
Eine Möglichkeit, den Speicher eines Agenten zu speichern und zu verwalten, ist die Nutzung spezialisierter Tools wie Mem0. Mem0 fungiert als persistente Speicherschicht, die es Agenten ermöglicht, relevante Interaktionen abzurufen, Nutzerpräferenzen und faktischen Kontext zu speichern und aus Erfolgen und Misserfolgen im Laufe der Zeit zu lernen. Die Idee dahinter ist, zustandslose Agenten in zustandsbehaftete zu verwandeln.
Es funktioniert durch eine zweiphasige Speicherpipeline: Extraktion und Aktualisierung. Zunächst werden Nachrichten, die einem Agenten-Thread hinzugefügt werden, an den Mem0-Dienst gesendet, der ein Large Language Model (LLM) verwendet, um die Gesprächshistorie zusammenzufassen und neue Erinnerungen zu extrahieren. Anschließend bestimmt eine LLM-gesteuerte Aktualisierungsphase, ob diese Erinnerungen hinzugefügt, modifiziert oder gelöscht werden sollen, und speichert sie in einem hybriden Datenspeicher, der Vektor-, Graph- und Schlüssel-Wert-Datenbanken umfassen kann. Dieses System unterstützt auch verschiedene Speicherarten und kann Graph-Speicher für die Verwaltung von Beziehungen zwischen Entitäten integrieren.
Neben spezialisierten Speicher-Tools wie Mem0 können Sie robuste Suchdienste wie Azure AI Search als Backend für die Speicherung und das Abrufen von Erinnerungen nutzen, insbesondere für strukturierten RAG.
Dies ermöglicht es Ihnen, die Antworten Ihres Agenten mit Ihren eigenen Daten zu untermauern und so relevantere und genauere Antworten zu gewährleisten. Azure AI Search kann verwendet werden, um nutzerspezifische Reiseerinnerungen, Produktkataloge oder andere domänenspezifische Kenntnisse zu speichern.
Azure AI Search unterstützt Funktionen wie strukturierter RAG, das sich durch die Extraktion und das Abrufen dichter, strukturierter Informationen aus großen Datensätzen wie Gesprächshistorien, E-Mails oder sogar Bildern auszeichnet. Dies bietet “übermenschliche Präzision und Abruf” im Vergleich zu traditionellen Ansätzen wie Textchunking und Einbettung.
Ein häufiges Muster für selbstverbessernde Agenten besteht darin, einen “Wissensagenten” einzuführen. Dieser separate Agent beobachtet das Hauptgespräch zwischen dem Nutzer und dem primären Agenten. Seine Aufgabe ist es:
Wertvolle Informationen identifizieren: Feststellen, ob ein Teil des Gesprächs als allgemeines Wissen oder spezifische Nutzerpräferenz gespeichert werden sollte.
Extrahieren und zusammenfassen: Die wesentlichen Erkenntnisse oder Präferenzen aus dem Gespräch destillieren.
In einer Wissensdatenbank speichern: Diese extrahierten Informationen dauerhaft speichern, oft in einer Vektordatenbank, damit sie später abgerufen werden können.
Zukünftige Abfragen erweitern: Wenn der Nutzer eine neue Anfrage stellt, ruft der Wissensagent relevante gespeicherte Informationen ab und fügt sie der Anfrage des Nutzers hinzu, um dem primären Agenten entscheidenden Kontext zu liefern (ähnlich wie RAG).
• Latenzmanagement: Um die Nutzerinteraktionen nicht zu verlangsamen, kann zunächst ein günstigeres, schnelleres Modell verwendet werden, um schnell zu prüfen, ob Informationen wertvoll sind, um gespeichert oder abgerufen zu werden. Der komplexere Extraktions-/Abrufprozess wird nur bei Bedarf ausgelöst.
• Wissensdatenbank-Wartung: Für eine wachsende Wissensdatenbank können weniger häufig genutzte Informationen in “Cold Storage” verschoben werden, um Kosten zu verwalten.
Treten Sie dem Azure AI Foundry Discord bei, um sich mit anderen Lernenden auszutauschen, Sprechstunden zu besuchen und Ihre Fragen zu KI-Agenten beantwortet zu bekommen.
Haftungsausschluss:
Dieses Dokument wurde mit dem KI-Übersetzungsdienst Co-op Translator übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.