Große Sprachmodelle sind heute äußerst leistungsfähig; Sie können dabei helfen, Antworten auf einige unserer schwierigsten Fragen zu finden. Sie können uns aber auch in die Irre führen: Sie neigen zu Halluzinationen, was bedeutet, dass sie Antworten geben, die richtig erscheinen, es aber nicht sind.
Hier sehen wir uns drei Methoden an, um die Halluzination von LLMs zu verhindern: Retrieval-Augmented Generation (RAG), Reasoning und iteratives Abfragen.
Mit
Sobald die relevanten Dokumente abgerufen wurden, wird die Abfrage zusammen mit diesen Dokumenten vom LLM verwendet, um eine Antwort für den Benutzer zusammenzufassen. Auf diese Weise muss sich das Modell nicht ausschließlich auf sein internes Wissen verlassen, sondern kann zum richtigen Zeitpunkt auf alle Daten zugreifen, die Sie ihm zur Verfügung stellen. In gewisser Weise stellt es dem LLM ein „Langzeitgedächtnis“ zur Verfügung, das es allein nicht besitzt. Das Modell kann genauere und kontextbezogenere Antworten liefern, indem es proprietäre Daten einbezieht, die in der Vektordatenbank gespeichert sind.
Ein alternativer RAG-Ansatz beinhaltet die Überprüfung von Fakten. Der LLM wird zur Eingabe einer Antwort aufgefordert, die dann einer Faktenprüfung unterzogen und mit den Daten in der Vektordatenbank abgeglichen wird. Aus der Vektordatenbank wird eine Antwort auf die Anfrage erstellt, und das LLM wiederum verwendet diese Antwort als Eingabeaufforderung, um zu erkennen, ob sie mit einer Tatsache zusammenhängt.
LLMs sind in vielen Dingen sehr gut. Sie können das nächste Wort in einem Satz vorhersagen, dank Fortschritten bei „Transformern“, die die Art und Weise verändern, wie Maschinen menschliche Sprache verstehen, indem sie verschiedenen Teilen der Eingabedaten unterschiedlich viel Aufmerksamkeit schenken. LLMs sind auch gut darin, viele Informationen in einer sehr prägnanten Antwort zusammenzufassen und aus einer großen Textmenge etwas zu finden und zu extrahieren. Überraschenderweise kann LLMS auch planen – es kann buchstäblich Daten sammeln und eine Reise für Sie planen.
Und was vielleicht noch überraschender ist: LLM-Studenten können logisches Denken nutzen, um auf fast menschenähnliche Weise eine Antwort zu finden. Da Menschen vernünftig denken können, benötigen sie keine Unmengen an Daten, um eine Vorhersage oder Entscheidung zu treffen. Das logische Denken hilft LLMs auch dabei, Halluzinationen zu vermeiden. Ein Beispiel hierfür ist „
Diese Methode hilft Modellen, mehrstufige Probleme in Zwischenschritte zu unterteilen. Mit Chain-of-Thought-Prompting können LLMs komplexe Argumentationsprobleme lösen, die mit Standard-Promptmethoden nicht möglich sind (einen ausführlichen Einblick finden Sie im Blogbeitrag).
Wenn Sie einem LLM eine komplizierte mathematische Aufgabe stellen, kann es sein, dass er es falsch macht. Wenn Sie dem LLM jedoch das Problem und die Methode zu dessen Lösung mitteilen, kann es eine genaue Antwort liefern – und den Grund für die Antwort mitteilen. Eine Vektordatenbank ist ein wichtiger Bestandteil dieser Methode, da sie Beispiele für ähnliche Fragen bereitstellt und die Eingabeaufforderung mit dem Beispiel füllt.
Noch besser: Sobald Sie die Frage und Antwort haben, können Sie sie wieder in der Vektordatenbank speichern, um die Genauigkeit und Nützlichkeit Ihrer generativen KI-Anwendungen weiter zu verbessern.
Es gibt eine Vielzahl weiterer Fortschritte beim Denken, die Sie kennenlernen können, darunter
Die dritte Methode zur Reduzierung von LLM-Halluzinationen ist die interaktive Abfrage. In diesem Fall vermittelt ein KI-Agent Anrufe, die zwischen einem LLM und einer Vektordatenbank hin und her wechseln. Dies kann mehrmals iterativ geschehen, um zur besten Antwort zu gelangen. Ein Beispiel für diese zukunftsweisende aktive Retrieval-Generation, auch bekannt als FLARE.
Sie beantworten eine Frage und fragen Ihre Wissensdatenbank nach weiteren, ähnlichen Fragen ab. Sie würden eine Reihe ähnlicher Fragen erhalten. Anschließend fragen Sie die Vektordatenbank mit allen Fragen ab, fassen die Antwort zusammen und prüfen, ob die Antwort gut und sinnvoll aussieht. Wenn dies nicht der Fall ist, wiederholen Sie die Schritte, bis dies der Fall ist.
Zu den weiteren erweiterten interaktiven Abfragemethoden gehören:
Es gibt viele Tools, die Sie bei der Agenten-Orchestrierung unterstützen können.
Ein weiteres solches Tool ist
Das Unternehmen greift auf eine Vielzahl strukturierter und unstrukturierter Daten zurück, um KI-generierte Antworten auf Fragen wie „Wie viele Bewohner beziehen derzeit Medicare?“ zu liefern. Tisson Mathew, CEO von SkyPoint, hat es mir kürzlich erzählt. Dies hilft Pflegedienstleistern, schnell fundierte Entscheidungen auf der Grundlage genauer Daten zu treffen, sagte er.
An diesen Punkt zu gelangen, sei jedoch ein Prozess, sagte Mathew. Sein Team begann damit, ein Standard-LLM zu nehmen und es mit SkyPoint-Daten zu verfeinern. „Es kam zu katastrophalen Ergebnissen – sogar zu zufälligen Worten“, sagte er. Das Verstehen und Erstellen von Eingabeaufforderungen war etwas, was SkyPoint bewältigen konnte, aber es brauchte einen KI-Technologie-Stack, um genaue Antworten in großem Maßstab zu generieren.
SkyPoint baute schließlich ein System auf, das strukturierte Daten von Betreibern und Anbietern aufnahm, darunter beispielsweise elektronische Gesundheitsakten und Gehaltsabrechnungsdaten. Dies wird in einer spaltenorientierten Datenbank gespeichert; Zur Abfrage wird RAG verwendet. Unstrukturierte Daten wie Richtlinien und Verfahren sowie staatliche Vorschriften werden in einer Vektordatenbank gespeichert:
Tisson stellte als Beispiel eine Frage: Was passiert, wenn ein Bewohner missbräuchlich wird? Astra DB bietet eine Antwort, die auf der Grundlage staatlicher Vorschriften und des Benutzerkontexts sowie einer Vielzahl unterschiedlicher Dokumente und Dokumente zusammengestellt wird
„Das sind konkrete Antworten, die richtig sein müssen“, sagte Tisson. „Das sind Informationen, auf die sich eine Organisation verlässt, um fundierte Entscheidungen für ihre Gemeinde und ihr Unternehmen zu treffen.“
SkyPoint AI verdeutlicht, wie wichtig es ist, das Risiko von KI-Halluzinationen zu mindern; Ohne die verfügbaren Methoden und Werkzeuge, um genaue Antworten zu gewährleisten, könnten die Folgen möglicherweise verheerend sein.
Mit RAG, Reasoning und iterativen Abfrageansätzen wie FLARE wird generative KI – insbesondere wenn sie auf proprietären Daten basiert – zu einem immer leistungsfähigeren Werkzeug, um Unternehmen dabei zu helfen, ihre Kunden effizient und effektiv zu bedienen.
Von Alan Ho, DataStax
Erfahren Sie mehr darüber, wie DataStax Ihnen hilft
Auch hier veröffentlicht.