Unsere Portfoliofirma Zive hat einen neuen, verbesserten Ansatz für Retrieval-Augmented Generation entwickelt, der in der Praxis deutlich verbesserte Ergebnisse zeigt.
In den letzten Jahren hat sich das Natural Language Processing (NLP) durch Fortschritte in generativen KI-Modellen stark weiterentwickelt. Moderne Textgenerierungsmodelle können jedoch nicht auf Echtzeitinformationen zugreifen, die außerhalb ihrer Trainingsdaten liegen. Retrieval-Augmented Generation (RAG) wurde entwickelt, um dieses Problem zu lösen. Der Ansatz hat jedoch Schwächen in puncto Kontextgenauigkeit und Personalisierung. Zive hat einen neuen Ansatz entwickelt. Contextual Retrieval-Augmented Generation (CRAG) zielt darauf ab, diese Mängel zu überwinden.
RAG nutzt externe Wissensquellen, um den Textgenerierungsprozess durch Abruf und Integration relevanter Informationen zu erweitern. Dennoch ist die Präzision und Aktualität der Informationen oft begrenzt. CRAG verbessert dies, indem es während der Indexierungsphase nicht nur Textblöcke, sondern auch kontextuelle Metadaten speichert, die als dichte Vektoren kodiert sind.
Im Abrufprozess berücksichtigt CRAG neben den Textinhalten auch Benutzerprofile, die in denselben Vektorraum kodiert werden. Dies ermöglicht es CRAG, Inhalte zu liefern, die nicht nur inhaltlich passend, sondern auch hochgradig relevant für das spezifische Benutzerprofil sind. Durch die Verknüpfung von Inhalts- und Benutzerprofilen kann CRAG präzise und personalisierte Inhalte liefern, was die Entscheidungsfindung und Produktivität in Unternehmen verbessert.
Weitergehende Informationen finden Sie auf dem Blog von Zive.