FAQ

 

FAQ zum Thema RAG-Pipeline

 

Was bedeutet RAG?
RAG steht für „Retrieval-Augmented Generation“. Dahinter steht das Konzept, das Wissen aus Spezialanwendungen mit generischen Large Language KI-Modellen zu verbinden (die KI-Modelle zu augmentieren).


Was ist eine RAG-Pipeline?
Die Bearbeitung einer Nutzeranfrage von der Eingabe bis zum gewünschten Output erfolgt in mehreren klar abgrenzbaren Stufen, die einander zuarbeiten. Gemeinsam bilden sie die RAG-Pipeline.


Wo liegt der Unterschied zu traditionellen KI-Systemen?
Traditionelle KI-Systeme wissen nur, worauf sie trainiert wurden. Ihr enormes Weltwissen stammt zumeist aus vielfältigen, öffentlich zugänglichen Quellen im Internet. Von Spezialwissen, wie es in geschlossenen Anwendungen vorliegt, verstehen sie nichts.


Was sind die Vorteile von RAG-Systemen?
RAG-Systeme nutzen das Sprachverständnis von Large Language Modellen, geben diesen aber zusätzliches Wissen an die Hand, damit sie ihre Stärken beispielsweise als fachspezifische Chatbots, Übersetzungssysteme oder spezialisierte Programmassistenten ausspielen können.


Warum spielen Large Language Modelle beim Companion eine wichtige Rolle?
Nur moderne Large Language Modelle (LLM) verfügen über die Fähigkeit, komplexe Sprachaussagen aufzuschlüsseln und Sinnzusammenhänge zu erkennen. Sie bilden sozusagen die Speerspitze der modernen KI-Technologie.


Wie schützt der Companion die Kundendaten im Hinblick auf den Einsatz externer LLMs?
Die genutzten LLMs werden durch den Companion zwar mit Spezialwissen aus dem Finanzbereich versorgt – nicht jedoch mit konkreten Details zu spezifischen Kundendaten oder anderen Interna. Diese verbleiben stets innerhalb der RAG-Pipeline von First Cloud und dringen nicht nach außen.