
Liebe Leser,
Faulheit ist die Triebfeder allen Fortschritts, sagt man. Der Wunsch, mit weniger Aufwand mehr zu erreichen, zieht sich wie ein roter Faden durch die Geschichte der Menschheit. Wir lassen Maschinen für uns arbeiten, Computer für uns rechnen und immer häufiger auch für uns mitdenken. KI ist heute längst Teil unserer Realität.
Als ich im Herbst 2022 zum ersten Mal mit ChatGPT experimentierte, war ich elektrisiert von der Möglichkeit, komplexe Antworten auf einfache, umgangssprachlich formulierte Fragen zu erhalten. Kein aufwendiges Suchen mehr, kein endloses Herumklicken in verteilten Wissensquellen. Etwas Vergleichbares sollten unsere Softwareprodukte auch beherrschen. Keine drei Jahre später sind wir auf dem besten Wege, dies zu erreichen.
Mit dem von uns entwickelten Companion for First wird unsere bewährte Branchenlösung First Cloud ab Anfang 2026 in der Lage sein, Fragen zu den Themen zu beantworten, um die es bei der Kapitalanlageverwaltung geht: „Welche Aktien notieren derzeit unter Einstandsniveau?“, „Gib mir eine Liste mit den aktuellen Bewertungen für jede Gesellschaft“, „Wo finde ich diese und jene Funktion in der Benutzeroberfläche?“.
Es sind die Bedürfnisse unserer Kunden, die diese Entwicklung vorantreiben. Der Companion wird die Rolle eines intelligenten, dialogfähigen Assistenten und Sparringspartners übernehmen und Nutzer umfassend dabei unterstützen, Kapitalanlagen in First Cloud fundiert,regulatorikkonform und zukunftssicher zu verwalten. Als Agentic AI kann der Companion Anwender bei wiederkehrenden Aufgaben ebenso entlasten wie bei strategischen Bewertungen.
Zur Vision des Companions gehören gezielte Analysen, verständlich aufbereitete Visualisierungen, automatisierte Berichte, aktuelle Fachinformationen aus Finanznachrichtenquellen, kontextbezogene Hinweise und systemgestützte Erklärungen zu komplexen Funktionen in First Cloud. Damit beginnt ein neues Arbeitsverständnis: Die fachliche Kompetenz der Anwender bleibt im Zentrum – unterstützt durch eine KI, die strukturiert Aufgaben übernimmt. So entstehen kontextbezogene, qualitätsgesicherte Ergebnisse, die Entscheidungsprozesse beschleunigen, Risiken minimieren und neue Räume für strategisches Denken eröffnen.
Dieser Ansatz fügt sich ein in die übergreifende Strategie der ACTICO-Gruppe, Nutzer durch intelligente Companions bei ihren Aufgaben zu unterstützen – ohne sie zu bevormunden, ohne sie zu ersetzen. Worum es letztendlich geht, ist Befähigung: mehr erreichen mit weniger Aufwand, der rote Faden, sozusagen.
Unsere Kunden sind eingeladen, diesen Weg mit uns zu beschreiten. Das vorliegende Whitepaper bildet den Auftakt zu einer Reihe, in der wir Grundlagenwissen über Künstliche Intelligenz sowie die konkrete Arbeitsweise unseres Companions teilen möchten. Wir wissen: Die Anforderungen im stark regulierten Finanzbereich sind ganz andere als bei einem ChatGPT. Doch als technologiegetriebenes Unternehmen mit dem Anspruch auf die Marktführerschaft in unserem Segment sind wir überzeugt, die vor uns liegenden Aufgaben zu bewältigen.
Herzlichst Ihr Manfred Beckers
Geschäftsführer Fact Informationssysteme & Consulting GmbH
Eine kurze Geschichte der Künstlichen Intelligenz
Wenn man Künstliche Intelligenz (KI) grundlegend verstehen und ihre Möglichkeiten und Grenzen einschätzen möchte, ist es hilfreich, sich einige der zentralen Entwicklungsschritte näher anzusehen.

Der lange Weg von den Anfängen bis zu massentauglichen Produkten wie ChatGPT, Midjourney (Bildgenerator) oder spezialisierten Anwendungen wie dem Companion for First ist gesäumt von:
- Mathematischen Errungenschaften – Gottfried Wilhelm Leibniz
- Biologischen Erkenntnissen – Anlehnung an Neuronale Netzwerke
- Algorithmischen Durchbrüchen – Training komplexer KI-Modelle
- Unglaublichen Fortschritten in der Computer-Hardware – Miniaturisierung, Beschleunigung und Parallelisierung
- Sowie der freien Verfügbarkeit von Weltwissen im Internet zum Trainieren dieser Modelle. Denn ohne Daten ist eine KI nichts.
Die Geschichte beginnt im 18. Jahrhundert mit dem, was man heute einen bitterbösen Fake nennen würde: einer schachspielenden Puppe in orientalischen Gewändern, die ab 1769 halb Europa in Staunen versetzte. Niemand war dem lebensgroßen Roboter, der sich hinter einer massiven Holztruhe erhob, im Schachspiel gewachsen. Kein Wunder, schließlich befand sich in der Truhe, hinter einer komplexen Mechanik verborgen, ein menschlicher Schachmeister. Er war es, der die Puppe und ihr Schachspiel dirigierte.
Es sollten zwei Jahrhunderte verstreichen, bis eine KI wieder von sich reden machte.
Der deutsch-jüdische Emigrant Joseph Weizenbaum veröffentlichte 1966 als Juniorprofessor am Massachusetts Institute of Technology (MIT) das Computerprogramm ELIZA. Erstmals demonstrierte er damit die Verarbeitung natürlicher Sprache durch einen Computer.
In einer speziellen Variante simulierte ELIZA das Gespräch mit einem Psychotherapeuten. Es schien den berühmten „Turing-Test“ zu bestehen, da vielen Nutzern nicht gewahr wurde, dass sie mit einer Maschine kommunizierten, der sie im Dialog teilweise intimste Details preisgaben. ELIZA wurde als Meilenstein der Künstlichen Intelligenz gefeiert und gilt heute als Urvater aller Chatbots. Doch in den folgenden Jahrzehnten kehrte Ernüchterung ein.
Erst in den 1990er Jahren nahm die KI-Forschung wieder Fahrt auf. 1996 wurde zum ersten Mal ein amtierender Schachweltmeister von einem Computer geschlagen, Gari Kasparow von IBMs Deep Blue. Und diesmal war der Sieg tatsächlich kein Fake.
In den 2020er-Jahren gelang dann mit ChatGPT und Co. ein echter Quantensprung. Beflügelt wurde er von der Verfeinerung der KI-Algorithmen und der Entwicklung immer schnellerer Grafikprozessoren (GPUs).
Ursprünglich für die Visualisierung von 3D-Welten in Computerspielen konzipiert, beschleunigen moderne Grafikprozessoren das Training und die Nutzung von KI-Modellen enorm. Einfach, weil die grundlegenden mathematischen Operationen im Hintergrund – die Addition und die Multiplikation von Matrizen – für E-Games und KI-Anwendungen ähnlich sind. Außerdem verfügen moderne GPUs über Dutzende bis Tausende sogenannter „Shader“, in denen diese Berechnungen parallel ablaufen können. Ein herkömmlicher PC-Prozessor bietet einen so hohen Grad der Parallelisierung typischerweise nicht.
Neuronale Netze
Moderne KI-Systeme sind ganz wesentlich von Anleihen an die grundlegende Struktur unseres Gehirns inspiriert. Menschliche Intelligenz basiert auf einem vernetzten System von geschätzt etwa 80 bis 100 Milliarden Neuronen. Noch viel zahlreicher sind die Verbindungen zwischen diesen Neuronen, die sich unter der Schädeldecke als „weiße Substanz“ manifestieren.
Es ist ein gewaltiges Netzwerk, in dem jedes Neuron Input von unzähligen weiteren Neuronen erhält, die ihm quasi vorgeschaltet sind. Diese Signale werden über chemische Botenstoffe zwischen den Neuronen weitergeleitet und im Neuron selbst in elektrische Potenziale umgewandelt.
Jedes Neuron gewichtet seine verschiedenen Eingänge. Wenn vorgeschaltete Neuronen feuern und die Summe der „Gewichte“ einen bestimmten Schwellenwert erreicht, beginnt das Neuron selbst zu feuern: Es produziert einen elektrischen Impuls, der an seinem Ende wieder in chemische Botenstoffe umgewandelt und auf diese Weise an alle nachfolgend mit ihm verbundenen Neuronen weitergeleitet wird. Das geschieht millionenfach in jedem Moment unseres Seins. Ein echtes Wunder der Natur.
Lernen im biologischen Sinne heißt, dass neue Verbindungen zwischen Neuronen geknüpft und Gewichtungen angepasst werden. Anders als früher gedacht, ist dies bis ins hohe Alter möglich, wie man heute weiß (Stichwort „Neuroplastizität“).
Entscheidend ist, dass Wissen und Denken in der Vernetzung eines neuronalen Systems begründet liegen. Es gibt nicht das eine Neuron, das die Oma erkennt oder weiß, dass zwei plus zwei vier ergibt. Wenn das Abbild einer bekannten Person in unserem Sichtfeld erscheint oder wenn wir eine mathematische Aufgabe lösen, sind immer komplexe Netzwerke tausender Neuronen beteiligt, die in diesem Moment aktiviert werden.
Und bei keinen zwei Menschen werden dies ganz genau die gleichen Netzwerke sein. Zwar gibt es Hirnfunktionen (die Sinne, das Denken, die motorische Steuerung etc.), die sich entwicklungsgeschichtlich grob bestimmten Hirnarealen zuordnen lassen. Die konkrete Ausformung der Netzwerke ist aber vor allem ein Produkt unserer individuellen Lebens- und Lerngeschichte.
Diese Inhalte stehen auch als Download zur Verfügung.
KI-Systeme als Graphen
KI-Systeme wie der Companion for First bauen nicht eins zu eins die biologischen Elemente unseres Gehirns nach (Botenstoffe, elektrische Potenziale etc.), wohl aber die grundlegende Struktur, die sich mathematisch mithilfe von sogenannten Graphen darstellen lässt.
Ein Graph ist ein Netz aus Knoten (Analogie: Neuronen) und Verbindungen zwischen diesen Knoten, den sogenannten Kanten (Analogie: die Vernetzungen in der weißen Substanz). Jeder Knoten kann dabei mit beliebig vielen anderen Knoten verbunden sein.
Viele Elemente unseres Alltags kann man sich als Graphen vorstellen. Etwa das Verkehrsnetz, wo von jeder Abzweigung oder Kreuzung (einem Knoten) Wege (Kanten) zu den nächsten Abzweigungen führen. Oder denken Sie an soziale Beziehungen, wo jeder Mensch (Knoten) mit anderen Menschen verbunden ist (Kanten). Tatsächlich sind nicht mehr als sechs bis sieben Zwischenstationen erforderlich, um eine Verbindung zu jedem anderen Individuum auf diesem Planeten zu knüpfen, wie erstmals in den 1960er Jahren gezeigt wurde – das sogenannte „Kleine-Welt-Phänomen“.
Entsprechende Such-Algorithmen spielen deshalb für die Arbeit mit solchen Graphen eine zentrale Rolle – bei der Künstlichen Intelligenz insgesamt, aber beispielsweise auch für die ganz normale Routenplanung in jedem handelsüblichen Navigationssystem. Die erforderlichen Algorithmen wurden Ende der 1950er Jahre entwickelt und sind heute Standard.
Vom Input zum Output
Informationsverarbeitung bedeutet immer, von einer Eingabe zu einer Ausgabe zu gelangen. Im Gehirn bilden die Sinnesmodalitäten (Hören, Sehen, Fühlen etc.) oder das Denken selbst den Input. Der Output manifestiert sich in Gedanken, Gefühlen, Worten und Handlungen. Dazwischen liegt das große Netzwerk der neuronalen Verarbeitung.
Bei modernen KI-Systemen ist der Input potenziell alles, was sich digitalisieren lässt: Sprache in Textform oder akustisch aufgezeichnet, in Pixel aufgelöste Bilder, Musik, chemische Formeln, Börsenkurse und vieles mehr. Was dabei am Ende als Output herauskommt, hängt ganz maßgeblich von dem nachgebildeten Neuronalen Netz und dessen Training (Lernen) ab.
Ursprünglich sprach man in diesem Zusammenhang primär vom „Maschinellen Lernen (ML)“. Dieser Begriff ist mittlerweile etwas in den Hintergrund gerückt, weil KI-Systeme heute über das reine Lernen hinausgehen. Er beschreibt jedoch korrekt, was beim Training geschieht – bei großen Sprachmodellen ebenso wie beim „Companion for First“.
Anders als im Gehirn wird die Menge der vorhandenen Neuronen und ihre Verknüpfung bei KI-Systemen von Beginn an fest vorgegeben. Lernen findet hier ausschließlich als Anpassung der Gewichtungen an den durch Software abstrahierten Neuroneneingängen statt.
In den Anfängen der KI-Forschung arbeitete man mit dreischichtigen Modellen, einer Input-Schicht, einer Verarbeitungsschicht und einer Output-Schicht. Doch das führte nicht zum gewünschten Ziel, wie bald auch mathematisch gezeigt werden konnte. Man benötigte mehr untereinander verknüpfte neuronale Zwischenschichten zwischen Input und Output, die sogenannten „Hidden Layers“.
Erst mit ihnen und passenden Lernalgorithmen wurde sogenanntes „Deep Learning“ möglich. Es sorgt dafür, dass durch das Training ähnlicher, aber individuell verschiedener Inhalte abstrakte Merkmale extrahiert und im Netzwerk gespeichert werden können. Auf diese Weise lernt ein Neuronales Netzwerk etwa die Gemeinsamkeiten des Konzepts „Katze“ und nicht nur die konkreten Individuen aus den Bildern zu erkennen, auf die es trainiert wurde. Es geht um Muster, Ähnlichkeiten und Wahrscheinlichkeiten.
Noch nicht gezündet
Die Hoffnung vieler Forscher, man müsse nur immer größere KI-Modelle bauen und diese mit mehr und mehr Informationen trainieren, dann werde sich der Funke des Geistes schon irgendwann von selbst entzünden, ist zumindest bislang nicht in Erfüllung gegangen. Eine sogenannte Künstliche „Allgemeine Intelligenz (AIG)“ ist weiterhin nicht in Sicht. Aber völlig ausgeschlossen ist ein solcher Entwicklungssprung nicht. Andere argumentieren hingegen, es existiere ein bislang unentdecktes Bindeglied, eine Komponente, die echtes Denken und umfassendes Schlussfolgern erst möglich macht. Nach wie vor gilt dies als eines der spannendsten und kontroversesten Themen in der aktuellen KI-Forschung.
Diese Inhalte stehen auch als Download zur Verfügung.
Herausforderung KI-Training
Moderne KI-Systeme basieren auf vielen Dutzenden von Schichten zwischen Input und Output (ChatGPT 3.5: 96 Schichten) mit Millionen von nachgebildeten Neuronen innerhalb jeder Schicht und Milliarden von Verknüpfungen zwischen diesen Neuronen (ChatGPT 3.5: 175 Milliarden). Man spricht in diesem Zusammenhang auch von Parametern, die man sich als die Summe aller Gewichtungen in den Neuronenverbindungen eines KI-Modells vorstellen kann.
Ihre Anzahl steigt bei modernen KI-Systemen von Generation zu Generation, befördert ihre Lern- und Leistungsfähigkeit, allerdings auch ihren Ressourcenverbrauch. Bei ChatGPT 4 sind es geschätzt bereits 1.800 Milliarden Parameter in 220 Schichten – eine Verzehnfachung zum vorhergehenden Modell.
Anders als in unserem Hirn sind diese Verbindungen fest vorgegeben und weitgehend statisch. Da wächst also nichts nach (Stichwort: Neuroplastizität). Alle Gewichtungen sind jedoch zunächst undefiniert und das System deshalb komplett untrainiert. Es weiß und vermag weniger als ein Baby im Mutterleib. Seine Fähigkeiten erhält ein KI-System erst durch Training, das man sich in seinen Grundzügen stark vereinfacht als Prozess von Versuch und Irrtum (Trial and Error) vorstellen kann. Man gibt Daten in die Input-Schicht, schickt sie durch das Netzwerk und schaut, was in der Output-Schicht herauskommt. Zunächst einmal sicher nicht das Richtige. Lernen bedeutet nun, die Gewichte der beteiligten Neuronen in den verschiedenen Schichten immer besser zu adjustieren, bis in der Output- Schicht das gewünschte Resultat erscheint. Das ist die Aufgabe der Software, mit der ein solches KI-Modell trainiert wird.
Diesem Prozess liegen komplexe mathematische Verfahren zugrunde, deren Entwicklung in den 1980er Jahren erst die Voraussetzung für den Durchbruch beim maschinellen Lernen schuf „Backpropagation“. Viele weitere Entwicklungen mussten folgen, bis KI-Systeme ihre heutige Leistungsfähigkeit erreichten. Durch das Trainieren entsteht allerdings noch keine Allgemeine Intelligenz, wie wir sie dem Menschen zuschreiben, sondern letztendlich „nur“ eine Art Programmierung, was von dem System bei welchem Input erwartet wird.
Selbst ein so leistungsfähiges System wie ChatGPT versteht tatsächlich relativ wenig von unserer Welt, auch wenn es anders erscheinen mag. Aber es weiß durch Milliardenfaches Training sehr gut, welcher Begriff sich an eine vorhergehende Wortfolge vermutlich anschließt – immer abhängig vom jeweiligen Kontext. Letztendlich geht es also um antrainierte Wahrscheinlichkeiten, und das Wort mit der größten Wahrscheinlichkeit wird gewählt. Klingt verrückt, ist aber so.
Konzeptionelle Durchbrüche in der KI-Forschung
Lernmodelle der KI
Überwachtes Lernen
Die zu lernenden Informationen werden mit Informationen über das gewünschte Resultat ausgezeichnet (gelabelt). Häufig geschieht dies von Menschenhand. So werden Bilder beispielsweise mit Schlagworten zu ihrem Inhalt versehen (Hund, Katze, Maus). Eine Trainingssoftware füttert das jeweilige KI-Modell mit jedem einzelnen Bild und passt dabei die Gewichtungen des Neuronalen Netzwerks so lange an, bis als Output das definierte Resultat erscheint.
Unüberwachtes Lernen
KI-Modelle werden mit Daten gefüttert, die nicht konkret ausgezeichnet sind. Das Modell soll lernen, Ähnlichkeiten, Muster und Strukturen in diesen Daten zu entdecken, damit es zukünftige Daten einem gelernten Muster zuordnen und sie anschließend passend dazu weiterverarbeiten kann.
Bestärkendes Lernen
Ahmt das Lernen bei Menschen und Tieren auf Basis der Reaktionen ihrer Umwelt im Sinne von Versuch und Irrtum nach. Einem Modell wird beigebracht, verschiedene Aktionen im Hinblick auf ein zu erreichendes Ziel willkürlich auszuprobieren. Unmittelbar darauf erfolgt eine Bewertung durch das Trainingssystem. Diese veranlasst das Modell, im nächsten Durchlauf etwas anderes zu versuchen oder den eingeschlagenen Weg weiter zu verfeinern, bis das Ziel erreicht und eine zielführende Strategie gelernt ist.
Konzeptbedingte Unschärfen
Der Unterschied zwischen traditioneller Computer-Software und KI-Systemen wird deutlich, wenn KI-Systeme Falschaussagen produzieren. Das kann viele Ursachen haben: objektiv falsche Trainingsdaten, Mehrdeutigkeiten, die Kontextabhängigkeit von Informationen, Überanpassung oder ganz einfach die Modellkomplexität, um nur einige zu nennen. Beispiele für solche Fehler finden sich im Internet zuhauf, manche amüsant, andere eher befremdlich.
Die Schwierigkeiten manifestieren sich beispielsweise im sogenannten „Halluzinieren“, wenn sich KI-Systeme bei der Bewertung eines Outputs oder der Beantwortung einer Frage etwas Zusammenreimen, scheinbar ohne konkreten Bezug zur Realität. Etwa so, wie Menschen in Wolkenformationen oder anderen nicht klar erkennbaren Strukturen manchmal kuriose Dinge sehen.
Traditionelle Computersoftware arbeitet regelbasiert. Die Regeln sind in Entscheidungsbäumen oder sogenannten State-Machines kodiert. Als Bestandteil des Programmcodes liegen sie offen zutage und können durch die Entwickler deshalb leicht verändert und korrigiert werden.
Bei einem KI-System sieht man hingegen nichts vom eingespeicherten Wissen, außer Millionen oder gar Milliarden von Gewichtungen als Teil eines vernetzten Systems. Wo darin welche Informationen verborgen liegen, lässt sich weder ausmachen noch nachträglich einfach korrigieren. Denn dann müsste man die Gewichtungen an vielen Stellen des Netzes anpassen, mit potenziell weitreichenden Folgen für weiteres darin gespeichertes Wissen.
Tatsächlich sind KI-Systeme bis heute nicht besonders gut darin, wenn man Informationen nachträglich ergänzen oder ändern will, das sogenannte „Finetuning“. Genau wie die Aktualisierung der Wissensbasis (die Welt dreht sich schnell), erfordert das Tilgen von Falschaussagen deshalb in der Regel einen kompletten neuen Trainingsdurchlauf eines KI-Modells.
Und der kann bei entsprechend großen Modellen Tage und Wochen in Anspruch nehmen und Kosten in Millionenhöhe verursachen. Für den Companion for First mit seinem klar umgrenzten Aufgabenfeld gilt das übrigens nicht: Hier reicht die Nachtzeit für das Training auf die täglich veränderten Datenbestände vollkommen aus.
Übrigens lernen KI-Systeme gerade erst, zu erklären, wie sie zu einem bestimmten Output gelangt sind. Dies gilt auch für das Schlussfolgern (Reasoning), das den Menschen zum logischen Denken befähigt. Ausgeprägte Meta-Fähigkeiten gibt es bislang in KI-Modellen also (noch) nicht.
Große Sprachmodelle – Large Language Models
KI-Systeme lassen sich prinzipiell für viele Arten der Datenverarbeitung nutzen. Sie können Menschen auf Videoaufnahmen beim Überklettern eines Bauzauns ausmachen, Röntgenbilder interpretieren, Proteinfaltungen vorhersagen, Musikstücke komponieren, Kunstwerke kreieren oder als spezialisierte Assistenten innerhalb einer Anwendung fungieren.
Manchmal bewältigen sie ihre Aufgaben sogar besser als menschliche Experten, nachweislich etwa beim Thema Brustkrebs- oder Hautkrebserkennung. Vereinfacht ausgedrückt ist dies alles eine Frage eines korrekten und entsprechend umfangreichen Trainings.
Im Fokus der Öffentlichkeit stehen vor allem die großen Sprachmodelle (Large Language Models, LLMs), aus denen man per Sprache Wissensbestände abrufen und zusammenfassen lassen kann. Dies kommt nicht von ungefähr, schließlich sind die Entwicklung von Sprache und Intelligenz eng miteinander verknüpft.
Die computergestützte Verarbeitung von Sprache durch Computer nennt man „Natural Language Processing“ (NLP). Zu dieser Fähigkeit kommt bei Large Language Models ihr enormes Weltwissen hinzu, das sie zumeist aus öffentlich zugänglichen Quellen beziehen: Wikipedia, Büchersammlungen, Datenbanken und Millionen von regelmäßig durchsuchten Internet-Seiten mit Nachrichten und Informationen.
Woher sollten sie diese Daten auch sonst beziehen? Kein Unternehmen allein könnte eine solch umfassende Wissensbasis zusammentragen. Doch das birgt auch Konfliktpotenzial. Nicht alle im Internet verfügbaren Informationen und Inhalte sind gemeinfrei. Und nicht alle sind auch tatsächlich korrekt.
Wieso der Name ChatGPT?
Das derzeit bekannteste KI-Produkt stammt von der US-Firma OpenAI. Es ist ein Chatbot, der drei seiner Grundlagentechnologien im Namen führt: GPT steht für Generative Pre-trained Transformers. Die Begriffe verweisen darauf, wie das dahinterstehende Large Language Model lernt und wie es anschließend die Anfragen seiner Nutzer beantwortet. Modernste KI-Technik trifft dabei auf einen unermesslichen Schatz von Daten und Informationen, mit denen ChatGPT trainiert wurde.
Diese Inhalte stehen auch als Download zur Verfügung.
Datensicherheit und -verlässlichkeit beim Companion for First
Bei der Entwicklung des Companion for First spielt die Frage nach Datensicherheit und -verlässlichkeit eine zentrale Rolle. Um dem gerecht zu werden, beschäftigen wir uns in der Entwicklung des Companions mit mehreren technischen Ansätzen:

Ein zentraler Fokus liegt auf einem vollständig isolierten Betrieb innerhalb der Fact Cloud, bei dem sämtliche Verarbeitung – einschließlich Sprachverarbeitung – lokal erfolgt. In diesem Szenario werden keinerlei Daten an externe Systeme übermittelt. Sämtliche Informationen, einschließlich Nutzeranfragen, Ausgaben und Kontextverarbeitung, verbleiben vollständig innerhalb der sicheren und regulierungskonformen Fact Cloud.
Ergänzend dazu wird auch die kontrollierte Anbindung externer LLM Services evaluiert. In diesem Fall erfolgt die Verarbeitung durch KI-Modelle, die ausschließlich in zertifizierten EU-Rechenzentren betrieben werden. Dabei werden anonymisierte Query-Strukturen übermittelt, niemals jedoch Kundendaten oder inhaltlich sensible Informationen. Die eigentlichen Finanzdaten verbleiben auch hier vollständig in der Fact Cloud.
Beide Ansätze verfolgen dasselbe Ziel: die sichere, nachvollziehbare und regulatorisch saubere Integration von KI in anspruchsvolle Fachanwendungen – mit maximalem Nutzen bei voller Kontrolle über die Daten.
Prompt Engineering
Die größten KI-Modelle sind mittlerweile multimodal:
Man kann sie mit einem Bild konfrontieren, um zu erfahren, wer oder was darauf abgebildet ist. Oder mit einem kurzen Auszug aus einem Popsong, um den Titel und den Namen der Band herauszufinden. Doch der meiste Informationsabruf erfolgt noch immer über Sprache – getippt, gesprochen, handschriftlich auf einem Tablet notiert oder wiederum als Text in einem Bild.
Dabei spielt das sogenannte „Prompt Engineering“ eine zunehmend wichtige Rolle: die Fähigkeit, sein Anliegen exakt so zu formulieren, dass das Gewünschte dabei herauskommt. Der Companion for First übernimmt in dieser Hinsicht eine wichtige Funktion, da er in einzelnen Verarbeitungsschritten Large Language Modelle nutzt, um die an ihn gestellten Anfragen und Aufträge zu verarbeiten.
Ein gut formulierter Prompt kann ein LLM dazu bringen, präzise, relevante und hilfreiche Antworten zu generieren. Ein schlecht formulierter Prompt führt hingegen regelmäßig zu ungenauen oder unerwünschten Ergebnissen.
Geht es um reine Wissensinhalte im Sinne von Wer, Was, Wann, Wo, Warum etc., spielt das Prompt-Engineering eine eher untergeordnete Rolle. Dafür reicht eine klar formulierte umgangssprachliche Frage in der Regel aus: „Wer siegte in der Schlacht von Hastings?“, sofern man das ganz dringend wissen möchte.
Aber bereits, wenn man eine Zusammenfassung von Inhalten wünscht oder der KI kreative Leistungen abverlangen will, macht das Prompt-Engineering den entscheidenden Unterschied in der Richtung und Qualität des Outputs aus.
Allerdings handelt es sich beim Prompt-Engineering keinesfalls um eine exakte Wissenschaft. Vielmehr geht es um „Best Practices“. Es kommt darauf an, das jeweilige KI-Modell und seine Vorgehensweise ein Stück weit zu „verstehen“. In der Regel ist es zielführend, dafür ein wenig zu experimentieren und die eigenen Prompts Schritt für Schritt zu verfeinern.
Einige grundlegende Tipps und Tricks können dabei hilfreich sein:
Aufträge und Fragen sollten möglichst klar formuliert sein und es sollte auf unnötige Füllwörter verzichtet werden.
Kontexte und Rollen definieren: „Schreibe wie ein Reporter“, „formuliere wie ein mittelalterlicher Dichter“
Zielgruppen nennen: „sodass es auch Kinder verstehen“, „in einfacher Sprache“, „für Akademiker“, „für Sportbegeisterte“
Zielformat angeben: „liefere mir die Definition“, „schreibe einen Aufsatz“, „gib mir eine Schritt-für-Schritt-Anleitung“, „erstelle eine Pro- und Contra-Tabelle“
Länge und Umfang festlegen: „eine umfangreiche Abhandlung“, „fasse dich kurz“, „nicht mehr als 5 Absätze“
Die Tonalität bestimmen: „schreibe möglichst verständlich“, „drücke dich wissenschaftlich aus“, „bleibe sachlich und neutral“, „formuliere es lustig“
Reihenfolgen vorgeben: „behandle erst das Thema … und anschließend das Thema …“
Auf Negationen in den Prompts verzichten, stattdessen aktiv und positiv formulieren.
Wo und wie KI-Systeme betrieben werden
Die Leistung moderner KI-Systeme fühlt sich zuweilen beinahe magisch an. Dennoch handelt es sich um ganz normale Software, die grundsätzlich auch auf herkömmlichen PCs ausgeführt werden kann. Die modernsten Desktop- und Notebook-Prozessoren von Intel und AMD sind sogar bereits dafür optimiert. Noch schneller gelingen Training und Nutzung der Modelle, wenn möglichst leistungsfähige Grafikkarten mit modernen GPUs verbaut sind.
Man kann sie mit einem Bild konfrontieren, um zu erfahren, wer oder was darauf abgebildet ist. Oder mit einem kurzen Auszug aus einem Popsong, um den Grundsätzlich gilt: Das Trainieren ist um viele Zehnerpotenzen aufwendiger als die anschließende Nutzung eines so entstandenen KI-Modells. Dennoch sind auch bei der Nutzung eines KI-Modells Grenzen gesetzt, die sich am Speicherumfang der Modelle und den erforderlichen Rechenkapazitäten bemessen. Von einer der ersten Versionen von ChatGPT ist bekannt, dass jeder Trainingsdurchlauf auf einer einzelnen modernen Grafikkarte rund 350 Jahre (!) in Anspruch genommen hätte. Und seitdem sind die ChatGPT-Modelle unglaublich gewachsen.
Aus diesem Grund findet zumindest das Training von LLMs fast ausschließlich in riesigen Rechenzentren mit tausenden von PCs und noch viel mehr parallel arbeitenden GPUs statt. Anschließend können zumindest kleinere Modelle aber durchaus auch lokal auf modernen PCs ablaufen, wie es Microsoft beispielsweise mit seinem Copilot vormacht.
Der Companion for First wird dort ausgeführt, wo auch First Cloud betrieben wird: in der Fact Cloud unter MS-Azure. Jede Nacht wird er auf die tagesaktuellen Datenbestände der Kunden trainiert, tagsüber stellt er sein Wissen dann im Rahmen von First Cloud zur Verfügung. In einem der nachfolgenden Whitepaper werden wir ausführlich auf diese Zusammenhänge eingehen.
Diese Inhalte stehen auch als Download zur Verfügung.
Energiehunger großer KI-Systeme
Der Ressourcenverbrauch von ChatGPT und Co. ist ein Thema, das zunehmend kritisch betrachtet wird. Ihr wachsender Stromhunger belastet Stromnetze, erhöht Treibhausgasemissionen und verschärft Umweltprobleme. Etwa durch den erhöhten Wasserverbrauch für die Kühlung von Hunderttausenden Prozessoren. Zum Vergleich: Eine simple KI-Anfrage im Internet verbraucht bereits etwa zehnmal so viel Energie, wie eine herkömmliche Google-Suche, grob geschätzt etwa 3 Watt.
Aktuell verdoppelt sich der Speicher- und Rechenbedarf der immer leistungsfähigeren KI-Modelle etwa alle 6 Monate. Die riesigen KI-Rechenzentren („KI‑Fabriken“), die derzeit auf allen Kontinenten entstehen, haben teilweise einen Strombedarf, der dem Verbrauch von 100.000 Haushalten entspricht. Und Ausmaße, die ganze Stadtteile überdecken könnten.
Geschätzt wird, dass der Strombedarf aller weltweit installierten KI-Systeme bis 2030 dem einer Industrienation wie Japan gleichkommt. Das torpediert massiv die CO²-Ziele der großen Internet-Konzerne und trägt – pikanterweise – zur aktuellen Renaissance der Kernkraft bei. Denn die gilt als CO²-neutral.
Intensiv wird deshalb an verbesserten Algorithmen, Prozessoren und Techniken für KI-Systeme geforscht. Doch es existieren auch einfache Maßnahmenden Strombedarf in der KI-Nutzung unmittelbar zu reduzieren: indem man nicht zwangsläufig auf die größten Modelle setzt. Schließlich skaliert der Ressourcenverbrauch mit der Anzahl der Parameter in den Modellen.
Schon jetzt ist ein Trend zu kleineren Modellen zu beobachten, die mit deutlich weniger Parametern ähnlich gute Ergebnisse wie ihre großen Vorbilder erzielen. Dies ist der Ansatz, den wir beim Companion for First verfolgen. Denn der Companion muss zwar Sprache grundlegend verstehen und in ihre Bestandteile zerlegen können, er muss aber nichts über mittelalterliche Ritterkultur oder die Funktionsweise der Photosynthese wissen. Das Weltwissen darf den größten Modellen vorbehalten bleiben. Der Companion for First benötigt es in seiner klar definierten Rolle als Finanzassistent in First Cloud nicht.
RAG-Pipelines
Chatbots lassen sich heute mit wenigen Zeilen Programmcode in Software-Anwendungen einbinden. Doch bei spezifischen Aufgabenstellungen wie im Companion for First führt das nicht unmittelbar zum gewünschten Ziel.
Externe LLMs verstehen nichts von der Funktionsweise einer Anwendung wie First Cloud, geschweige denn von ihren internen Datenstrukturen und den konkreten Dateninhalten eines Kunden. Und diese Details gehen sie ja auch gar nichts an.
An dieser Stelle kommen RAG-Pipelines ins Spiel. RAG steht für „Retrieval Augmented Generation“. Der Begriff beschreibt, wie der Output eines LLM von Programmen als Ausgangspunkt genutzt wird, um diesen durch weitere Daten zu ergänzen (zu augmentieren), etwa durch die Resultate von internen Datenbankabfragen. Erst daraus entstehen dann in weiteren Verarbeitungsschritten die gesuchten Antworten.
Eine solche RAG-Pipeline bildet das Herzstück des Companion for First. Sie ist mehrstufig organisiert, wobei sie an ausgewählten Stellen auf die Dienste externer LLMs zurückgreift. Diese fungieren quasi als die Arbeitsesel der Sprachverarbeitung, um zu verstehen, was der Nutzer vom Companion möchte.
Es geht darum herauszufinden, welche konkreten Informationen abgerufen werden sollen, für welchen Zeitraum und in welcher Form die Aufbereitung der Daten gewünscht ist, etwa als Listen, Texte oder Grafiken. Unter Umständen fragt der Companion auch einmal nach, wenn er etwas nicht versteht. Die Abläufe sind nicht ganz trivial, führen aber zuverlässig zu den gewünschten Ergebnissen. Wir werden den Aufbau der RAG-Pipeline im Companion for First deshalb in einem der nachfolgenden Whitepaper im Detail vorstellen.
Die RAG-Pipeline im Companion for First
Agentische KI – vom Wissen zum Handeln
Es ist das Eine, mithilfe von Künstlicher Intelligenz Wissen abzurufen, das zuvor antrainiert wurde. Etwas Anderes ist es, einer KI Aufträge zu erteilen, damit sie im Auftrag des Nutzers aktiv wird.
Dies ist der Ansatz, den wir beim Companion for First von Anfang an konsequent verfolgen. Eine solche „Agentische KI“ hat das Ziel, komplexe Abläufe bzw. Analysen durchzuführen und Nutzer bei wiederkehrenden Aufgaben zu entlasten. Im Rahmen der jeweiligen Aufgabenstellung trifft sie dabei selbstständig Entscheidungen und wählt die passenden Werkzeuge aus. Sofern gewünscht, kann ein solcher Agent auch proaktiv im Hintergrund Aufgaben wahrnehmen, im Sinne von „Push statt Pull“.
Im Dialog mit unseren Kunden haben wir eine Reihe von Aufgaben identifiziert, bei denen First-Cloud-Nutzer von einer Agentischen KI profitieren können. Folgende Funktionen sind für die kommenden Ausbaustufen des Companion von First geplant:

Wie geht es weiter?
So viel zu den spannenden Grundlagen der Künstlichen Intelligenz und ihrer Relevanz für den Companion for First. Die nachfolgenden Whitepaper werden sich ganz spezifisch mit den konkreten Abläufen innerhalb des Companions beschäftigen – wie der Companion die Anfragen und Aufträge seiner Nutzer entschlüsselt, die gewünschten Informationen aus First Cloud ausliest und zusammenbringt, wie er dabei Kundendaten wirksam schützt und wie die Anforderungen der Regulatorik die Abläufe maßgeblich beeinflussen.
Unser KI-Glossar erklärt zentrale Begriffe rund um Künstliche Intelligenz.
Neugierig geworden?
Sie möchten mehr über First Cloud, den Companion for First und den Betrieb in der Fact Cloud erfahren? Dann schreiben Sie uns oder sprechen Sie direkt mit unserem Experten Aleksandar Ivezić. Er freut sich auf Ihre Anfrage:
Aleksandar Ivezić
a.ivezic@fact.de
+49 2131 777 238





