Neuronale Netze

Inspiration aus der Natur

Die Strukturen hinter Intelligenz – vom biologischen Neuron zum digitalen Graphen

Moderne KI-Systeme sind nicht einfach am Reißbrett entstanden. Ihre Architektur ist inspiriert von einem der komplexesten Systeme, die wir kennen: dem menschlichen Gehirn. Rund 80 bis 100 Milliarden Neuronen bilden dort ein gigantisches Netzwerk. Noch beeindruckender sind die zahlreichen Verbindungen zwischen ihnen, die dafür sorgen, dass Informationen blitzschnell weitergeleitet werden können.

Direkt zum Whitepaper KI-Grundlagen

 

Wie Neuronen arbeiten – Lernen durch Vernetzung

Jedes Neuron empfängt Inputs von vielen anderen Neuronen, gewichtet diese und entscheidet: Wird ein bestimmter Schwellenwert überschritten, „feuert“ es und gibt den Impuls weiter. Dieser Prozess läuft millionenfach pro Sekunde ab – und macht Denken, Handeln und Fühlen möglich.

Menschliches Lernen bedeutet, dass neue Verbindungen entstehen und Gewichtungen angepasst werden. Wissen und Denken entstehen also nicht in einzelnen Zellen, sondern in der Aktivierung ganzer Netzwerke. Ob das Erkennen eines vertrauten Gesichts oder das Lösen einer Rechenaufgabe – stets arbeiten Tausende Neuronen zusammen. Dabei ist jedes neuronale Muster einzigartig und spiegelt die individuelle Lebens- und Lerngeschichte eines Menschen wider.

Graphen als Fundament moderner KI

Die Arbeitsweise des menschlichen Gehirns hat Forscher inspiriert, künstliche neuronale Netze zu entwickeln. Statt chemischer Signale fließen darin mathematische Werte, statt biologischer Zellen arbeiten Knotenpunkte in Software. KI kopiert also nicht die biochemischen Prozesse unseres Gehirns, sondern übernimmt die Grundstruktur – und bildet diese mathematisch durch sogenannte Graphen ab.

Ein Graph besteht aus Knoten (vergleichbar mit Neuronen) und Kanten (Verbindungen). Diese Struktur ermöglicht es, Zusammenhänge abzubilden, Muster zu erkennen und Informationen effizient zu verarbeiten. Für KI sind Graphen daher zentral: Sie bilden die Basis für Lern- und Suchalgorithmen, mit denen Systeme komplexe Datenstrukturen verstehen und nutzen können.

Von der Biologie zur Anwendung

Neuronale Netze und Graphen sind also wie zwei Seiten einer Medaille: Die Biologie liefert die Inspiration, indem sie zeigt, wie Neuronen durch Vernetzung Intelligenz ermöglichen. Künstliche neuronale Netze greifen diese Grundprinzipien auf, abstrahieren sie mathematisch und setzen sie in Software um. So entstehen spezialisierte Anwendungen wie der Companion for First – kontextbewusste KI-Lösungen, die Fachwissen digital abbilden und im Finanzumfeld gezielt unterstützen.

Sie möchten mehr über die Grundlagen Künstlicher Intelligenz erfahren? Hier finden Sie unser Whitepaper und den dazugehörigen Podcast zum Thema.

Whitepaper & Podcast

COMPANION FOR FIRST

Agentic AI für die Kapitalanlageverwaltung – Dialog starten, Daten analysieren, Denkraum schaffen.

Erfahren Sie mehr

Manfred Beckers

Agentic AI für die Kapitalanlage – Companion for First 

Wie aus einem Aha-Moment mit ChatGPT eine intelligente Fachlösung für den Finanzbereich entsteht. 

Autor: Manfred Beckers, Geschäftsführer Fact

Faulheit ist die Triebfeder allen Fortschritts, heißt es oft augenzwinkernd – doch im Kern steckt viel Wahrheit darin. Der Wunsch, mit weniger Aufwand mehr zu erreichen, begleitet den technologischen Wandel seit jeher. Maschinen erledigen körperliche Arbeit, Computer übernehmen Berechnungen – und heute denken vor allem auch Systeme der Künstlichen Intelligenz mit. 

 

Von der Idee zur Anwendung 

Als ChatGPT im Herbst 2022 erstmals einem breiten Publikum zugänglich wurde, wurde deutlich, welches Potenzial in großen Sprachmodellen steckt: Komplexe Informationen wurden plötzlich durch einfache, natürliche Sprache abrufbar. Was vorher stundenlanges Suchen erforderte, wurde durch präzise Fragen auf Knopfdruck gelöst.  

Damals entstand bei uns die Überzeugung: Auch unsere Lösungen sollten in der Lage sein, diesen Komfort zu bieten – speziell zugeschnitten auf die Welt der Kapitalanlageverwaltung und die hohen Anforderungen professioneller Nutzer. 

 

Der Companion for First: KI mit Fachfokus 

Heute – weniger als drei Jahre später – ist dieses Ziel in greifbare Nähe gerückt. Der Companion for First wird als eigenständige KI-Lösung von uns entwickelt für den Einsatz im Zusammenspiel mit unserer bewährten Branchenlösung First Cloud. Er wird Fragen beantworten können wie z.B.: 

  • „Welche Aktien notieren aktuell unter Einstandsniveau?“ 
  • „Gib mir eine Liste mit den aktuellen Bewertungen je Gesellschaft.“ 
  • „Wo finde ich die Funktion XY in der Benutzeroberfläche?“ 

Und das nicht mit technokratischen Datenbankbefehlen, sondern im natürlichen schriftlichen Dialog – verständlich, kontextbezogen und direkt einsetzbar. 

 

Eine neue Rolle für KI in der Finanzwelt 

Der Companion übernimmt dabei mehr als nur Informationsabruf. Als agentic AI wird er mit dem Auftrag der Nutzer aktiv: 

  • führt wiederkehrende Aufgaben eigenständig aus, 
  • erstellt Analysen und Visualisierungen, 
  • generiert automatisierte Berichte, 
  • liefert aktuelle Finanznachrichten zu relevanten Assets, 
  • und erklärt auf Wunsch komplexe Funktionen in First Cloud – einfach und nachvollziehbar. 

Dabei bleibt die fachliche Kompetenz der Anwender im Zentrum. Die KI unterstützt, übernimmt strukturelle Aufgaben und schafft Raum für fundierte Entscheidungen, strategisches Denken und regulatorische Sicherheit. 

Als technologiegetriebenes Unternehmen mit hohem Qualitätsanspruch und dem Ziel, führend in unserem Segment zu bleiben, sind wir überzeugt: Die Verbindung aus KI, Fachlogik und Cloud schafft neue Maßstäbe für Transparenz, Effizienz und Sicherheit in der Kapitalanlageverwaltung.

Whitepaper und Podcast: KI, Cloud und Fachlogik – verständlich erklärt für die Finanzpraxis

Unser Whitepaper „Eine kurze Geschichte der Künstlichen Intelligenz – von den Anfängen bis zum Companion for First“ bildet den Auftakt zu einer begleitenden Reihe. Darin werden nicht nur technische Grundlagen erklärt, sondern auch die grundsätzlichen Überlegungen zur Umsetzung des Companions beleuchtet. Denn klar ist: Die Anforderungen im regulierten Finanzumfeld unterscheiden sich deutlich von frei zugänglichen Systemen wie ChatGPT.

Whitepaper & Podcast

COMPANION FOR FIRST

Agentic AI für die Kapitalanlageverwaltung – Dialog starten, Daten analysieren, Denkraum schaffen.

Erfahren Sie mehr

Catella und Fin RP

Mehr Tempo, weniger Fehler

Catella setzt auf Fin RP für Verkaufsprospekte und PRIIPs KIDs

Effizient, fehlerfrei, zukunftssicher – das sind die Maßstäbe, nach denen die Catella Real Estate AG ihre regulatorischen Berichtspflichten organisiert. Seit 2020 setzt das Unternehmen auf Fin RP von Fact, um Jahres-, Halbjahres- und Monatsberichte automatisiert zu erstellen. Heute geht Catella einen Schritt weiter: Auch Verkaufsprospekte und PRIIPs KIDs werden vollständig digitalisiert – mit beeindruckenden Ergebnissen.

Direkt zum Erfahrungsbericht

 

Vom Pilotprojekt zur umfassenden Lösung

Catella ist seit vielen Jahren ein etablierter Player im Immobilienfondsmarkt. Um den steigenden regulatorischen Anforderungen gerecht zu werden und Prozesse zu verschlanken, fiel die Entscheidung früh zugunsten von Fin RP. Die Einführung der Softwarelösung ermöglichte die revisionssichere und automatisierte Erstellung von Finanzberichten im individuellen Corporate Design – per Knopfdruck und ohne manuelle Zwischenschritte.

„Viel Zeitersparnis. Mehr Freude für die Kollegen. Mit allem, was bisher umgesetzt wurde – von der ersten Einführung bis hin zu Änderungswünschen – hat Fin RP selbst skeptische Kollegen voll überzeugt.“

– Barbara Wagner, Catella Real Estate AG –

Vom Erfolgsprojekt zur strategischen Erweiterung

Die Erfahrungen waren durchweg positiv: Weniger Aufwand, konsistente Daten und nachvollziehbare Freigabeprozesse überzeugten selbst kritische Teammitglieder. Der nächste logische Schritt: die Erweiterung des Einsatzes auf weitere Ausgabeformate wie Verkaufsprospekte und PRIIPs KIDs. Mit Fin RP wird jetzt der gesamte Workflow für die Erstellung regulatorischer Dokumente nahtlos und automatisiert abgebildet.

 

Verkaufsprospekte effizient und transparent erstellen

Für Verkaufsprospekte nutzt Catella einen klar strukturierten Workflow in Fin RP, der Bearbeitungs- und Freigabeprozesse optimal unterstützt. Dazu gehören:

  • die direkte Bearbeitung von Texten, Tabellen und Aufzählungen direkt in der Benutzeroberfläche,
  • eine transparente Änderungsdokumentation mit gezielten Freigabeprozessen und
  • flexible Exportmöglichkeiten für Entwürfe, Änderungsübersichten und finale Clean-Versionen.

Das Ergebnis: Hohe Transparenz, klare Zuständigkeiten und ein deutlich effizienterer Erstellungsprozess.

 

PRIIPs KIDs: Regulatorik im Griff

Die Erstellung von PRIIPs KIDs (Packaged Retail and Insurance-Based Investment Products Key Information Documents) stellt hohe Anforderungen an Datenkonsistenz, Berechnungslogik und Validierung. Fin RP integriert diese Aufgaben vollständig in einen durchgängigen Workflow:

  1. Strukturierte Datenintegration über definierte Importformate
  2. Look-through-Datenverarbeitung: Einfaches Mapping und Zielfonds-Erhebung durch standardisierte Datenformate
  3. Validierung und Qualitätssicherung: Integrierte Fehlerprüfung sichert Einhaltung aller regulatorischen Vorgaben vor Finalisierung
  4. Kalkulation von Risiko-, Kosten- und Performance-Kennzahlen
  5. Automatisierte PDF-Erstellung von Reports und Dokumenten

Das Ergebnis: Nicht nur regulatorische Anforderungen werden erfüllt – der gesamte Prozess wird beschleunigt und automatisiert.

Effizienz neu definiert

Die Erweiterung von Fin RP hat bei Catella spürbare Verbesserungen gebracht:

Zeitersparnis: Von mehreren Tagen auf wenige Minuten

Benutzerfreundlichkeit: Intuitive Oberfläche, einfach Einführung

Transparenz & Nachvollziehbarkeit: Vollständig dokumentierte Änderungen und Freigaben

Rechte- und Rollenkonzepte: Dokumentensichtbarkeit für definierte Nutzergruppen

Optimierte Datenkonsistenz: Zentrale Datenhaltung und automatische Validierung verbessern Qualität von Daten und Berichten

Lesen Sie den kompletten Erfahrungsbericht und erhalten Sie einen umfassenden Einblick in Setup und Ergebnisse.

Zum Erfahrungsbericht

„Die Erweiterung von Fin RP um Verkaufsprospekte und PRIIPs KIDs war ein strategischer Schritt in die richtige Richtung. Die Software hat unsere Prozesse erheblich optimiert und sorgt für höchste Effizienz. Besonders schätzen wir die zuverlässige Unterstützung durch Fact, die uns während des gesamten Implementierungsprozesses jederzeit zur Seite stand.“

– Christian Schießl, Catella Real Estate AG –

 

Fin RP – auch für Ihre Organisation

Ob Sie Jahresberichte, Verkaufsprospekte oder PRIIPs KIDs erstellen: Mit Fin RP heben Sie Ihre regulatorischen Publikationen auf ein neues Level – effizient, sicher und automatisiert.

Weitere Einsatzbereiche:

  • Jahres-, Halbjahres-, Quartals- und Monatsberichte
  • Anlageausschuss-Reporting
  • Anlageausschuss-Protokolle
  • Vorvertragliche Informationen
  • ESG-Stand-alone-Kapitel
  • Factsheets

Hier erfahren Sie mehr über die verschiedenen Anwendungsfälle

Weitere Fin RP Erfahrungsberichte unserer Kunden

Erfahrungsbericht DekaBank

So hat Fin RP der DekaBank Deutsche Girozentrale geholfen ihre Finanzberichte zu optimieren.

Erfahrungsbericht HSBC INKA

Wie Fin RP das Disclosure Management bei der HSBC INKA entkompliziert hat.

Erfahrungsbericht Catella – Fin RP Einführung

Erfahren Sie warum sich die Catella für eine Zusammenarbeit mit Fact und dem innovativen Software­ service Fin RP entschieden hat.

Norman Janert im Interview

Interview

Agentic AI in der Praxis – so entsteht der Companion for First

Projektleiter Norman Janert gibt Einblicke in unser aktuelles KI-Projekt, das Fachlogik, Cloud-Technologie und echte Nutzerbedürfnisse zusammenbringt.

 

Fact:

Norman, Sie entwickeln seit vielen Jahren Software und verantworten nun auf der technischen Seite die Konzeption und Realisation des Companion for First. Mit welchen Herausforderungen sehen Sie sich derzeit konfrontiert?

Norman Janet:

In der ersten Phase geht es ja vorrangig um Datenauswertung und Visualisierung. Nutzer sollen den Companion for First mit ganz konkreten Fragen zu ihren Beständen konfrontieren können. „Welche Anleihen laufen in den nächsten 12 Monaten aus?“, „Welche Fonds haben in den vergangenen 6 Monaten eine Volatilität von mehr als 10 % gezeigt und gleichzeitig eine positive Performance?“.

Um diese Fragen erst zu verstehen und dann auch konkret zu beantworten, muss der Companion über ein sehr spezifisches Wissen im Hinblick auf die Funktionen, Arbeitsabläufe und letztlich auch die internen Datenstrukturen von First Cloud verfügen. Und über viele relevante Begriffe aus der Finanzwelt selbstverständlich auch. Dass etwa mit dem „Rente“ eher nicht die persönliche Altersversorgung gemeint ist, sondern ein festverzinsliches Wertpapier, muss der Companion automatisch korrekt einordnen können. „Context is king“, wie wir immer sagen.

Fact:

Sicher keine geringe Aufgabe. Wie ist denn Ihr Team aufgestellt?

Norman Janert:

Wir sind knapp ein Dutzend Personen, die schwerpunktmäßig am Companion arbeiten. Unser Team umfasst Software-Entwickler, Data-Scientists und natürlich die Fachexperten, die teils seit vielen Jahren unser Produkt First bzw. First Cloud betreuen. Außerdem haben wir uns mit der Firma Silpion aus Hamburg externes Know-how ins Boot geholt, weil die Kollegen dort über eine gute Anbindung an das universitäre Umfeld verfügen. Bei aktuellen Forschungsthemen sind wir so stets auf dem neuesten Stand.

Fact:

Mittlerweile hat man ja regelmäßig den Eindruck, moderne KI-Systeme wüssten und könnten bereits fast alles. Wäre es da nicht ein Leichtes, einfach Chat-GPT, Google Gemini oder Perplexity AI auf First Cloud loszulassen?

Norman Janert:

Ja, das wäre natürlich schön, aber in der Praxis viel zu kurz gedacht (lacht) – sowohl technisch als auch strategisch und schon gar nicht im Hinblick auf die Praktikabilität.

Fact:

Das müssen Sie uns erklären.

Norman Janert:

Zunächst einmal wollen wir die Interna unserer Produkte natürlich nicht in fremde Hände geben, das ist sicherlich nachvollziehbar. Außerdem haben wir Anforderungen, die selbst die fortschrittlichsten KI-Modelle nach wie vor nicht erfüllen. Also kein Halluzinieren, sprich Erfinden von falschen Fakten, keine unterschiedlichen Antworten bei der Wiederholung von Fragen. Was Ihnen der Companion zurückmeldet, muss immer Hand und Fuß haben und auch in jeder Aussage exakt stimmen – bis auf die letzte Nachkommastelle. Und die strenge Regulatorik, der unsere Kunden etwa durch die BaFin unterworfen sind, will natürlich auch vollumfänglich berücksichtigt sein. Sonst macht das Ganze keinen Sinn.

Fact:

Aber deshalb werden Sie das Rad in Sachen KI doch sicher nicht neu erfinden?

Norman Janert:

Nein. Wenn man sich die Verarbeitung von Nutzeranfragen durch den Companion aus der Vogelperspektive anschaut, sieht man, dass das Ganze auf einer sogenannten RAG-Pipeline mit sehr kleinteiligen Schritten basiert: Vom „Verstehen“, was der Nutzer möchte, über den Aufbau einer Fragestellung, welche Daten aus First involviert sind, den eigentlichen Datenabruf und die anschließende Umwandlung der Ergebnisse in sprachliche Aussagen oder Grafiken, um es einmal stark vereinfacht darzustellen.

In vielen dieser Prozessschritte sind externe Large Language Models als kognitive Elemente involviert, die berühmten „Arbeitsesel“ der künstlichen Intelligenz. Die müssen wir wirklich nicht neu erfinden und könnten es vermutlich auch gar nicht.

Fact:

Unsere Leser interessiert an dieser Stelle bestimmt, welche Large Language Models Sie präferieren. Schließlich ist das die Arena, in der sich die großen Player des KI-Marktes derzeit ein offenes und spannendes Rennen liefern, in das Milliardensummen investiert werden.

Norman Janert:

Ja, die Entwicklungen in diesem Bereich sind wirklich atemberaubend und hochdynamisch. Und deshalb wollen wir uns diesbezüglich auch nicht festlegen. Wir entwickeln komplett LLM-agnostisch, das heißt, unsere internen Schnittstellen kann man mit wenigen Klicks von einem LLM auf ein anderes umstellen.

Für uns ist immer wieder überraschend, welche Leistung die verschiedenen Modelle bieten, wie es mit der Performance, der Verlässlichkeit, der Sicherheit und natürlich auch mit den Kosten aussieht. Wir haben schon festgestellt, dass für unsere Zwecke gar nicht die jeweils größten und komplexesten Modelle erforderlich sind. Am Ende werden wir uns für das Modell entscheiden, das am besten zu unseren Anforderungen passt.

Fact:

Eröffnet das nicht auch eine Perspektive, auf lokale LLMs zu setzen?

Norman Janert:

Absolut, und das würde uns natürlich noch mehr Kontrolle und auch die Möglichkeit bieten, unsere Modelle vorzutrainieren. Wir wissen aber zum jetzigen Zeitpunkt noch nicht, ob das nötig sein wird. Und ich möchte auch noch einmal betonen: Selbst da, wo wir auf externe LLMs zurückgreifen, können angesichts unserer kleinteiligen Vorgehensweise keine kundenrelevanten Daten abfließen. Diese Daten verbleiben in den internen Prozessschritten, die dazwischen liegen.
Außerdem darf man nicht vergessen: Sobald man kostenpflichtige Business-Leistungen der LLM-Anbieter einsetzt, versichern diese ja auch vertraglich, dass ihre Modelle nicht mit den durchgeschleusten Daten trainiert werden. Man bezahlt also auch ein Stück weit für das sofortige Vergessen.

Fact:

Sie entwickeln eine umfassende KI-Funktionalität für ein bestehendes, bewährtes Produkt. Setzen Sie bei dieser Entwicklung auch selbst auf KI?

Norman Janert:

Durchaus. In der gesamten Produktentwicklung der Fact nimmt die Nutzung von KI-Tools seit etwa zwei Jahren breiten Raum ein. Und das ist ja wirklich ein Feld, wo die KI bereits sehr stark ist und viele ihrer Versprechen eingelöst hat. Ich selbst kodiere nur noch wenig von Hand, sondern mache Ansagen, die die KI in konkreten Programmcode umsetzt. Erst gestern hat ein Kollege zwei wichtige Module per KI „refakturiert“, wie das nachträgliche Umstrukturieren von Programmcode bei uns heißt. Das Ganze dauerte zehn Sekunden. Von Hand hätte er dafür mindestens zwei Arbeitstage benötigt.

Fact:

Wie ist denn der aktuelle Stand der Entwicklung beim Companion for First?

Norman Janert:

Nun, wir haben gezeigt, dass unsere Ansätze funktionieren. An einigen Stellen sogar besser, als anfangs vermutet. Unsere Strategie, weniger auf spezifische Tools, sondern mehr auf Konzepte und Methoden zu setzen, ist voll aufgegangen. Darauf sind wir ein wenig stolz, denn die KI ist ja doch insgesamt ein durchaus komplexes Feld, wo man an vielen Stellen Neuland betritt.
Jetzt sind wir seit einigen Monaten mit der Fleißarbeit beschäftigt: das Wissen über die internen Strukturen integrieren, die Umsetzung der generierten Datenabrufe, das Feintuning beim Prompt-Engineering, das Testen, die Zusammenarbeit mit unserem Pilotkunden. Vor uns liegt also noch ein Stück des Weges, aber wir sind sicher, dass der Companion unseren Kunden einen enormen Mehrwert liefern wird. Das wird schon eine kleine Revolution.

Fact:

Und können Sie bereits absehen, was für Ihr Team danach kommt?

Norman Janert:

Vermutlich erst mal ein paar Tage Urlaub! Die Fertigstellung eines Software-Produkts ist ja doch immer mit einem großen Kraftakt verbunden. Aber tatsächlich haben wir schon die nächsten Entwicklungsstufen des Companions im Blick. Man kann sich etwa vorstellen, dass der Companion KI-gestützt komplexe Analysen durchführt und daraus Reports für das Management und das Controlling generiert. Er könnte selbstständig externe Finanznachrichtenquellen auf wichtige Neuigkeiten zu den Assets im Depot eines Kunden durchsuchen oder beispielsweise regelmäßig im Hintergrund die umfangreichen Logdateien des Systems auswerten und Erklärungen für aufgetretene Anomalien liefern. Damit werden wir uns 2026 und 2027 beschäftigen.

Fact:

Norman, wir danken Ihnen für das Gespräch.

 

Interview

Agentic AI in der Praxis – so entsteht der Companion for First

Projektleiter Norman Janert gibt Einblicke in unser aktuelles KI-Projekt, das Fachlogik, Cloud-Technologie und echte Nutzerbedürfnisse zusammenbringt.

Fact: Norman, Sie entwickeln seit vielen Jahren Software und verantworten nun auf der technischen Seite die Konzeption und Realisation des Companion for First. Mit welchen Herausforderungen sehen Sie sich derzeit konfrontiert?

Norman Janert: In der ersten Phase geht es ja vorrangig um Datenauswertung und Visualisierung. Nutzer sollen den Companion for First mit ganz konkreten Fragen zu ihren Beständen konfrontieren können. „Welche Anleihen laufen in den nächsten 12 Monaten aus?“, „Welche Fonds haben in den vergangenen 6 Monaten eine Volatilität von mehr als 10 % gezeigt und gleichzeitig eine positive Performance?“.

Um diese Fragen erst zu verstehen und dann auch konkret zu beantworten, muss der Companion über ein sehr spezifisches Wissen im Hinblick auf die Funktionen, Arbeitsabläufe und letztlich auch die internen Datenstrukturen von First Cloud verfügen. Und über viele relevante Begriffe aus der Finanzwelt selbstverständlich auch. Dass etwa mit dem „Rente“ eher nicht die persönliche Altersversorgung gemeint ist, sondern ein festverzinsliches Wertpapier, muss der Companion automatisch korrekt einordnen können. „Context is king“, wie wir immer sagen.

Fact: Sicher keine geringe Aufgabe. Wie ist denn Ihr Team aufgestellt?

Norman Janert: Wir sind knapp ein Dutzend Personen, die schwerpunktmäßig am Companion arbeiten. Unser Team umfasst Software-Entwickler, Data-Scientists und natürlich die Fachexperten, die teils seit vielen Jahren unser Produkt First bzw. First Cloud betreuen. Außerdem haben wir uns mit der Firma Silpion aus Hamburg externes Know-how ins Boot geholt, weil die Kollegen dort über eine gute Anbindung an das universitäre Umfeld verfügen. Bei aktuellen Forschungsthemen sind wir so stets auf dem neuesten Stand.

Fact: Mittlerweile hat man ja regelmäßig den Eindruck, moderne KI-Systeme wüssten und könnten bereits fast alles. Wäre es da nicht ein Leichtes, einfach Chat-GPT, Google Gemini oder Perplexity AI auf First Cloud loszulassen?

Norman Janert: Ja, das wäre natürlich schön, aber in der Praxis viel zu kurz gedacht (lacht) – sowohl technisch als auch strategisch und schon gar nicht im Hinblick auf die Praktikabilität.

Fact: Das müssen Sie uns erklären.

Norman Janert: Zunächst einmal wollen wir die Interna unserer Produkte natürlich nicht in fremde Hände geben, das ist sicherlich nachvollziehbar. Außerdem haben wir Anforderungen, die selbst die fortschrittlichsten KI-Modelle nach wie vor nicht erfüllen. Also kein Halluzinieren, sprich Erfinden von falschen Fakten, keine unterschiedlichen Antworten bei der Wiederholung von Fragen. Was Ihnen der Companion zurückmeldet, muss immer Hand und Fuß haben und auch in jeder Aussage exakt stimmen – bis auf die letzte Nachkommastelle. Und die strenge Regulatorik, der unsere Kunden etwa durch die BaFin unterworfen sind, will natürlich auch vollumfänglich berücksichtigt sein. Sonst macht das Ganze keinen Sinn.

Fact: Aber deshalb werden Sie das Rad in Sachen KI doch sicher nicht neu erfinden?

Norman Janert: Nein. Wenn man sich die Verarbeitung von Nutzeranfragen durch den Companion aus der Vogelperspektive anschaut, sieht man, dass das Ganze auf einer sogenannten RAG-Pipeline mit sehr kleinteiligen Schritten basiert: Vom „Verstehen“, was der Nutzer möchte, über den Aufbau einer Fragestellung, welche Daten aus First involviert sind, den eigentlichen Datenabruf und die anschließende Umwandlung der Ergebnisse in sprachliche Aussagen oder Grafiken, um es einmal stark vereinfacht darzustellen.

In vielen dieser Prozessschritte sind externe Large Language Models als kognitive Elemente involviert, die berühmten „Arbeitsesel“ der künstlichen Intelligenz. Die müssen wir wirklich nicht neu erfinden und könnten es vermutlich auch gar nicht.

Fact: Unsere Leser interessiert an dieser Stelle bestimmt, welche Large Language Models Sie präferieren. Schließlich ist das die Arena, in der sich die großen Player des KI-Marktes derzeit ein offenes und spannendes Rennen liefern, in das Milliardensummen investiert werden.

Norman Janert: Ja, die Entwicklungen in diesem Bereich sind wirklich atemberaubend und hochdynamisch. Und deshalb wollen wir uns diesbezüglich auch nicht festlegen. Wir entwickeln komplett LLM-agnostisch, das heißt, unsere internen Schnittstellen kann man mit wenigen Klicks von einem LLM auf ein anderes umstellen.

Für uns ist immer wieder überraschend, welche Leistung die verschiedenen Modelle bieten, wie es mit der Performance, der Verlässlichkeit, der Sicherheit und natürlich auch mit den Kosten aussieht. Wir haben schon festgestellt, dass für unsere Zwecke gar nicht die jeweils größten und komplexesten Modelle erforderlich sind. Am Ende werden wir uns für das Modell entscheiden, das am besten zu unseren Anforderungen passt.

Fact: Eröffnet das nicht auch eine Perspektive, auf lokale LLMs zu setzen?

Norman Janert: Absolut, und das würde uns natürlich noch mehr Kontrolle und auch die Möglichkeit bieten, unsere Modelle vorzutrainieren. Wir wissen aber zum jetzigen Zeitpunkt noch nicht, ob das nötig sein wird. Und ich möchte auch noch einmal betonen: Selbst da, wo wir auf externe LLMs zurückgreifen, können angesichts unserer kleinteiligen Vorgehensweise keine kundenrelevanten Daten abfließen. Diese Daten verbleiben in den internen Prozessschritten, die dazwischen liegen.

Außerdem darf man nicht vergessen: Sobald man kostenpflichtige Business-Leistungen der LLM-Anbieter einsetzt, versichern diese ja auch vertraglich, dass ihre Modelle nicht mit den durchgeschleusten Daten trainiert werden. Man bezahlt also auch ein Stück weit für das sofortige Vergessen.

Fact: Sie entwickeln eine umfassende KI-Funktionalität für ein bestehendes, bewährtes Produkt. Setzen Sie bei dieser Entwicklung auch selbst auf KI?

Norman Janert: Durchaus. In der gesamten Produktentwicklung der Fact nimmt die Nutzung von KI-Tools seit etwa zwei Jahren breiten Raum ein. Und das ist ja wirklich ein Feld, wo die KI bereits sehr stark ist und viele ihrer Versprechen eingelöst hat. Ich selbst kodiere nur noch wenig von Hand, sondern mache Ansagen, die die KI in konkreten Programmcode umsetzt. Erst gestern hat ein Kollege zwei wichtige Module per KI „refakturiert“, wie das nachträgliche Umstrukturieren von Programmcode bei uns heißt. Das Ganze dauerte zehn Sekunden. Von Hand hätte er dafür mindestens zwei Arbeitstage benötigt.

Fact: Wie ist denn der aktuelle Stand der Entwicklung beim Companion for First?

Norman Janert: Nun, wir haben gezeigt, dass unsere Ansätze funktionieren. An einigen Stellen sogar besser, als anfangs vermutet. Unsere Strategie, weniger auf spezifische Tools, sondern mehr auf Konzepte und Methoden zu setzen, ist voll aufgegangen. Darauf sind wir ein wenig stolz, denn die KI ist ja doch insgesamt ein durchaus komplexes Feld, wo man an vielen Stellen Neuland betritt.
Jetzt sind wir seit einigen Monaten mit der Fleißarbeit beschäftigt: das Wissen über die internen Strukturen integrieren, die Umsetzung der generierten Datenabrufe, das Feintuning beim Prompt-Engineering, das Testen, die Zusammenarbeit mit unserem Pilotkunden. Vor uns liegt also noch ein Stück des Weges, aber wir sind sicher, dass der Companion unseren Kunden einen enormen Mehrwert liefern wird. Das wird schon eine kleine Revolution.

Fact: Und können Sie bereits absehen, was für Ihr Team danach kommt?

Norman Janert: Vermutlich erst mal ein paar Tage Urlaub! Die Fertigstellung eines Software-Produkts ist ja doch immer mit einem großen Kraftakt verbunden. Aber tatsächlich haben wir schon die nächsten Entwicklungsstufen des Companions im Blick. Man kann sich etwa vorstellen, dass der Companion KI-gestützt komplexe Analysen durchführt und daraus Reports für das Management und das Controlling generiert. Er könnte selbstständig externe Finanznachrichtenquellen auf wichtige Neuigkeiten zu den Assets im Depot eines Kunden durchsuchen oder beispielsweise regelmäßig im Hintergrund die umfangreichen Logdateien des Systems auswerten und Erklärungen für aufgetretene Anomalien liefern. Damit werden wir uns 2026 und 2027 beschäftigen.

Fact: Norman, wir danken Ihnen für das Gespräch.

 

COMPANION FOR FIRST

Agentic AI für die Kapitalanlageverwaltung – Dialog starten, Daten analysieren, Denkraum schaffen.

Erfahren Sie mehr

Rakete startet in den Himmel

Erfolgreiches Pionierprojekt:

Talanx geht mit First Cloud in der eigenen Cloud-Infrastruktur produktiv.

 

Maßgeschneiderter Umstieg mit Vorbildcharakter

Talanx ist eine der großen europäischen Versicherungsgruppen. Als erster Kunde hat sie First Cloud – unsere Lösung für die komplette Kapitalanlagenverwaltung in der Cloud – erfolgreich in der eigenen IT-Infrastruktur eingeführt und damit ein zukunftsweisendes Zeichen gesetzt. 

Innerhalb von nur zehn Monaten wurde das Projekt in eng abgestimmter Zusammenarbeit beider Teams von der Planung bis zur Produktivsetzung abgeschlossen. Gemeinsam entstand dank der Fachkompetenz und perfekt aufeinander abgestimmten Organisation aller Talanx- und Fact-Beteiligten ein Best-Practice-Beispiel für den strukturierten und sicheren Umstieg von First Classic auf First Cloud. 

Direkt zum Erfahrungsbericht

„Mit der Migration zu First Cloud, betrieben auf unserer eigenen Infrastruktur, haben wir nicht nur unsere Systeme modernisiert, sondern auch unsere Effizienz nachhaltig gesteigert. Die Zusammenarbeit mit Fact war partnerschaftlich und lösungsorientiert – eine Erfolgsgeschichte für beide Seiten.“

– Stefan Lüke Product Owner IT-Infrastruktur, HDI AG, Talanx Gruppe –

Strukturierte Migration in vier Schritten 

Das Umstellungsprojekt verlief zielgerichtet entlang klar definierter Meilensteine – getragen von der engen Zusammenarbeit und konsequenten Fokussierung aller Beteiligten auf den Projekterfolg. 

  1. Effiziente initiale Systeminstallation:
    Der Systemaufsatz erfolgte mithilfe vorhandener Registry-Zugänge und Fact-Konfigurationsdateien und konnte – dank des Infrastruktur-Know-hows des Talanx-Teams – besonders schnell umgesetzt werden. Besonderheiten der Kundenumgebung wurden in wenigen Terminen identifiziert und direkt zu Projektbeginn gelöst.
  2.  Migration von Oracle zu PostgreSQL:
    Wie viele Kunden wechselte auch Talanx wegen hoher Lizenzkosten proprietärer Datenbanksysteme auf PostgreSQL, das Standarddatenbanksystem in der Fact Cloud. Fact führte die Migration durch und ermöglichte dabei die Nutzung verschiedener Teststände mit unterschiedlichen Aktualitätsstufen. Anpassungen waren bei den Schnittstellen erforderlich, da sich die SQL-Syntax je nach SQL-Server-Anbieter unterscheiden kann. Der Umstieg verlief anwendungsseitig reibungslos.
  3.  Neuimplementierung des WM-Datenpools:
    Der bestehende WM-Datenpool für die Verwaltung fondsgebundener Anlagen wurde als moderne, API-gesteuerte Webanwendung neu aufgesetzt. Die Datenlieferungen werden mehrmals täglich eingelesen und können bei Bedarf für neue ISINs oder weitere, bisher nicht berücksichtigte WM-Datenfelder historisch nachgeladen werden. Zusätzlich wurden Schnittstellen angepasst, um die First Cloud-Stammdaten automatisiert abzuleiten und anzureichern.
  4. Produktivsetzung mit nahtlosem Übergang:
    Nach einer mehrwöchigen Testphase, teilweise im Prallelbetrieb, wurde First Cloud produktiv gesetzt und dabei alle Datenbanken und Nutzerdaten komplett durch die Daten der bisherigen First Classic Produktionsumgebung ersetzt. Der Produktivgang wurde innerhalb nur eines Werktags abgeschlossen – ohne nennenswerte Unterbrechung der produktiven Fachbereichsarbeit.  

Dass die Umstellung so zielgerichtet und stabil umgesetzt werden konnte, ist kein Zufall – sondern das Resultat einer vorausschauenden Planung, eines hohen Maßes an fachlicher und technischer Kompetenz auf beiden Seiten sowie einer engen und strukturierten Zusammenarbeit über alle Projektphasen hinweg. Mehrere zentrale Erfolgsfaktoren haben das Projekt maßgeblich geprägt: 

 

Zentrale Erfolgsfaktoren 

  • Fokussiertes und produktives Team aus kompetenten Projektbeteiligten auf beiden Seiten 
  • Zuverlässige Verfügbarkeit der verantwortlichen und operativ tätigen Personen auf Kundenseite, insbesondere für den technischen Betrieb 
  • Kundenseitiges Fachpersonal mit Kubernetes-Know-how, auch im Hinblick auf spezifische Restriktionen der Umgebung 
  • Konsequente und strukturiert umgesetzte Umstellung aller Schnittstellen und Prozesse durch das Fact Consulting-Team, den Fachbereich und die technischen Anwendungsbetreuer 
  • Frühzeitige Einbeziehung des Fachbereichs für Anwendungsschulungen, Schnittstellenumstellungen und Abnahme der relevanten Prozesse 

„Ein durchdachtes, effizient umgesetztes Projekt mit klaren Erfolgsfaktoren. Die Kombination aus technischer Expertise, strukturierter Planung und enger Zusammenarbeit hat zu einer nachhaltigen und erfolgreichen Umstellung geführt.“ 

– Stefan Lüke Product Owner IT-Infrastruktur, HDI AG, Talanx Gruppe –

First Cloud im Kontext 

Mit First Cloud die Kapitalanlageverwaltung zukunftsfähig aufstellen 

First Cloud dient der Abwicklung aller relevanten Prozesse rund um die Verwaltung von Kapitalanlagen: Bestandsführung, Buchhaltung, Solvency II, Meldewesen, Risikocontrolling und ESG. Die Software basiert auf einer skalierbaren Infrastruktur, die die Anforderungen von Unternehmen an technologische Weiterentwicklung erfüllt und bietet alle Vorteile der Cloud-Technologie. First Classic, die für den On-Premises Betrieb entwickelte Ursprungssoftware – wird perspektivisch durch First Cloud abgelöst.

Mehr erfahren 

Flexible Betriebsmodelle

Kunden haben die Wahl zwischen dem Betrieb in der eigenen IT-Infrastruktur oder in der Fact Cloud (Saas). Basierend auf strategischen Abwägungen sowie der Bewertung der hausinternen Kompetenzen, IT-Ressourcen und Infrastruktur ergeben sich unterschiedliche Entscheidungsparameter: 

 

Wolke mit Zahnrad
SaaS
RechnerTower
On-Premises

Betrieb in der Fact Cloud (SaaS):

  • Kein Einsatz eigener Betriebsmittel 
  • Kein Einsatz von IT-Ressourcen 
  • Herstellerkompetenz: Vollumfängliches IT-Infrastruktur- und Applikations-Knowhow 
  • Hohe Verfügbarkeit 

 Mehr erfahren 

 

Betrieb in der eigenen Infrastruktur (On-Premises):

  • Unabhängigkeit und Kontrolle 
  • Keine Bindung an bestimmte Anbieter (kein Vendor Lock-in) 
  • Voraussetzung: Kubernetes-basierte Umgebung und internes Know-how 

Sie denken über den Umstieg auf First Cloud nach?

Ihr First Cloud Experte Aleksandar Ivezić beantwortet gerne Ihre Fragen: 

 a.ivezic@fact.de
+49 2131 777 238 

ACTICO Group, Keensight, Bregal

ACTICO Group holt Keensight Capital als Investor an Bord

Keensight Capital, eine der führenden Private-Equity-Gesellschaften mit Fokus auf europaweite Growth-Buyout-Investments, übernimmt die Mehrheitsbeteiligung an der ACTICO Group. Dies geschieht im Rahmen einer Exklusivvereinbarung mit Bregal Unternehmerkapital Funds, dem größten Mid-Cap-Investor mit Hauptsitz in der DACH-Region, der ebenfalls weiterhin beteiligt bleibt.

For the English version, please click here

Kontinuität und Stabilität in der Unternehmensstruktur

Seit der Zusammenführung der Unternehmen ACTICO GmbH und Fact Informationssysteme & Consulting GmbH zur ACTICO Group und der damit verbundenen strategischen Neuausrichtung ist die Gruppe stark gewachsen. Das Management-Team hat sich erfolgreich neu aufgestellt und die Weichen für eine nachhaltige Weiterentwicklung gestellt. An dieser bewährten Struktur wird sich auch in Zukunft nichts ändern. Für die über 300 renommierten Kunden der Gruppe eine gute Nachricht im Hinblick auf fortgesetzte Stabilität und Kontinuität. Die ACTICO Group und die beteiligten Unternehmen bleiben ihrem Kurs treu und setzen weiter auf innovative Technologien sowie zukunftsweisende digitale Lösungen für die Finanzdienstleistungsbranche.

Gezielte Unterstützung für nachhaltige Entwicklung und stabiles Wachstum

Mit Keensight Capital gewinnt die ACTICO Group einen erfahrenen und strategischen Partner, der langfristige Stabilität mit gezielter Wachstumsförderung verbindet. Dank der umfassenden Expertise in der Skalierung von Softwareunternehmen und dem weitreichenden globalen Netzwerk von Keensight kann die Gruppe ihre Marktposition in bestehenden Regionen weiter festigen und gleichzeitig in internationalen Märkten gesund expandieren. Parallel dazu wird die Gruppe weiterhin strategisch in die Weiterentwicklung ihres Produktportfolios investieren, um langfristig zukunftssichere Lösungen anzubieten.

Manfred Beckers, CEO Fact Informationssysteme & Consulting GmbH:

„Als Teil der ACTICO Group profitieren wir von starken technologischen Synergien und einer klaren Vision für die Zukunft. Die Unterstützung durch Keensight Capital ermöglicht es uns, unsere Marktstellung weiter auszubauen und neue Innovationen voranzutreiben. Das ist ein entscheidender Schritt für unsere gemeinsame Weiterentwicklung.“

 Hans Jürgen Rieder, CEO ACTICO Group:

 „Wir freuen uns, dass Keensight Capital uns ab sofort auf unserer Vision begleitet. Diese Partnerschaft ermöglicht es uns, die nächste Phase unseres Wachstumskurses einzuläuten. Die Expertise von Keensight in der Skalierung von Softwareunternehmen und ihr globales Netzwerk werden uns helfen, neue Möglichkeiten in unseren Kernmärkten zu nutzen und unseren Kunden noch mehr Mehrwert zu bieten.“

Über ACTICO Group

Die ACTICO Group ist ein führender internationaler Anbieter digitaler Lösungen für regulatorische Compliance, Kapitalanlageverwaltung, Credit Risk, Daten & Reporting sowie Decision Automation. Ihre flexiblen und agilen Softwarelösungen unterstützen Unternehmen dabei, regulatorische Anforderungen zu erfüllen, Prozesse zu optimieren und sich mithilfe KI-gestützter Technologie auf ihr Wachstum zu konzentrieren.
Mit über 25 Jahren Erfahrung betreut ACTICO Group mehr als 300 Kunden weltweit aus den Bereichen Finanzwesen, Industrie und Technologie und bietet leistungsstarke Lösungen mit einem klaren Fokus auf Kundenerfolg. Das Unternehmen ist an sechs Standorten tätig und beschäftigt ein Team von 230 Mitarbeitern, das Kunden in über 25 Ländern unterstützt. www.acticogroup.com

Über Keensight Capital

Keensight Capital ist eine der führenden europäischen Growth-Buyout-Gesellschaften und spezialisiert auf die Unterstützung von Unternehmern bei der Umsetzung nachhaltiger Wachstumsstrategien. Mit über 25 Jahren Erfahrung und einem verwalteten Vermögen von 5,5 Milliarden Euro investiert Keensight gezielt in profitabel wachsende Unternehmen mit einem Umsatz zwischen 10 Millionen und 400 Millionen Euro.
Dank ausgeprägter Branchenkompetenz in den Bereichen Technologie und Gesundheitswesen identifiziert Keensight die besten Investitionsmöglichkeiten in Europa und arbeitet eng mit den Management-Teams zusammen, um Kapital, strategische Beratung und operative Unterstützung bereitzustellen. Keensight ist in mehr als 90 Ländern weltweit tätig und verfügt über Standorte in Paris, London, Boston und Singapur. www.keensight.com

Über Bregal Unternehmerkapital

BU Bregal Unternehmerkapital ist eine führende Investmentgesellschaft mit Standorten in Zug, München, Mailand und London. Mit bisher eingeworbenem Kapital in Höhe von 7,0 Milliarden Euro ist BU der größte Mid-Cap-Investor mit Hauptsitz in der DACH-Region. Die von BU beratenen Fonds investieren in mittelständische Unternehmen mit Sitz in Deutschland, der Schweiz, Italien und Österreich.
Mit der Mission, der bevorzugte Partner für Unternehmer und familiengeführte Unternehmen zu sein, konzentriert sich BU auf Marktführer und „Hidden Champions“, die über starke Management-Teams und signifikantes Wachstumspotenzial verfügen. Seit der Gründung im Jahr 2015 haben die von BU beratenen Fonds in mehr als 140 Unternehmen mit über 29.000 Mitarbeitern investiert und dabei rund 10.000 Arbeitsplätze geschaffen. Als strategischer Partner unterstützt BU Unternehmer und Familien bei der Weiterentwicklung, Internationalisierung und Digitalisierung ihrer Unternehmen. Dabei liegt der Fokus darauf, nachhaltige Werte zu schaffen – stets mit Blick auf die nächste Generation. www.bu-partners.de

Fact einzelne Bausteine die ein großes Quadrat ergeben

Cloud-Computing ist nicht gleich Cloud-Computing. Es kommt auf das passende Betriebsmodell an

Cloud-Computing-Betriebsmodelle: IaaS, PaaS und SaaS im Vergleich – Finden Sie das passende Modell für Ihr Unternehmen

Spricht man in diesen Tagen mit Software-Designern und IT-Verantwortlichen über aktuelle Branchentrends, fallen schnell Begriffe wie Künstliche Intelligenz, Extended Reality, Hyperautomation, Distributed Cloud, Multiexperience, 5G und vieles mehr. Alles spannende Entwicklungen mit großem Zukunftspotenzial, kein Zweifel.

Schaut man jedoch, was davon hier und jetzt bereits umgesetzt wird, dann rückt vor allem ein Thema ins Blickfeld: Cloud-Computing. Die Verlagerung von IT-Ressourcen weg von lokalen Arbeitsgruppen-Servern und Rechenzentren in Unternehmen hin zu entfernten Rechenzentren von Cloud-Anbietern ist ein Mega-Trend unserer Zeit. Es passiert jetzt.

Antreiber des Cloud-Computings

Die Motive dafür sind leicht nachvollziehbar und folgen bekannten Mustern: Reduktion von Kapital- und Personal-Kosten, bedarfsgerechte Bereitstellung benötigter Ressourcen, erhöhte Flexibilität, Aufweichung starrer Nutzungsgrenzen hinsichtlich Ort, Zeit und der verfügbaren Endgeräte etc.
Dennoch gilt es genau hinzuschauen, denn auch beim Cloud-Computing haben sich mittlerweile verschiedene Betriebsmodelle etabliert. Und nicht jedes Modell passt für jeden Bedarf.
Drei Modelle stehen im Vordergrund: „Infrastructure as a Service“ (IaaS), „Platform as a Service“ (PaaS) und „Software as a Service“ (SaaS).
Um sie zu verstehen, lohnt sich ein Blick auf den klassischen Betrieb von Server-Anwendungen in Unternehmen (On-Premises). Die folgende Abbildung zeigt den typischen Software- und Hardware-Stack, also die verschiedenen Komponenten, die dabei ineinander greifen.

Struktur von IT-Systemen

Oben befindet sich eine oder mehrere meist branchenspezifische Anwendungen und die von ihnen verwalteten und bearbeiteten Daten. Das ist die Ebene, mit der der Endbenutzer interagiert.
Darunter folgt die Middleware, Software, die übergreifend für verschiedene Anwendungen z.B. Datenbankfunktionen, Transaktionsverarbeitung oder beispielsweise Authentifizierung und Verschlüsselung übernimmt.
Darunter sitzt das Betriebssystem als Mittler zwischen der Software und der Hardware, häufig gefolgt von einer Virtualisierungsebene. Sie hat die Aufgabe, mehrere unterschiedliche Betriebssysteme bzw. Betriebssystem-Instanzen parallel auf einer physischen Hardware auszuführen. Dadurch lassen sich die verfügbaren Hardware-Ressourcen besser ausschöpfen.
Erst daran schließt sich die eigentliche Server-Hardware an: CPU, Speicher, Datenträger und Netzwerkverbindungen.
Bei den verschiedenen Cloud-Modellen geht es nun darum, welche dieser Ebenen vom Cloud-Anbieter gemanagt werden und welche unter der Kontrolle und Aufsicht des Kunden stehen, der seine IT-Ressourcen in die Cloud verlagern möchte.

 

Betriebsmodelle des Cloud-Computings vs. Server-Betrieb On-Premises

 

  • Beim klassischen Server-Betrieb unter eigener Regie (On-Premises) ist der Betreiber/das Unternehmen für alle diese Ebenen verantwortlich. Wird zusätzlicher Speicher benötigt, fällt eine Festplatte aus, müssen das Betriebssystem oder andere Komponenten aktualisiert werden – alles eine Aufgabe der jeweiligen IT-Abteilung.
  • Bei „Infrastructure as a Service“ (IaaS) obliegt die Bereitstellung und Wartung der Hardware und die Virtualisierung dem Cloud-Anbieter. Der Kunde kann auf der angebotenen Plattform beliebige Betriebssysteme, Middleware und Anwendungen entfernt über das Internet installieren und ist auch für deren Betrieb und Wartung verantwortlich. Mit der Hardware kommt er nicht in Berührung.
  • Einen Schritt weiter geht „Platform as a Service“ (PaaS). Hier installiert und konfiguriert der Cloud-Anbieter für seine Kunden auch Betriebssystem und Middleware, überwacht deren Betrieb und spielt regelmäßig alle erforderlichen Updates und Releases ein. Auf dieser klar definierten Basis installiert der Kunde seine Anwendungen und steuert deren Betrieb. Um mehr muss er sich nicht kümmern.
  • Noch eine Ebene höher ist „Software as a Service“ (SaaS) angesiedelt: SaaS bietet ein vollständiges Produkt, das von einem Serviceanbieter ausgeführt und verwaltet wird. In den meisten Fällen bezieht sich SaaS auf Endbenutzeranwendungen.

Fazit:

Die verschiedenen Betriebsmodelle von IT-Infrastruktur – On-Premises, IaaS, PaaS und SaaS – bieten Unternehmen unterschiedliche Stufen von Kontrolle und Verantwortlichkeit.

Während beim traditionellen On-Premises-Betrieb die vollständige Verantwortung beim Unternehmen selbst liegt, übernehmen Cloud-Anbieter in den verschiedenen Servicemodellen zunehmend mehr Aufgaben, von der Hardwareverwaltung (IaaS) über das Betriebssystem und Middleware (PaaS) bis hin zur Bereitstellung kompletter Anwendungen (SaaS).

Je höher die Ebene des Cloud-Services, desto mehr wird der administrative Aufwand für das Unternehmen reduziert, was insbesondere für Ressourcen und Effizienzvorteile sorgen kann. Unternehmen können so je nach Bedarf entscheiden, wie viel Kontrolle und Wartungsaufwand sie selbst tragen möchten und welche Aufgaben sie einem Cloud-Anbieter überlassen wollen.

Alexander Poppe am Schreibtisch

Willkommen Alexander Poppe

Gemeinsam in die Zukunft: Alexander Poppe unterstützt Fact mit Expertise und Erfahrung

Ab Januar 2025 startet eine neue Kooperation, die die Arbeit der Fact weiter stärkt: Alexander Poppe, Gründer von AP – Alexander Poppe Consulting, wird uns künftig mit seiner umfangreichen Erfahrung und seinem tiefen Verständnis für die Finanzindustrie beratend zur Seite stehen.

Ein beeindruckender Partner

Alexander Poppe blickt auf über 22 Jahre in der Fondsadministration zurück und hat in dieser Zeit unter anderem als langjähriger Geschäftsführer der Master-KVG INKA bei HSBC Deutschland bedeutende Verantwortung getragen. Dabei war er maßgeblich an der Entwicklung innovativer Lösungen beteiligt, die den Anforderungen einer dynamischen Branche gerecht werden. Diese breite Expertise bringt er nun in die Zusammenarbeit mit Fact ein.

Mit der Gründung von AP – Alexander Poppe Consulting im Januar 2025 fokussiert er sich auf Beratungsprojekte, die praxisnahe und zukunftsorientierte Lösungen für die Finanzbranche voranbringen – ein Ansatz, der perfekt zu den Zielen von Fact passt.
Zeitgleich mit der Gründung von AP – Alexander Poppe Consulting ist auch die neue Website online gegangen. Schauen Sie vorbei und erfahren Sie mehr über sein Angebot und Kontaktmöglichkeiten: www.ap-poppe.de

Interview mit Alexander Poppe

Um mehr über die Ziele der Zusammenarbeit zu erfahren, haben wir Alexander Poppe zu einem kurzen Interview eingeladen:

Fact:

Herr Poppe, können Sie uns etwas über Ihren beruflichen Werdegang erzählen?

Alexander Poppe:

Während meiner mehr als zwei Jahrzehnte bei der HSBC durfte ich viele, spannende Herausforderungen erfolgreich meistern: So begleite ich ja z.B. das Thema Master-KVG quasi als einer der Pioniere seit ihrer Einführung – sei es als langjähriges Mitglied der Geschäftsführung der Master-KVG Inka oder im Management Committee Security Services Deutschland. Dabei lag mein Fokus immer darauf, Prozesse zu optimieren und Lösungen zu entwickeln, die sich an den Anforderungen der Branche orientieren. Seit Anfang 2025 widme ich mich mit meiner Beratung der Aufgabe, Unternehmen in der Kapitalanlagebranche mit Fokus auf Asset Servicing und Fondsadministration mit meinem Wissen und meiner Erfahrung gezielt zu unterstützen.

Fact:

Was hat Sie an der Zusammenarbeit mit Fact gereizt?

Alexander Poppe:

Die Themen der Fact und der Finanzbranche sind seit Jahren eng miteinander verbunden. Ich schätze die Innovationskraft des Unternehmens und freue mich darauf, meine Erfahrung beratend einzubringen, um gemeinsam praxisnahe Lösungen voranzubringen. Besonders bedeutsam ist für mich die langjährige, vertrauensvolle Zusammenarbeit mit Manfred Beckers, die sich über die Jahre zu einer engen und kollegialen Verbindung entwickelt hat. Dieses gegenseitige Verständnis bildet eine starke Grundlage für die gemeinsame Arbeit.

Fact:

Welche Schwerpunkte möchten Sie in der Zusammenarbeit setzen?

Alexander Poppe:

Ich möchte Fact beratend unterstützen, insbesondere bei der Weiterentwicklung praxisnaher Lösungen und der Anpassung an die sich stetig wandelnden Anforderungen der Finanzbranche. Dabei ist es mir wichtig, meine Erfahrungen und meine Kontakte einzubringen, um gemeinsam Lösungen zu entwickeln, die den Kunden echten Mehrwert bieten. Gleichzeitig freue ich mich darauf, meine Perspektiven und mein Verständnis für die Bedürfnisse der Branche einzusetzen, um die Reichweite und Sichtbarkeit von Fact weiter zu stärken.

Fact:

Worauf freuen Sie sich am meisten in Ihrer neuen Rolle?

Alexander Poppe:

Ich freue mich darauf, gemeinsam an Projekten zu arbeiten, die die Branche stärken. Es geht darum, die Digitalisierung der Finanzindustrie aktiv mitzugestalten – und ich bin stolz, ein Teil davon zu sein.

„Mit Alexander Poppe gewinnen wir einen erfahrenen Berater, der unsere Werte teilt und uns dabei unterstützt, die Digitalisierung der Finanzindustrie einfacher, sicherer und zukunftsorientierter zu gestalten. Unsere langjährige und vertrauensvolle Zusammenarbeit, geprägt von einem offenen und kollegialen Austausch, macht diese Kooperation für mich persönlich besonders wertvoll.“

Manfred Beckers, CEO der Fact

Fact Container auf Computertastatur

Revolutionierung der Rechenzentren für effizientere IT-Infrastrukturen

Docker und Container-Technologie

Blickt man hinter die Kulissen, erinnern moderne Cloud-Lösungen technisch betrachtet ein wenig an die IT-Modelle der Sechziger- und Siebziger-Jahre, als einfache textbasierte Terminals per Datenfernübertragung mit Großrechnern in Rechenzentren verbunden waren. Nur dass heute wesentlich schnellere Netzwerkverbindungen, ausgefeiltere Benutzeroberflächen und tausend Mal mehr Rechenleistung schon in einfachsten Servern zur Verfügung stehen.

Dennoch geht es für die Anbieter von Cloud-Lösungen weiterhin darum, in ihren Rechenzentren eine möglichst große Zahl von Nutzern gleichzeitig und dabei auch gleichmäßig zu bedienen. Nur so können durch Cloud-Computing Kosten- und Effizienzvorteile erzielt werden.

Lastspitzen sollen dynamisch abgefangen und ausgeglichen werden, damit Nutzer nicht wie in vergangenen Zeiten schon einmal Sekunden warten müssen, bis Anwendungen auf ihre Eingaben und Abfragen reagieren. Cloud-Dienste sollen so reaktiv sein, als würden sie auf dem lokalen Endgerät des Nutzers ausgeführt. Das ist ein ganz entscheidender Faktor für den Erfolg der Cloud-Technologie.

Eine zentrale Rolle spielt dabei das Thema Virtualisierung und die Ausführung von Cloud-Anwendungen in Containern.

Mit Virtualisierung fing alles an

Um mehrere Nutzer auf einem Server zu bedienen, setzte man in den Anfangstagen des Cloud-Computings auf sogenannte „Virtuelle Maschinen“. Virtualisierungsprodukte wie KVM, Xen oder VMware simulieren gegenüber dem Betriebssystem und der jeweiligen Applikation die Existenz mehrerer vollständiger PCs auf einem Server ‑ jeder davon mit eigenständiger CPU, Speicher, Festplatte, BIOS etc.

Dies stellt ein hohes Maß an Kompatibilität und Abgrenzung der verschiedenen Nutzer und ihrer Applikationen sicher. Gleichzeitig bringt es einen bedeutenden Mehraufwand mit sich, der sich mit einer wachsenden Anzahl virtueller Maschinen pro Server zunehmend bemerkbar macht.

Schließlich muss in jeder zusätzlichen virtuellen Maschine beim Start derselbe Softwarestack hochgefahren werden, wie auf dedizierten Servern: Betriebssystem, Datenbank, Bibliotheken und Konfigurationsdateien sind in jeder VM einzeln zu installieren und bei Bedarf zu aktualisieren. Das führt zu einem hohen Ressourcen-Verbrauch und langsamen Startzeiten. Die Leistung sinkt.

Software als Massenstückgut

Aus dem Wunsch nach effizienteren Lösungen entwickelte sich die Container-Technik mit der Open-Source-Lösung Docker als ihrem prominentesten Vertreter. Dabei werden nicht mehr komplette virtuelle PCs simuliert, sondern lediglich die Laufzeitumgebungen der verschiedenen Anwendungen auf einer Maschine geschickt voneinander abgeschottet. Jede Anwendung wird dazu in einen oder mehrere Software-Container verpackt, die als eigenständige Prozesse auf einer gemeinsamen Betriebssystem-Instanz laufen. Diese Container können jederzeit individuell gestartet und beendet werden.

Nicht zufällig wurde der Begriff „Software-Container“ der realen Welt entliehen, wo Standard-Seecontainer seit 1960 den Warentransport revolutioniert haben. Container befördern heute Güter aller Art: Schüttgut, Paletten, Pakete, Säcke oder Fahrzeuge. Das erforderte bis dahin neben viel Handarbeit auch eine vielfältige Verlade- und Transportinfrastruktur. Zwar gibt es weiterhin Spezialanfertigungen wie etwa Kühlcontainer, Tankcontainer oder Wohncontainer – für Logistiker macht dies aufgrund der Standardisierung hinsichtlich Größe, Transport-Schnittstelle und Dokumentation aber kaum einen Unterschied.

Genauso ist es nun auch in der IT-Welt: Software-Unternehmen liefern ihre Produkte in Form standardisierter Software-Container an, Cloud-Anbieter schieben sie auf gerade freie Server in ihren Rechenzentren und führen sie dort aus.

Mehr Effizienz durch Container

Durch Container reduziert sich der Ressourcenbedarf einer Anwendung im Vergleich zu vollständigen Virtuellen Maschinen spürbar. Außerdem fallen die Container-Images deutlich kleiner aus, weil darin nur noch die Anwendung und nicht mehr der Betriebssystem-Kern enthalten sein muss.

Als Folge starten Container wesentlich zügiger und benötigen für ihre Ausführung weniger Speicher. Außerdem müssen sie nicht regelmäßig mit Updates für Betriebssystem, Datenbanken, Bibliotheken etc. versorgt werden. Auch Änderungen an der Software gestalten sich mit Containern viel einfacher, weil sie nicht mehr innerhalb der Produktivumgebung stattfinden müssen.

Stattdessen werden Änderungen beim Software-Lieferanten in einem neuen Image (einer Docker-Datei) getestet. Anschließend wird einfach das betreffende Image auf dem Server ausgetauscht. Damit ist die Aktualisierung abgeschlossen.

Vor allem lassen sich Container im laufenden Betrieb zwischen verschiedenen Servern hin- und herschieben, ohne dass die Ausführung spürbar unterbrochen wird oder Daten verloren gehen. So wird sichergestellt, dass jeder Container zu jedem Zeitpunkt die erforderliche Menge an CPU-Leistung erhält.

Standard-Lösung Docker

Docker hat diese Mechanismen auf breiter Basis populär gemacht. Doch Docker ist viel mehr als nur ein Anwendungs-Virtualisierer. Mit Docker hat sich auch ein Format für das Verpacken von Anwendungen etabliert, was deren Distribution deutlich vereinfacht. Denn in diesen Containern stecken nicht nur die Anwendungen selbst, sondern auch die zusätzlichen Bibliotheken und Pakete, die für die Ausführung einer Applikation individuell benötigt werden.

 

 

Applikationsbetrieb in Docker-Containern

 

Außerdem schuf Docker einen Standard, wie Container untereinander mittels etablierter Techniken wie TCP/IP kommunizieren können. Und zwar innerhalb eines Servers und über Rechnergrenzen hinweg.

Dadurch können die Aufgaben einer Software-Lösung auf viele unabhängige Container verteilt werden. In einem Container steckt beispielswese die Applikations-Logik, in einem anderen der benötigte Datenbank-Server, im nächsten ein Internet-Gateway usw. Wo der jeweilige Container gerade ausgeführt wird, ist nebensächlich.

Prinzipiell ist Docker auf die Anwendungsvirtualisierung mit Linux ausgerichtet. Docker kann allerdings auch mittels Hyper-V bzw. VirtualBox unter Windows und mit HyperKit bzw. VirtualBox unter macOS verwendet werden. Aus dem modernen Cloud-Computing ist Docker deshalb nicht mehr wegzudenken.

Fact Foto Aleksandar Ivezić vor Produktwand

Effiziente Finanzberichterstattung:

Interview mit Aleksandar Ivezić über das Fin RP Best-Practice-Toolkit

Fact:

Aleksandar, welche Ziele verfolgen Sie mit dem Best-Practice-Toolkit?

Aleksandar Ivezić:

Wissen Sie, Fin RP ist ein hochspezialisiertes und sehr mächtiges Werkzeug. Wir möchten, dass unsere Neukunden möglichst schnell zu druckfertigen Berichten gelangen. Das Best-Practice-Toolkit bringt dafür alles Entscheidende mit.

Fact:

Nun werden Ihre Kunden ja sicher in der Vergangenheit bereits Berichte erstellt und deshalb eine konkrete Vorstellung haben, wie ihre Publikationen aussehen sollen.

Aleksandar Ivezić:

Ganz genau, und deshalb fragen wir die grundlegenden Design- und Texteinstellungen bereits im Vorfeld über unseren Design-Fragebogen ab und spielen diese in Fin RP ein.

Fact:

Welche Aufgaben bleiben dann für den Kunden?

Aleksandar Ivezić:

Der Kunde hat weiter alle Prozesse in der Hand, doch das Aufgabenbild wandelt sich. Nicht mehr Fleißaufgaben wie Datensammeln, Eingeben und das Abhaken von Ergebnissen stehen im Vordergrund, sondern viel mehr Steuerungs- und Managementaufgaben im Rahmen eines echten Disclosure „Managements“.

Fact:

Sie entlasten also die Kunden?

Aleksandar Ivezić:

Absolut! Durch den höheren Automatisierungsgrad. Und wir schaffen Freiräume, um sich beispielsweise auf die Qualitätssicherung und neue regulatorische Anforderungen zu fokussieren. Das ist nach meiner Erfahrung ein Aspekt, der gerade in einem so dynamischen Umfeld von zentraler Bedeutung ist. Man denke beispielsweise an die aktuellen Entwicklungen beim ESG Reporting.

Fact:

Und wenn das Setup steht und auch die Daten durch Importskripte mehr oder weniger automatisch eingespielt werden?

Aleksandar Ivezić:

Dann wollen viele Kunden Fin RP auch für Berichte nutzen, bei denen man sich in der Vergangenheit eher weniger Mühe gegeben hat, weil der Aufwand zu groß schien. Bei Spezialfonds etwa, wo die Leserschaft im Vergleich zu Publikumsfonds viel kleiner ist. Aber mit Fin RP lassen sich eben auch dafür im Handumdrehen kostengünstig Hochglanzberichte produzieren. Wir sehen darin eine echte Chance, damit Vermögensverwalter in der Wahrnehmung ihrer Kunden professioneller dastehen, als die Mitbewerber.

Fact:

Nun bezieht sich das Konzept der Best-Practices ja nicht nur auf die Bedienung einer Software, sondern auch auf die Ausgestaltung der Prozesse drumherum.

Aleksandar Ivezić:

Auf jeden Fall, und auch in dieser Hinsicht beraten wir unsere Kunden und können wertvolle Erfahrungen mit ihnen teilen. Beispielsweise in der Frage, wer die Daten in das System einbringen soll. Eine zentrale Abteilung oder die zuständigen Fachabteilungen, denen man dafür einen Zugang zu Fin RP einräumt? Wie bindet man externe Dienstleister optimal ein? Oder die Frage, wie man die Kommunikation aller Beteiligten organisiert. Indem man die Möglichkeiten von Fin RP ausreizt, kann man sehr viel effizienter agieren, als vielleicht in der Vergangenheit. Insgesamt gibt es da ein enormes Potenzial.

Fact:

Aleksandar wir danken Ihnen für das Gespräch.