Eine kurze Geschichte der Künstlichen Intelligenz – von den Anfängen bis zum Companion for First

Wie KI wurde, was sie heute ist – und warum der Companion for First ein logischer nächster Schritt ist.

 

Manfred Beckers

Liebe Leser,

Faulheit ist die Triebfeder allen Fortschritts, sagt man. Der Wunsch, mit weniger Aufwand mehr zu erreichen, zieht sich wie ein roter Faden durch die Geschichte der Menschheit. Wir lassen Maschinen für uns arbeiten, Computer für uns rechnen und immer häufiger auch für uns mitdenken. KI ist heute längst Teil unserer Realität.

Als ich im Herbst 2022 zum ersten Mal mit ChatGPT experimentierte, war ich elektrisiert von der Möglichkeit, komplexe Antworten auf einfache, umgangssprachlich formulierte Fragen zu erhalten. Kein aufwendiges Suchen mehr, kein endloses Herumklicken in verteilten Wissensquellen. Etwas Vergleichbares sollten unsere Softwareprodukte auch beherrschen. Keine drei Jahre später sind wir auf dem besten Wege, dies zu erreichen.

Eine kurze Geschichte der Künstlichen Intelligenz

Wenn man Künstliche Intelligenz (KI) grundlegend verstehen und ihre Möglichkeiten und Grenzen einschätzen möchte, ist es hilfreich, sich einige der zentralen Entwicklungsschritte näher anzusehen.

Der lange Weg von den Anfängen bis zu massentauglichen Produkten wie ChatGPT, Midjourney (Bildgenerator) oder spezialisierten Anwendungen wie dem Companion for First ist gesäumt von:

  • Mathematischen Errungenschaften – Gottfried Wilhelm Leibniz
  • Biologischen Erkenntnissen – Anlehnung an Neuronale Netzwerke
  • Algorithmischen Durchbrüchen – Training komplexer KI-Modelle
  • Unglaublichen Fortschritten in der Computer-Hardware – Miniaturisierung, Beschleunigung und Parallelisierung
  • Sowie der freien Verfügbarkeit von Weltwissen im Internet zum Trainieren dieser Modelle. Denn ohne Daten ist eine KI nichts.

Die Geschichte beginnt im 18. Jahrhundert mit dem, was man heute einen bitterbösen Fake nennen würde: einer schachspielenden Puppe in orientalischen Gewändern, die ab 1769 halb Europa in Staunen versetzte. Niemand war dem lebensgroßen Roboter, der sich hinter einer massiven Holztruhe erhob, im Schachspiel gewachsen. Kein Wunder, schließlich befand sich in der Truhe, hinter einer komplexen Mechanik verborgen, ein menschlicher Schachmeister. Er war es, der die Puppe und ihr Schachspiel dirigierte.

Neuronale Netze

Moderne KI-Systeme sind ganz wesentlich von Anleihen an die grundlegende Struktur unseres Gehirns inspiriert. Menschliche Intelligenz basiert auf einem vernetzten System von geschätzt etwa 80 bis 100 Milliarden Neuronen. Noch viel zahlreicher sind die Verbindungen zwischen diesen Neuronen, die sich unter der Schädeldecke als „weiße Substanz“ manifestieren.

Es ist ein gewaltiges Netzwerk, in dem jedes Neuron Input von unzähligen weiteren Neuronen erhält, die ihm quasi vorgeschaltet sind. Diese Signale werden über chemische Botenstoffe zwischen den Neuronen weitergeleitet und im Neuron selbst in elektrische Potenziale umgewandelt.

Jedes Neuron gewichtet seine verschiedenen Eingänge. Wenn vorgeschaltete Neuronen feuern und die Summe der „Gewichte“ einen bestimmten Schwellenwert erreicht, beginnt das Neuron selbst zu feuern: Es produziert einen elektrischen Impuls, der an seinem Ende wieder in chemische Botenstoffe umgewandelt und auf diese Weise an alle nachfolgend mit ihm verbundenen Neuronen weitergeleitet wird. Das geschieht millionenfach in jedem Moment unseres Seins. Ein echtes Wunder der Natur.

KI-Systeme als Graphen

KI-Systeme wie der Companion for First bauen nicht eins zu eins die biologischen Elemente unseres Gehirns nach (Botenstoffe, elektrische Potenziale etc.), wohl aber die grundlegende Struktur, die sich mathematisch mithilfe von sogenannten Graphen darstellen lässt.

Ein Graph ist ein Netz aus Knoten (Analogie: Neuronen) und Verbindungen zwischen diesen Knoten, den sogenannten Kanten (Analogie: die Vernetzungen in der weißen Substanz). Jeder Knoten kann dabei mit beliebig vielen anderen Knoten verbunden sein.

Viele Elemente unseres Alltags kann man sich als Graphen vorstellen. Etwa das Verkehrsnetz, wo von jeder Abzweigung oder Kreuzung (einem Knoten) Wege (Kanten) zu den nächsten Abzweigungen führen. Oder denken Sie an soziale Beziehungen, wo jeder Mensch (Knoten) mit anderen Menschen verbunden ist (Kanten). Tatsächlich sind nicht mehr als sechs bis sieben Zwischenstationen erforderlich, um eine Verbindung zu jedem anderen Individuum auf diesem Planeten zu knüpfen, wie erstmals in den 1960er Jahren gezeigt wurde – das sogenannte „Kleine-Welt-Phänomen“.

Entsprechende Such-Algorithmen spielen deshalb für die Arbeit mit solchen Graphen eine zentrale Rolle – bei der Künstlichen Intelligenz insgesamt, aber beispielsweise auch für die ganz normale Routenplanung in jedem handelsüblichen Navigationssystem. Die erforderlichen Algorithmen wurden Ende der 1950er Jahre entwickelt und sind heute Standard.

Zurück zum Inhaltsverzeichnis

Vom Input zum Output

Informationsverarbeitung bedeutet immer, von einer Eingabe zu einer Ausgabe zu gelangen. Im Gehirn bilden die Sinnesmodalitäten (Hören, Sehen, Fühlen etc.) oder das Denken selbst den Input. Der Output manifestiert sich in Gedanken, Gefühlen, Worten und Handlungen. Dazwischen liegt das große Netzwerk der neuronalen Verarbeitung.

Bei modernen KI-Systemen ist der Input potenziell alles, was sich digitalisieren lässt: Sprache in Textform oder akustisch aufgezeichnet, in Pixel aufgelöste Bilder, Musik, chemische Formeln, Börsenkurse und vieles mehr. Was dabei am Ende als Output herauskommt, hängt ganz maßgeblich von dem nachgebildeten Neuronalen Netz und dessen Training (Lernen) ab.

Noch nicht gezündet

Die Hoffnung vieler Forscher, man müsse nur immer größere KI-Modelle bauen und diese mit mehr und mehr Informationen trainieren, dann werde sich der Funke des Geistes schon irgendwann von selbst entzünden, ist zumindest bislang nicht in Erfüllung gegangen. Eine sogenannte Künstliche „Allgemeine Intelligenz (AIG)“ ist weiterhin nicht in Sicht. Aber völlig ausgeschlossen ist ein solcher Entwicklungssprung nicht. Andere argumentieren hingegen, es existiere ein bislang unentdecktes Bindeglied, eine Komponente, die echtes Denken und umfassendes Schlussfolgern erst möglich macht. Nach wie vor gilt dies als eines der spannendsten und kontroversesten Themen in der aktuellen KI-Forschung.

Herausforderung KI-Training

Moderne KI-Systeme basieren auf vielen Dutzenden von Schichten zwischen Input und Output (ChatGPT 3.5: 96 Schichten) mit Millionen von nachgebildeten Neuronen innerhalb jeder Schicht und Milliarden von Verknüpfungen zwischen diesen Neuronen (ChatGPT 3.5: 175 Milliarden). Man spricht in diesem Zusammenhang auch von Parametern, die man sich als die Summe aller Gewichtungen in den Neuronenverbindungen eines KI-Modells vorstellen kann.

Ihre Anzahl steigt bei modernen KI-Systemen von Generation zu Generation, befördert ihre Lern- und Leistungsfähigkeit, allerdings auch ihren Ressourcenverbrauch. Bei ChatGPT 4 sind es geschätzt bereits 1.800 Milliarden Parameter in 220 Schichten – eine Verzehnfachung zum vorhergehenden Modell.

Konzeptionelle Durchbrüche in der KI-Forschung

1969 – Hidden Layers
Einführung von mehr als einer neuronalen Schicht zwischen Input und Output.

1982 – Backpropagation
Verfahren zum Training von mehrschichtigen Neuronalen Netzen.

1987 – Convolutional Neuronal Networks
Muster- und Merkmalserkennung in Neuronalen Netzen.

1990 – Recurrent Neuronal Networks
Einführung der kontextbezogenen Verarbeitung von Inputs.

1997 – Long-Short-Term-Memory
Selbstständiger Rückgriff auf bereits zuvor Erlerntes während des Trainings.

2014 – Generative Adversarial Networks
Zwei Neuronale Netzwerke, die gegeneinander laufen. Grundlage für moderne Bildgeneratoren.

2017 – Transformer Neural Networks
Neuronale Netzwerke erlernen beim Trainieren nicht nur Daten, sondern auch, Wichtiges von Unwichtigem zu unterscheiden und Bezüge über größere Wissensdistanzen herzustellen (Stichwort Aufmerksamkeitssteuerung). Die Technik hinter ChatGPT.

Lernmodelle der KI

Überwachtes Lernen
Die zu lernenden Informationen werden mit Informationen über das gewünschte Resultat ausgezeichnet (gelabelt). Häufig geschieht dies von Menschenhand. So werden Bilder beispielsweise mit Schlagworten zu ihrem Inhalt versehen (Hund, Katze, Maus). Eine Trainingssoftware füttert das jeweilige KI-Modell mit jedem einzelnen Bild und passt dabei die Gewichtungen des Neuronalen Netzwerks so lange an, bis als Output das definierte Resultat erscheint.

Pfeil

Unüberwachtes Lernen
KI-Modelle werden mit Daten gefüttert, die nicht konkret ausgezeichnet sind. Das Modell soll lernen, Ähnlichkeiten, Muster und Strukturen in diesen Daten zu entdecken, damit es zukünftige Daten einem gelernten Muster zuordnen und sie anschließend passend dazu weiterverarbeiten kann.

Daumen nach oben

Bestärkendes Lernen
Ahmt das Lernen bei Menschen und Tieren auf Basis der Reaktionen ihrer Umwelt im Sinne von Versuch und Irrtum nach. Einem Modell wird beigebracht, verschiedene Aktionen im Hinblick auf ein zu erreichendes Ziel willkürlich auszuprobieren. Unmittelbar darauf erfolgt eine Bewertung durch das Trainingssystem. Diese veranlasst das Modell, im nächsten Durchlauf etwas anderes zu versuchen oder den eingeschlagenen Weg weiter zu verfeinern, bis das Ziel erreicht und eine zielführende Strategie gelernt ist.

Zurück zum Inhaltsverzeichnis

Konzeptbedingte Unschärfen

Der Unterschied zwischen traditioneller Computer-Software und KI-Systemen wird deutlich, wenn KI-Systeme Falschaussagen produzieren. Das kann viele Ursachen haben: objektiv falsche Trainingsdaten, Mehrdeutigkeiten, die Kontextabhängigkeit von Informationen, Überanpassung oder ganz einfach die Modellkomplexität, um nur einige zu nennen. Beispiele für solche Fehler finden sich im Internet zuhauf, manche amüsant, andere eher befremdlich.

Die Schwierigkeiten manifestieren sich beispielsweise im sogenannten „Halluzinieren“, wenn sich KI-Systeme bei der Bewertung eines Outputs oder der Beantwortung einer Frage etwas Zusammenreimen, scheinbar ohne konkreten Bezug zur Realität. Etwa so, wie Menschen in Wolkenformationen oder anderen nicht klar erkennbaren Strukturen manchmal kuriose Dinge sehen.

Große Sprachmodelle – Large Language Models

KI-Systeme lassen sich prinzipiell für viele Arten der Datenverarbeitung nutzen. Sie können Menschen auf Videoaufnahmen beim Überklettern eines Bauzauns ausmachen, Röntgenbilder interpretieren, Proteinfaltungen vorhersagen, Musikstücke komponieren, Kunstwerke kreieren oder als spezialisierte Assistenten innerhalb einer Anwendung fungieren.

Manchmal bewältigen sie ihre Aufgaben sogar besser als menschliche Experten, nachweislich etwa beim Thema Brustkrebs- oder Hautkrebserkennung. Vereinfacht ausgedrückt ist dies alles eine Frage eines korrekten und entsprechend umfangreichen Trainings.

Wieso der Name ChatGPT?

Das derzeit bekannteste KI-Produkt stammt von der US-Firma OpenAI. Es ist ein Chatbot, der drei seiner Grundlagentechnologien im Namen führt: GPT steht für Generative Pre-trained Transformers. Die Begriffe verweisen darauf, wie das dahinterstehende Large Language Model lernt und wie es anschließend die Anfragen seiner Nutzer beantwortet. Modernste KI-Technik trifft dabei auf einen unermesslichen Schatz von Daten und Informationen, mit denen ChatGPT trainiert wurde.

Datensicherheit und -verlässlichkeit beim Companion for First

Bei der Entwicklung des Companion for First spielt die Frage nach Datensicherheit und -verlässlichkeit eine zentrale Rolle. Um dem gerecht zu werden, beschäftigen wir uns in der Entwicklung des Companions mit mehreren technischen Ansätzen:

Hand mit Schutzschild

Ein zentraler Fokus liegt auf einem vollständig isolierten Betrieb innerhalb der Fact Cloud, bei dem sämtliche Verarbeitung – einschließlich Sprachverarbeitung – lokal erfolgt. In diesem Szenario werden keinerlei Daten an externe Systeme übermittelt. Sämtliche Informationen, einschließlich Nutzeranfragen, Ausgaben und Kontextverarbeitung, verbleiben vollständig innerhalb der sicheren und regulierungskonformen Fact Cloud.

Ergänzend dazu wird auch die kontrollierte Anbindung externer LLM Services evaluiert. In diesem Fall erfolgt die Verarbeitung durch KI-Modelle, die ausschließlich in zertifizierten EU-Rechenzentren betrieben werden. Dabei werden anonymisierte Query-Strukturen übermittelt, niemals jedoch Kundendaten oder inhaltlich sensible Informationen. Die eigentlichen Finanzdaten verbleiben auch hier vollständig in der Fact Cloud.

Beide Ansätze verfolgen dasselbe Ziel: die sichere, nachvollziehbare und regulatorisch saubere Integration von KI in anspruchsvolle Fachanwendungen – mit maximalem Nutzen bei voller Kontrolle über die Daten.

Prompt Engineering

Die größten KI-Modelle sind mittlerweile multimodal:

Man kann sie mit einem Bild konfrontieren, um zu erfahren, wer oder was darauf abgebildet ist. Oder mit einem kurzen Auszug aus einem Popsong, um den Titel und den Namen der Band herauszufinden. Doch der meiste Informationsabruf erfolgt noch immer über Sprache – getippt, gesprochen, handschriftlich auf einem Tablet notiert oder wiederum als Text in einem Bild.

Dabei spielt das sogenannte „Prompt Engineering“ eine zunehmend wichtige Rolle: die Fähigkeit, sein Anliegen exakt so zu formulieren, dass das Gewünschte dabei herauskommt. Der Companion for First übernimmt in dieser Hinsicht eine wichtige Funktion, da er in einzelnen Verarbeitungsschritten Large Language Modelle nutzt, um die an ihn gestellten Anfragen und Aufträge zu verarbeiten.

Einige grundlegende Tipps und Tricks können dabei hilfreich sein:

Aufträge und Fragen sollten möglichst klar formuliert sein und es sollte auf unnötige Füllwörter verzichtet werden.

 

Kontexte und Rollen definieren: „Schreibe wie ein Reporter“, „formuliere wie ein mittelalterlicher Dichter“

 

Zielgruppen nennen: „sodass es auch Kinder verstehen“, „in einfacher Sprache“, „für Akademiker“, „für Sportbegeisterte“

 

Zielformat angeben: „liefere mir die Definition“, „schreibe einen Aufsatz“, „gib mir eine Schritt-für-Schritt-Anleitung“, „erstelle eine Pro- und Contra-Tabelle“

 

Länge und Umfang festlegen: „eine umfangreiche Abhandlung“, „fasse dich kurz“, „nicht mehr als 5 Absätze“

 

Die Tonalität bestimmen: „schreibe möglichst verständlich“, „drücke dich wissenschaftlich aus“, „bleibe sachlich und neutral“, „formuliere es lustig“

 

Reihenfolgen vorgeben: „behandle erst das Thema … und anschließend das Thema …“

 

Auf Negationen in den Prompts verzichten, stattdessen aktiv und positiv formulieren.

 

Wo und wie KI-Systeme betrieben werden

Die Leistung moderner KI-Systeme fühlt sich zuweilen beinahe magisch an. Dennoch handelt es sich um ganz normale Software, die grundsätzlich auch auf herkömmlichen PCs ausgeführt werden kann. Die modernsten Desktop- und Notebook-Prozessoren von Intel und AMD sind sogar bereits dafür optimiert. Noch schneller gelingen Training und Nutzung der Modelle, wenn möglichst leistungsfähige Grafikkarten mit modernen GPUs verbaut sind.

Man kann sie mit einem Bild konfrontieren, um zu erfahren, wer oder was darauf abgebildet ist. Oder mit einem kurzen Auszug aus einem Popsong, um den Grundsätzlich gilt: Das Trainieren ist um viele Zehnerpotenzen aufwendiger als die anschließende Nutzung eines so entstandenen KI-Modells. Dennoch sind auch bei der Nutzung eines KI-Modells Grenzen gesetzt, die sich am Speicherumfang der Modelle und den erforderlichen Rechenkapazitäten bemessen. Von einer der ersten Versionen von ChatGPT ist bekannt, dass jeder Trainingsdurchlauf auf einer einzelnen modernen Grafikkarte rund 350 Jahre (!) in Anspruch genommen hätte. Und seitdem sind die ChatGPT-Modelle unglaublich gewachsen.

Energiehunger großer KI-Systeme

Der Ressourcenverbrauch von ChatGPT und Co. ist ein Thema, das zunehmend kritisch betrachtet wird. Ihr wachsender Stromhunger belastet Stromnetze, erhöht Treibhausgasemissionen und verschärft Umweltprobleme. Etwa durch den erhöhten Wasserverbrauch für die Kühlung von Hunderttausenden Prozessoren. Zum Vergleich: Eine simple KI-Anfrage im Internet verbraucht bereits etwa zehnmal so viel Energie, wie eine herkömmliche Google-Suche, grob geschätzt etwa 3 Watt.

Aktuell verdoppelt sich der Speicher- und Rechenbedarf der immer leistungsfähigeren KI-Modelle etwa alle 6 Monate. Die riesigen KI-Rechenzentren („KI‑Fabriken“), die derzeit auf allen Kontinenten entstehen, haben teilweise einen Strombedarf, der dem Verbrauch von 100.000 Haushalten entspricht. Und Ausmaße, die ganze Stadtteile überdecken könnten.

RAG-Pipelines

Chatbots lassen sich heute mit wenigen Zeilen Programmcode in Software-Anwendungen einbinden. Doch bei spezifischen Aufgabenstellungen wie im Companion for First führt das nicht unmittelbar zum gewünschten Ziel.

Externe LLMs verstehen nichts von der Funktionsweise einer Anwendung wie First Cloud, geschweige denn von ihren internen Datenstrukturen und den konkreten Dateninhalten eines Kunden. Und diese Details gehen sie ja auch gar nichts an.

An dieser Stelle kommen RAG-Pipelines ins Spiel. RAG steht für „Retrieval Augmented Generation“. Der Begriff beschreibt, wie der Output eines LLM von Programmen als Ausgangspunkt genutzt wird, um diesen durch weitere Daten zu ergänzen (zu augmentieren), etwa durch die Resultate von internen Datenbankabfragen. Erst daraus entstehen dann in weiteren Verarbeitungsschritten die gesuchten Antworten.

Die RAG-Pipeline im Companion for First

1. Query Processing
Eingangspunkt
2. Retrieval Process
Wissensbeschaffung
3. LLM Processing
Gehirn
4. Tool Integration
5. Validation & Formatting
Qualitätssicherung
6. Catching & Performance

Agentische KI – vom Wissen zum Handeln

Es ist das Eine, mithilfe von Künstlicher Intelligenz Wissen abzurufen, das zuvor antrainiert wurde. Etwas Anderes ist es, einer KI Aufträge zu erteilen, damit sie im Auftrag des Nutzers aktiv wird.

Dies ist der Ansatz, den wir beim Companion for First von Anfang an konsequent verfolgen. Eine solche „Agentische KI“ hat das Ziel, komplexe Abläufe bzw. Analysen durchzuführen und Nutzer bei wiederkehrenden Aufgaben zu entlasten. Im Rahmen der jeweiligen Aufgabenstellung trifft sie dabei selbstständig Entscheidungen und wählt die passenden Werkzeuge aus. Sofern gewünscht, kann ein solcher Agent auch proaktiv im Hintergrund Aufgaben wahrnehmen, im Sinne von „Push statt Pull“.

Im Dialog mit unseren Kunden haben wir eine Reihe von Aufgaben identifiziert, bei denen First-Cloud-Nutzer von einer Agentischen KI profitieren können. Folgende Funktionen sind für die kommenden Ausbaustufen des Companion von First geplant:

Agenten erzeugen komplexe Berichte und Zusammenfassungen, für die umfangreiche Datenabrufe und Datenverknüpfungen erforderlich sind.

Agenten führen definierte Analysen in First Cloud regelmäßig aus.

Agenten produzieren aufwendige Management- und Controlling-Reports mit Text und Grafik.

Agenten durchsuchen externe Finanznachrichtenquellen zu den Assets eines Kunden.

Agenten werten systematisch die Protokolle von First Cloud aus für automatische Hinweise auf Anomalien und Erklärungen dazu.

Wie geht es weiter?

So viel zu den spannenden Grundlagen der Künstlichen Intelligenz und ihrer Relevanz für den Companion for First. Die nachfolgenden Whitepaper werden sich ganz spezifisch mit den konkreten Abläufen innerhalb des Companions beschäftigen – wie der Companion die Anfragen und Aufträge seiner Nutzer entschlüsselt, die gewünschten Informationen aus First Cloud ausliest und zusammenbringt, wie er dabei Kundendaten wirksam schützt und wie die Anforderungen der Regulatorik die Abläufe maßgeblich beeinflussen.

 

Unser KI-Glossar erklärt zentrale Begriffe rund um Künstliche Intelligenz.

Zum KI-Glossar

Neugierig geworden?

Sie möchten mehr über First Cloud, den Companion for First und den Betrieb in der Fact Cloud erfahren? Dann schreiben Sie uns oder sprechen Sie direkt mit unserem Experten Aleksandar Ivezić. Er freut sich auf Ihre Anfrage:

Aleksandar Ivezić
a.ivezic@fact.de
+49 2131 777 238

    * Pflichtfelder