ACTICO Group, Keensight, Bregal

ACTICO Group holt Keensight Capital als Investor an Bord

Keensight Capital, eine der führenden Private-Equity-Gesellschaften mit Fokus auf europaweite Growth-Buyout-Investments, übernimmt die Mehrheitsbeteiligung an der ACTICO Group. Dies geschieht im Rahmen einer Exklusivvereinbarung mit Bregal Unternehmerkapital Funds, dem größten Mid-Cap-Investor mit Hauptsitz in der DACH-Region, der ebenfalls weiterhin beteiligt bleibt.

For the English version, please click here

Kontinuität und Stabilität in der Unternehmensstruktur

Seit der Zusammenführung der Unternehmen ACTICO GmbH und Fact Informationssysteme & Consulting GmbH zur ACTICO Group und der damit verbundenen strategischen Neuausrichtung ist die Gruppe stark gewachsen. Das Management-Team hat sich erfolgreich neu aufgestellt und die Weichen für eine nachhaltige Weiterentwicklung gestellt. An dieser bewährten Struktur wird sich auch in Zukunft nichts ändern. Für die über 300 renommierten Kunden der Gruppe eine gute Nachricht im Hinblick auf fortgesetzte Stabilität und Kontinuität. Die ACTICO Group und die beteiligten Unternehmen bleiben ihrem Kurs treu und setzen weiter auf innovative Technologien sowie zukunftsweisende digitale Lösungen für die Finanzdienstleistungsbranche.

Gezielte Unterstützung für nachhaltige Entwicklung und stabiles Wachstum

Mit Keensight Capital gewinnt die ACTICO Group einen erfahrenen und strategischen Partner, der langfristige Stabilität mit gezielter Wachstumsförderung verbindet. Dank der umfassenden Expertise in der Skalierung von Softwareunternehmen und dem weitreichenden globalen Netzwerk von Keensight kann die Gruppe ihre Marktposition in bestehenden Regionen weiter festigen und gleichzeitig in internationalen Märkten gesund expandieren. Parallel dazu wird die Gruppe weiterhin strategisch in die Weiterentwicklung ihres Produktportfolios investieren, um langfristig zukunftssichere Lösungen anzubieten.

Manfred Beckers, CEO Fact Informationssysteme & Consulting GmbH:

„Als Teil der ACTICO Group profitieren wir von starken technologischen Synergien und einer klaren Vision für die Zukunft. Die Unterstützung durch Keensight Capital ermöglicht es uns, unsere Marktstellung weiter auszubauen und neue Innovationen voranzutreiben. Das ist ein entscheidender Schritt für unsere gemeinsame Weiterentwicklung.“

 Hans Jürgen Rieder, CEO ACTICO Group:

 „Wir freuen uns, dass Keensight Capital uns ab sofort auf unserer Vision begleitet. Diese Partnerschaft ermöglicht es uns, die nächste Phase unseres Wachstumskurses einzuläuten. Die Expertise von Keensight in der Skalierung von Softwareunternehmen und ihr globales Netzwerk werden uns helfen, neue Möglichkeiten in unseren Kernmärkten zu nutzen und unseren Kunden noch mehr Mehrwert zu bieten.“

Über ACTICO Group

Die ACTICO Group ist ein führender internationaler Anbieter digitaler Lösungen für regulatorische Compliance, Kapitalanlageverwaltung, Credit Risk, Daten & Reporting sowie Decision Automation. Ihre flexiblen und agilen Softwarelösungen unterstützen Unternehmen dabei, regulatorische Anforderungen zu erfüllen, Prozesse zu optimieren und sich mithilfe KI-gestützter Technologie auf ihr Wachstum zu konzentrieren.
Mit über 25 Jahren Erfahrung betreut ACTICO Group mehr als 300 Kunden weltweit aus den Bereichen Finanzwesen, Industrie und Technologie und bietet leistungsstarke Lösungen mit einem klaren Fokus auf Kundenerfolg. Das Unternehmen ist an sechs Standorten tätig und beschäftigt ein Team von 230 Mitarbeitern, das Kunden in über 25 Ländern unterstützt. www.acticogroup.com

Über Keensight Capital

Keensight Capital ist eine der führenden europäischen Growth-Buyout-Gesellschaften und spezialisiert auf die Unterstützung von Unternehmern bei der Umsetzung nachhaltiger Wachstumsstrategien. Mit über 25 Jahren Erfahrung und einem verwalteten Vermögen von 5,5 Milliarden Euro investiert Keensight gezielt in profitabel wachsende Unternehmen mit einem Umsatz zwischen 10 Millionen und 400 Millionen Euro.
Dank ausgeprägter Branchenkompetenz in den Bereichen Technologie und Gesundheitswesen identifiziert Keensight die besten Investitionsmöglichkeiten in Europa und arbeitet eng mit den Management-Teams zusammen, um Kapital, strategische Beratung und operative Unterstützung bereitzustellen. Keensight ist in mehr als 90 Ländern weltweit tätig und verfügt über Standorte in Paris, London, Boston und Singapur. www.keensight.com

Über Bregal Unternehmerkapital

BU Bregal Unternehmerkapital ist eine führende Investmentgesellschaft mit Standorten in Zug, München, Mailand und London. Mit bisher eingeworbenem Kapital in Höhe von 7,0 Milliarden Euro ist BU der größte Mid-Cap-Investor mit Hauptsitz in der DACH-Region. Die von BU beratenen Fonds investieren in mittelständische Unternehmen mit Sitz in Deutschland, der Schweiz, Italien und Österreich.
Mit der Mission, der bevorzugte Partner für Unternehmer und familiengeführte Unternehmen zu sein, konzentriert sich BU auf Marktführer und „Hidden Champions“, die über starke Management-Teams und signifikantes Wachstumspotenzial verfügen. Seit der Gründung im Jahr 2015 haben die von BU beratenen Fonds in mehr als 140 Unternehmen mit über 29.000 Mitarbeitern investiert und dabei rund 10.000 Arbeitsplätze geschaffen. Als strategischer Partner unterstützt BU Unternehmer und Familien bei der Weiterentwicklung, Internationalisierung und Digitalisierung ihrer Unternehmen. Dabei liegt der Fokus darauf, nachhaltige Werte zu schaffen – stets mit Blick auf die nächste Generation. www.bu-partners.de

Fact einzelne Bausteine die ein großes Quadrat ergeben

Cloud-Computing ist nicht gleich Cloud-Computing. Es kommt auf das passende Betriebsmodell an

Cloud-Computing-Betriebsmodelle: IaaS, PaaS und SaaS im Vergleich – Finden Sie das passende Modell für Ihr Unternehmen

Spricht man in diesen Tagen mit Software-Designern und IT-Verantwortlichen über aktuelle Branchentrends, fallen schnell Begriffe wie Künstliche Intelligenz, Extended Reality, Hyperautomation, Distributed Cloud, Multiexperience, 5G und vieles mehr. Alles spannende Entwicklungen mit großem Zukunftspotenzial, kein Zweifel.

Schaut man jedoch, was davon hier und jetzt bereits umgesetzt wird, dann rückt vor allem ein Thema ins Blickfeld: Cloud-Computing. Die Verlagerung von IT-Ressourcen weg von lokalen Arbeitsgruppen-Servern und Rechenzentren in Unternehmen hin zu entfernten Rechenzentren von Cloud-Anbietern ist ein Mega-Trend unserer Zeit. Es passiert jetzt.

Antreiber des Cloud-Computings

Die Motive dafür sind leicht nachvollziehbar und folgen bekannten Mustern: Reduktion von Kapital- und Personal-Kosten, bedarfsgerechte Bereitstellung benötigter Ressourcen, erhöhte Flexibilität, Aufweichung starrer Nutzungsgrenzen hinsichtlich Ort, Zeit und der verfügbaren Endgeräte etc.
Dennoch gilt es genau hinzuschauen, denn auch beim Cloud-Computing haben sich mittlerweile verschiedene Betriebsmodelle etabliert. Und nicht jedes Modell passt für jeden Bedarf.
Drei Modelle stehen im Vordergrund: „Infrastructure as a Service“ (IaaS), „Platform as a Service“ (PaaS) und „Software as a Service“ (SaaS).
Um sie zu verstehen, lohnt sich ein Blick auf den klassischen Betrieb von Server-Anwendungen in Unternehmen (On-Premises). Die folgende Abbildung zeigt den typischen Software- und Hardware-Stack, also die verschiedenen Komponenten, die dabei ineinander greifen.

Struktur von IT-Systemen

Oben befindet sich eine oder mehrere meist branchenspezifische Anwendungen und die von ihnen verwalteten und bearbeiteten Daten. Das ist die Ebene, mit der der Endbenutzer interagiert.
Darunter folgt die Middleware, Software, die übergreifend für verschiedene Anwendungen z.B. Datenbankfunktionen, Transaktionsverarbeitung oder beispielsweise Authentifizierung und Verschlüsselung übernimmt.
Darunter sitzt das Betriebssystem als Mittler zwischen der Software und der Hardware, häufig gefolgt von einer Virtualisierungsebene. Sie hat die Aufgabe, mehrere unterschiedliche Betriebssysteme bzw. Betriebssystem-Instanzen parallel auf einer physischen Hardware auszuführen. Dadurch lassen sich die verfügbaren Hardware-Ressourcen besser ausschöpfen.
Erst daran schließt sich die eigentliche Server-Hardware an: CPU, Speicher, Datenträger und Netzwerkverbindungen.
Bei den verschiedenen Cloud-Modellen geht es nun darum, welche dieser Ebenen vom Cloud-Anbieter gemanagt werden und welche unter der Kontrolle und Aufsicht des Kunden stehen, der seine IT-Ressourcen in die Cloud verlagern möchte.

 

Betriebsmodelle des Cloud-Computings vs. Server-Betrieb On-Premises

 

  • Beim klassischen Server-Betrieb unter eigener Regie (On-Premises) ist der Betreiber/das Unternehmen für alle diese Ebenen verantwortlich. Wird zusätzlicher Speicher benötigt, fällt eine Festplatte aus, müssen das Betriebssystem oder andere Komponenten aktualisiert werden – alles eine Aufgabe der jeweiligen IT-Abteilung.
  • Bei „Infrastructure as a Service“ (IaaS) obliegt die Bereitstellung und Wartung der Hardware und die Virtualisierung dem Cloud-Anbieter. Der Kunde kann auf der angebotenen Plattform beliebige Betriebssysteme, Middleware und Anwendungen entfernt über das Internet installieren und ist auch für deren Betrieb und Wartung verantwortlich. Mit der Hardware kommt er nicht in Berührung.
  • Einen Schritt weiter geht „Platform as a Service“ (PaaS). Hier installiert und konfiguriert der Cloud-Anbieter für seine Kunden auch Betriebssystem und Middleware, überwacht deren Betrieb und spielt regelmäßig alle erforderlichen Updates und Releases ein. Auf dieser klar definierten Basis installiert der Kunde seine Anwendungen und steuert deren Betrieb. Um mehr muss er sich nicht kümmern.
  • Noch eine Ebene höher ist „Software as a Service“ (SaaS) angesiedelt: SaaS bietet ein vollständiges Produkt, das von einem Serviceanbieter ausgeführt und verwaltet wird. In den meisten Fällen bezieht sich SaaS auf Endbenutzeranwendungen.

Fazit:

Die verschiedenen Betriebsmodelle von IT-Infrastruktur – On-Premises, IaaS, PaaS und SaaS – bieten Unternehmen unterschiedliche Stufen von Kontrolle und Verantwortlichkeit.

Während beim traditionellen On-Premises-Betrieb die vollständige Verantwortung beim Unternehmen selbst liegt, übernehmen Cloud-Anbieter in den verschiedenen Servicemodellen zunehmend mehr Aufgaben, von der Hardwareverwaltung (IaaS) über das Betriebssystem und Middleware (PaaS) bis hin zur Bereitstellung kompletter Anwendungen (SaaS).

Je höher die Ebene des Cloud-Services, desto mehr wird der administrative Aufwand für das Unternehmen reduziert, was insbesondere für Ressourcen und Effizienzvorteile sorgen kann. Unternehmen können so je nach Bedarf entscheiden, wie viel Kontrolle und Wartungsaufwand sie selbst tragen möchten und welche Aufgaben sie einem Cloud-Anbieter überlassen wollen.

Alexander Poppe am Schreibtisch

Willkommen Alexander Poppe

Gemeinsam in die Zukunft: Alexander Poppe unterstützt Fact mit Expertise und Erfahrung

Ab Januar 2025 startet eine neue Kooperation, die die Arbeit der Fact weiter stärkt: Alexander Poppe, Gründer von AP – Alexander Poppe Consulting, wird uns künftig mit seiner umfangreichen Erfahrung und seinem tiefen Verständnis für die Finanzindustrie beratend zur Seite stehen.

Ein beeindruckender Partner

Alexander Poppe blickt auf über 22 Jahre in der Fondsadministration zurück und hat in dieser Zeit unter anderem als langjähriger Geschäftsführer der Master-KVG INKA bei HSBC Deutschland bedeutende Verantwortung getragen. Dabei war er maßgeblich an der Entwicklung innovativer Lösungen beteiligt, die den Anforderungen einer dynamischen Branche gerecht werden. Diese breite Expertise bringt er nun in die Zusammenarbeit mit Fact ein.

Mit der Gründung von AP – Alexander Poppe Consulting im Januar 2025 fokussiert er sich auf Beratungsprojekte, die praxisnahe und zukunftsorientierte Lösungen für die Finanzbranche voranbringen – ein Ansatz, der perfekt zu den Zielen von Fact passt.
Zeitgleich mit der Gründung von AP – Alexander Poppe Consulting ist auch die neue Website online gegangen. Schauen Sie vorbei und erfahren Sie mehr über sein Angebot und Kontaktmöglichkeiten: www.ap-poppe.de

Interview mit Alexander Poppe

Um mehr über die Ziele der Zusammenarbeit zu erfahren, haben wir Alexander Poppe zu einem kurzen Interview eingeladen:

Fact:

Herr Poppe, können Sie uns etwas über Ihren beruflichen Werdegang erzählen?

Alexander Poppe:

Während meiner mehr als zwei Jahrzehnte bei der HSBC durfte ich viele, spannende Herausforderungen erfolgreich meistern: So begleite ich ja z.B. das Thema Master-KVG quasi als einer der Pioniere seit ihrer Einführung – sei es als langjähriges Mitglied der Geschäftsführung der Master-KVG Inka oder im Management Committee Security Services Deutschland. Dabei lag mein Fokus immer darauf, Prozesse zu optimieren und Lösungen zu entwickeln, die sich an den Anforderungen der Branche orientieren. Seit Anfang 2025 widme ich mich mit meiner Beratung der Aufgabe, Unternehmen in der Kapitalanlagebranche mit Fokus auf Asset Servicing und Fondsadministration mit meinem Wissen und meiner Erfahrung gezielt zu unterstützen.

Fact:

Was hat Sie an der Zusammenarbeit mit Fact gereizt?

Alexander Poppe:

Die Themen der Fact und der Finanzbranche sind seit Jahren eng miteinander verbunden. Ich schätze die Innovationskraft des Unternehmens und freue mich darauf, meine Erfahrung beratend einzubringen, um gemeinsam praxisnahe Lösungen voranzubringen. Besonders bedeutsam ist für mich die langjährige, vertrauensvolle Zusammenarbeit mit Manfred Beckers, die sich über die Jahre zu einer engen und kollegialen Verbindung entwickelt hat. Dieses gegenseitige Verständnis bildet eine starke Grundlage für die gemeinsame Arbeit.

Fact:

Welche Schwerpunkte möchten Sie in der Zusammenarbeit setzen?

Alexander Poppe:

Ich möchte Fact beratend unterstützen, insbesondere bei der Weiterentwicklung praxisnaher Lösungen und der Anpassung an die sich stetig wandelnden Anforderungen der Finanzbranche. Dabei ist es mir wichtig, meine Erfahrungen und meine Kontakte einzubringen, um gemeinsam Lösungen zu entwickeln, die den Kunden echten Mehrwert bieten. Gleichzeitig freue ich mich darauf, meine Perspektiven und mein Verständnis für die Bedürfnisse der Branche einzusetzen, um die Reichweite und Sichtbarkeit von Fact weiter zu stärken.

Fact:

Worauf freuen Sie sich am meisten in Ihrer neuen Rolle?

Alexander Poppe:

Ich freue mich darauf, gemeinsam an Projekten zu arbeiten, die die Branche stärken. Es geht darum, die Digitalisierung der Finanzindustrie aktiv mitzugestalten – und ich bin stolz, ein Teil davon zu sein.

„Mit Alexander Poppe gewinnen wir einen erfahrenen Berater, der unsere Werte teilt und uns dabei unterstützt, die Digitalisierung der Finanzindustrie einfacher, sicherer und zukunftsorientierter zu gestalten. Unsere langjährige und vertrauensvolle Zusammenarbeit, geprägt von einem offenen und kollegialen Austausch, macht diese Kooperation für mich persönlich besonders wertvoll.“

Manfred Beckers, CEO der Fact

Fact Container auf Computertastatur

Revolutionierung der Rechenzentren für effizientere IT-Infrastrukturen

Docker und Container-Technologie

Blickt man hinter die Kulissen, erinnern moderne Cloud-Lösungen technisch betrachtet ein wenig an die IT-Modelle der Sechziger- und Siebziger-Jahre, als einfache textbasierte Terminals per Datenfernübertragung mit Großrechnern in Rechenzentren verbunden waren. Nur dass heute wesentlich schnellere Netzwerkverbindungen, ausgefeiltere Benutzeroberflächen und tausend Mal mehr Rechenleistung schon in einfachsten Servern zur Verfügung stehen.

Dennoch geht es für die Anbieter von Cloud-Lösungen weiterhin darum, in ihren Rechenzentren eine möglichst große Zahl von Nutzern gleichzeitig und dabei auch gleichmäßig zu bedienen. Nur so können durch Cloud-Computing Kosten- und Effizienzvorteile erzielt werden.

Lastspitzen sollen dynamisch abgefangen und ausgeglichen werden, damit Nutzer nicht wie in vergangenen Zeiten schon einmal Sekunden warten müssen, bis Anwendungen auf ihre Eingaben und Abfragen reagieren. Cloud-Dienste sollen so reaktiv sein, als würden sie auf dem lokalen Endgerät des Nutzers ausgeführt. Das ist ein ganz entscheidender Faktor für den Erfolg der Cloud-Technologie.

Eine zentrale Rolle spielt dabei das Thema Virtualisierung und die Ausführung von Cloud-Anwendungen in Containern.

Mit Virtualisierung fing alles an

Um mehrere Nutzer auf einem Server zu bedienen, setzte man in den Anfangstagen des Cloud-Computings auf sogenannte „Virtuelle Maschinen“. Virtualisierungsprodukte wie KVM, Xen oder VMware simulieren gegenüber dem Betriebssystem und der jeweiligen Applikation die Existenz mehrerer vollständiger PCs auf einem Server ‑ jeder davon mit eigenständiger CPU, Speicher, Festplatte, BIOS etc.

Dies stellt ein hohes Maß an Kompatibilität und Abgrenzung der verschiedenen Nutzer und ihrer Applikationen sicher. Gleichzeitig bringt es einen bedeutenden Mehraufwand mit sich, der sich mit einer wachsenden Anzahl virtueller Maschinen pro Server zunehmend bemerkbar macht.

Schließlich muss in jeder zusätzlichen virtuellen Maschine beim Start derselbe Softwarestack hochgefahren werden, wie auf dedizierten Servern: Betriebssystem, Datenbank, Bibliotheken und Konfigurationsdateien sind in jeder VM einzeln zu installieren und bei Bedarf zu aktualisieren. Das führt zu einem hohen Ressourcen-Verbrauch und langsamen Startzeiten. Die Leistung sinkt.

Software als Massenstückgut

Aus dem Wunsch nach effizienteren Lösungen entwickelte sich die Container-Technik mit der Open-Source-Lösung Docker als ihrem prominentesten Vertreter. Dabei werden nicht mehr komplette virtuelle PCs simuliert, sondern lediglich die Laufzeitumgebungen der verschiedenen Anwendungen auf einer Maschine geschickt voneinander abgeschottet. Jede Anwendung wird dazu in einen oder mehrere Software-Container verpackt, die als eigenständige Prozesse auf einer gemeinsamen Betriebssystem-Instanz laufen. Diese Container können jederzeit individuell gestartet und beendet werden.

Nicht zufällig wurde der Begriff „Software-Container“ der realen Welt entliehen, wo Standard-Seecontainer seit 1960 den Warentransport revolutioniert haben. Container befördern heute Güter aller Art: Schüttgut, Paletten, Pakete, Säcke oder Fahrzeuge. Das erforderte bis dahin neben viel Handarbeit auch eine vielfältige Verlade- und Transportinfrastruktur. Zwar gibt es weiterhin Spezialanfertigungen wie etwa Kühlcontainer, Tankcontainer oder Wohncontainer – für Logistiker macht dies aufgrund der Standardisierung hinsichtlich Größe, Transport-Schnittstelle und Dokumentation aber kaum einen Unterschied.

Genauso ist es nun auch in der IT-Welt: Software-Unternehmen liefern ihre Produkte in Form standardisierter Software-Container an, Cloud-Anbieter schieben sie auf gerade freie Server in ihren Rechenzentren und führen sie dort aus.

Mehr Effizienz durch Container

Durch Container reduziert sich der Ressourcenbedarf einer Anwendung im Vergleich zu vollständigen Virtuellen Maschinen spürbar. Außerdem fallen die Container-Images deutlich kleiner aus, weil darin nur noch die Anwendung und nicht mehr der Betriebssystem-Kern enthalten sein muss.

Als Folge starten Container wesentlich zügiger und benötigen für ihre Ausführung weniger Speicher. Außerdem müssen sie nicht regelmäßig mit Updates für Betriebssystem, Datenbanken, Bibliotheken etc. versorgt werden. Auch Änderungen an der Software gestalten sich mit Containern viel einfacher, weil sie nicht mehr innerhalb der Produktivumgebung stattfinden müssen.

Stattdessen werden Änderungen beim Software-Lieferanten in einem neuen Image (einer Docker-Datei) getestet. Anschließend wird einfach das betreffende Image auf dem Server ausgetauscht. Damit ist die Aktualisierung abgeschlossen.

Vor allem lassen sich Container im laufenden Betrieb zwischen verschiedenen Servern hin- und herschieben, ohne dass die Ausführung spürbar unterbrochen wird oder Daten verloren gehen. So wird sichergestellt, dass jeder Container zu jedem Zeitpunkt die erforderliche Menge an CPU-Leistung erhält.

Standard-Lösung Docker

Docker hat diese Mechanismen auf breiter Basis populär gemacht. Doch Docker ist viel mehr als nur ein Anwendungs-Virtualisierer. Mit Docker hat sich auch ein Format für das Verpacken von Anwendungen etabliert, was deren Distribution deutlich vereinfacht. Denn in diesen Containern stecken nicht nur die Anwendungen selbst, sondern auch die zusätzlichen Bibliotheken und Pakete, die für die Ausführung einer Applikation individuell benötigt werden.

 

 

Applikationsbetrieb in Docker-Containern

 

Außerdem schuf Docker einen Standard, wie Container untereinander mittels etablierter Techniken wie TCP/IP kommunizieren können. Und zwar innerhalb eines Servers und über Rechnergrenzen hinweg.

Dadurch können die Aufgaben einer Software-Lösung auf viele unabhängige Container verteilt werden. In einem Container steckt beispielswese die Applikations-Logik, in einem anderen der benötigte Datenbank-Server, im nächsten ein Internet-Gateway usw. Wo der jeweilige Container gerade ausgeführt wird, ist nebensächlich.

Prinzipiell ist Docker auf die Anwendungsvirtualisierung mit Linux ausgerichtet. Docker kann allerdings auch mittels Hyper-V bzw. VirtualBox unter Windows und mit HyperKit bzw. VirtualBox unter macOS verwendet werden. Aus dem modernen Cloud-Computing ist Docker deshalb nicht mehr wegzudenken.

Fact Tablet mit First User Inferface Design

Plattformunabhängige, intuitive und interaktive Designs realisieren

Moderne User Interfaces mit Cloud-Technologie

User Interface Designer lieben Cloud-Anwendungen! Noch nie war es für uns so einfach, schöne, intuitive und hochgradig interaktive Benutzeroberflächen zu entwickeln, die nicht von einem bestimmten Betriebssystem oder Endgerät abhängig sind.

Zur Erinnerung: In der Vergangenheit sahen Anwendungen auf Windows-Systemen immer etwas anders aus als auf Apple-PCs und wieder anders als auf Unix-Rechnern – einfach, weil diese Betriebssysteme jeweils ihren ganz eigenen Satz an Interaktionselementen mitbrachten; mit anderen Farben und Formen und auch nicht immer mit denselben Möglichkeiten.

Und an die Übertragung von Benutzeroberflächen auf mehrere Geräteklassen – Laptops, Tablets, Smartphones, XXL-Displays ‑ mit ganz unterschiedlichen Bildschirmauflösungen war ebenfalls kaum zu denken, zumindest nicht routinemäßig: Einfach viel zu viel Aufwand. Schrecklich!

Cloud-Anwendungen ändern dies, weil sie für die Bildschirmausgabe und Interaktion auf HTML, die Seitenbeschreibungssprache des World Wide Webs, setzen. Und Webbrowser, die HTML-Inhalte anzeigen können, gibt es heutzutage für nahezu jedes Endgerät. Häufig sind sie als Teil des Betriebssystems vorinstalliert und sofort einsatzbereit.

HTML als Lingua Franca der Benutzerschnittstellen

Zum Hintergrund: Bei cloudbasierter Software hat man es in der Regel mit Client-/Server-Lösungen zu tun. Während das Back-End – der Server – in einem entfernten Rechenzentrum ausgeführt wird, läuft das Front-End – der Client – auf dem Endgerät des Nutzers ab.

Und so, wie Software-Container die Ausführung des Back-Ends von einer bestimmten Hardware- oder Server-Konfiguration unabhängig machen, wünscht man sich dies auch beim Front-End. Einfach, damit die Nutzung einer cloudbasierten Lösung auf Anwenderseite nicht an ein bestimmtes Endgerät oder Betriebssystem gebunden ist.

Bei vielen Cloud-Lösungen ist der eigentlichen Applikationslogik deshalb ein Webserver vorgeschaltet. Gibt der Nutzer im Webbrowser die Webadresse seiner Cloud-Lösung als URL (http://…) ein, gelangt der Aufruf zu diesem Webserver und wird von dort an die Cloud-Lösung weitergeleitet.

Alle Ausgaben der Cloud-Lösung werden in HTML formuliert und gelangen über den Webserver zurück zum Webbrowser des Nutzers. Dort erscheinen sie als die Benutzeroberfläche der Anwendung auf dem Bildschirm. Eine zusätzliche Client-Software wird nicht benötigt, solange ein Webbrowser vorhanden ist.

 

Ansprechend und effizient dank HTML und CSS

Die stetige Weiterentwicklung des HTML-Standards bis zu seiner aktuell gültigen Version 5 hat dazu beigetragen, dass in HTML mittlerweile alle Elemente und Funktionen für die Realisierung ansprechender und intuitiver Benutzeroberflächen zur Verfügung stehen. Millionenfach genutzte cloudbasierte Lösungen wie etwa der Facebook-Client oder Google Office machen dies deutlich.

Und während HTML die Struktur einer Bildschirmseite und deren Inhalte festlegt, bestimmen Cascading Style Sheets (CSS) das Erscheinungsbild dieser Elemente ‑ ihre Größe, Farbe, Position und vieles mehr. Cascading Style Sheets lassen sich dabei leicht zwischen verschiedenen Bildschirmgrößen umschalten, was die dynamische Anpassung von Benutzeroberflächen an den Formfaktor des jeweiligen Endgeräts extrem erleichtert.

Und CSS ermöglichen es uns als User Interface Designer, unsere Arbeit noch besser von den Anwendungs-Entwicklern – der Software den HTML-Code generiert – zu separieren, um mit ihnen Hand in Hand zu arbeiten.

Internet-Seiten, die sich wie Applikationen anfühlen

HTML-Elemente in Webseiten sind zunächst einmal statisch. Sie bleiben so, wie sie sind. Für die Anzeige interaktiver Elemente im Webbrowser kommt deshalb die Programmiersprache JavaScript als Programmiersprache ins Spiel.

Die entsprechenden JavaScript-Routinen werden gemeinsam mit den HTML-Seiteninhalten ausgeliefert. Auch dafür ist keine Software-Installation im Endgerät des Nutzers erforderlich. Als Reaktion auf die Eingaben des Benutzers verändern diese Routinen zur Laufzeit die HTML-Inhalte und bei Bedarf auch die Cascading Style Sheets, was sich unmittelbar auf die Bildschirmanzeige durch den Webbrowser auswirkt.

Und JavaScript ist auch die erste Wahl, um die Daten aus einer Cloud-Lösung im Back-End als HTML-Inhalte aufzubereiten. Bedienelemente, Listen und ganz allgemein Inhalte aus Datenbankabfragen werden so für die Darstellung in HTML umgesetzt.

Dafür haben sich verschiedene Standard-Bibliotheken etabliert, die von großen Marktteilnehmern entwickelt und der Gemeinschaft als Open Source-Lösung zur Verfügung gestellt werden, beispielsweise React von Facebook oder Angular von Google.

So entstehen im Zusammenspiel von HTML, CSS und JavaScript Lösungen, die sich nicht wie statische Webseiten, sondern wie ganz moderne, interaktive Anwendungen anfühlen.

Fact Schloß mit Schlüsseln

Schutzmaßnahmen für Daten und Anwendungen

Sicherheit im Cloud-Computing

Cloud-Computing, das heißt per Definition: Wertvolle Datenbestände, die auf entfernten Servern lagern, Cloud-Anwendungen, die über den Webbrowser von überall her angesprochen werden können und massenhaft Daten, die durch das öffentliche Internet fließen – das alles ruft geradezu nach ausgeklügelten Datenschutzmechanismen.

Wahrscheinlich wäre das Cloud-Computing niemals so erfolgreich geworden, hätte man nicht frühzeitig Antworten auf diese Herausforderungen entwickelt. Tatsächlich sind einige der namhaften Cloud-Anbieter heute auch die größten Arbeitgeber von Security-Experten weltweit. Und das nicht ohne Grund.

Entscheidend ist, dass der Datenschutz und die IT-Sicherheit beim Cloud-Computing auf allen Ebenen des Zugriffs konsequent umgesetzt werden. Dies beginnt bei der physischen Absicherung der Server, setzt sich in einem ausgeklügelten Rechtemanagement fort und mündet in der vollständigen Verschlüsselung aller Inhalte bei ihrem Transport vom Server zum Endgerät des Nutzers sowie auch generell bei der Speicherung. Doch auch der Mensch spielt eine wichtige Rolle.

Schutz der Server und Dateispeicher

Der Betrieb von Rechenzentren kann nach der anerkannten ISO-Norm 27001 zertifiziert werden. Diese sieht einen weitreichenden Schutz der verwalteten IT-Ressourcen vor. Das beinhaltet sowohl den physischen Schutz der Server-Räume gegen Einbruch und den Zugang durch Unberechtigte, als auch die Absicherung der IT-Systeme gegen Hacker und Einbruchsversuche über das Internet. Und das nicht einmalig, sondern als kontinuierliche, auditierte Maßnahme.

Ausgeklügelte Rechteverwaltung

Cloud-Lösungen sind angehalten, alle von ihnen bereitgestellten Funktionen an die Verfügbarkeit passender Zugriffsrechte zu binden. Es hat sich die Vorgehensweise bewährt, Nutzer frei definierbaren Gruppen zuzuordnen und deren Nutzungsrechte mit Hilfe von Gruppenrichtlinien feinmaschig einzustellen.

Dies setzt die korrekte Identifikation jedes Nutzers durch Anmeldung mit dem hinterlegten Passwort bzw. Sicherheitsschlüssel voraus. Aus Sicherheitsgründen sollte die Auswahl schwacher Passwörter unterbunden oder gleich mit einer Zwei-Faktor-Authentifizierung gearbeitet werden.

Dabei muss der Anwender jedes Login auf einem zweiten Weg bestätigen, beispielsweise indem ihm vom System ein zufälliger Sicherheitscode auf sein Mobilgerät gesandt wird, der zusätzlich einzugeben ist.

Oder es wird eine dezidierte Smartphone-App zur Bestätigung der Anmeldung genutzt oder spezielle Hardware, die im jeweiligen Endgerät eingesteckt sein muss, beispielsweise ein Sicherheitsschlüssel in Form eines USB-Sticks. Lösungen dafür sind vorhanden.

Transport-Verschlüsselung

Um die Interaktion zwischen dem Nutzer und der Cloud-Anwendung abzusichern, sollten alle Inhalte auf ihrem Weg zwischen dem Endgerät des Nutzers und dem Cloud-Server verschlüsselt übertragen werden. Dazu kann beispielsweise die etablierte SSL/TLS-Technik genutzt werden, die heute von allen Webbrowsern und Webservern unterstützt wird.

Dadurch können die Daten auf ihrem Weg weder mitgelesen, noch manipuliert werden. Man erkennt den Einsatz dieser Transportverschlüsselung bereits in der Adresszeile des Webbrowsers an der Anzeige von „HTTPS:“ vor der jeweiligen Internet-Adresse. Bei unverschlüsselten Verbindungen seht dort lediglich „HTTP:“. Dann sollte Vorsicht gewahrt werden.

Faktor Mensch

Bei allen technischen Maßnahmen darf der Faktor Mensch nicht unberücksichtigt bleiben. Nach Zahlen des Gesamtverbands der Deutschen Versicherungswirtschaft e.V. von 2019 sind bei über 70 Prozent der Cyberangriffe E-Mails der Angriffsvektor.

Wenn Mitarbeiter per E-Mail oder in Chat-Systemen aufgefordert werden, einem Kollegen mal schnell mit ihrem Passwort auszuhelfen, sich wegen einer vermeintlichen Systemumstellung oder der dringenden Urlaubsplanung auf einer Website mit Namen und Passwort anzumelden, sollten alle Alarmglocken läuten.

Darüber hinaus gilt: Passwörter dürfen im Büro nicht offen liegen gelassen, USB-Sticks, die man scheinbar zufällig vor der Haustür oder im Parkhaus findet, nirgendwo eingesteckt werden.

Die Gefahren sind vielfältig und können nach meiner Erfahrung nur durch die Etablierung einer hierarchieübergreifenden Sicherheitskultur angegangen werden. Nutzer müssen für diese Gefahren sensibilisiert und regelmäßig geschult werden. Das ist der vielleicht wirksamste Schutz gegen Cyberkriminalität im Bereich des Cloud-Computings und darüber hinaus.

Fact Finger der auf ein Monitor mit Zahnrädern tippt

Warum institutionelle Investoren jetzt auf Cloud-Computing setzen

Cloud-Computing für institutionelle Investoren: Effizienzsteigerung und Kostensenkung in der Kapitalanlageverwaltung

„Alles, was digitalisiert werden kann, wird digitalisiert werden“, lautet ein aktuelles Leitmotiv in vielen Branchen unserer Wirtschaft. Zunehmend spürt auch die Finanzindustrie die Dringlichkeit, die mit dieser Botschaft verbunden ist. Und dies gilt insbesondere für Kapitalanleger und Kapitalverwalter.
Denn die effiziente und leistungsfähige Verwaltung der Kapitalanlagen gewinnt rasant an Bedeutung. Bedingt durch die anhaltend lange Niedrigzinsphase wächst einerseits die Diversität der Anlageformen. Gleichzeitig stellt der Gesetzgeber immer höhere Anforderungen an das Reporting und Monitoring. Das BaFin-Meldewesen (Sicherungsvermögensverzeichnisse, Nachweisungen), das Bundesbank-Meldewesen (AWV, GromiKV) und Solvency II stehen exemplarisch für die gewachsenen Aufgaben in der Finanzindustrie.

Eine Branche im Wandel

Und nicht nur die internen Prozesse und IT-Systeme stehen vor tiefgreifenden Veränderungen – auch die Märkte und die Beziehungen zu Kunden, externen Partnern und Mitarbeitern unterliegen einem spürbaren Wandel. Die Corona-Krise und das öffentlich viel diskutierte Thema „Homeoffice“ haben dies noch einmal offengelegt.

Der Markteintritt großer Internet-Plattformen und die wachsende Zahl der FinTechs setzt die Branche zusätzlich unter Druck. Effiziente digitale Prozesse erscheinen vielen Marktteilnehmern deshalb zunehmend als entscheidender und vielleicht bald schon überlebensnotwendiger Wettbewerbsvorteil. Passende Cloud-Lösungen können hier einen wichtigen Beitrag leisten, weil sie Vorteile auf mehreren Ebenen realisieren und bündeln.

IT-Vorteile

Cloud-Lösungen reduzieren den Aufwand für die Verwaltung von Kapitalanlagen durch die Nutzung von Dienstleistungen seitens des Cloud-Anbieters:

  • Anschaffung und Bereitstellung aller erforderlichen Hardware-Ressourcen,
  • IT-Betrieb der Server, Applikationen und der benötigten Zusatzdienste,
  • Management aller Schnittstellen,
  • Einspielen von Patches und Releasewechseln.

 

Entscheidend ist dabei der Betrieb in redundanten, ISO-zertifizierten Rechenzentren möglichst im Stammland der Anwender. Dazu gehört auch ein durchgehendes 24×7-Monitoring als Garant für die Hochverfügbarkeit einer solchen Plattform.

 

Prozessvorteile

Die zentralisierte Steuerung durch eine Cloud-Plattform kann die Integration und die Nutzung von Partner-Lösungen für ausgewählte Aspekte der Kapitalanlageverwaltung vereinfachen. Dies gilt beispielsweise für

  • den automatisierten Bezug von Stamm, Fonds- oder Marktdaten, oder
  • die Nutzung rechtssicherer digitaler Treuhänderlösungen.

 

Kostenvorteile

Ein wesentlicher Faktor für den Siegeszug des Cloud-Computings sind die Kostenvorteile, die aus der gemeinsamen Nutzung von IT- und Human-Ressourcen erwachsen. Als Nutzer einer Cloud-Plattform

  • müssen Kapitalverwalter keine Server-Hardware für den Betrieb der Software anschaffen oder abstellen,
  • müssen sich Kapitalverwalter nicht um die Wartung und den laufenden Betrieb einer Plattform kümmern,
  • benötigen Kapitalverwalter nur relativ einfache Endgeräte für die Nutzung der Software durch ihre Mitarbeiter,
  • können Kapitalverwalter ihre Mitarbeiter beinahe überall arbeiten lassen,
  • sind Kapitalverwalter nicht auf eine Vor-Ort-Betreuung durch den Cloud-Dienstleister angewiesen. Alles kann remote geschehen.

 

Diese Vorteile sind der Motor, warum viele Unternehmen, die mit der Verwaltung von Kapitalanlangen betraut sind, das Thema Cloud-Computing für sich entdecken. Cloud-Lösungen sind der Schlüssel, um interne Prozesse rund um die Kapitalanlageverwaltung flexibler, effizienter und kostengünstiger zu gestalten. Deshalb wird die Finanzindustrie immer mehr zum Tat-Ort für das Cloud-Computing – und dies geschieht jetzt.

Fact Wolken, Bäume, Sonne, Berge, Häuser

Unser Engagement für die Reduktion von Emissionen im Einklang mit dem Pariser Klimaabkommen

Science Based Targets initiative – Fact macht mit!

Als Teil der ACTICO Group verpflichtet sich Fact, im Rahmen der Science Based Targets initiative (SBTi), ambitionierte Emissionsreduktionsziele zu verfolgen. Die SBTi-Registrierung ist für Fact und die gesamte Gruppe ein weiterer Meilenstein innerhalb der bestehenden CSR-Strategie, der uns helfen wird, aktiv zur Begrenzung des globalen Temperaturanstiegs beizutragen.

Was ist die Science Based Targets initiative?

Die SBTi ist eine wegweisende Partnerschaft zwischen Carbon Disclosure Project (CDP), United Nations Global Compact (UNGC), World Resources Institute (WRI) und World Wide Fund for Nature (WWF).
Die gemeinnützige Organisation stellt sicher, dass Unternehmen ihre Klimaziele im Einklang mit den neuesten wissenschaftlichen Erkenntnissen setzen, orientiert an den notwendigen Anforderungen, um die Erderwärmung unter einem kritischen Niveau zu halten.

Unsere Ziele

Als registriertes Unternehmen committen wir uns auf konkrete, messbare Zielsetzungen in Bezug auf die in unserer Wertschöpfungskette entstehenden Emissionen. Die definierten Ziele beruhen auf nachvollziehbaren wissenschaftlichen Grundlagen und sind an die Wirksamkeit im Hinblick auf das Gesamtziel gekoppelt.
Konkret verpflichtet sich die ACTICO Group im Rahmen des Zielvalidierungsverfahrens für kleine und mittlere Unternehmen, Treibhausgas-Emissionen aus bestimmten Bereichen (Scope 1 und 2) bis 2030 um 42 % zu reduzieren und weitere Emissionen (Scope 3) zu messen und zu reduzieren.

 Mehr erfahren zu SBTi

Unsere Scopes

  • Scope 1: bezieht sich dabei auf direkte Emissionen, wie z.B. durch betriebliche Anlagen, Geschäftsfahrzeuge oder Prozesse.
  • Scope 2: bezeichnet indirekte Emissionen, die z.B. durch den Einkauf von Strom, Dampf, Wärme und Kälte für den Eigengebrauch entstehen.
  • Scope 3: bezieht sich auf Emissionen durch vor- und nachgelagerte Tätigkeiten, wie z.B. der Arbeitsweg von Mitarbeitenden, bezogene Waren und Dienstleistungen, Investitionen und gemietete Vermögenswerte.

Fact fördert das Erreichen dieser Ziele aktiv. Viele unserer aktuellen Maßnahmen leisten dazu bereits heute einen wichtigen Beitrag, wie z.B.:

  • Reduktion von Dienstreisen plus Reisemittelrichtlinie zur bevorzugten Nutzung der Bahn als Transportmittel
  • Umstellung der Dienstwagenflotte auf E-Fahrzeuge
  • Hybrides Arbeitsmodell, das Arbeitswege und damit verbundene CO2-Emissionen reduziert
  • Ausschließliche Nutzung von Ökostrom aus zu 100 % erneuerbarer Energie
  • Auswahl von Partnerunternehmen, die sich ebenfalls den Klimazielen verpflichten, wie z.B. unser Rechenzentrumsbetreiber Azure, der seit 2012 bereits CO2-neutral agiert und bis 2025 auf ausschließlich erneuerbare Energie umstellen will

Gemeinsam für eine nachhaltige Zukunft

Wir laden unsere Kunden und Partner ein, uns auf diesem Weg zu begleiten. Gemeinsam können wir einen bedeutenden Einfluss auf die Zukunft unseres Planeten ausüben und die Herausforderungen des Klimawandels aktiv angehen.

Diese Unternehmen nehmen bereits teil

Fact Wolke mit Stecker

Viel mehr als ein Modewort: Was sich hinter Cloud-Computing verbirgt

Cloud-Computing erklärt: Definition, Vorteile und Einsatzmöglichkeiten für Unternehmen

Innovation und Wandel gelten seit jeher als maßgebliche Antreiber der IT-Industrie. Es muss kurz nach der Jahrtausendwende gewesen sein, als ich auf einer Branchenkonferenz zum ersten Mal in großen Lettern die Botschaft las: „Der PC ist tot. Es lebe die Cloud“.

Damals schien mir diese Aussage noch vermessen. In vielen Unternehmen eroberten PC-Server gerade erst das Feld und brachten bis dahin unbekannte Rechen- und Speicherleistung auf Abteilungsebene. Doch 20 Jahre später sind Cloud-Lösungen tatsächlich zum festen Bestandteil moderner IT-Landschaften avanciert. Denn Cloud-Dienste sind gereift: Sie funktionieren, werden extensiv genutzt und bringen Unternehmen und ihren Anwendern unübersehbare Vorteile.

IT-Ressourcen auf Abruf

Cloud-Computing steht heute vor allem als Synonym für die bedarfsabhängige Bereitstellung von IT-Ressourcen über das Internet. Unternehmen können nach Bedarf Rechenleistung, Speicher, Datenbanken und andere IT-Dienstleistungen in entfernten Rechenzentren eines Cloud-Anbieters in Anspruch nehmen, statt selbst physische Server zu erwerben, zu warten und zu unterhalten ‑ mit allem, was dazu gehört.

Das geschieht in der Regel „on demand“: Nur Dienstleistungen, die man tatsächlich abruft, stehen am Ende auf der Rechnung. Benötigt der Kunde eine Ressource nicht mehr, räumt er sie frei. Benötigt er mehr Leistung, wird diese unmittelbar zur Verfügung gestellt.

Der Cloud-Dienstleister garantiert die erforderliche Elastizität ohne nennenswerten zeitlichen Vorlauf. Kosten entstehen nur für verbrauchte Ressourcen. Das entlastet Budgets, schafft mehr Flexibilität und reduziert den Aufwand für die Anschaffung, Wartung und den Betrieb von IT-Infrastrukturen. Deshalb lieben viele IT-Abteilungen Cloud-Lösungen.

Anwendungen werden mobil

Aus Nutzersicht steht Cloud-Computing außerdem für die Loslösung von festen Arbeitsplätzen, vorgeschriebenen Endgeräten, Betriebssystemen und aufwändiger Software-Einrichtung. Cloud-Lösungen setzen auf moderne Internet-Standards, um ihre Angebote überall verfügbar zu machen. Sie funktionieren, wo Internet-Browser und schnelle Internet-Anbindungen zur Verfügung stehen. Mehr braucht es nicht.

Das ist der Grund, warum sich viele Menschen gar nicht mehr vorstellen können, ihre vertrauten Internet-Dienste und bevorzugten Anwendungen nur an einem bestimmten Ort oder mit einem vorgegebenen Endgerät zu nutzen. Das gilt heute fast schon als antiquiert.

In den Himmel geschaut

Nur was hat das alles mit einer Wolke (engl.: cloud) zu tun? Dieser Begriff kommt ins Spiel, weil das Internet in technischen Abbildungen häufig als Wolkensymbol dargestellt wird. Und wie bei einer Wolke am Himmel bleibt Nutzern auch der Blick in das Innere des Internets in der Regel verwehrt. Es lässt sich nicht so ohne Weiteres ausmachen, wo sich die vielen Server und Vermittlungsknoten befinden, die gemeinsam das erschaffen, was wir als Internet erleben. Aber sie sind da, sonst würde das Ganze nicht funktionieren.

Und das tut es. Schon in diesem Jahr 2021 werden weltweit mehr als 200 Milliarden US-Dollar mit Cloud-Dienstleistungen umgesetzt. Immer mehr Unternehmen und Privatnutzer nehmen Cloud-Dienste ganz selbstverständlich für sich in Anspruch – von Unterhaltungsdiensten über Kommunikationsangebote, Produktivitätsanwendungen, bis hin zu dedizierten Branchenlösungen. Und diese Entwicklung wird sich noch verstärken. Denn Cloud-Computing trifft einfach den Geist unserer Zeit.

Fact Tastatur mit Werkzeug

 Eine geniale Idee und ihre Umsetzung: Die Bausteine des Cloud-Computings

Die Schlüsseltechnologien des Cloud-Computings: Grundlagen, Komponenten und Erfolgsfaktoren

„Das Ganze ist mehr als die Summe seiner Einzelteile“ sagt man gerne, wenn aus dem Zusammenspiel verschiedener Einzelkomponenten etwas ganz Neues und Größeres erwächst. Auch ein PKW ist letztendlich nur die Verbindung aus Motor, Getriebe, Lenkrad, Karosserie und Sitzen. Doch was daraus entsteht ist Mobilität: Die Möglichkeit zu reisen, Waren schnell über Grenzen hinweg zu transportieren, eine Kultur der Bewegung, ein Gefühl von Freiheit, mithin die Basis für unsere moderne Zivilisation.

Auch beim Cloud-Computing kommen verschiedene Elemente und Technologien zusammen, die für sich genommen bereits bekannt waren. Doch in ihrer geschickten Verbindung entstehen neue Potenziale, wie Software-Dienste realisiert, verteilt und genutzt werden. Hier sind es nicht mehr Menschen und Waren, die traditionelle Begrenzungen hinter sich lassen, sondern Anwendungen und Daten.

Doch was sind die Elemente, die die Grundlagen für das Cloud-Computing gelegt haben? Hardware- und Software-Komponenten gehen dabei Hand in Hand.

Daten auf der Überholspur

Da sind zum einen schnelle Datenverbindungen und die Standardisierung der Kommunikation durch das Internet (die sogenannten Internet-Protokolle). Glasfaseranschlüsse, DSL-Leitungen und Gigabit-Netzwerke in Unternehmen ermöglichen seit den 2000er Jahren einen extrem schnellen Zugriff auf entfernte Ressourcen.

Anwender spüren kaum noch einen Unterschied, ob Daten lokal oder auf einem entfernten Rechner gespeichert werden. Gleichzeitig machen Mobilfunkstandards wie 4G und 5G diese Verbindungen auch mobil an (fast) jedem Ort verfügbar.
Nicht nur sind die Datenübertragungsraten stark gestiegen, auch die Latenzen haben sich spürbar verringert. Und vor allem dieses Merkmal ist für die gefühlte Interaktivität entfernter Anwendungen von Bedeutung.

Galt in der Anfangszeit des Cloud-Computings noch: Textverarbeitung und Tabellenkalkulation funktionieren als Cloud-Anwendung über das Netz, Videoschnitt und 3D-Spiele hingegen nicht, gelten sogar diese Limitierungen mittlerweile überwunden.

 

Rechenleistung ohne Grenzen

Zusätzlich ist die Rechenleistung in modernen Servern ist in den letzten Jahren explosionsartig gewachsen. Moderne Server-Prozessoren sind völlig unterfordert, wenn sie gleichzeitig nur einen oder wenige Benutzer bedienen. Und parallel dazu sind die Kosten für CPU-Leistung reziprok gefallen.
Schon in Bezug auf die reine Hardware macht es betriebswirtschaftlich in vielen Szenarien keinen Sinn mehr, für eine überschaubare Anzahl von Nutzern extra einen Server im Unternehmen anzuschaffen. Von den damit verbundenen Personalkosten für Wartung und Betrieb ganz zu schweigen.

Software in Containern

Auf der Software-Seite ist der Siegeszug des Cloud-Computings eng mit der Container-Technik und dem Erfolg der Open-Source-Lösung Docker verbunden. Die Container-Technik ermöglicht es, Software-Anwendungen und ihre Komponenten in standardisierte Einheiten zu verpacken, die beliebig zwischen Servern und Rechenzentren hin- und hergeschoben und werden. Dies bleibt für die Anwender völlig transparent.
Die zugrunde liegende Hardware, die für die Ausführung dieser Software erforderlich ist, wird dadurch immer weniger zum begrenzenden Faktor. Außerdem lässt sich die verfügbare Leistung in Rechenzentren wesentlich besser ausnutzen, was für geringere Ausführungskosten sorgt. Und der Software-Einsatz lässt sich viel schneller und effizienter skalieren, wenn zu verschiedenen Zeitpunkten einmal mehr und einmal weniger Nutzer gleichzeitig eine Anwendung in Anspruch nehmen.

Freiheit bei den Endgeräten

Entscheidend für den Erfolg des Cloud-Computings ist aber auch die Loslösung von bestimmten Endgeräten, Betriebssystemen und Software-Anwendungen, was die Nutzung einer Cloud-Anwendung angeht. Denn viele Cloud-Dienste nutzen HTML, die Seitenbeschreibungssprache des World Wide Web, für den Aufbau und die Übertragung ihrer Benutzeroberflächen.

Nutzer benötigen dadurch nur noch einen aktuellen Webbrowser auf ihrem Endgerät, zusätzliche Software muss nicht installiert werden. Und es spielt bei geschickter Programmierung keine Rolle mehr, ob man mit einem Laptop, Desktop-PC, Tablet oder Smartphone arbeitet. Alle dieser Formate können aus einer einzigen Cloud-Anwendung heraus bedient werden.

So haben diese verschiedenen Elemente – schnelle Datenverbindungen, Verpackung von Software in Containern und die konsequente Nutzung von Internet-Standards – Cloud-Computing erst möglich gemacht und die Welt der Anwendungs-Dienste revolutioniert. Eine Welt ohne Kraftfahrzeuge und Mobilität scheint uns heute unvorstellbar – eine Welt ohne Cloud-Computing vielleicht schon bald auch.