10. September 2020

Wer gewinnt den Kampf der hybriden Multi-Clouds?

Lead_boxer

Durch die hybride Multi-Cloud wird sich die IT-Welt, wie wir sie kennen, grundlegend verändern. Obwohl das Konzept noch am Anfang steht, gibt es in dieser neuen Cloud-Welt bereits einen großen Konkurrenzkampf. In diesem Blogeintrag untersuchen wir, worin sich die verschiedenen Konkurrenten unterscheiden und was ihre Stärken und Schwächen sind.

2021 wird das Jahr der Multi-Cloud, denn weltweit werden voraussichtlich mehr als 90 % der Unternehmen eine Kombination aus On-Prem, Public und Private Clouds als Standard-Umgebung nutzen,

heisst es in einer aktuellen Studie der International Data Corporation (IDC). Diese Prognose unterstreicht, wie wichtig die Verfügbarkeit von Multi-Clouds im kommenden Jahr sein wird. Um heutzutage in der IT-Welt wettbewerbsfähig zu sein und auch zukünftig innovativ zu bleiben, benötigen Unternehmen umfassende Kenntnisse über die Nutzung von hybriden Multi-Clouds.  Denn vor diesem «Trend» gibt es kein Entkommen.

 

Was ist eine hybride Multi-Cloud?

In den letzten 20 Jahren kam es zu drastischen Veränderungen von IT-Infrastrukturen und -Technologien, die mit einem radikalen Wandel in der gesamten IT-Welt einhergingen. Während die Vergangenheit von physischen Servern und On-Premise-Rechenzentren dominiert war, werden nach heutigem Standard hauptsächlich Clouds genutzt. Das sind weltweit verteilte, über das öffentliche Internet zugängliche Rechenzentren. Damit müssen private Nutzer und Unternehmen physische Server nicht mehr selbst verwalten und Anwendungen nicht mehr auf ihren eigenen Rechnern ausführen. Stattdessen stellen Cloud-Anbieter ausschliesslich die Ressourcen zur Verfügung, die für die jeweilige Aufgabe erforderlich sind. Heute gibt es Hunderte von Cloud-Anbietern, von denen jeder Vor- und Nachteile hat. Dies führt zu folgender Frage: Für welchen Anbieter sollte man sich entscheiden? 

Die Antwort lautet: Für alle, je nachdem, welches Angebot den Bedürfnissen der Kunden am meisten entspricht. Jede Cloud hat unterschiedliche Features und aus jeder Cloud kann das Beste herausgeholt werden. Genau das ist eine Multi-Cloud-Umgebung: eine Kombination von Public Clouds, die einem Lock-In-Effekt vorbeugt und es möglich macht, Technologien zu entwickeln, die den Geschäftsanforderungen entsprechen (nicht umgekehrt!).

In die Cloud zu wechseln, bedeutet nicht unbedingt, dass On-Premise-Lösungen aufgegeben werden sollten; Technologien entwickeln sich so schnell weiter, dass es Unternehmen nicht möglich ist, immer alles auf dem neuesten Stand zu halten. In der Übergangsphase können Unternehmen die Ressourcen und Infrastruktur von Public Clouds mit Private Clouds verbinden, um das Beste aus beiden Welten herauszuholen. Die gemeinsame Nutzung von Public und Private Clouds ergibt eine intelligente, gemischte Umgebung, die als Hybrid Cloud bezeichnet wird.

Einzeln betrachtet erscheint weder eine Hybrid Cloud noch eine Multi-Cloud als ausreichend. Was Unternehmen brauchen, ist eine Synthese der beiden Optionen. Und die hybride Multi-Cloud ist genau das Richtige.

Die hybride Multi-Cloud hat in allen Belangen die Nase vorn: Über sie können Ressourcen von On-Premise-Rechenzentren mit den Infrastrukturen verschiedener Public Clouds zusammengeführt werden und miteinander kooperieren. Dabei ist es jedoch möglich, die gesamte Lösung über ein einziges Interface zu steuern.

Das Konzept der hybriden Multi-Cloud ist ein grosser Meilenstein der Innovation; er markiert das Ende einer Ära und bildet gleichzeitig das Fundament für eine Welt voller Multi-Clouds. Damit hat der Kampf um die beste hybride Multi-Cloud begonnen.

Unternehmen fällt es heutzutage oftmals schwer, eine hybride Multi-Cloud-Lösung zu entwickeln, mit der Anwendungen modernisiert werden können und die gleichzeitig die besten Ergebnisse hinsichtlich Leistung, Sicherheit, Zuverlässigkeit, Verfügbarkeit und Kosten erzielt. In weniger als einem Jahr wurde eine Vielzahl von Produkten angekündigt und auf den Markt gebracht, die den «Kampf der Clouds» gegeneinander ausfechten sollen. Auf den ersten Blick ähneln sie einander, doch die minimalen Unterschiede werden darüber entscheiden, wer als «Sieger» hervorgehen wird.

 

Die Kontrahenten:

Google Anthos

Das Google-Produkt präsentiert sich als moderne Anwendungsplattform, über die es möglich ist, Anwendungen in einer zunehmend auf Hybrid- und Multi-Clouds basierten Welt sicher und konsistent zu entwickeln, einzusetzen und zu verwalten. Das vorrangige Ziel ist die Erweiterung der bereits bestehenden Google Kubernetes Engine auf diese neue, verteilte Umgebung mithilfe eines zentralisierten Management-Tools, der Google Cloud Console, sowie einer ganzen Reihe neuer Dienste. 

Vom Aufbau von Clustern bis hin zur Verwaltung von Hybrid Clouds, vom Service Mesh bis hin zum Konfigurationsmanagement, von Cloud Run bis hin zum erweiterten GKE-Cluster: Das Angebot ist derart umfangreich, dass es definitiv eine nähere Betrachtung wert ist. Mehr Aufmerksamkeit wird diesem Google-Produkt in einem späteren Blogeintrag gewidmet, der einen detaillierteren Einblick in Anthos bietet.

 

Red Hat OpenShift 

Das bekannte Red-Hat-Produkt kann als Kubernetes-Anwendungsplattform für Unternehmen mit verstärkten Sicherheits- und Compliance-Features beschrieben werden. Mit dem letzten Release 4.5 erweiterte Red Hat den Anwendungsbereich, um jegliche Art von Infrastruktur einzuschliessen – sowohl On-Premise- und verteilte Rechenzentren als auch Public Clouds – und das alles in Verbindung mit einer neuen Management-Lösung.

 

VMware Tanzu Portfolio

Dieses neue Produkt von VMware bietet ein umfassendes Angebot an Diensten mit dem Ziel, «Ihre Anwendungen und Infrastruktur zu modernisieren, um fortwährend bessere Software für die Produktion bereitzustellen».

Dieses Service-Portfolio ist das Ergebnis einer Kombination brandneuer Produkte mit verschiedenen bestehenden Projekten (Pivotal Cloud Foundry, Bitnami Catalog, NSX Service Mesh), die von VMware übernommen und einer «Tanzufizierung» unterzogen wurden. Das bedeutet, dass sie umbenannt und mit innovativen Features ausgestattet wurden.

Hauptziel dieses Produkts ist die Erweiterung des cloudübergreifenden Managements von Kubernetes, sowohl in Bezug auf Private als auch auf Public Clouds. Überdies soll Kubernetes als zugrunde liegende Software fungieren, die es ermöglicht, neben dem klassischen Kubernetes-Cluster auch alle anderen Ressourcen zu verwalten, einschliesslich virtueller Maschinen, Datenbanken und anderer Dienste von Drittanbietern.
Es ist zu beachten, dass noch nicht alle Produkte auf dem Markt sind und manche von ihnen nur als Beta-Versionen zur Verfügung stehen.

 

Microsoft Azure Arc

Das Microsoft-Produkt Azure Arc «ermöglicht eine ortsunabhängige Bereitstellung von Azure-Diensten und erweitert die Azure-Verwaltung auf beliebige öffentliche/private Infrastrukturen», unter Beibehaltung einer zentralisierten Verwaltungsschnittstelle: dem Azure-Portal. 

Arc ist ein Kubernetes-basiertes Produkt und keine eigenständige Kubernetes-Lösung. Das macht es zwar unter den Mitbewerbern zu einem einzigartigen Produkt, setzt es jedoch auch anderen Beschränkungen und Schwächen aus. Als Kubernetes-basiertes Produkt kann Azure Arc überall dorthin erweitert werden, wo ein Kubernetes-Cluster vorhanden ist. Auf diese Weise ist es in der gesamten hybriden Multi-Cloud-Umgebung verfügbar. Arc ermöglicht den Einsatz von Azure-Diensten in jedem dieser Cluster, jedoch nicht die Bereitstellung der Cluster selbst. Insbesondere dieser letzte Punkt macht Azure Arc eher zu einer In-Guest-Lösung, die nur wenig in die zugrunde liegende Infrastruktur integriert wird.

rstaunlicherweise besteht eine der Stärken des Produkts jedoch darin, dass es nicht gänzlich von Kubernetes abhängig ist. Mit Azure Arc lassen sich auch andere Ressourcen ausserhalb der Microsoft-Cloud verwalten, wie etwa virtuelle Maschinen, die durch Arc nach eigener Aussage umfangreich unterstützt werden.

Es muss allerdings darauf hingewiesen werden, dass sich das Produkt noch in der Preview-Phase befindet, weshalb einige produktbezogene Informationen noch nicht in der Praxis überprüft werden konnten. 

 

Vergleichstabelle

 

  • Hybride Multi-Cloud

Alle vier Produkte sind hybride Multi-Cloud-Lösungen. Und obwohl diese Umgebung mit allen genutzt werden kann, ist jedes von ihnen einzigartig.

  • Kubernetes für Unternehmen

Um Anwendungen zu modernisieren, nutzen drei der vier Produkte eine Erweiterung des Open-Source-Systems Kubernetes, wodurch jedes eine eigene Kubernetes-Lösung für Unternehmen darstellt.

Anthos versteht sich als Weiterentwicklung der Google Kubernetes Engine zu einem hybriden Tool, mit dem Kubernetes-Cluster in jeder verfügbaren Infrastruktur verwaltet werden können. Damit ist es nicht nur möglich, vorhandene Cluster zu verwalten, sondern auch neue Cluster in Google Cloud zu erstellen.

OpenShift ist als eine der führenden, auf dem Markt verfügbaren Kubernetes-Distributionen bekannt, die sowohl die Leistung, Zuverlässigkeit und Portabilität von Kubernetes gewährleistet als auch Sicherheit und Compliance garantiert.

Tanzu bietet eine neue Kubernetes-Lösung für Unternehmen, die auf ihrem Vorgänger Pivotal Container Service aufbaut, den Namen Tanzu Kubernetes Grid trägt und durch das brandneue Project Pacific unterstützt wird. Dank dieses Projektes können mithilfe von Kubernetes nicht nur Cluster, sondern auch virtuelle Maschinen, Datenbanken und andere Dienste von Drittanbietern verwaltet werden, stets unter Beibehaltung derselben bisher genutzten YAML-Syntax. Tanzu hat sein Kubernetes-Angebot mit dem neuen Produkt Tanzu Mission Control verbessert. Dieses bietet dem Nutzer die Möglichkeit, vorhandene Kubernetes-Cluster über eine zentralisierte Verwaltungsschnittstelle zu verbinden und in jeder beliebigen Public Cloud neue Cluster zu erstellen.

Azure Arc umfasst keine eigenständige Kubernetes-Lösung für Unternehmen, doch genau deshalb hängt das Produkt nicht gänzlich von Kubernetes ab, da es auch für die Verwaltung virtueller Maschinen (VM) genutzt werden kann.

  • Serverlose Lösung

Serverloses Computing bezeichnet ein Ausführungsmodell, bei dem der Anbieter für die Ausführung eines Codefragments mittels dynamischer Ressourcenallokation verantwortlich ist und die einzigen Kosten direkt von den für die Ausführung des Codes verwendeten Ressourcen abhängen.

Sowohl Google als auch Red Hat bieten diese serverlose Lösung an: und zwar über Cloud Run for Anthos bzw. OpenShift Serverless. Mit Cloud Run for Anthos wird eine flexible, serverlose Entwicklungsplattform in der Google Kubernetes Engine bereitgestellt. Die Plattform basiert auf Knative, einem Open-Source-Projekt, das serverlose Workloads auf Kubernetes unterstützt. OpenShift Serverless basiert, wie auch sein Vorgänger, auf Knative und ermöglicht Nutzern den Einsatz und die Ausführung von ereignisgesteuerten Anwendungen, die durch ein bestimmtes Ereignis gestartet werden und Ressourcen je nach Bedarf skalieren.

Für die Entwicklung von Knative und der Ausführung von Funktionen auf Basis von Kubernetes arbeitete VMware eng mit Google und anderen Branchenführern zusammen. Darüber hinaus brachte VMware eine Alpha-Version des Projekts riff zur Ausführung von Funktionen mit speziellem Fokus auf Ereignisströme auf den Markt. Letztlich hält VMware jedoch trotz einiger Entwicklungsprojekte zurzeit keine Lösung zur Ausführung serverloser Workloads auf der eigenen Infrastruktur bereit. 

Nicht unerwähnt bleiben soll bei einer Betrachtung serverloser Lösungen der Tanzu Application Service. Hierbei handelt es sich um ein Produkt, das aus dem früheren Pivotal Application Service hervorgeht und es ermöglicht, den Quellcode einer Anwendung in eine Cloud hochzuladen, mithilfe einer Ad-hoc-Infrastruktur auszuführen und weltweit abrufbar zu machen. Auch wenn es rein technisch gesehen nicht serverlos ist, macht das Produkt eine rasche Bereitstellung von Codes in der Cloud möglich, ohne dass Nutzer sich um die Entwicklung der zugrunde liegenden Infrastruktur kümmern müssen.

Microsoft bietet zwar eine serverlose Lösung auf der eigenen Cloud an, das Produkt ist jedoch nicht für den Einsatz in Multi-Cloud-Umgebungen ausgelegt und bietet noch keinen serverlosen Kubernetes-Ansatz.

  • Zentralisierte Verwaltungsschnittstelle

Drei der vier Produkte verfügen über eine zentralisierte Schnittstelle, mit der Nutzer Ressourcen sowohl verwalten als auch bereitstellen können. Im Moment ist Azure Arc das einzige Produkt, das keine Bereitstellung von Kubernetes-Clustern aus der eigenen Cloud ermöglicht. Stattdessen bietet es jedoch die Möglichkeit, in verschiedenen Public Clouds Seite an Seite mit Azure-Diensten virtuelle Maschinen und Datenbanken zu erstellen, zu verwalten und zu überwachen, und über die Azure Console auf diese zuzugreifen.

  • Konfigurationsmanagement

Das Konfigurationsmanagement bezeichnet einen Prozess, der dafür sorgt, dass Computersysteme, Server und Software in einem gewünschten, unveränderten Zustand bleiben. Auf diese Weise wird sichergestellt, dass der aktuelle Systemstatus in seiner Gesamtheit dem gewünschten Status entspricht, der im verknüpften Repository beschrieben wird.

Anthos, Azure Arc und Tanzu verfügen über ein in das Produktsortiment integriertes Konfigurationsmanagement-Tool, während Red Hat OpenShift sich auf die Red Hat Ansible Automation Platform stützt, um die Einheitlichkeit der in der Architektur vorhandenen Ressourcen zu gewährleisten. 

Google bietet Anthos Configuration Management für eine einheitliche Konfiguration, einschliesslich benutzerdefinierter Richtlinien, über alle Infrastrukturen hinweg, sowohl in On-Premise- als auch in Cloud-Umgebungen. 

Das Herzstück von VMware nennt sich Tanzu Mission Control (TMC). Mit dieser Lösung ist das Lifecycle-Management von Kubernetes-Clustern von einem einzigen Kontrollpunkt aus möglich. Das Produkt ermöglicht es Nutzern, vorhandene Cluster hinzuzufügen und zu verwalten sowie neue Cluster in verschiedenen Clouds zu erstellen. Mit den Cluster-Gruppen von TMC können Richtlinien und Konfigurationen auf mehrere Cluster angewandt werden, und die Workspace-Ansicht ermöglicht es, die Zugriffsbeschränkungen von Anwendungen zu verwalten, die verschiedenen Namespaces, Clustern oder Clouds angehören.

Azure Arc bietet Nutzern die Möglichkeit die «Änderungskontrolle zu standardisieren», und zwar mithilfe eines deklarativen Konfigurationsmanagement-Systems, das die Verwendung gängiger Cloud-Anwendungen in On-Premise-Umgebungen gestattet. 

  • Service Mesh

Ein Service Mesh ist eine konfigurierbare Infrastrukturschicht mit geringer Latenzzeit, die für die Verarbeitung eines grossen Volumens netzwerkgestützter Interprozesskommunikation zwischen Services auf Anwendungsebene über Programmierschnittstellen (API) konzipiert wurde. Der wesentliche Zweck eines Service Mesh besteht in der Verwaltung des Datenverkehrs zwischen Microservices unter Anwendung von Sicherheitsrichtlinien und Erfassung der Telemetriedaten.

Die heute bekannteste Service-Mesh-Architektur ist Istio. Sie wurde von Google, IBM und Lyft entwickelt und wird lediglich von einem einzigen System zur Container-Orchestrierung, Kubernetes, unterstützt. 

Die von Google, Red Hat und VMware angebotenen Lösungen umfassen ein Service-Mesh-Tool, das eine in Kubernetes-Cluster integrierbare Erweiterung von Istio darstellt. 

Microsoft hat noch keine Integration eines Service Mesh in das Kubernetes-Clustermanagement angekündigt.

  • VM-basierter Ansatz

Mit seinem neuen Produkt will Google insbesondere Infrastrukturen modernisieren, um einen weiteren Fortschritt im Bereich Innovation verzeichnen zu können. Das von Google entwickelte Produkt scheint virtuelle Maschinen zwar nicht zu unterstützen, ermöglicht jedoch deren direkte Migration in Container, die in GKE-Clustern ausgeführt werden, mittels «Anthos Migrate». Um es mit den Worten von Urs Hölzle zu formulieren: «Es ist viel mehr als nur ‚Lift-and-Shift‘. Es handelt sich vielmehr um die Modernisierung oder Containerisierung von Anwendungen. Die Stärke von Anthos Migrate liegt darin, dass jeder beliebige Ort, an dem Anthos ausgeführt wird, als Zielort dienen kann; es geht nicht darum, eine virtuelle Maschine zu nehmen und sie in eine Cloud zu verschieben. Es geht darum, sie in eine mithilfe von Anthos verwaltete Cloud zu verschieben.» 

Ausdrückliches Ziel von Google ist die «Modernisierung» mit besonderem Fokus auf Containerisierung und Kubernetes-Migration. Unter den verschiedenen Kontrahenten scheint Anthos der einzige zu sein, der diese Art von Unterstützung für die Container-Migration bietet. 

Andererseits kann das Motto von Azure auch wie folgt interpretiert werden: «Kein Zwang zu Innovation, lassen wir den Unternehmen die nötige Zeit».

Microsoft will sicherstellen, dass virtuelle Linux- und Windows-Maschinen unterstützt werden. Und zwar unabhängig davon, ob sie von einer On-Premise-Umgebung oder einer Public Cloud aus verwaltet werden, und ohne Unternehmen dazu zu drängen, virtuelle Maschinen und Private Computing in Container und Clouds zu migrieren.

Jede auf einer beliebigen Infrastruktur ausgeführte virtuelle Maschine kann über Arc mit dem Azure-Portal verbunden werden und von dort aus wie eine Ressource der Azure-Cloud verwaltet werden. Microsoft ist der einzige der hier genannten Kontrahenten, der dieses Feature anbietet. 

 

  • All-in-one Kubernetes-Software

Dem Produkt VMware Tanzu ist es gelungen, Kubernetes von der Infrastruktur zu abstrahieren, damit es auf jeder Art von Plattform betrieben werden kann. Mit Tanzu Project Pacific geht VMware zugleich einen grossen Schritt in Richtung Innovation des Kubernetes-Tools. VMware bietet eine Software-Lösung an, die Kubernetes in den Mittelpunkt stellt und es zum wichtigsten Kontrollinstrument macht. Genau dieselbe YAML-Syntax, die schon immer zur Erstellung von Clustern verwendet wurde, wird heute in der gesamten hybriden Multi-Cloud-Umgebung genutzt, um virtuelle Maschinen, Datenbanken und andere Dienste von Drittanbietern zu erstellen.

 

Konklusion

Es ist möglicherweise noch zu früh, um sich für eines dieser Produkte zu entscheiden, da sich alle der vier vorgestellten Services noch im Anfangsstadium befinden. Es braucht Zeit, um die wesentlichen Features der einzelnen Lösungen von reinem «Marketing und Business» unterscheiden zu können. Man kann sich aber auf jeden Fall schon ein Bild davon machen, was als Nächstes kommt und was bereits erhältlich ist. Es ist absolut verständlich, wie wichtig das vor allem dann ist, wenn es darum geht, die richtige, den Bedürfnissen des Unternehmens entsprechende Wahl zu treffen.

ti&m ist bereits auf die hybride Multi-Cloud umgestiegen. Wir bieten nicht nur OpenShift-Cluster für das Hosting von Anwendungen, sondern fügen auch Anthos zu unserem Produkt-Portfolio hinzu. Darüber hinaus planen wir eine umfassende Einbindung von Azure Arc und Tanzu. Zu Beginn dieses Jahres führte ti&m die erste Installation von Anthos in der Schweiz durch und verstärkte somit seine Partnerschaft mit Google. Ausserdem konzipierte ti&m eine betriebsfähige Anthos-Laborumgebung, die dazu dienen soll, die Öffentlichkeit mit den Features der Anwendungsplattform bekannt zu machen. Wenn Sie Interesse daran haben, die Plattform auszuprobieren, können Sie mich gerne kontaktieren.

Der «Kampf der Multi-Clouds» hat gerade erst begonnen. Der Sieger wird nicht anhand von Schlagworten in Online-Titeln bestimmt, sondern durch Nutzer-Bewertungen und Feedbacks zu den «realen» Produkten.


Alessandro Servino
Alessandro Servino

Seit Anfang 2020 arbeitet Alessandro Servino als System Engineer im Innovation Hosting Team bei ti&m. Seine Expertise liegt auf den Themen Containerisierung und Cloud. Er ist ausserdem als "Google Cloud Professional Cloud Architect" und als "AWS Cloud Practitioner" zertifiziert.

Pascal Rauser
Haben Sie Fragen?

Pascal Rauser hilft Ihnen gerne weiter.

Weitere Blog-Beiträge

Tomato 750x410
Welches Agile Framework passt zu dir?

Agile Produktentwicklung hat sich in den letzten Jahren und Jahrzehnten in vielen Unternehmen zum de-facto Standard entwickelt. Mit dem Erfolg hat sich auch die Landschaft der agilen Frameworks stark diversifiziert.

Mehr erfahren
HackZurich: This Is How 565 Techies Spent the Weekend
HackZurich: This Is How 565 Techies Spent the Weekend

565 registered participants, 152 submitted projects and 20280 hours of coding – the occasion was of course Hack Zurich, Europe’s biggest hackathon and one of the most anticipated events for ambitious hackers. The rainy weekend was the perfect opportunity for hackers from all over the world to get together in the Technopark and develop innovative solutions and new apps for the sponsor’s challenges. The goal: develop an amazing prototype and maybe, even disrupt a whole industry.

Mehr erfahren
Setup eines Maven-basierten Multi-Modul-Build incl. RCP- (OSGI-) Komponenten<br/>
Setup eines Maven-basierten Multi-Modul-Build incl. RCP- (OSGI-) Komponenten

Mehr erfahren
Evolutionary 750x410
Evolutionary and Disruptive All at Once

There has been a fundamental shift in customer values in the insurance sector, studies and experts tell us. This is being driven by technology. As time goes on, customer opinions will no longer be solely based on brand loyalty and confidence in advisors, but increasingly on digital social networking and self-service.

Mehr erfahren
Moritz Baumotte 1000 02
Moritz Baumotte will niemals auslernen

ti&m surfer Moritz Baumotte liebt es Neues zu lernen. Er hat einen enormen Wissensdurst und grosses Interesse an der Software-Architektur. Dank der ti&m academy kann er sich regelmässig weiterbilden. Der Kurs «Certified Professional for Software Architecture – Foundation Level» (ISAQB-FL) mit Gernot Starke hat ihm besonders gut gefallen.

Mehr erfahren