Cloud Next 2022

Google will Open Cloud sein

14.10.2022
Von 
Matt Asay ist Autor der US-Schwesterpublikation Infoworld.com.
Google hat mit einer Reihe kluger Entscheidungen ein offenes Cloud-Ökosystem geschaffen, das dem Konzern eine Machtposition eröffnet. Die „Openness“ in einen nachhaltigen Vorteil zu verwandeln, wird allerdings nicht einfach.
Google Cloud gleich Open Cloud?
Google Cloud gleich Open Cloud?
Foto: Laylistique - shutterstock.com

Google Cloud Platform (GCP) verfolgt schon immer einen anderen Ansatz als die übrigen Hyperscaler. Das Unternehmen hat sich schon mit Open Source beschäftigt, lange bevor das "cool" wurde und hat ähnlich früh Partnerschaften geschlossen, um die Kundenbedürfnisse zu befriedigen. Sicher haben dabei nicht alle Aspekte von Googles "Warm & Fuzzy"-Ansatz sofort funktioniert - in einigen Aspekten musste das Unternehmen ein wenig "langweiliger" werden, um für Enterprise-Kunden interessant zu sein. Doch Googles Bemühungen, Offenheit als strategischen Hebel für Wettbewerb und Zusammenarbeit zu nutzen, zahlen sich zunehmend aus - und erreichten auf der Google Next 2022 einen neuen Meilenstein.

Die Botschaft ist klar: Google will Open Cloud sein. Das mag hochtrabend klingen, könnte sich in der Praxis aber als nachhaltig erweisen. Allerdings ist dieses Ziel auch außerordentlich schwierig zu erreichen, erfordert es doch hinsichtlich Product und Data Ownership einen einzigartigen Ansatz.

Wie sich "Openness" lohnt

Google konnte sich dank seiner Open-Source-Willkommenskultur gegenüber AWS behaupten. Zwar sind Open-Source-Kontributoren kein Erfolgsgarant - sie können jedoch im Rahmen langfristiger, kundenorientierter Strategien dazu beitragen, Märkte neu zu gestalten. Das scheint Googles Plan gewesen zu sein und er scheint aufzugehen. Um sich als "offenstes Data-Cloud-Ökosystem" zu positionieren, hat GCP auf der Next 2022 weitere Schritte unternommen, nämlich:

  • zusätzlicher Support für wichtige Datenformate wie Apache Iceberg, Linux Foundation Delta Lake und Apache Hudi;

  • eine neue, integrierte Experience mit BigQuery für Apache Spark;

  • erweiterte Integrationen mit beliebten Enterprise-Datenplattformen wie Collibra, Elastic oder MongoDB.

Wegen der Interaktionen von Elastic mit anderen Clouds ist diese Partnerschaft besonders interessant. Es handelt sich um eine Integration in beide Richtungen: Google macht es den Kunden leichter, ihre Elasticsearch-Abfragen mit ihren Data Lakes in der Google Cloud zu verbinden, während die Unterstützung von Looker in die Elastic-Plattform erweitert wird.

Vor dem Hintergrund, dass Databricks und Google Cloud Platform im Wettbewerb um Data-Warehousing-Workloads stehen, habe ich mit David Meyer, Senior Vice President of Product Management bei Databricks, über die Delta-Lake-Integration gesprochen.

"Unsere Kunden haben gesagt, dass wir bei Google sein müssen. Größere Fortune-1000-Unternehmen brauchen aus Kostengründen, aber auch aus Perspektive des Datenbestands eine gewisse Vielfalt in der Cloud", offenbart Meyer und fährt fort: "Diese Unternehmen nutzen in der Regel bereits Google Ads. Wenn sie ihre Cloud-Präsenz erweitern wollen, führt der nächste logische Schritt zu Google Cloud. Wenn sie dabei ihre Daten in Delta Lake halten können, vereinfacht das die Dinge. Durch diese Partnerschaft und die Unterstützung des Delta-Lake-Formats durch Google Cloud können Kunden BigQuery auf Daten anwenden, die sich in ihren Delta Data Lakes befinden, ohne sie verschieben zu müssen - eine Win-Win-Situation also."

Google kündigte darüber hinaus auf der Next auch einige organisatorische Maßnahmen an - etwa die Umstellung aller seiner Business-Intelligence-Dienste auf die Marke Looker. Weit über diese Maßnahmen hinaus geht die tiefgehende Integration von Looker und Google Workspace, die BI-gestützte Insights in vertrauten Produktivitäts-Tools wie Sheets verfügbar machen soll.

Das ist zwar nicht "offen" im Sinne von Open Source, aber im Sinne einer Senkung der Hürden für die Datennutzung. Andere Cloud-Anbieter haben das bewerkstelligt, indem sie es beispielsweise erleichtert haben, MySQL oder Linux zu nutzen. Google Cloud Platform bietet solche Dinge ebenfalls an, geht aber noch einen Schritt weiter, indem es die Nutzung der Daten selbst - und nicht nur der Dateninfrastruktur - erleichtert. Mit Googles Einführung von Vertex AI Vision verhält es sich ähnlich, das Tool macht Computer Vision und Bilderkennungs-KI für Datenpraktiker leichter zugänglich.

Daten überall zugänglich machen

Unabhängig davon, wie beständig manche Unternehmen behaupten "All In" auf einer Cloud-Plattform zu sein, ist die schmutzige Wahrheit, dass sie es nicht sind - oder nur sehr selten.

"Bei der großen Mehrheit der Unternehmen sind die Daten über mehrere Clouds verteilt", so Gerrit Kazmaier, Vice President und General Manager of Data Analytics bei GCP. "Bei Multi-Cloud geht es nicht darum, dieselbe Lösung in mehreren Clouds zu implementieren und unabhängige Silos derselben Technologie zu haben. Vielmehr geht es darum, die Daten mehrerer Clouds zu einer ganzheitlichen Datenlandschaft zu verknüpfen", erklärt der Google-Manager.

Diese Vision hat den Multi-Cloud-Support bei GCP gestärkt - in Form von Anthos und anderen Technologien. Auf der Next hat das Unternehmen nun angekündigt, dass künftig auch unstrukturierte Streaming-Daten in BigQuery analysiert werden können. Das ermöglicht es Unternehmen, die Analyse strukturierter und unstrukturierter Daten an einem Ort zu kombinieren ("BigLake" ist Googles Begriff dafür). Es geht dabei darum, Betriebsdaten aus Datenbanken wie MongoDB nahtlos mit Data-Warehousing-/Analysediensten und KI/ML-Aktivierungssystemen zu verknüpfen. Das ist ehrgeizig und beeindruckend - in der Praxis aber auch außerordentlich schwer umzusetzen, denn es erfordert von Google, bei der Entwicklung kundenorientierter Produkte über seine eigene Welt hinauszudenken.

Das lässt sich nur erreichen, wenn man sich vom Gedanken verabschiedet, dass die Customer Experience und die damit verbundenen Daten allein in den Händen von Google liegen. Bislang scheint allerdings auch Google der Überzeugung zu sein, dass die Cloud zu groß ist für einen einzelnen Anbieter. Kein Hyperscaler ist jemals "hyper" genug, um Lösungen für jeden Bedarf zu entwickeln.

"Um ein tief integriertes Partner-Ökosystem zu ermöglichen, muss die Google Cloud über zu einhundert Prozent offene APIs verfügen - aber das allein reicht nicht aus", meint Kazmaier. "Es bedeutet auch, dass die APIs, die wir in unseren eigenen Produkten verwenden, dieselben APIs sind, die wir unseren Partnern zur Verfügung stellen. Ja, es wird Randfälle geben, in denen das nicht möglich ist, aber das sind Ausnahmen, nicht die Regel. Für Google Cloud sind viele Workloads am besten von einem Partner zu bedienen und unsere Strategie ist es, unsere APIs zu öffnen, damit diese entsprechende Lösungen bauen können. Wir sehen uns hier in keiner Konkurrenzsituation."

Wenn das nach einem anderen Ansatz klingt, nicht nur in Sachen Cloud, sondern Enterprise Computing im Allgemeinen, dann liegt das daran, dass es auch so ist. Aber es entspricht auch exakt den Grundprinzipien von Google.

"In einer komplexen, von Daten überfluteten Welt wird eine offene Plattform die beste Wahl für die Kunden sein. Sie bietet ihnen letztlich die größte Flexibilität, die größte Auswahl zwischen mehreren Lösungen und die schnellstmögliche Wertschöpfung", schließt Kazmaier.

Dieser Logik lässt sich nur schwer widersprechen. (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation InfoWorld.