Siegeszug der Hyperscaler Werden Industrie-Plattformen noch benötigt?

Ein Gastkommentar von Patrick Vollmer*

Anbieter zum Thema

An digitalen Plattformen führt kein Weg vorbei, wenn es um die Digitalisierung geht. In der Industrie entwickelt sich der Trend dabei seit geraumer Zeit weg von Spezialplattformen, die für das Internet der Dinge (IoT) konzipiert waren, hin zu Software-Services, die von den großen Cloud-Anbietern zur Verfügung gestellt werden.

Der Trend geht von Spezialplattformen zu industriespezifischen Lösungen der Cloud-Anbieter - oder doch gleich zum Edge?
Der Trend geht von Spezialplattformen zu industriespezifischen Lösungen der Cloud-Anbieter - oder doch gleich zum Edge?
(Bild: gemeinfrei / Pixabay)

Gleichzeitig entwickeln diese sogenannten Hyperscaler vermehrt vertikale Industrielösungen, um die Digitalisierung weiter anzukurbeln. Ist das Zeitalter dedizierter Industrieplattformen damit endgültig vorbei oder können sie sich gegen die mächtige Konkurrenz behaupten?

Die bekanntesten Hyperscale-Plattformen sind ohne Frage Amazon Web Services (AWS), Microsoft Azure, Google Cloud Platform sowie AliCloud von Alibaba. Die einzelnen Spieler haben in den letzten Jahren unterschiedliche Schwerpunkte gesetzt. So hat der Platzhirsch AWS verstärkt mit Software-Unternehmen zusammengearbeitet, um deren Cloudifizierung voranzutreiben. Microsoft hingegen hat sich mit Azure zunächst durch die Unterstützung digitaler Arbeitsplätze sowie Kommunikation und Kollaboration hervorgetan. Google nutzte wiederum seine Stärken in den Bereichen Datenmanagement, insbesondere im B2C-Bereich.

Der Vertriebsansatz ist für alle Anbieter der gleiche: Zuerst werden die bestehenden „Legacy“-Systeme in die Cloud bewegt, dann werden die Applikationen optimiert und vereinfacht, bevor neue Services und Produkte digitalisiert werden. Alle haben gemeinsam, dass sie massive Investitionen in den Aufbau von Infrastruktur- und Rechenzentren sowie die Entwicklung von funktionalen und industriespezifischen Lösungen stecken. Damit haben sich die Anbieter von bloßen Infrastrukturanbietern weg und hin zu ernstzunehmenden Wettbewerbern von SAP, Salesforce & Co. entwickelt.

Doch was ist aus den industriellen Spezialisten wie GFT, Adamos und Mindsphere geworden? Vor ein paar Jahren herrschte in diesem Umfeld eine wahre Goldgräberstimmung. Inzwischen ist der Hype einem gewissen Pragmatismus gewichen.

Cloud-Anbieter auf dem Vormarsch

Die stetige Ausweitung des Internet der Dinge führte unweigerlich zu enormen Datenmengen, die es zu verarbeiten galt. Plattformen wie Siemens Mindsphere oder die ursprünglich von Trumpf entwickelte, inzwischen an GFT verkaufte, Plattform Axoom gehörten zu den Wegbereitern des industriellen Internet der Dinge (Industrial Internet of Things – IIoT). Mehrere Unternehmen aus Maschinenbau und IT, wie beispielsweise Dürr, Zeiss und die Software AG, schlossen sich zur Allianz ADAMOS (Adaptive Manufacturing Open Solutions) zusammen.

Geblieben ist davon recht wenig. Inzwischen beherrschen Big-Tech-Konzerne wie Microsoft, Amazon und Google die Szene. Hinter den Cloud-Anbietern stehen gigantische Rechenzentren, durch die Anwender in der Lage sind, via Internet ihren Bedarf an IT-Services flexibel und am Bedarf orientiert zu decken. Dabei geht es nicht nur um Rechenleistung, sondern auch um Datenspeicher, kognitive Services und Entwicklungswerkzeuge. Spezielle Software wird von den Cloud-Anbietern per Software-as-a-Service (SaaS) bereitgestellt. Auch das IoT spielt für die Hyperscaler eine wichtige Rolle, die entsprechende Lösungsbausteine in ihr Portfolio aufgenommen haben.

Ohne die Cloud geht fast nichts mehr

Ohne die Cloud geht bei vielen deutschen Unternehmen fast gar nichts mehr. Die zahlreichen Sensoren und elektronischen Bausteine, auf denen das Internet der Dinge basiert, produzieren einfach zu viele Daten. Und das an den unterschiedlichsten Orten der Welt. Der Umzug von proprietären Plattformen in die Cloud liegt damit auf der Hand. Mit Azure IoT hat beispielsweise Microsoft eine Sammlung entsprechender Cloud-Dienste im Programm – darunter finden sich fertige Anwendungen, aber auch Entwicklungsplattformen, auf denen sich eigene IoT-Lösungen aufbauen lassen.

Allerdings geht der Umzug in die Cloud bei den meisten Unternehmen wesentlich langsamer voran als gedacht. Laut einer aktuellen Studie von Accenture planen Deutschlands Unternehmen zwar, in den nächsten drei bis fünf Jahren im Durchschnitt mehr als zwei Drittel ihrer IT-Workloads in die Cloud zu migrieren. Allerdings nutzt nur die Hälfte von ihnen das volle Potenzial der Cloud, etwa um die zentralen Geschäftsabläufe zu transformieren, Daten intelligent miteinander zu vernetzen und Anwendungen zu modernisieren.

Wie auch immer sie geartet sind, im Umfeld des Internet der Dinge (oder auch des IIoT) kommt entsprechenden Plattformen, auf denen unzählige Datenströme zusammenlaufen, eine wachsende Bedeutung zu. Diverse Studien schätzen das Marktpotenzial in Europa auf etwa drei Milliarden Euro, bei einem jährlichen Wachstum von zehn Prozent. Sie bilden die Basis für Anwendungsfälle wie Predictive Maintenance, bei denen Maschinen und Industrieanlagen dank kontinuierlicher Datenanalyse Störungen und Wartungsfenster antizipieren, bevor es zu einem Ausfall kommt.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Durch den Einsatz von Künstlicher Intelligenz lassen sich Wartungskosten signifikant senken, lange Ausfallzeiten gehören der Vergangenheit an und unnötige Service-Fahrten entfallen, was auch einen positiven Einfluss auf den CO2-Fußabdruck der Industrie hat. Tatsächlich finden sich in der Industrie jedoch aktuell noch wenige flächendeckende Anwendungen. Häufig stehen existierende Installationen und Produkte einer Digitalisierung entgegen.

Cloud allein reicht nicht aus

Der Hype um die ausschließliche Datenverarbeitung in der Cloud ist inzwischen jedoch abgekühlt. Die Cloud ist bei der industriellen Automation nicht mehr das alleinige Maß aller Dinge. Denn heute wissen wir, dass Edge-Computing, also die lokale Datenverarbeitung neben der Cloud, viele Anwendungen besser abdecken kann. Der Grund: Werden sämtliche von den Sensoren innerhalb eines IoT-Netzwerkes erfasste Daten zur Verarbeitung in die Cloud geschickt, weil hier die entsprechenden Anwendungen zur Verfügung stehen, führt das zu Latenzen.

Die Cloud kann somit zum Flaschenhals werden. Auch 5G wird hierfür leider keine Antwort liefern können, da in Produktionsstätten viele stationäre Anlagen bereits heute verkabelt sind. Für mobiles Equipment mag 5G neue Anwendungsfälle liefern – diese beschränken sich jedoch aufgrund des Latenzproblems auf hoch sicherheitskritische Anwendungen. Abgesehen davon geben viele Unternehmen ihre Daten nicht gerne außer Haus.

Nicht alle Daten müssen in die Cloud

Die Hyperscaler haben inzwischen auf den Vormarsch des Edge-Computings reagiert und ihre Plattformen nun um entsprechende Funktionen ergänzt. Die Kombination von Edge- und Cloudcomputing ermöglicht Unternehmen, das Beste aus beiden Welten für spannende Anwendungsfälle mit der gleichen Technologiebasis zu nutzen.

Über die Kombination von Cloud- und Edge-Computing lässt sich überflüssiger Datenverkehr im IoT-Netz vermeiden und das Datenmanagement verbessern. Die Kunst beim Aufbau eines IoT-Netzwerkes liegt darin zu entscheiden, an welchen Punkten es sinnvoll ist, Rechenintelligenz vor Ort, also in der Nähe der Sensoren, vorzuhalten. Folgende Kriterien helfen bei der Entscheidung:

  • Sicherheitskritische Daten sollten ggf. direkt vor Ort prozessiert werden und nur wenn nötig in die zentrale Cloud gesendet werden.
  • Anwendungen und Verarbeitungsschritte mit hohen Latenzanforderungen sind Kandidaten für eine Platzierung „on the Edge“.
  • Auch operative Daten wie Zeitreihen können „on the Edge“ erfasst und durch Analytik entsprechend „vorverdichtet“ werden.
  • Mittelfristig oder strategisch relevante Daten, zum Beispiel für KI-Anwendungen oder Reporting, sollten in konsolidierter Form in die Cloud.
  • Auch Simulationen, die eher selten durchgeführt werden, finden in der Cloud statt.

So lässt sich nicht nur der Datenverkehr im Netzwerk, sondern auch zur Cloud optimieren. Für das Phänomen der Ausbreitung der Cloud zum Edge und das nahtlose Zusammenspiel der verschiedenen Landezonen für Anwendungen und Daten hat sich inzwischen der Begriff des „Cloud Continuums“ etabliert.

Die Macht der Hyperscaler scheint mit Blick auf die Digitalisierung der Industrie unbestritten. Das hat auch Siemens registriert, weshalb der Industriespezialist auch eng mit ihnen zusammenarbeitet. Das Unternehmen hat aus seinen Erfahrungen mit Mindsphere gelernt und kürzlich eine neue offene Industrieplattform – Xcelerator – sowie eine Partnerschaft mit den Grafikspezialisten von Nvidia angekündigt. Auf der neuen digitalen Siemens-Plattform soll ein kuratiertes Portfolio von Hardware und Software-as-a-Service aus dem eigenen Hause, aber auch ein Marktplatz mit offenen Schnittstellen für Partner angeboten werden.

Durch eine Verknüpfung dieses digitalen Ökosystems mit dem Angebot von Nvidia möchte Siemens zudem ein industrielles Metaverse schaffen und Unternehmen unter anderem die Erstellung von Digitalen Zwillingen und Echtzeit-Simulationen ermöglichen. Es wird spannend sein zu beobachten, ob Siemens sein ambitioniertes Ziel erreichen wird, die führende digitale Industrieplattform zu schaffen.

Ausblick: Quantum-Computing-as-a-Service aus der Cloud

Vorausgesetzt die IT-Forschung macht weitere Fortschritte, könnte eine weitere Technologie die Industrie in einigen Jahren technologisch noch weiter nach vorne katapultieren: der Quantencomputer. Neben den Tech-Riesen IBM, Google und Microsoft forscht inzwischen auch Amazon an den Superrechnern. IBM bietet Kunden bereits seit 2016 Zugang zu seiner wachsenden Flotte von Quantencomputern. Solche Superrechner sind in der Lage, eine weitaus größere Datenfülle in Echtzeit zu verarbeiten, als dies derzeit mit Edge-Computing oder im Cloud Continuum möglich ist. Für die Automatisierung von Prozessen oder Anwendungen mit Künstlicher Intelligenz verheißen die superschnellen Rechner große Fortschritte.

Auch wenn die hochsensiblen und daher noch sehr fehleranfälligen Quantencomputer aktuell noch weit von ihren vollen Einsatzmöglichkeiten entfernt sind, könnten sich in naher Zukunft „As-a-service“-Geschäftsmodelle mit Quantencomputing aus der Cloud durchsetzen, die Superrechenleistung für Industrieunternehmen auf breiter Basis zugänglich machen. IBM, Google, Microsoft und Amazon bieten solche Services bereits selbst oder mithilfe von spezialisierten Partnern an.

Patrick Vollmer, Accenture.
Patrick Vollmer, Accenture.
(Bild: © Petra A. Killick)

Es lockt ein riesiger Markt. Laut IDC belief sich das Gesamtvolumen des Quantencomputing-Marktes weltweit im Jahr 2020 auf rund 412 Millionen US-Dollar. 2027 könnte das Marktvolumen bereits auf rund 8,6 Milliarden US-Dollar ansteigen – Tendenz steigend. Das Rennen um den Quantencomputing-Kuchen hat begonnen.

* Der Autor Patrick Vollmer ist Senior Managing Director Client Groups Lead (Products) bei Accenture.

(ID:48495932)