Beiträge

Eine kurze Einführung in das Paradigma der Serverless-Architekturen – am Beispiel der AWS Cloud


Da das Schlagwort „serverlose Technologien“ im Kontext der Cloud Nutzung immer wieder genannt wird, fragen Sie sich möglicherweise, was den „serverlos“ in der Praxis genau bedeutet.

Es ist allgemein bekannt, dass man keine Rechenleistung (Compute-Workload) ohne einen physisch vorhandenen Computer bzw. Server erbringen kann. Das führt zu der Frage, wie spiegelt sich dies in den verschiedenen Serverless-Technologien wie Docker, Kubernetes und Function-as-a-Service (FaaS) wider?

Beginnen wir damit warum man diese Technologien überhaupt als „serverless“ bezeichnet, wenn doch immer noch ein Server zur eigentlichen Ausführung benötigt wird?

Ohne Software geht es nicht

Im Grunde genommen ist es aber ganz einfach: Es kommt auf den Betrachtungswinkel an.

In einer klassischen IT-Umgebung würde man einen Server bereitstellen, seine Anwendung dort installieren und diese dann dort ausführen lassen. Dabei muss man natürlich dafür sorgen, dass alle technischen Abhängigkeiten der betreffenden Anwendung (wie z.B. Sprachbibliotheken, Datenbanken, Visualisierungstools, usw.) auf dem betreffenden Server installiert sind.

Wenn ein neues Release der Anwendung verfügbar ist oder man weitere Ressourcen benötigt, weil das System zum Beispiel mehr Rechenleistung erbringen soll, muss ein Entwickler oder Administrator auf den Server zugreifen und dort die betreffende Software installieren. Das kann zwar mit Tools wie Configuration-Management, Continous-Delivery-Pipelines, zentralisiertem Logging, usw. vereinfacht werden, aber am Ende des Tages muss immer eine Person, also ein Entwickler oder Administrator, zumindest etwas Kenntnis über den betreffenden Server und seine darauf installierten Anwendungen haben. Nur dann ist sie in der Lage, im Falle, dass es technische Probleme gibt, nach einer Lösung zu suchen und diese zu beheben.

Container

An diesem Punkt müssen wir einen kleinen Abstecher in das grundlegende Konzept von Serverless machen – den sogenannten „Container“.

Ein „Container“ ermöglicht es eine Anwendung inklusive der benötigten Systemumgebung auszuliefern. Dies macht es überflüssig, anwendungsspezifische Abhängigkeiten separat zu installieren, da sie bereits zusammen mit der Anwendung als Image ausgeliefert werden.
Und daraus resultiert auch der große Vorteil von Containern: Sie laufen praktisch überall.

Mit dem Begriff „Container“ ist übrigens nicht unbedingt nur ein „Docker Container“ gemeint, sondern auch der gute alte LXC Container (worauf Docker basiert) oder jede andere Container-Technologie.

Die Nutzung von Containern verschiebt die Verwaltung der Abhängigkeiten und die Bereitstellung der für die Ausführung der Anwendung erforderliche Umgebung vom Administrator des Servers hin zu den Entwicklern der Anwendung.

Ich bin mir sicher, dass auch Ihr Betriebsteam ein Mitspracherecht haben will und sollte. Im Wesentlichen ist dies der Punkt, an dem Sie eine DevOps-Kultur oder noch besser eine DevSecOps-Kultur benötigen.

Container können verwendet werden, ohne große Änderungen in der klassischen Umgebung umzusetzen. Es ändern sich lediglich ein paar Zuständigkeiten.

Geht man einen Schritt weiter bei der Verwendung von Serverless-Technologien, verschiebt sich die Interaktion zwischen Entwickler und Anwendung vom Server zu dem gewählten Orchestration-Tool (ich verwende für den Rest des Artikels Kubernetes als Beispiel, aber dasselbe gilt auch für andere Tools). Es gibt kein direktes Deployen von Anwendungen auf dem Server oder manuelle Konfiguration von Netzwerk-Komponenten, z.B. ein Load-Balancer. Man übergibt Kubernetes einfach eine neue Konfiguration und die neuste Version der Anwendung wird auf dem verfügbaren Server (Node) oder auf mehreren Servern (Nodes) ausgeliefert.

Doch hier sind sie ja schon wieder, diese verflixten Server!?!

Ohne Server geht es nicht

Die Verwaltung dieser Server häng davon ab ob man sein Kubernetes-Cluster On-Premise oder in der Cloud als Managed-Service betreibt. Das macht einen großen Unterschied, wenn es darum geht, sein Cluster zu verwalten.

Läuft es On-Premise, so muss man das Kubernetes-Cluster selbst verwalten und pflegen. Die Systemadministratoren müssen sich nicht länger mit dem Verwalten einzelner Anwendungen beschäftigen, sondern nur um das Cluster (oder mehrere Cluster) und alle dazugehörigen Server kümmern.

Wenn Kubernetes als Managed-Service in einer Cloud wie Amazon (AWS) Elastic Kubernetes Service (EKS), Google (GCP) Google Kubernetes Engine (GKE) oder Azure Kubernetes Service (AKS) läuft, reduziert sich der Verwaltungsaufwand aufgrund der automatischen Updates und des Betriebs der Master-Nodes durch den Provider drastisch. Das einzige, was von dem Prozess übrig bleibt, ist die Sicherheitskonfiguration der Umgebung.

In beiden Fällen hat man immer noch Zugriff auf die Server VM-Instanzen, auch wenn man einen Cloud-Service verwendet, da die Server als ganz normale virtuelle Maschinen bereitgestellt werden. Aber nachdem das Cluster eingerichtet ist, kann man nach Belieben Server zum Cluster hinzufügen und das Bereitstellen geschieht automatisch. In der On-Premise Variante kommt man um den normalen Verwaltungsprozess nicht herum.

Also hat man bei einem verwalteten Kubernetes-Service zwar immer noch Server aus denen der Cluster besteht und man verwaltet lediglich, wie stark automatisiert es skaliert, aber die Server muss man nicht direkt verwalten.

Somit sind wir schon ein wenig weiter mit unserer Erwartung an eine Serverless-Infrastruktur: Der Entwickler sieht den Server nicht mehr und man muss ihn auch nicht mehr verwalten.

Weg mit der Zuständigkeit

Aber können wir noch ein Stück weiter gehen und Server komplett aus unserer Zuständigkeit entfernen?

Ja, das können wir! Da jedoch das Rechnen ohne Computer / Server nicht möglich ist, ist dies nur durch Dienste möglich, bei denen die untergeordneten Rechenressourcen von jemand anderem verwaltet werden und entsprechend abstrahiert sind.

AWS bietet derzeit den Fargate-Service an, mit dem Sie Docker-Container ausführen können, ohne Compute-Instances (EC2) bereitzustellen, auf denen die Container ausgeführt werden. Dies bedeutet, dass Sie Ihre Docker-Container ausführen können, ohne jemals einen Server zu sehen oder zu verwalten. Es besteht auch die Möglichkeit, dass AWS in Kürze eine Option anbietet, dass EKS-Cluster von Fargate unterstützt werden (https://github.com/aws/containers-roadmap/issues/32). Dies würde bedeuten, dass auch Server (EC2-Instanzen) aus Ihrem EKS-Cluster wegfallen.

Eine andere Möglichkeit, die Server, die Sie mit Rechenleistung versorgen, vollständig loszuwerden, ist FaaS. AWS bietet den Dienst AWS Lambda an, in dem die Anwendung nur dann ausgeführt wird, wenn sie tatsächlich gebraucht wird. Der Service wird ausgeführt, wenn er ausgelöst wird. Wie eine Funktion ausgelöst werden kann, hängt von dem von Ihnen ausgewählten Cloud-Anbieter ab, da diese alle unterschiedliche Funktionsumfänge in diesem Bereich haben. Die Verwendung des systemeigenen Dienstes der Plattform für Nachrichtenwarteschlangen und HTTPs funktioniert mit allen Anbietern. FaaS führt Ihre Anwendung auch in einem Container aus – dies ist möglicherweise nicht direkt ersichtlich, wenn Sie die Dienste verwenden, da Sie kein Container-Image bereitstellen. Ihre Anwendung wird jedoch in einem Container ausgeführt, um sie zu isolieren. GCP bietet außerdem auch einen Dienst „Cloud Run“ an, welcher zwar Docker Container unterstützt aber aktuell nur über einen HTTPS Aufruf getriggert werden kann.

 

Fazit

Sie können nur dann wirklich „serverlos“ werden, wenn Sie Managed-Services von Cloud-Providern wie z.B. AWS verwenden, welche die Interaktion mit den Servern so weit abstrahieren, dass Sie diese nicht mehr direkt verwalten müssen.

Das bedeutet in der Regel, dass die Architektur einer Anwendung entsprechend ausgelegt werden muss. Ja, das macht zunächst ein wenig Arbeit, aber die gesparten Kosten sowohl bei der Administration der Anwendung als auch beim Betrieb in der Cloud machen sich erfahrungsgemäß recht schnell bezahlt.


Gerne beraten Sie unsere Spezialisten zum Thema Serverless mit AWS und unterstützen Sie bei Ihren IoT-Projekten.

Nehmen Sie Kontakt mit uns auf:

zum Kontaktformular


 

Mit dieser Serie von Blog-Artikeln werden wir einige grundlegende Gedanken zum Themenkomplex des „Internet of Things“ – auch kurz „IoT“ genannt – für Planer und Entscheider in mittelständischen Unternehmen zusammengefasst haben.

Wir wollen damit häufig gestellte Fragen beantworten und unseren Lesern einen Einstieg geben, um erste Gedanken zum Thema IoT für das jeweilige Unternehmen zu formulieren.


In einer kürzlich veröffentlichten Studie des IT-Dienstleisters HCL Technologies nannten 46 Prozent der befragten Projektverantwortlichen die Nutzung der richtigen IoT-Plattform als eine der größten Herausforderungen für das IoT-Projekt des Unternehmens.

Typischer Weise werden dabei die folgenden Anforderungen an die IoT-Plattform gestellt:

  • Quantitative Skalierbarkeit
  • Automatisierbarkeit
  • Offenheit, Schnittstellen
  • Technologische Reife der Plattform

Nun versucht das Unternehmen mit den bekannten Methodiken umfassend zu planen und so durch die Auswahl der „perfekten“ IoT-Plattform sein Projekt zum Erfolg zu führen.
Aber: Eine Digitalisierung nach Fahrplan gibt es nicht. Die Evaluation von IoT-Plattformen ist daher vielfach nur eine unnötige Geld- und Zeitverschwendung!

Warum ist das so? Weil eine Entscheidung pro oder Contra einer Plattform oftmals nur an kleinen technischen Detailfragen festgemacht wird, die zudem immer nur auf Basis des jeweils aktuellen Wissenstandes im Projekt erfolgen kann. Bei IoT-Projekten wird aber fast immer Neuland betreten. Die Anforderungen, Zielsetzungen, Use-Cases und Prioritäten ändern sich sehr schnell. Diese Änderungen sind aber unmöglich vorhersehbar. Alle Versuche, die möglichen Szenarien bei der Planung in Summe zu berücksichtigen, führen entweder zu einem Projekt mit gigantischen Kosten oder aber zu einer sehr langwierigen Planungsphase, die am Ende den Projektfortschritt sehr stark verlangsamt.

Unsere Empfehlung lautet daher:

Wählen Sie eine große, flexible Cloud-Plattform und fangen Sie einfach an. Denn während Ihr Wettbewerber noch überlegt, welche IoT-Plattform er nehmen soll, haben Sie schon den ersten Prof-of-Concept am Start und können echte Erfahrungen im Feld sammeln. Bei Umsetzung von IoT-Projekten lassen sich zwar viele technische Aufgaben im Zweifelsfall durch erhöhten Ressourceneinsatz beschleunigen, nicht aber das Sammeln von Erfahrungen im Feld! Wer hier zuerst kommt, mahlt zuerst und kann sich schnell einen Wettbewerbsvorteil sichern, der von der Konkurrenz nur schwer wieder aufgeholt werden kann.

Was ist wirklich wichtig bei der Plattformauswahl?

Über die Jahre haben sich folgende Parameter als wirklich strategisch relevant erwiesen:

  • Größe des Cloud-Anbieters
  • Flexibilität der Architektur und Ihrer Komponenten
  • schnelle Release-Zyklen der Cloud-Dienste

Warum eine große Plattform? Weil dieser Anbieter vermutlich auch in 24 Monaten noch existiert. Weil nur die großen Anbieter genügend in die kontinuierliche technologische Weiterentwicklung investieren können.

Warum Flexibilität? Weil nur damit die Chance besteht, dass auch Ihre künftigen Anforderungen erfüllt werden – und dies sowohl in technologischer als auch in funktionaler Hinsicht. Gerade der mögliche Einsatz verschiedener Technologien im Rahmen einer Microsystemarchitektur erleichtert und beschleunigt die Integration vorhandener Systeme ganz enorm.

Warum schnelle Release-Zyklen? Weil nur so die Chance besteht, dass in den verwendeten Cloud-Diensten die unvermeidlichen Kinderkrankheiten und Fehler schnell verschwinden, fehlende Funktionen in endlicher Zeit ergänzt werden.

Wenn Ihnen also ein Beratungsunternehmen als Einstieg in Ihr IoT-Projekt eine Studie für den Vergleich von 60 IoT-Plattformen empfiehlt, schicken Sie es nach Hause. Das Geld können Sie sinnvoller einsetzen.


Erwecken Sie Ihre Digitalisierungs-Idee zum Leben und präsentieren Sie sie LIVE vor Management, Kollegen und Kunden: IoT-Showcase-Angebot  


Warum hat sich SIC! Software bei IoT-Projekten auf die Cloud-Dienste von AWS fokussiert?

Die Gründe für AWS sind ganz einfach:

  • Großer internationaler Anbieter, der nicht vom Markt verschwinden wird
  • Transparentes Preismodell
  • Ausgereifte Infrastruktur, rationelle Administrationsmöglichkeiten
  • sehr breites Spektrum unterstützter Programmiersprachen
  • Kein erzwungener Technologischer Lock-In
  • Stabile SDKs und Bibliotheken, umfassende Dokumentation
  • Schnelle Release-Frequenz der Dienste
  • Breites MicroService Portfolio
  • Weltweite Hoch-Verfügbarkeit

Weil es sich bei Technologie-Integratoren wie bei einem 5-Sterne-Restaurant verhält: Wenn die Speisekarte zu groß ist, leidet die Qualität! Viel wichtiger ist die Kenntnis wie man mit den Zutaten das optimale Ergebnis erreicht. Daher gibt es in den Top-Gourment-Restaurants nur ein Menü auf der Speisekarte – genauso wie sich unser Top-Expertenteam auf einen flexiblen, leistungsfähigen und zukunftssicheren Technologiebaukasten fokussiert.


Wenn Sie lernen möchten, mit welchen Methodiken man die für die eigene IoT Anwendung strategisch relevanten Schlüsselkomponenten identifiziert, um die Kontrolle über seine Daten zu behalten, erfahren Sie in Folge 1 unserer Webinar-Reihe „IoT Projekt-Know-how für Planer und Entscheider“ mit dem Titel „Die Cloud als notwendige Basis für IoT-Lösungen – das AWS-Praxisbeispiel „tempmate“.

Infos & Anmeldung


Weitere Teile dieser Blog-Artikel Serie:

IoT Projekt-Know-how für Entscheider – Teil 1: Warum müssen wir in die Cloud?

IoT Projekt-Know-how für Entscheider – Teil 2: Warum sollen wir jetzt IoT Projekte starten?

IoT Projekt-Know-how für Entscheider – Teil 3: Warum sollen wir in eine eigene IoT Anwendung investieren?


Übrigens: Als integrativer Entwicklungsdienstleister für AWS (Amazon Web Services) Cloud-Lösungen bieten wir Ihnen ein fundiertes Know-How in den Themenfeldern Internet of Things (IoT), Smart Products und Industrie 4.0 und unterstützen Sie gerne auch bei Ihrem IoT-Projekt. … mehr 

 


 

Mit dieser Serie von Blog-Artikeln werden wir einige grundlegende Gedanken zum Themenkomplex des „Internet of Things“ – auch kurz „IoT“ genannt – für Planer und Entscheider in mittelständischen Unternehmen zusammengefasst haben.

Wir wollen damit häufig gestellte Fragen beantworten und unseren Lesern einen Einstieg geben, um erste Gedanken zum Thema IoT für das jeweilige Unternehmen zu formulieren.


„Es gibt doch jede Menge „fertiger“ IoT-Lösungen in der Cloud, an die wir ganz einfach unsere Maschinen anschließen können.“

Die Antwort hier ist ganz einfach: Damit klar ist, wem die von Ihren Maschinen und Sensoren erzeugten Daten gehören, ist eine eigene IoT Anwendung die bessere Lösung!

Alle Arten von Daten sind das Gold des 21 Jahrhunderts. Viele „öffentliche“ IoT Dienste vereinnahmen jedoch diese Daten und verkaufen die daraus gewonnenen Erkenntnisse an jedermann – möglicherweise sogar an Ihre direkte Konkurrenz.

„Aber die Vernetzung im IoT Umfeld lebt doch von der Weitergabe von Daten?“

Ja natürlich, eine IoT-Lösung ist ohne die Weitergabe von Daten in der Regel nur von sehr beschränktem Nutzen. Unabhängig davon ist es aber unverzichtbar, dass Sie es selbst kontrollieren können, wer Zugriff auf Ihre Daten erhält und wer nicht, wer die Daten auswerten und daraus lernen kann und wer nicht!

Diese strategisch relevante Kontrolle über Ihre Daten können Sie nur dann sicherstellen, wenn Sie an den Schlüsselstellen in der IoT-Datenschöpfungskette eigene IoT-Anwendungen / -Lösungen/ -Apps implementieren, die zu 100% unter Ihrer Kontrolle stehen.

Nur wenn Sie wissen, an welchen Stellen welche Daten entstehen, was man daraus an Erkenntnisse gewinnen kann ist können Sie „verstehen“ was Ihre Kunden an Daten brauchen. Das wiederum ermöglich es Ihnen, Ihr Produkt mit mehr Kundennutzen zu versehen – und am Ende möglicherweise auch neue Geschäftsmodelle für Ihr Unternehmen zu entwickeln.


Warum wir als Basis für Ihre eigene IoT-Anwendung Amazon Web Services (AWS) Cloud empfehlen, erfahren  Sie hier


Der schnelle Einsatz einer bestehenden IoT-Plattform statt des Aufwands einer eigenen IoT Anwendung ist natürlich sehr verlockend. Für nur ganz wenig Geld können Sie Ihre „intelligenten Maschinen“ auf diese Art und Weise ins Internet bringen. Und für einen ersten Showcase kann dies unter Umständen auch ein sinnvoller Weg sein. Wer aber strategisch und längerfristig denkt, der sollte hier sorgfältig prüfen, welche Konsequenzen solch eine Entscheidung haben kann.

Wenn Sie lernen möchten, mit welchen Methodiken man die für die eigene IoT Anwendung strategisch relevanten Schlüsselkomponenten identifiziert, um die Kontrolle über seine Daten zu behalten, erfahren Sie in Folge 1 unserer Webinar-Reihe „IoT Projekt-Know-how für Planer und Entscheider“ mit dem Titel „Die Cloud als notwendige Basis für IoT-Lösungen – das AWS-Praxisbeispiel „tempmate“.  Infos & Anmeldung


Weitere Teile dieser Blog-Artikel Serie:

IoT Projekt-Know-how für Entscheider – Teil 1: Warum müssen wir in die Cloud?

IoT Projekt-Know-how für Entscheider – Teil 2: Warum sollen wir jetzt IoT Projekte starten?


Übrigens: Als integrativer Entwicklungsdienstleister für AWS (Amazon Web Services) Cloud-Lösungen bieten wir Ihnen ein fundiertes Know-How in den Themenfeldern Internet of Things (IoT), Smart Products und Industrie 4.0 und unterstützen Sie gerne auch bei Ihrem IoT-Projekt. … mehr 

 


 

 

 

 

 

Mit dieser Serie von Blog-Artikeln werden wir einige grundlegende Gedanken zum Themenkomplex des „Internet of Things“ – auch kurz „IoT“ genannt – für Planer und Entscheider in mittelständischen Unternehmen zusammengefasst haben.

Wir wollen damit häufig gestellte Fragen beantworten und unseren Lesern einen Einstieg geben, um erste Gedanken zum Thema IoT für das jeweilige Unternehmen zu formulieren.


„Unsere Kunden haben doch gar keinen Bedarf für IoT!“

Hier wollen wir Ihnen kurz erläutern, warum Sie gerade deshalb jetzt Ihre ersten Schritte im Bereich des Internet of Things gehen und ihre eigenen IoT-Projekte starten müssen.

Wie wir in vielen Projekten erleben konnten, resultiert der fehlende „Bedarf“ auf Kundenseite aus einem Mangel an Vorstellungskraft, welchen neuen Nutzen eine IoT-fähige Maschine oder ein „Smarter Sensor“ bieten können.

„Na dann haben wir ja noch Zeit und können erst mal abwarten bis unsere Kunden soweit sind“

Dieses Denken kann sehr teuer werden, insbesondere dann, wenn Sie typischerweise Maschinen und Anlagen auf Kundenwunsch hin bauen.

Sobald nämlich Ihre Kunden selbst anfangen, die Chancen des Internet of Things zu erkennen und Anforderungen für eine IoT-Lösung selbst formulieren, hat Ihr Unternehmen die Innovationsführerschaft verloren.

Denn in der Regel wird Ihr Kunde nicht nur mit Ihrem Unternehmen sprechen, sondern auch mit Ihren Wettbewerbern, möglicherweise auch mit ganz neuen potentiellen Lieferanten und dabei eigene IoT Projekte starten.


Wenn wir bei SIC! Software Smart Products, Industrie 4.0- und IoT-Projekte starten, setzen wir primär Amazon Web Services (AWS) Cloud ein. Warum, das erfahren Sie hier


Und schneller als Ihnen lieb ist, befinden Sie sich mit Ihrem Angebot in einem Preiskampf. Die Innovationen werden nicht mehr von Ihnen getrieben sondern von Ihrem Kunden – Sie sind nicht mehr ein Partner auf Augenhöhe sondern nur noch ein Erfüllungsgehilfe.

„Wie sollen wir mit unseren Kunden ins Gespräch kommen, wenn diese den Nutzen nicht erkennen?“

Um diese Engpass zu lösen, empfehlen wir in einem ersten Schritt die Umsetzung eines Show-Case (auch Demonstrator genannt). Damit können Sie den Kunden Ihre grundsätzliche IoT Lösung und die daraus resultierenden Chancen anschaulich zeigen. Aber nicht nur das. Weil der Kunde ein konkretes Szenario vor sich liegen hat, können Sie auch die Wünsche und Bedürfnisse des Kunden mit einer ganz anderen Qualität diskutieren.

Im Ergebnis erhalten Sie in vielen Fällen eine völlig andere Sicht der Dinge. Es werden neue Chancen sichtbar, die zuvor niemand erkennen konnte. So wird der Weg geebnet, dass Sie mit IoT Ihren Produkten einen einzigartigen Nutzen geben und Sie auch in Zukunft als innovativer Partner auf Augenhöhe wahrgenommen werden.

Wie Sie IoT-Projekte starten, indem Sie an die Planung und Konzeption eines kundenorientierten IoT-Showcase herangehen und wie Sie die strategisch relevanten Themen identifizieren, erfahren Sie in Folge 1 unserer Webinar-Reihe „IoT Projekt-Know-how für Planer und Entscheider“ mit dem Titel „Die Cloud als notwendige Basis für IoT-Lösungen – das AWS-Praxisbeispiel „tempmate“.  Infos & Anmeldung


Weitere Teile dieser Blog-Artikel Serie:

IoT Projekt-Know-how für Entscheider – Teil 1: Warum müssen wir in die Cloud?


Übrigens: Als integrativer Entwicklungsdienstleister für AWS (Amazon Web Services) Cloud-Lösungen bieten wir Ihnen ein fundiertes Know-How in den Themenfeldern Internet of Things (IoT), Smart Products und Industrie 4.0 und helfen Ihnen gerne auch dabei Ihre IoT-Projekte zu starten. … mehr 

 


 

Mit dieser Serie von Blog-Artikeln werden wir einige grundlegende Gedanken zum Themenkomplex des „Internet of Things“ – auch kurz „IoT“ genannt – für Planer und Entscheider in mittelständischen Unternehmen zusammengefasst haben.

Wir wollen damit häufig gestellte Fragen beantworten und unseren Lesern einen Einstieg geben, um erste Gedanken zum Thema IoT für das jeweilige Unternehmen zu formulieren.


Warum müssen IoT-Anwendungen eigentlich in die Cloud?

Ganz einfach: Das Internet of Things lebt von der Vernetzung. Ein „smarter Sensor“ kann nur dann smart (also scheinbar intelligent) sein, wenn er in der Lage ist, mit anderen Systemen zu kommunizieren. Die Begriffe Interoperabilität und Vernetzung sind hier die Schlagworte.

Kein Produktentwickler kann heute voraussehen, mit welchen Systemen seine IoT-Lösung in Zukunft zusammenarbeiten muss. Keine noch so umfassende Analyse kann einem Unternehmen heute verlässlich sagen, wie das digitale Ökosystem aussehen wird, in dem seine Produkte künftig eingesetzt werden.

Eine zentrale Anforderung die aber heute und in Zukunft auf jeden Fall besteht, ist der Umstand, dass die IoT-Systeme und deren Komponenten eine schnelle und unkomplizierte Vernetzung erlauben müssen. Nur dann wird es gelingen, strategische Partnerschaften mit Leben zu erfüllen und tatsächlichen Nutzen zu schaffen.


Warum wir bei SIC Software bei der Realisierung der IoT-, Smart Products und Industrie 4.0-Projekte für unsere Kunden primär Amazon Web Services (AWS) Cloud einsetzen, erfahren Sie hier


Eine IoT Lösung in der Cloud löst nun wichtige zentrale technische Anforderungen:

  • Eine zentrale Softwarelösung in der Cloud erlaubt wirtschaftliches Abbilden standardisierter Schnittstellen. Es muss bei notwendigen Änderungen nur an einer zentralen Stelle gearbeitet werden.
  • Schnellere Innovation für alle Ihre Kunden. Das Hinzufügen neuer Dienstmerkmale zu einer bestehenden IoT-Lösung in der Cloud steht sofort allen angeschlossenen Systemen zur Verfügung.
  • Die IT-Infrastruktur in der Cloud kann bei sich ändernden Anforderungen schnell skaliert werden – und das in beide Richtungen. Systeme können sowohl vergrößert als auch verkleinert werden.
  • Sie können mit vergleichsweise geringem Aufwand bestehende Funktionen externer Anbieter in Ihr eigenes digitales Ökosystem aufnehmen oder aber Ihr IoT-System anderen Ökosystemen zur Verfügung stellen.

Nur mit einer IoT-Lösung, die in der Cloud betrieben wird, ist Ihr Unternehmen in der Zukunft in der Lage, schnell und flexibel zu überschaubaren Kosten auf neue Anforderungen dieser Art zu reagieren.

Welche strategisch relevanten Punkte bei der Auswahl eines Cloud-Anbieters beachtet werden müssen und wie Sie die Kontrolle über Ihre Systeme behalten, erfahren Sie in Folge 1 unserer Webinar-Reihe „IoT Projekt-Know-how für Planer und Entscheider“ mit dem Titel „Die Cloud als notwendige Basis für IoT-Lösungen – das AWS-Praxisbeispiel „tempmate“.  Infos & Anmeldung


Übrigens: Als integrativer Entwicklungsdienstleister für AWS (Amazon Web Services) Cloud-Lösungen bieten wir Ihnen ein fundiertes Know-How in den Themenfeldern Internet of Things (IoT), Smart Products und Industrie 4.0 und unterstützen Sie gerne auch bei Ihrem IoT-Projekt. … mehr