Edge-Computing – Rechnen am Rand des Netzwerks

Spätestens 2020 soll das "Internet of Things (IoT)", also die Vernetzung elektronischer Systeme von der Personenwage bis zur industriellen Fertigungsanlage, weltweit rund 50 Milliarden Gegenstände umfassen. All diese Geräte generieren einen kontinuierlichen Daten-Output, der gespeichert und bei kritischen Anwendungen in Echtzeit ausgewertet werden muss. Eine Aufgabe, die von etablierten Cloud-Lösungen kaum zu bewältigen ist.

Als Wachstumsbremse entpuppen sich dabei vor allem der nur stockend voranschreitende Breitbandausbau sowie Verzögerungszeiten bei der Datenübertragung zwischen zentralen Cloud-Servern und Endgeräten am Rand des Netzwerks. Edge-Computing umgeht beide Probleme und leitet damit einen Paradigmenwechseln im Zeitalter des Cloud-Computings ein.

Was ist Edge-Computing? Eine Definition

Bei Edge-Computing handelt es sich um einen Design-Ansatz für IoT-Umgebungen, bei dem IT-Ressourcen wie Speicherkapazität und Rechenleitung möglichst nah an den datengenerierenden Endgeräten und Sensoren bereitgestellt werden. Damit bildet das Konzept eine Alternative zu klassischen Cloud-Lösungen mit zentralen Servern.

Der Begriff „edge“ leitet sich vom englischen Wort für Ecke, Kante oder Rand ab. Eine Anspielung darauf, dass die Datenverarbeitung bei diesem Ansatz nicht zentral in der Cloud, sondern dezentral am Rand des Netzwerks erfolgt. Damit soll Edge-Computing das bereitstellen, was die Cloud bisher nicht bietet: Server, die Massendaten aus intelligenten Fabriken, Versorgungsnetzen oder Verkehrssystemen ohne Zeitverzögerung auswerten können und bei Vorfällen unverzüglich Maßnahmen einleiten.

Grundbegriffe des Edge-Computings im Überblick

Edge-Computing dient als neues Architekturkonzept für IoT-Umgebungen, bringt selber jedoch keine neuen Netzwerkkomponenten ins Spiel. Stattdessen kommen etablierte Technologien in kompakter Bauweise unter neuem Namen zum Einsatz. Wir liefern Ihnen einen Überblick über die wichtigsten Grundbegriffe des Edge-Computings.

  • Edge: Als „Edge“ bezeichnet man im IT-Jargon den Rand des Netzwerks. Welche Netzwerkkomponenten dem Netzwerkrand zugeordnet werden, ist allerdings situationsabhängig. In Telekommunikationsnetzen kann beispielsweise ein Mobiltelefon den Rand des Netzwerks darstellen; in einem System vernetzter, autonom fahrender Autos das einzelne Fahrzeug. Man spricht in solchen Fällen von einem Edge-Device.

  • Edge-Device: Als Edge-Device fungiert jedes datengenerierende Gerät am Rand des Netzwerks. Mögliche Datenquellen sind Sensoren, Maschinen, Fahrzeuge oder intelligente Geräte im Rahmen einer IoT-Umgebung – wie beispielsweise Waschmaschinen, Feuermelder, Glühbirnen oder Heizkörperthermostate.

  • Edge-Gateway: Bei einem Edge-Gateway handelt es sich um eine Recheninstanz am Übergang zwischen zwei Netzwerken. In IoT-Umgebungen kommen Edge-Gateways als Knotenpunkte zwischen dem Internet of Things und einem Kernnetz zum Einsatz. Letzteres setzt sich aus leistungsstarken Routern zusammen, die genug Rechenleistung bieten, um Daten aus dem IoT vorzuverarbeiten. Dazu stellen Edge-Gateways diverse Schnittstellen zu kabelgebundenen und funkbasierten Übertragungstechniken und Kommunikationsstandards bereit – wie Ethernet, WLAN, Bluetooth, 3G-Mobilfunk, LTE, Zigbee, Z-Wave, CAN-Bus, Modbus, BACnet oder SCADA.

Edge-Computing vs. Fog-Computing

Der Ansatz, die Cloud um lokale Recheninstanzen zu erweitern, ist nicht neu. Bereits 2014 etablierte der US-amerikanische Technologiekonzern Cisco den Marketing-Begriff „Fog-Computing“. Ein Konzept, das auf eine dezentrale Vorverarbeitung von Daten in sogenannten Fog-Nodes setzt. Bei Fog-Nodes handelt es sich um lokale Minirechenzentren, die der Cloud vorgelagert sind und somit eine Zwischen-Ebene im Netzwerk darstellen (man spricht von einem Fog-Layer). In IoT-Umgebungen generierte Daten gelangen somit nicht mehr direkt in die Cloud, sondern werden zunächst in Fog-Notes zusammengeführt, ausgewertet und für weitere Verarbeitungsschritte selektiert.

Edge-Computing wird heute als Teilbereich des Fog-Computings verstanden, bei dem IT-Ressourcen wie Rechenleistung und Speicherkapazität noch näher an die IoT-Endgeräte am Netzwerkrand heranrücken. Während die Datenverarbeitung in Fog-Computing-Architekturen zunächst auf dem Fog-Layer erfolgt, findet diese bei Edge-Computing-Konzepten bereits in leistungsstarken IoT-Routern oder sogar direkt am Gerät oder Sensor statt. Denkbar ist zudem eine Kombination beider Konzepte. Folgende Grafik zeigt eine solche Architektur mit Cloud-, Fog- und Edge-Layer.

Tipp

Referenz-Architekturen für Fog- und Edge-Computing-Umgebungen werden im Rahmen des Open Fog Consortiums entwickelt, einem offenen Zusammenschluss von Industrie und Wissenschaft.

Was spricht für Edge-Computing?

Ein Bohrturm produziert pro Woche rund 500 Gigabyte an Daten; die Turbine eines modernen Verkehrsflugzeugs rund 10 Terabyte in 30 Minuten. Über mobile Netze lassen sich Datenmengen dieser Größenordnung weder in die Cloud laden noch in Echtzeit auswerten. Hinzu kommt, dass die Nutzung von Fremdnetzen mit hohen Kosten verbunden ist. Es muss somit ortsnah entschieden werden, wie viele und welche der generierten Informationen an zentrale Systeme übertragen und gespeichert werden müssen und welche Daten vor Ort ausgewertet werden können. Hier kommt Edge-Computing ins Spiel.

Aktuell tragen zentrale Rechenzentren den Großteil der Datenlast, die das Internet generiert. Die Datenquellen sind heute jedoch häufig mobil und vom zentralen Großrechner zu weit entfernt, um eine akzeptable Reaktionszeit (Latenz) zu gewährleisten. Problematisch wird dies insbesondere bei zeitkritischen Anwendungen wie maschinellem Lernen und Predictive Maintenance – zwei grundlegenden Konzepten des Zukunftsprojekts Industrie 4.0 mit intelligenten Fertigungsanlagen und selbstregulierenden Versorgungsnetzen

Hinweis

Predictive Maintenance – die vorausschauende Wartung – soll Instandhaltung und Administration der Fabriken der Zukunft revolutionieren. Anstatt Ausfälle und Störungen erst im Nachhinein anzuzeigen, soll das neue Wartungskonzept Risiken für Defekte mithilfe intelligenter Überwachungssysteme bereits erkennen, noch bevor ein tatsächlicher Defekt auftritt.

Auch die private Internetnutzung – das Streaming hochauflösender Videos auf Mobilgeräten, VR und Augmented Reality – bringt klassische Cloud-Konzepte sowie die Bandbreite der zur Verfügung stehenden Netze bereits jetzt an ihre Grenzen. Und die Einführung des neuen Mobilfunkstandard 5G mit einer Übertragungsgeschwindigkeit von bis zu 10 GBit/s wird diesen Datendruck Experten zufolge nicht abfangen, sondern erhöhen. Auch Edge-Computing bietet keine Lösung für dieses Problem. Vielmehr wirft das Konzept die Frage auf, ob in IoT-Umgebungen tatsächlich alle Daten in der Cloud verarbeitet werden müssen.

Edge-Computing wird dabei nicht als Ersatz, sondern als eine Ergänzung zur Cloud betrachtet, die folgende Funktionen bereitstellt:

  • Datenerfassung und -aggregation: Während Datenquellen in klassischen Cloud-Architekturen alle Daten zur zentralen Auswertung an ein Kern-Rechenzentrum in der Cloud übertragen, setzt Edge-Computing auf die Datenerfassung nah an der Quelle. Dazu nutzt man Micro-Kontroller direkt im Gerät oder sogenannte Edge-Gateways – also „intelligente Router“. Diese führen Daten verschiedener Geräte zusammen und ermöglichen die Vorverarbeitung und Selektion des Datenbestands. Der Upload in die Cloud erfolgt nur dann, wenn Informationen sich nicht lokal auswerten lassen, detaillierte Analysen erforderlich sind oder Daten archiviert werden sollen.

  • Lokale Datenspeicherung: Edge-Computing bietet sich vor allem dann an, wenn breitbandlastige Daten lokal bereitgestellt werden müssen. Bei großen Damenmengen ist eine Echtzeit-Übertragung aus dem Kern-Rechenzentrum in der Cloud meist nicht möglich. Umgehen lässt sich dieses Problem, indem entsprechende Daten dezentral am Rand des Netzwerks vorgehalten werden. Bei einem solchen Szenario fungieren Edge-Gateways als Replica-Server in einem Content-Delivery-Network.

  • KI-gestütztes Monitoring: Die dezentralen Recheneinheiten einer Edge-Computing-Umgebung nehmen Daten entgegen, werten diese aus und ermöglichen dadurch ein kontinuierliches Monitoring der angeschlossenen Geräte. Kombiniert mit Machine-Learning-Algorithmen ist eine Statusüberwachung in Echtzeit möglich – beispielsweis zur Kontrolle und Optimierung der Prozesse in intelligenten Fabriken.

  • M2M-Kommunikation: Das Kürzel „M2M“ steht für „Machine-to-Machine“, ein Schlagwort für den automatisierten Informationsaustausch zwischen Endgeräten über beliebige Kommunikationsstandards. In IoT-Umgebungen wie einer intelligenten Fabrik könnte M2M-Kommunikation für die Fernüberwachung von Maschinen und Anlagen zum Einsatz kommen. Möglich ist dabei im Rahmen der Prozessteuerung sowohl eine Kommunikation der Endgeräte untereinander als auch die Kommunikation mit einer zentralen Leitstelle, die als Kontrollinstanz fungiert (KI-gestütztes Monitoring).

Folgende Grafik veranschaulicht das Grundprinzip einer dezentralen Cloud-Architektur, bei der Edge-Gateways als vermittelnde Instanz zwischen einem zentralen Rechner in der Public oder Private Cloud und den IoT-Geräten am Rand des Netzwerks fungieren.

Anwendungsbereiche für Edge-Computing-Architekturen

Die Anwendungsfälle für Edge-Computing entstammen in der Regel dem IoT-Umfeld und sind genau wie das das Konzept einer dezentralen Cloud-Architektur aktuell noch Zukunftsprojekte. Ein wichtiger Wachstumstreiber für Edge-Computing-Technologie ist der steigende Bedarf an echtzeitfähigen Kommunikationssystemen. Die dezentrale Datenverarbeitung wird als Schlüsseltechnologie für folgende Projekte eingestuft:

  • Car-to-Car-Kommunikation
  • Smart Grid
  • Smart Factory

Ein „Connected Car“ – das vernetzte Auto – wird künftig mehr sein als nur ein Fahrzeug mit Internetanschluss. Die Zukunft der Mobilität verspricht Cloud-gestützte Frühwarnsysteme auf Basis einer Car-to-Car-Kommunikation und sogar gänzlich autonom fahrende Transportmittel. Voraussetzung dafür ist eine Infrastruktur, die es ermöglicht, Daten in Echtzeit zwischen den Fahrzeugen und Kommunikationspunkten auf der Strecke auszutauschen.

Auch das Stromnetz der Zukunft wird adaptiv sein und sich dank dezentraler Energiemanagementsysteme automatisch an Leistungsschwankungen anpassen. Zu einer Schlüsseltechnologie werden Smart Grids im Rahmen der Energiewende. Denn der Umstieg auf erneuerbare Energien stellt Stromnetze vor neue Herausforderungen. Anstelle weniger zentraler Großerzeuger müssen zahlreiche kleinere und dezentrale Stromerzeuger mit Speichereinrichtungen und Endverbrauchern verbunden werden.

Letztere werden dank Solarpanels zum Teil sogar selbst zu Stromerzeugern. Intelligente Netze transportieren daher nicht nur den Strom, sondern liefern auch Daten zu dessen Erzeugung, Speicherung und Verbrauch. Dies ermöglicht allen Beteiligten, in Echtzeit auf Veränderungen zu reagieren. Ziel ist es, Stromnetze trotz steigender Komplexität stabil zu halten und durch intelligente Lastregelung effizienter zu gestalten. Um die dabei anfallenden Datenmassen in kürzester Zeit erfassen, speichern und verarbeiten zu können, werden neue Cloud-Konzepte wie Edge und Fog-Computing benötigt.

Als Smart Factory bezeichnet man sich selbst organisierende Produktionsanlagen und Logistiksysteme – im Idealfall erfordern diese keinerlei menschlichen Eingriff mehr. Eine intelligente Fabrik ist praktisch ein System vernetzter Geräte, Maschinen und Sensoren, die über das Internet der Dinge miteinander kommunizieren, um Fertigungsprozesse abzuwickeln. Das Kommunikationssystem der Smart Factory schließt dabei sogar das fertige Produkt mit ein und kann so automatisch auf Angebot und Nachfrage reagieren.

Mithilfe von KI-Systemen und maschinellem Lernen lassen sich Wartungsprozesse und die Produktionsoptimierung automatisieren. Das erfordert eine IT-Infrastruktur, die große Datenmengen auswerten und ohne Verzögerung auf unvorhergesehene Ereignisse reagieren kann. Klassische Cloud-Systeme scheiterten dabei am Latenzproblem. Fog- und Edge-Computing-Architekturen lösen dies Problem durch eine verteilte Datenverarbeitung.

Edge-Computing: Vor und Nachteile im Überblick

Folgende Tabelle stellt die Vor und Nachteile eine Edge-Computing-Architektur im Vergleich zu klassischen Cloud-Umgebungen gegenüber.

Vorteile Nachteile
Datenverarbeitung in Echtzeit: In Edge-Computing-Architekturen rücken Verarbeitungseinheiten näher an die Datenquelle heran und ermöglichen somit eine Kommunikation in Echtzeit. Das Latenzproblem klassischer Cloud-Lösungen wird umgangen. Komplexere Netzwerkstruktur: Ein verteiltes System ist deutlich komplexer als eine zentralisierte Cloud-Architektur. Eine Edge-Computing-Umgebung ist ein heterogener Zusammenschluss diverser Netzwerkkomponenten zum Teil unterschiedlicher Hersteller, die über eine Vielzahl von Schnittstellen miteinander kommunizieren.
Reduzierter Datendurchsatz: Edge-Computing sieht in erster Linie eine die lokale Datenverarbeitung in Edge-Gateways vor. Lediglich Daten, die nicht lokal ausgewertet werden können oder online zur Verfügung stehen sollen, werden in die Cloud geladen. Anschaffungskosten für Edge-Hardware: Zentralisierte Cloud-Architekturen punkten in erster Linie dadurch, dass deutlich weniger lokale Hardware bereitgestellt werden muss. Dieser Vorteil geht bei verteilten Systemen verloren.
Datensicherheit: Beim Edge-Computing verbleibt ein Großteil der Daten im lokalen Netzwerk. Für Unternehmen ist es somit deutlich einfacher, Compliance-Anforderungen gerecht zu werden. Höherer Wartungsaufwand: Ein dezentrales System mit mehreren Rechenknoten erfordert einen höheren Wartungs- und Administrationsaufwand als ein zentrales Rechenzentrum.