Testbed für die Anbindung Edge-basierter Steuerungen an die IT
Von der Automatisierungs- zur Industriepyramide
Die Branche bewegt sich: Doch ehe Edge Computing von Theorien und Experimenten zum flächendeckenden industriellen Einsatz gebracht werden kann, gilt es noch Hindernisse zu überwinden. Ein Schlüssel für die Anwendung in größerem Maßstab ist die Auflösung der unpassenden und (potenziell unsicheren) Schnittstelle zwischen den Welten der Informations- und Betriebstechnik. Wie das funktionieren kann, wurde jetzt in einem industriellen Testbed geprüft.
  LynxSecure-Konfiguration
LynxSecure-KonfigurationBild: Lynx Software Technologies, Inc.

Die Konsolidierung mehrerer Systeme auf einem Multicore-Prozessor kann Kosten, Stromverbrauch und Platzbedarf reduzieren, aber aufgrund der gemeinsamen Ressourcesnnutzung auch zu Herausforderungen bei der Echtzeitleistung führen. Diese Situation lässt sich durch die Trennung von Kernel-Hypervisoren meistern. Und indem man die zweite Schicht der Automatisierungspyramide – die Überwachungsschicht – softwaregesteuert neu definiert.

 Vorläufige Testergebnisse
Vorläufige TestergebnisseBild: Lynx Software Technologies, Inc.

Industriepyramide und Netzwerkperipherie

Der Einsatz moderner Rechenressourcen mit Cloud-nativen Modellen des Software-Lifecycle-Managements wird sich in der Automatisierung immer mehr durchsetzen. Die Platzierung von virtualisierten Ressourcen näher an dem Ort, an dem mehrere Datenströme erzeugt werden, ist eindeutig von Vorteil. Doch es bleiben Herausforderungen in Bezug auf Systemlatenz, Datenschutz, Kosten und Ausfallsicherheit, die ein reiner Cloud-Computing-Ansatz nicht bewältigen kann. Hier kommt Edge Computing ins Spiel und prägt eine neue Hierarchie – die Industriepyramide – gerade in den unteren, OT-fokussierten Ebenen. Dazu gehören:

  • Heterogene Hardware: Typische industrielle Automatisierungsumgebungen haben unterschiedliche Architekturen, x86, Arm, sowie eine Vielzahl von Rechen-Konfigurationen.
  • Sicherheit: Die Sicherheitsanforderungen und deren Abmilderungen sind von Gerät zu Gerät unterschiedlich und müssen sorgfältig gehandhabt werden.
  • Innovation: Während einige industrielle Anwendungen mit dem alten Paradigma weitermachen können, erfordert der Großteil der industriellen Welt nun zusätzlich moderne Datenanalyse und Überwachung der Anwendungen in ihren Anlagen.
  • Datenschutz: Wie in anderen Bereichen der IT wird die Verwaltung von Datenberechtigungen in vernetzten Maschinen immer komplexer und muss bereits bei der Entstehung der Daten geregelt werden.
  • Echtzeit und Determinismus: Der von Steuerungen bereitgestellte Echtzeit-Determinismus bleibt für die Sicherheit des Betriebs entscheidend.

Das Konzept Mission Critical Edge entsteht aus der Einbindung von Embedded-Anforderungen in virtualisiertes Lifecycle-Management sowie datenreiches Computing. Es geht die Herausforderungen der IT/OT-Schnittstelle frontal an, indem es wesentliche, aber fragmentierte Legacy-Systeme durch ihre sichere Konsolidierung und Orchestrierung unterstützt und ihre Anreicherung mit Analytics und KI fördert. Daraus resultiert die Vision eines Multicore-Rechenknotens, der als Architektur folgendes bietet:

  • Verteilte und zusammengeschaltete, gemischtkritische, virtualisierte Multicore-Rechenknoten (System of Systems).
  • Netzwerkunterstützung für traditionelle IT-Kommunikation (z. B. Ethernet, WiFi) und deterministische Legacy-Feldbusse, die sich in Richtung eines verbesserten Determinismus durch Ethernet TSN bewegen, sowie öffentliche und private 4G/5G.
  • Unterstützung für die Datenverteilung innerhalb und zwischen den Knoten, basierend auf Standard-Middleware (OPC UA, MQTT, DDS und mehr) wird ebenfalls Determinismus anstreben (z. B. OPC UA über TSN).
  • Als virtuelle Maschinen (VMs) und Container verpackte Anwendungen, die das Lebenszyklusmanagement erleichtern.

Testbed und vorläufige Ergebnisse

Mit dieser Vision im Hinterkopf haben sich Lynx, Exor, Codesys und Next Stel zusammengetan, um ein industrielles Testbed aufzubauen. Exor ist sowohl Hardware-Ausrüster als auch Edge-Software-Anbieter mit Spezialisierung auf Data Ingestion und Analyse-Frameworks. Codesys bietet virtuelle SPS-Ökosysteme, die unter Debian Linux laufen, oder als eigenständige Bare-Metal-Lösung. Next-Stel hat als Systemintegrator viel Erfahrung in Entwicklung und Einsatz von industriellen Steuerungssystemen. Im Rahmen des Testbeds wurde LynxSecure mit vier Gästen (bzw. Subjekten) konfiguriert. Damit eine solche Konfiguration praktikabel ist, muss ihre Performance innerhalb der anspruchsvollen Parameter der OT-fokussierten Ebenen liegen. Das hängt vor allem von der Leistungsfähigkeit der virtualisierten Anwendungen ab.

Da eine typische industrielle Steuerung auf einer zyklischen Regelung basiert, muss sie gewährleisten, dass alle Berechnungen an den beiden Endpunkten des Regelkreises und alle in jedem Regelzyklus erforderlichen Kommunikationen zwischen diesen Punkten vor Beginn des nächsten Zyklus abgeschlossen sind. Es wurden drei Messreihen mit Codesys durchgeführt: auf Bare-Metal-Hardware, auf LynxSecure und schließlich auf LynxSecure mit störenden Workloads. In allen drei Fällen wurde die Codesys-Kontaktplananwendung mit einer Zykluszeit von 250µs betrieben. Es gab nur eine geringe Verschlechterung der Echtzeit-Performance, wenn die Codesys-Anwendung von der Bare-Metal- auf die LynxSecure-Umgebung migriert wird, und keine nennenswerte Verschlechterung wenn Codesys auf LynxSecure läuft (mit oder ohne störenden Workloads).

Echtzeit-Leistungsanalyse

Anschließend hat Next-Stel Tests durchgeführt, wie gut die gewählte Architektur den Echtzeit-Netzwerkverkehr bewältigt. Die umfangreiche Analyse unter Berücksichtigung von Jitter, Scheduling- und Stack-Latenz kam zu dem Schluss, dass der LynxSecure-Hypervisor kritische Echtzeit-Aktivitäten effektiv von anderen Aktivitäten isoliert, die auf demselben System gehostet werden, und fügte gleichzeitig bis zu 50µs zum Jitter hinzu, der im äquivalenten Aufbau, aber ohne Virtualisierung, beobachtet wurde. Es wurde gefolgert, dass die minimale Zykluszeit, die mit dieser Lösung gehandhabt werden kann, 250µs sowohl für Ethercat als auch für Profinet beträgt. Noch schnellere Zykluszeiten sind wahrscheinlich möglich, wenn Para-Virtualisierung und/oder ein anderes RTOS als Debian RT eingesetzt wird.

Aus diesen Ergebnissen wird deutlich, dass die vorgeschlagene Lösung die Herausforderungen der IT/OT-Schnittstelle adressieren kann und dabei die geforderte deterministische Echtzeitleistung beibehält. Die Virtualisierung macht das Konzept ausreichend flexibel, um das Problem der heterogenen Hardware zu lösen und gleichzeitig Legacy-Systeme und moderne Datenanalysen auf derselben Plattform zu unterstützen. Die Sicherheitsprobleme durch die Verschmelzung von IT und OT werden durch Domänentrennung und Least-Privilege-Prinzipien gelöst, die als Grundlage für das Design von LynxSecure dienen. Sie bilden zudem die Grundlage für den Datenschutz.

Doch wie würde die Infrastruktur aussehen, wenn der missionskritische Rand eingesetzt wird, eingebettet in den OT-Bereich der Fabrik? Es gibt eine verteilte Menge von Knoten, einige in der Nähe der Anlage, einige weit entfernt. Im Endeffekt ist dies wie ein verteiltes Rechenzentrum, enthält jedoch einen heterogeneren, miteinander verbundenen, virtualisierten Satz von Rechenressourcen. Sie hosten die Anwendungen dort, wo sie benötigt werden – und wann. Sie werden in Form von virtuellen Maschinen und Containern bereitgestellt, die aus der Cloud oder lokal orchestriert werden.

Mission Critical Edge

So gut manche Lösungen auch klingen, die Herausforderungen der IT/OT-Schnittstelle bleiben bestehen. In einer Fabrik gibt es viele verschiedene Technologien, die sich nicht so einfach ersetzen lassen. Durch die Einführung des Mission Critical Edge in solchen Szenarien wird die Welt der orchestrierten Anwendungen aber wesentlich zugänglicher. Die kombinierte Unterstützung von Altsystemen und Data Harvesting verspricht eine pragmatische Lösung für viele weitere Praxissituationen. Deterministisches Verhalten in Multicore-Systemen ermöglicht es, diese Anwendungen auf einzelne Multicore-Prozessoren zu konsolidieren, ohne das Verhalten zeitkritischer Funktionen zu beeinträchtigen. Und die strikte Isolierung zwischen den Anwendungen gewährleistet hohe Zuverlässigkeit und Sicherheit.

Mission Critical Edge ist dafür ausgelegt, die ursprüngliche Absicht von Industrie 4.0 und Fog Computing zu realisieren. Das betrifft nicht nur die Herausforderungen an der Schnittstelle zwischen Embedded-Lösungen und IT. Mission Critical Edge erntet auch die reichhaltigen Datenquellen, die eine solche Verbindung verspricht, und bietet so einen Gewinn für alle Beteiligten.

Lynx Software Technologies, Inc.

Das könnte Sie auch Interessieren

Anzeige

Anzeige

Anzeige

Bild: Vecoplan AG
Bild: Vecoplan AG
IoT-basierte Services

IoT-basierte Services

Vecoplan nutzt bereits seit 2008 Fernzugriffsfunktionen für seine Maschinen. Mithilfe des IoT-Spezialisten Ixon hat der Maschinenbauer dieses Angebot ausgeweitet und bietet heute sogar Kameraüberwachung für seine Recyclingmaschinen an.

Bild: ISW Universität Stuttgart
Bild: ISW Universität Stuttgart
SDM in der Anwendung

SDM in der Anwendung

Software-defined Manufacturing (SDM) ist eine technische und methodische Lösung, um Produktionssysteme kontinuierlich an sich ändernde Anforderungen anzupassen. Nötig sind zunächst per Software anpassbare Komponenten wie Roboter oder Transportsysteme. Das große Potenzial an Wandelbarkeit und Optimierungsfähigkeit geht auch mit hoher Komplexität einher. Deshalb wird in einem Demonstrator gezeigt, wie die Vorteile praxisgerecht nutzbar gemacht werden.

Anzeige

Anzeige

Anzeige