Mesh Twin Learning: Wie ML-Modelle für Sie konkurrieren

25. September 2019 Lukasz Panusz

In unserem letzten Blog-Beitrag haben wir uns auf die digitale Transformation in der Fertigungsindustrie konzentriert und unsere ersten Gedanken zu Mikrooptimierungen und MTL ausgetauscht; MTL steht für Mesh Twin Learning, unser eigenes Konzept, um die technische Umsetzung verschiedener Automatisierungsmechanismen an Produktionslinien zu ermöglichen.

Dieses Konzept geht auf die meisten gemeinsamen Herausforderungen ein, denen sich Unternehmen bei der Transformation zu Industrie 4.0 gegenübersehen, wie z.B. Komplexität, Lücken in der Standardisierung oder die Unfähigkeit, Vorteile aus dem breiteren Anwendungsbereich der Lösung zu ziehen.

Diesmal möchten wir einen Schritt weiter gehen und das MTL-Konzept aus der Umsetzungsperspektive – im Gegensatz zur rein technischen – näher beleuchten und dies aus zwei Gründen. Der erste besteht darin, ein besseres Verständnis des allgemeinen Konzepts und der Wettbewerbsvorteile zu entwickeln, die eine solche Implementierung mit sich bringt, aber wir wollen auch mögliche Anwendungsfälle diskutieren, die viel weiter fortgeschritten und erweiterbar sind als die ursprüngliche vertikale Fertigungsindustrie.

Eine lange Geschichte kurz gefasst.

Die MTL-Lösung wurde von mir und meinem Freund Maciej Mazur erfunden – wir sind beide Solution Architects, jeder mit seinen eigenen unterschiedlichen Erfahrungen.

Maciej – unser Chief Data Scientist – hat einen fundierten Hintergrund in den Bereichen Telekommunikation, Industrie und Data Science. Er hat schon immer maßgeblich an großen Projekten gearbeitet, darunter viele innovative Lösungen, die mit riesigen Datenmengen funktionieren.

Ich selbst komme jedoch aus einem etwas anderen Bereich, in dem moderne Technologien – insbesondere diejenigen, die mit der Cloud, Netzwerken und Hochleistungslösungen verbunden sind – für den Aufbau von Bleeding-Edge-Systemen in den Bereichen FinTech und eCommerce eingesetzt werden.

Wir haben einige Gemeinsamkeiten, wovon zwei wirklich bedeutend sind:

  1. Wir beide lösen gerne Alltagsprobleme mit den bestmöglichen Technologien – auch wenn es bedeutet, dass wir diese über ihre derzeitigen Grenzen hinaus erweitern müssen.
  2. Wir sind immer auf darauf bedacht, wie wir unser Fachwissen und unsere Erfahrungen kombinieren können, um Lösungen zu entwerfen, die die Welt voranbringen.

In diesem Sinne haben wir vor einiger Zeit beim Morgenkaffee damit begonnen, einen der jüngsten Fälle zu analysieren, der auf unserem Tisch gelandet ist. Ein Produktionsunternehmen wollte seine gesamten Vermögenswerte, Prozesse und Logistik über Lager- und Produktionslinien hinweg verfolgen. Es gab mehrere Lösungen auf dem Markt, aber keine von ihnen konnte alle diese Anforderungen erfüllen. Daher mussten wir etwas entwerfen, das die Bereiche miteinander verbindet, die diesen anderen Produkten fehlen.

Unnötig zu sagen, dass alles gut lief (sonst wären wir nicht hier, um darüber zu sprechen!), dass der Kunde zufrieden und die Lösung stabil war. Doch obwohl dies dem anfänglichen Zweck diente, war es für uns nicht genug…


Technologien, die dienen sollen

Unser erster Gedanke war, dass es bei den modernen Technologien, die auf dem Markt verfügbar sind und die wir tagtäglich in Projekten einsetzen, einen Weg geben muss, mehr aus ihnen herauszuholen – nicht zuletzt in Bezug auf die Größenordnung, auch wenn wir nicht an die größten Global Player denken. So sind wir auf das Mesh Twin Learning-Konzept gekommen – das wir Schritt für Schritt beschreiben wollen.

Bevor wir uns jedoch in eine detaillierte Beschreibung der technischen Architektur der MTL stürzen, ist es wichtig, bei Null anzufangen – mit anderen Worten, das grundlegende Wissen um die Technologien, die wir verwendet haben, um dieses Konzept so effektiv, einzigartig und besonders zu machen.

Schauen wir uns also zunächst einmal kurz die Definitionen für die Technologie und die Begriffe an, die wir später verwenden werden:

  • CloudEin großes Netzwerk von miteinander verbundenen Datenzentren, die als ein einziges Ökosystem arbeiten und die notwendigen Ressourcen, Rechenleistung und Dienste bereitstellen, um Anwendungen auszuführen oder die Inhalte an die Endbenutzer zu liefern.
  • Edge ComputingEine Art von Systemarchitektur, bei der die Datenspeicherung und die Rechenkapazitäten an den Rand (Edge) verlegt werden. Dies wird durch spezifische Geräte unterstützt, die an das globale Netzwerk angeschlossen sind und so eine dezentrale Datenverarbeitung mit sofortigem Zugriff auf die Ergebnisse und eine nahtlose Kommunikation mit Cloud-Ressourcen ermöglichen.
  • Digital Twins – Eine virtualisierte Kopie eines physischen Geräts, einer Komponente oder eines Lebewesens, die ihren Zustand als Reihe von Parametern darstellt, die ständig überwacht und zeitlich aktualisiert werden. Dies ermöglicht die Digitalisierung von Prozessen, Systemen, Orten bis hin zu Menschen. Digital Twins ermöglichen erweiterte Simulationen, eine bessere Überwachung und eine effektivere Entscheidungsfindung über den Status eines dezentralen Systems.
  • Machine Learning – Auch maschinelles Lernen, ein Konzept, das die Fähigkeit zum automatischen Lernen und zur Verbesserung von Erfahrungen in Anwendungen umsetzt. Es verwendet verfügbare Daten, ohne explizit als Satz statischer Verhaltensweisen implementiert zu werden.
  • Data Science – Auch Datenwissenschaft, eine Reihe von wissenschaftlichen Methoden und Techniken, die darauf abzielen, Wissen aus der Umgebung zu extrahieren sowie strukturierte und unstrukturierte Daten aus allen verfügbaren Quellen zu verwenden, um alle Prozesse zu unterstützen, die auf Entscheidungen, Vorhersagen oder Unternehmensführung ausgerichtet sind.
  • Mesh – Ein Ansatz für den Aufbau, die Skalierung und den Betrieb dezentraler Ökosysteme. Das Hauptaugenmerk liegt auf der Sicherheit, Konnektivität und Zuverlässigkeit der entworfenen Architektur, um die Notwendigkeit einer vollständigen gemeinsamen Nutzung der Ressourcen zu begrenzen und stattdessen funktionsübergreifende Fähigkeiten verschiedener Teile des Systems einzuführen.

Jetzt, wo wir diese Kerndefinitionen festgelegt haben, denken Sie wahrscheinlich: „Wie bitte? Das wusste ich schon, also wo soll dieses Mesh Twin Learning denn sein? Sie haben nichts!“

Nun, wie immer, kommt das Beste zuletzt!

Jede dieser Technologien bringt alleine schon eine Menge Vorteile mit sich, und sie sind typischerweise nur als separate Systeme verbunden, die Metadaten untereinander weiterleiten.

Bitte stellen Sie sich folgende Situation vor: Sie möchten ein System einführen, das in der Lage ist, alle verfügbaren Informationen von allen Sensoren zu erfassen, die in eine Reifenproduktionslinie eingebaut sind. Diese Daten sollen zur Überwachung des Prozesses genutzt werden, wie z.B. zur Ermittlung der Geschwindigkeit, zu Warnungen bei Problemen und so weiter. Zunächst scheint es einfach zu sein, da wir die Daten von den Sensoren nehmen und über IoT-Gateways in die Cloud übertragen können, wo die Big Data-Technologie für uns arbeitet, um alles zu visualisieren, was wir brauchen. Am Ende wird der Manager über den Produktionsfortschritt informiert.

Das klingt zwar großartig, aber wir haben in der Regel zwei große Herausforderungen zu bewältigen:

  • In der Regel verfügt eine Produktionsstätte oft nicht über stabile, leistungsstarke Netzwerkverbindungen, die die zu übertragende Datenmenge bewältigen könnten. Eine einzelne Maschine einer Produktionsstätte kann mehrere Sensoren haben, von denen jeder in der Lage ist, einige Datenströme zu erzeugen. Wenn wir jedoch alle kombinieren würden, könnten wir pro Produktionsnest ohne weiteres 100 bis 200 Parameter erhalten. Während kurze Produktionslinien etwa 20 Nester haben können, kann ein Fließband für Autos beispielsweise über 80 haben.
  • Flexible Automatisierung. Jeder Sensor, den wir auslesen wollen, hat seine eigenen Standards für Kommunikation, Datenformatierung und mehr. Die Anzahl der IoT-Geräte, die für ihre Handhabung benötigt werden, ist enorm – und jedes einzelne muss konfiguriert werden. Auf der anderen Seite haben wir auch Bedienpersonal, das die Produktionslinien überwacht und auf der Grundlage einzelner Parameter handelt. Selbst mit den besten Dashboards und Berichten wird er oder sie immer eingeschränkt sein, wenn es darum geht, Entscheidungen auf der Grundlage der riesigen Informationsmengen zu treffen, die durch all diese Auslesungen übertragen werden. Daher ist es naheliegend, dass solche Reaktionen nur für die offensichtlichsten und klarsten Warnungen ausgelöst werden können, während das Potenzial für echte Verbesserungen und Experimente unbemerkt verstreicht.

Diese Probleme betreffen nicht nur die Industrieräume. Tatsächlich sind wir mit ihnen im täglichen Leben konfrontiert – zum Beispiel mit der Konnektivität im Auto, der intelligenten Stadtüberwachung, der Logistik und vielem mehr. Mit der gesamten Leistungsfähigkeit von Cloud-Systemen und den enormen Verbesserungen im Bereich Data Science mussten wir nur eine einzige Frage beantworten: Wie können wir die Technologie zwingen, unseren Zweck zu erfüllen, ohne die Nutzen zu opfern?


Intelligente Konnektivität für eine bessere Zukunft

Das Konzept des Mesh Twin Learnings konzentriert sich auf die beiden kritischen Herausforderungen, die wir im vorigen Abschnitt erwähnt haben: Konnektivität und flexible Automatisierung. Lassen Sie uns schrittweise vorgehen und sehen, wie die Lösung aufgebaut ist und wie sie den Bedürfnissen der modernen Welt entspricht.

Vom Standpunkt der High-Level-Architektur aus (in Abbildung 1 unten dargestellt) können wir klar drei Hauptteile der Lösung unterscheiden, in denen wichtige Muster implementiert werden und die Verarbeitung stattfindet: die Edge-Geräte, Cloud-Infrastruktur und ML-Modelle. Während die untenstehende Architektur auf der Grundlage der AWS-Services erstellt wurde, kann das Konzept selbst bei jedem der öffentlichen Cloud-Anbieter, wie z.B. GCP oder Azure, implementiert werden.

Figure 1. MTL: high-level architecture

Das obige Diagramm zeigt eine vereinfachte Lösung, die in die Produktionslinien der Produktionsstätte integriert ist (und die dazu beiträgt, die Herausforderung der Visualisierung zu lösen, wie wir bereits weiter oben beschrieben haben). Hier einige weitere Details zur Erklärung:

  • Die Produktionsnester in jeder Produktionsstätte sind mit dedizierten Edge-Geräten integriert – sie folgen den Standards des Industrial Internet of Things (IIoT – Industrielles Internet der Dinge).
  • Jedes Gerät führt mehrere Daten- und ML-bezogene Dienste aus, die alle unter der Aufsicht eines Echtzeit-Betriebssystems laufen.
  • Die von diesen Maschinen gesammelten Daten werden über Managed Services und sichere Protokolle (Zertifikate, VPN-Verbindungen usw.) an die Cloud übertragen.
  • Dieser Cloud-Bereich ist vor allem zuständig für:
    • Die Virtualisierung eines Maschinenstatus (alle Parameter) mit Hilfe einer Farm von Digital Twins (Device Shadows Farm).
    • Versorgung der Analysemaschine, die eigentlich der Datensee für das Machine Learning Engine ist.
  • Alles ist so miteinander verbunden, dass Informationen in nahezu Echtzeit hin- und hergereicht werden, einschließlich der Aktualisierung von Diensten und Modellen, die auf Edge-Geräten bereitgestellt werden – alles per OTA-Updates.
  • Wir können beliebig viele Edge-Geräte an die Cloud-Infrastruktur anschließen und eine unbegrenzte Anzahl von Prozessen und physikalischen Geräten digitalisieren.

Auf den ersten Blick scheint sie sich nicht wesentlich von den auf dem Markt verfügbaren Lösungen zu unterscheiden. Lassen Sie uns ein wenig tiefer gehen und versuchen, die Vorteile des Designs von Mesh Twin Learning zu verstehen, und auch, wo alle wesentlichen Stärken (sowie die Unterschiede zu anderen Lösungen) verborgen sind.


Meshes, Meshes überall

Wie Sie bereits aus der vorherigen Definition wissen, können wir etwas als ein Mesh bezeichnen, wenn wir es mit Dingen zu tun haben, die auf gemeinsame Art und Weise gut zusammenarbeiten. Wenn wir dieses Konzept in Richtung Service-Meshes erweitern, wo wir eine dedizierte Layer aufbauen, die eine sichere, schnelle und zuverlässige Kommunikation zwischen verschiedenen Diensten oder Geräten ermöglicht, werden wir in der Lage sein, die meisten Herausforderungen zu meistern, die durch automatisierte Geräte und Edge-Computing-Raum entstehen.

 

Figure 2. MTL – edge devices architecture

Typischerweise haben die Maschinen, mit denen wir es während des Automatisierungsprozesses zu tun haben, unterschiedliche Alter und Standards, was die Komplexität der endgültigen Lösung unmittelbar erhöht. Gleichzeitig sprechen wir innerhalb einer großen Produktionsstätte über Hunderte von verschiedenen Schnittstellen, aus denen wir Daten abrufen müssen, und das alles auf sichere und zuverlässige Weise. Dies ist der Bereich, in dem herkömmliche Lösungen selbst bei Pilotprojekten erste Grenzen offenbaren, da sie entweder die Daten während der Übertragung verlieren, die Übertragungen nicht optimal (langsam) durchführen oder – schlimmer noch – die Sicherheitsstandards verletzen.

Zweitens müssen wir bedenken, dass die gesamte Verantwortung für die Datenverarbeitung (die in verschiedenen Formaten vorliegt) auf die Cloud-Infrastruktur fällt, was die Betriebskosten (Zeit, Leistung, Abrechnung usw.) in die Höhe treibt.

Dies sind die Hauptgründe, aus denen wir beschlossen haben, spezialisierte Mini-PCs (mit gültiger Industriezertifizierung) zu entwickeln:

  • Entwicklung von vernetzten Geräten – so sind wir für jede Art von Integration gerüstet. Diese Edge-Geräte sind IIoT-konform, werden in einer speziellen Umgebung betrieben, ermöglichen die Einführung einer Abstraktionsebene und sind gegenüber den jeweiligen Maschinenstandards resilient. Sie kommen mit jeder Art von Datenquelle zurecht und verarbeiten sie lokal und angepasst. Die hier erfassten Daten werden auf drei Weisen verarbeitet:
  • Im Batchverfahren – Aggregierte Zustände (Rohinformationen) werden komprimiert und verschlüsselt, um über ein konfiguriertes Geräte-Gateway an die Cloud-Infrastruktur übertragen zu werden. Die Batches werden alle 2-5 Sekunden übermittelt, was die Netzwerknutzung einschränkt.
  • Durch Gerätevirtualisierung – Jedes Edge-Gerät erstellt einen lokalen Digital Twin der überwachten Maschine, so dass es schnell den aktuellen Zustand darstellen und gewünschte Aktionen oder Simulationen durchführen kann, ohne Cloud-Dienste aufrufen zu müssen. Nur die Metadaten für digitalisierte Assets werden an die Cloud übermittelt, was die Größe der Uploads einschränkt.
  • Mit kompakten ML-Modellen – Jede Zustandsänderung oder jedes Ereignis, das auf dem zu überwachenden physikalischen Gerät festgestellt wird, wird von einem kompakten, trainierten Machine Learning-Modell ausgelegt und kann zu einer direkten Reaktion, wie z.B. einer Anpassung der Produktionsparameter, führen. Lokale Modelle sind kompakte Darstellungen, die unter ständiger Aufsicht des Hauptmodells stehen, das in der Cloud-Infrastruktur eingesetzt wird.
  • Verwendung der Echtzeitumgebung – Diese ist an die spezifische Konfiguration der Maschine angepasst, mit der sie läuft, so dass sofortige Reaktionen auf die Parameteränderungen, Ereignisse und auftretende Probleme möglich sind. Darüber hinaus ermöglichen Echtzeit-Betriebssysteme (RTOS) den Einsatz nativer Cloud-Services in einer lokalen Umgebung mit zusätzlichen Management- und Sicherheitsebenen, was die gesamte Lösung robuster und langfristig wartbarer macht.
  • Sichere Kommunikation – Dieses Setup, das auf den nativen Diensten basiert und auf dem RTOS mit zusätzlichen Management-Diensten aufbaut, ermöglicht das Festlegen mehrerer Sicherheitsstufen, beginnend mit der Datenverschlüsselung auf lokalen Geräten, der gesicherten Übertragung über Virtuelle Private Netzwerke (VPNs) und gesicherte Netzwerklösung mit Rotation von Schlüsseln und Zertifikaten. In der MTL-Lösung senden wir keine Rohdaten, sondern aggregierte Status- oder Metainformationen, die nur auf einem Edge-Gerät oder in der Cloud Bedeutung haben. Darüber hinaus kann das Edge-Gerät selbst als Softwareschutz für angeschlossene Maschinen behandelt werden, da es die physischen Geräteschnittstellen nicht direkt mit dem Internet verbindet.
  • Austausch der Konfigurationen – Jedes einzelne Edge-Gerät mit der für einen bestimmten physikalischen Gerätetyp optimierten Konfiguration kann einfach in die Cloud übertragen und auf andere ähnliche Geräte oder neu angeschlossene Geräte übertragen werden, was zu einer Einführung des Economy of Scale Konzepts führt.

Nachdem man all die oben genannten Elemente zu einer einzigen Lösung verbunden hat, wird schnell klar, dass das Mesh Twin Learning einige Optionen bietet, die bisher auf dem Markt nicht in Betracht gezogen wurden.

Mit dieser Lösung beginnen wir, uns gegenüber den Standards und Konfigurationen der Endgeräte robuster zu machen, da wir die volle Kontrolle über die Integration haben, einschließlich der Art und Weise, wie die Daten empfangen werden. Lokal eingesetzte Umgebungen mit eigenen Rechenfähigkeiten (Edges) bieten autarke Systeme, die nicht nur mit eingehenden Daten umgehen, sondern auch Machine Learning-Lösungen und digitalisierte Ansichten über überwachte Komponenten hosten. Dadurch haben wir zwei wesentliche Vorteile: das ML-Modell wird ständig mit Informationen versorgt, die es ermöglichen, sofort Maßnahmen bei sich ändernden Bedingungen zu ergreifen, und wir senden dabei keine großen Datenmengen über das Netzwerk.

Der wichtigste Teil dieses Ansatzes ist jedoch der Skaleneffekt. Edges sind in Bezug auf die Architektur ähnlich und können die Konfiguration von anderen Edges übernehmen, was bedeutet, dass jedes Mal, wenn wir eine neue Maschine an das System anschließen, sie nahezu sofort auf den aktuellen optimalen Zustand des gesamten Netzwerks konfiguriert wird.

Wir können nicht nur Maschinen innerhalb derselben Produktionslinie oder desselben Gebäudes miteinander verbinden, sondern auch Geräte in verschiedenen Produktionsstätten. Auf jeder Ebene schaffen wir ein Netz von Edge-Geräten, die in ständiger Zusammenarbeit und ständigem Informationsaustausch stehen, was zum einzigartigsten Teil von MTL führt – Wettbewerb und Optimierungen.


Nie endender Wettbewerb

Wie im vorigen Abschnitt erwähnt, führt jedes Edge-Gerät im Wesentlichen zwei Dinge aus. Sie hosten kompakte Machine Learning-Modelle und übertragen aussagekräftige Daten über sichere Protokolle in die Cloud. Werfen wir also einen Blick auf die Cloud-Architektur:

Figure 3. MTL – Cloud architecture

Hier haben wir einige Bereiche, die erwähnenswert sind. Zuerst einmal ist da der Bereich Device Management, der direkt mit der Device Shadows Farm verbunden ist. Der Hauptzweck dieses Backend-Systems ist es, Zustandsänderungen von virtualisierten Edges zu überwachen und auf die Ereignisse zu reagieren. Ereignisse, die Änderungen auslösen, können aus zwei verschiedenen Quellen stammen:

  • IoT Rules Engine – abhängig vom aktuellen Zustand der Maschine können wir Warnmeldungen und verschiedene Verhaltensweisen konfigurieren, die sofort an ein Edge-Gerät und dann direkt an die physische Maschine weitergeleitet werden können. Dadurch entsteht ein zentraler Kontrollpunkt für Produktionsleiter und Bediener mit einem intelligenten und adaptiven Anpassungs-Engine. Ein Bediener darf beispielsweise den Auftrag zur Temperaturerhöhung am Nest ferngesteuert weiterleiten, da die Werkstemperatur gesunken ist und sich dies negativ auf die Qualität der hergestellten Bauteile auswirkt.
  • Centre Machine Learning Engine – ein Kernstück von Mesh Twin Learning. Es handelt sich um den zentralen Ort, an dem die wichtigsten ML-Modelle ständig mit Echtzeitdaten versorgt werden und Vorhersagen über die Optimierungsprozesse liefern. Neue Modelle, die für Teile des Prozesses produziert werden, werden aufgebaut und als kompakte Modelle an die Edge-Geräte übertragen, um die Aktionen lokal auszuführen.

Möglicherweise fragen Sie sich jetzt, wo der Wettbewerb stattfindet und woher der Skalierungsvorteil von MTL stammt? Stellen Sie sich vor, dass jedes lokale Modell, ebenso wie die Digital Twins, ständig den Kern des ML mit den Ergebnissen, Parametern und Operationen aktualisieren. Die Ergebnisse dieser Aktionen (hier geht es um mehrere Edges und Modelle, nur um das zu verdeutlichen) werden miteinander verglichen und im Bereich des Digital Twin Simulators repliziert. Der Gewinner eines solchen Wettbewerbs – das Modell, das die optimalen Parameter für Teilprozesse oder Produktionsschritte enthält – wird übernommen und auf alle Edge-Geräte verteilt. Dies ist ein fortlaufender Prozess, was im Wesentlichen bedeutet, dass laufend Aktualisierungen ankommen, wobei die effizientesten Parameter weltweit verteilt werden.

Aber was bedeutet das, wenn wir es in die Praxis umsetzen? Das bedeutet, dass wir Mikrooptimierungen skaliert vollautomatisch durchführen können. Auf Werksebene greifen wir, um es besser zu verstehen, das Beispiel einer Reifenproduktionsanlage auf.

Der Einfachheit halber erstellen wir einen kurzen Produktionszyklus, bei dem wir den Gummi erwärmen und vulkanisieren, ihn zu einem Reifen formen und zur Inspektion am Qualitätstor abkühlen müssen. Unser Lieferant liefert eine neue Art von Gummi für die Produktion und unsere Edge-Geräte erfassen am Qualitätskontrolltor sehr schnell, dass der neue Reifen nach einem vollen Produktionszyklus nicht elastisch genug ist, so dass wir wahrscheinlich zu Beginn eine höhere Temperatur verwenden müssen. Diese Informationen werden an das zentrale ML-Engine weitergeleitet, wo Simulationen verarbeitet werden, und schließlich erhöht das für den Ofen verantwortliche Edge-Gerät die Temperatur um einige Grad.

Gleichzeitig haben wir dann bei einer anderen Produktionslinie – oder gar einer anderen Anlage – die Information, dass wir aufgrund dieses neuen Gummis einen weniger elastischen Reifen erwarten können, so dass das ML-Modell zusätzlich den Druckparameter erhöht.

Nach dem nächsten Zyklus werden beide Modelle in Bezug auf die Ergebnisse verglichen und wir stellen fest, dass beide Aktionen einen positiven Einfluss auf das Endprodukt haben. Alle Edges werden sofort mit der neuesten Konfiguration aktualisiert, ebenso wie mit neuen kompakten ML-Modellen, die den gesamten Optimierungsprozess erneut starten.

Im Wesentlichen kombinieren wir Erfahrungen aus verschiedenen Quellen, weltweit und automatisiert. Dies befähigt uns, Entscheidungen im Mikrobereich zu treffen, mit Ergebnissen, die die Qualität, Geschwindigkeit oder Sicherheit auf Makroebene erhöhen, und das ohne einen langen Prozess voller zeitraubender Iterationen.

ZusammenfassungNun sollte das Mesh Twin Learning eigentlich klar sein und auch wie es aus der Kombination einer Reihe von Technologien entsteht, vor allem der bemerkenswerten Digitial Twins, der Cloud mit einem Service Mesh und Machine Learning. Es ist so konzipiert, dass es Mesh Learning ermöglicht, was im Wesentlichen bedeutet, dass alle physischen Geräte und Edges mit ihnen verbunden sind, so dass sie Erfahrungen (Konfigurationen) austauschen und optimale Parameter beeinflussen können, was die allgemeine Betriebsqualität aller überwachten Prozesse erhöht.

Dieser ständige Wettbewerb zwischen den ML-Modellen stellt sicher, dass wir immer die bestmöglichen Einstellungen erhalten, mit Änderungen und Updates, die weltweit – in kürzester Zeit – auf jedes konfigurierte Gerät übertragen werden. Sobald MTL installiert ist, erhält jede neue Einrichtung, die angeschlossen ist, sofort die effektivsten und höchst validierten Einstellungen aus dem gesamten Netzwerk – was die Anstoßzeit für das Unternehmen reduziert.

Darüber hinaus sollte man nicht vergessen, dass das gesamte Konzept so vorbereitet wurde, dass es die anspruchsvollsten Aspekte des IoT, der Cloud und des Machine Learning berücksichtigt, nämlich Datengröße, Konnektivität, Sicherheit und Effizienz des Betriebs. Auf die richtige Weise kombiniert, ist es uns gelungen, das Beste aus ihnen herauszuholen und dabei ein paar neue Vorteile zu erschließen!

Unternehmerische Perspektive

Das Mesh Twin Learning (MTL) ist eine ausgesprochen effiziente Methode, um Produktionsstätten auf kontinuierliche Optimierung auszurichten. Ganz gleich, ob Sie einige wenige Produktionslinien oder ein ganzes globales Netzwerk von Werken optimieren möchten, MTL ermöglicht es jeder Produktionslinie, mit allen anderen zu konkurrieren, wobei die internen Ergebnisse in einem konstanten Verfeinerungszyklus, der jede manuelle Aktion übertrifft, gemeinsam genutzt werden.

 

Unsere Empfehlungen