Maschinelles Lernen an der Grenze

Machine Learing

Maschinelles Lernen an der Grenze

Laut einer Gartner-Studie wird künstliche Intelligenz (KI) in den kommenden 5 Jahren der Trend Nr. 1 im IoT sein. Die Zahl der IoT-Geräte wird von 14,2 Milliarden im Jahr 2019 auf 25 Milliarden im Jahr 2021 ansteigen. Der Wert der KI liegt in diesem Zusammenhang in ihrer Fähigkeit, schnell Erkenntnisse aus den Gerätedaten zu gewinnen. Maschinelles Lernen (ML), eine KI-Technologie, ermöglicht es, automatisch Muster zu erkennen und Anomalien in den Daten zu entdecken, die von intelligenten Sensoren und Geräten erzeugt werden - Informationen wie Temperatur, Druck, Luftfeuchtigkeit, Luftqualität, Vibrationen und Geräusche. Im Vergleich zu herkömmlichen BI-Tools können ML-Ansätze betriebliche Vorhersagen bis zu 20 Mal schneller und mit höherer Genauigkeit treffen.

Warum maschinelles Lernen am Rande?

Missionskritische Anwendungen wie Fabrikautomatisierung, selbstfahrende Autos, Gesichts- und Bilderkennung erfordern nicht nur eine extrem niedrige Latenzzeit, sondern auch eine hohe Zuverlässigkeit und schnelle, fliegende Entscheidungen. Zentralisierte Architekturen sind nicht in der Lage, die neuen Leistungsanforderungen zu erfüllen, vor allem aufgrund von Überlastung, hoher Latenz, geringer Bandbreite und sogar der Verfügbarkeit von Verbindungen. Darüber hinaus erfordert eine schnelle Entscheidungsfindung am Edge fortschrittliche Rechenkapazitäten direkt vor Ort, die nur von Bordcomputern oder miteinander verbundenen lokalen Edge-Computing-Knoten bereitgestellt werden können, was die Sache sehr teuer macht.

Maschinelles Lernen am Rande des Internets lindert die oben genannten Probleme und bietet weitere Vorteile.

Wie erreicht man KI auf IoT-Geräten mit Hilfe von ML-Technologie auf AWS?

Die IoT-Geräte verfügen in der Regel über weniger Rechenressourcen, um an verschiedenen Orten Entscheidungen treffen zu können, oft mit unterbrochener oder fehlender Verbindung zur Cloud. In einigen Fällen erreichen die Daten aufgrund physikalischer, wirtschaftlicher und landesrechtlicher Gesetze niemals die Cloud.In diesem Fall müssen die Datenmodellierung und das Training außerhalb des IoT-Geräts stattfinden und mit dem Gerät synchronisiert werden, wenn es verbunden ist.

Um dies auf AWS zu erreichen, brauchen wir 3 Hauptkomponenten:

  • AWS Greengrass baut auf AWS IoT auf und bietet dir die Möglichkeit, Lambda-Funktionen auszuführen und den Gerätestatus synchron zu halten, auch wenn du nicht mit dem Internet verbunden bist.
  • AWS IoT Greengrass ML Inference ist eine Funktion von AWS IoT Greengrass für lokale maschinelles Lernen (ML), mit der sich maschinelle Lernmodelle auf AWS IoT Greengrass-Geräten schneller und einfacher bereitstellen und ausführen lassen.
  • Amazon Sagemaker bietet die Möglichkeit, ML-Modelle zu erstellen, zu trainieren und zu testen, indem du die Leistung der AWS-Cloud nutzt, einschließlich schneller, leistungsstarker Instanzen, die mit GPUs ausgestattet sind, bevor du sie auf kleinen, leistungsschwachen, intermittierend angeschlossenen IoT-Geräten einsetzt, die z. B. in Fabriken, Fahrzeugen, Minen, auf Feldern und in Haushalten eingesetzt werden, wo immer dies möglich ist.

Wie erstellst du ML-Modelle?

Du musst ML-Modelle erstellen und trainieren, bevor du mit Wartungsvorhersagen beginnst. Ein ML-Prozess auf hoher Ebene zum Erstellen und Trainieren von Modellen gilt für die meisten Anwendungsfälle und ist mit AWS IoT relativ einfach zu implementieren.

Beginne damit, unterstützende Daten für das ML-Problem zu sammeln, das du zu lösen versuchst, und sende sie vorübergehend an AWS IoT Core. Diese Daten sollten von der Maschine oder dem System stammen, das mit dem jeweiligen ML-Modell verbunden ist. Die Daten werden dann von vor Ort zu den Amazon S3-Buckets übertragen, die du in deinem Konto angegeben hast, entweder über VPN, eine direkte Verbindung oder eine Snowball Appliance, je nach Größe.

AWS IoT Analytics unterstützt die effiziente Speicherung von Daten und die Pipeline-Verarbeitung zur Anreicherung und Filterung der Daten für die spätere Verwendung bei der ML-Modellbildung.

Amazon SageMaker unterstützt die direkte Integration mit AWS IoT Analytics als Datenquelle. Jupyter Notebook(öffnet ein neues Fenster)-Vorlagen werden bereitgestellt, damit du schnell mit dem Aufbau und dem Training des ML-Modells beginnen kannst. Für Anwendungsfälle der vorausschauenden Wartung sind die lineare Regression und die Klassifizierung die beiden gängigsten Algorithmen, die du verwenden kannst. Es gibt viele andere Algorithmen, die du für die Vorhersage von Zeitreihendaten in Betracht ziehen kannst. Du kannst verschiedene Algorithmen ausprobieren und die Effektivität der einzelnen Algorithmen in deinem Prozess messen. Beachte auch, dass AWS Greengrass ML Inference die vorgefertigten Pakete Apache MXNet(öffnet ein neues Fenster), TensorFlow(öffnet ein neues Fenster) und Chainer(öffnet ein neues Fenster) unterstützt, die die Bereitstellung vereinfachen.

Das kürzlich gestartete Sagemaker Neo(öffnet ein neues Fenster), ein neues Open-Source-Projekt von Amazon, optimiert die Leistung von ML-Modellen für verschiedene Plattformen.

Wie werden die trainierten ML-Modelle an der Grenze eingesetzt?

Für lokale Vorhersagen werden Echtzeit-Maschinendaten, ML-Modelle und lokale Rechenressourcen benötigt, um die Inferenz durchzuführen. AWS Greengrass unterstützt die Bereitstellung von ML-Modellen, die mit Amazon SageMaker erstellt wurden, auf dem Edge. Eine AWS Lambda-Funktion führt die Schlussfolgerungen durch. Identische Rechner können das gleiche Bereitstellungspaket erhalten, das das ML-Modell und die Lambda-Funktion für die Schlussfolgerung enthält. So entsteht eine Lösung mit niedriger Latenz. Es besteht keine Abhängigkeit von AWS IoT Core, um Echtzeitdaten auszuwerten und Warnungen oder Befehle an die Infrastruktur zu senden, um die gewünschte Aktion durchzuführen, wenn dies erforderlich ist und das Vertrauen hoch genug ist. 

Lokale Vorhersagen durchführen

Die AWS Lambda-Funktion, die als Teil der AWS Greengrass-Bereitstellungskonfiguration mit dem ML-Modell verknüpft ist, führt die Vorhersage in Echtzeit durch. Der AWS Greengrass Message Broker leitet ausgewählte Daten, die in einem bestimmten MQTT-Thema veröffentlicht werden, an die AWS Lambda-Funktion weiter, um die Schlussfolgerung durchzuführen. Wenn eine Inferenz eine hohe Wahrscheinlichkeit für eine Übereinstimmung ergibt, können mehrere Aktionen in der AWS Lambda-Funktion ausgeführt werden. So kann z. B. ein Befehl zum Herunterfahren einer Maschine gesendet werden, oder es kann über lokale oder Cloud-Messaging-Dienste eine Warnung an ein Betriebsteam gesendet werden.
Für jedes ML-Modell musst du den Schwellenwert für die Konfidenz der Schlussfolgerungen festlegen, der einem vorhergesagten Fehlerzustand entspricht. Wenn zum Beispiel eine Schlussfolgerung für eine Maschine, die du überwachst, mit hoher Sicherheit (sagen wir 90%) auf einen Fehler hindeutet, dann würdest du entsprechende Maßnahmen ergreifen. Liegt das Konfidenzniveau jedoch bei 30 %, könntest du beschließen, nicht auf dieses Ergebnis zu reagieren. Du kannst AWS IoT Core verwenden, um die Ergebnisse in einem speziellen Thema für die Protokollierung und Berichterstattung zu veröffentlichen.

Hier sind ein paar Beispiele für die vielen Möglichkeiten, wie du Machine Learning am IoT Edge einsetzen kannst:

  • Physische Sicherheit - Intelligente Geräte (einschließlich der AWS DeepLens(öffnet ein neues Fenster)) können Bilder und Szenen lokal verarbeiten, nach Objekten suchen, auf Veränderungen achten und sogar Gesichter erkennen. Wenn etwas Interessantes oder Besorgnis erregendes auftaucht, kann das Gerät das Bild oder das Video an die Cloud weiterleiten und Amazon Rekognition nutzen, um einen genaueren Blick darauf zu werfen.
  • Industrielle Instandhaltung - Intelligente, lokale Überwachung kann die betriebliche Effizienz steigern und ungeplante Ausfallzeiten reduzieren. Die Überwachungsgeräte können Rückschlüsse auf Stromverbrauch, Geräuschpegel und Vibrationen ziehen, um Anomalien zu erkennen, Ausfälle vorherzusagen und fehlerhafte Geräte zu entdecken. Anhand der Daten und des Modells können wir vorhersagen, wann das Gerät ausfallen könnte, und diese Informationen an das Betriebspersonal weitergeben. Das Betriebspersonal kann dann die Wartung des Geräts durchführen. Der andere Weg wäre viel schlimmer, der Ausfall kostet mehr. Durch diese Intelligenz kannst du die Verfügbarkeit des Geräts erhöhen und den Umsatz steigern.

Hast du einen Anwendungsfall mit IoT oder Machine Learning oder beidem? Willst du mehr über das Portfolio und die Dienstleistungen von Swisscom auf Amazon Web Services (AWS) erfahren? Dann wende dich an unsere Experten unter coc.aws@swisscom.com(öffnet ein neues Fenster) oder besuche https://www.swisscom.ch/aws(öffnet ein neues Fenster).

Link zur Gartner-Studie: https://www.gartner.com/en/newsroom/press-releases/2018-11-07-gartner-identifies-top-10-strategic-iot-technologies-and-trends(öffnet ein neues Fenster).

Abdurixit Abduxukur

Abdurixit Abduxukur

Cloud Solution Architect

Mehr getIT-Beiträge

Bereit für Swisscom

Finde deinen Job oder die Karrierewelt, die zu dir passt. In der du mitgestalten und dich weiterentwickeln willst.

Was du draus machst, ist was uns ausmacht.

Zu den Karrierewelten

Zu den offenen Security Stellen