L'apprentissage automatique à la limite

Machine Learing

L'apprentissage automatique à la limite

Selon une étude de Gartner, l'intelligence artificielle (IA) sera la tendance numéro 1 de l'IoT au cours des 5 prochaines années. Le nombre d'appareils IoT passera de 14,2 milliards en 2019 à 25 milliards en 2021. Dans ce contexte, la valeur de l'IA réside dans sa capacité à obtenir rapidement des connaissances à partir des données des appareils. L'apprentissage automatique (ML), une technologie d'IA, permet d'identifier automatiquement des modèles et de découvrir des anomalies dans les données générées par les capteurs et appareils intelligents - des informations telles que la température, la pression, l'humidité, la qualité de l'air, les vibrations et les bruits. Par rapport aux outils BI traditionnels, les approches ML permettent de faire des prévisions opérationnelles jusqu'à 20 fois plus rapidement et avec une plus grande précision.

Pourquoi l'apprentissage automatique à la marge?

Les applications à mission critique telles que l'automatisation des usines, les voitures autopilotées, la reconnaissance faciale et la reconnaissance d'images exigent non seulement un temps de latence extrêmement faible, mais aussi une grande fiabilité et des décisions rapides et à la volée. Les architectures centralisées ne sont pas en mesure de répondre aux nouvelles exigences de performance, principalement en raison de la surcharge, de la latence élevée, de la faible bande passante et même de la disponibilité des connexions. De plus, une prise de décision rapide en périphérie nécessite des capacités de calcul avancées directement sur place, qui ne peuvent être fournies que par des ordinateurs embarqués ou des nœuds de calcul en périphérie locaux interconnectés, ce qui rend la chose très coûteuse.

L'apprentissage automatique en marge d'Internet atténue les problèmes mentionnés ci-dessus et offre d'autres avantages.

Comment atteindre l'IA sur les appareils IoT en utilisant la technologie ML sur AWS?

Les appareils IoT disposent généralement de moins de ressources informatiques pour pouvoir prendre des décisions à différents endroits, souvent avec une connexion au cloud interrompue ou inexistante. Dans certains cas, les données n'atteignent jamais le cloud en raison des lois physiques, économiques et nationales.Dans ce cas, la modélisation des données et l'entraînement doivent avoir lieu en dehors de l'appareil IoT et être synchronisés avec l'appareil lorsqu'il est connecté.

Pour y parvenir sur AWS, nous avons besoin de 3 composants principaux:

  • AWS Greengrass s'appuie sur AWS IoT et te permet d'exécuter des fonctions lambda et de garder l'état de l'appareil synchronisé, même si tu n'es pas connecté à Internet.
  • AWS IoT Greengrass ML Inference est une fonctionnalité d'AWS IoT Greengrass pour l'apprentissage automatique (ML) local, qui permet de déployer et d'exécuter plus rapidement et plus facilement des modèles d'apprentissage automatique sur les appareils AWS IoT Greengrass.
  • Amazon Sagemaker offre la possibilité de créer, d'entraîner et de tester des modèles ML en utilisant la puissance du cloud AWS, y compris des instances rapides et puissantes équipées de GPU, avant de les utiliser sur de petits appareils IoT à faible puissance et à connexion intermittente, utilisés par exemple dans les usines, les véhicules, les mines, les champs et les foyers, partout où cela est possible.

Comment crées-tu des modèles ML?

Tu dois créer et entraîner des modèles ML avant de commencer à faire des prévisions de maintenance. Un processus ML de haut niveau pour créer et entraîner des modèles s'applique à la plupart des cas d'utilisation et est relativement facile à mettre en œuvre avec AWS IoT.

Commence par collecter des données de soutien pour le problème ML que tu essaies de résoudre et envoie-les temporairement à AWS IoT Core. Ces données doivent provenir de la machine ou du système connecté au modèle ML en question. Les données sont ensuite transférées depuis le site vers les buckets Amazon S3 que tu as indiqués dans ton compte, soit via VPN, une connexion directe ou une appliance Snowball, selon la taille.

AWS IoT Analytics prend en charge le stockage efficace des données et le traitement en pipeline pour enrichir et filtrer les données en vue de leur utilisation ultérieure dans la modélisation ML.

Amazon SageMaker prend en charge l'intégration directe avec AWS IoT Analytics comme source de données. Jupyter Notebook(ouvre une nouvelle fenêtre) Des modèles sont fournis pour que tu puisses commencer rapidement à construire et à former ton modèle ML. Pour les cas d'application de la maintenance prédictive, la régression linéaire et la classification sont les deux algorithmes les plus courants que tu peux utiliser. Il existe de nombreux autres algorithmes que tu peux envisager pour la prédiction de données de séries chronologiques. Tu peux essayer différents algorithmes et mesurer l'efficacité de chacun d'entre eux dans ton processus. Note aussi que AWS Greengrass ML Inference utilise les paquets pré-construits Apache MXNet(ouvre une nouvelle fenêtre), TensorFlow(ouvre une nouvelle fenêtre) et Chainer(ouvre une nouvelle fenêtre) qui simplifient le déploiement.

Le projet récemment lancé Sagemaker Neo(ouvre une nouvelle fenêtre), un nouveau projet open source d'Amazon, optimise les performances des modèles ML pour différentes plates-formes.

Comment les modèles ML entraînés sont-ils utilisés à la frontière?

Pour les prédictions locales, des données machine en temps réel, des modèles ML et des ressources informatiques locales sont nécessaires pour effectuer l'inférence. AWS Greengrass supporte la mise à disposition sur le Edge de modèles ML créés avec Amazon SageMaker. Une fonction AWS Lambda effectue les inférences. Des ordinateurs identiques peuvent recevoir le même paquet de mise à disposition, qui contient le modèle ML et la fonction Lambda pour la conclusion. On obtient ainsi une solution à faible latence. Il n'y a pas de dépendance à AWS IoT Core pour évaluer les données en temps réel et envoyer des alertes ou des commandes à l'infrastructure afin d'effectuer l'action souhaitée, si cela est nécessaire et si le niveau de confiance est suffisamment élevé.

Faire des prédictions locales

La fonction AWS Lambda, qui est liée au modèle ML dans le cadre de la configuration de déploiement d'AWS Greengrass, effectue la prédiction en temps réel. L'AWS Greengrass Message Broker transmet les données sélectionnées publiées dans un thème MQTT spécifique à la fonction AWS Lambda pour effectuer l'inférence. Si une inférence donne une forte probabilité de correspondance, plusieurs actions peuvent être exécutées dans la fonction AWS Lambda. Par exemple, une commande d'arrêt d'une machine peut être envoyée, ou une alerte peut être envoyée à une équipe d'exploitation via des services de messagerie locaux ou cloud.
Pour chaque modèle ML, tu dois définir le seuil de confiance des conclusions, qui correspond à un état d'erreur prédit. Par exemple, si une conclusion pour une machine que tu surveilles indique avec une grande certitude (disons 90%) une erreur, alors tu prendrais les mesures appropriées. Mais si le niveau de confiance est de 30%, tu peux décider de ne pas réagir à ce résultat. Tu peux utiliser AWS IoT Core pour publier les résultats dans un thème spécial pour la journalisation et les rapports.

Voici quelques exemples des nombreuses façons dont tu peux utiliser l'apprentissage automatique à la périphérie de l'IoT:

  • Sécurité physique - Les appareils intelligents (y compris les AWS DeepLens(ouvre une nouvelle fenêtre)) peuvent traiter les images et les scènes localement, chercher des objets, faire attention aux changements et même reconnaître les visages. Si quelque chose d'intéressant ou d'inquiétant apparaît, l'appareil peut transmettre l'image ou la vidéo au cloud et utiliser Amazon Rekognition pour y jeter un coup d'œil plus attentif.
  • Maintenance industrielle - Une surveillance intelligente et locale peut augmenter l'efficacité opérationnelle et réduire les temps d'arrêt imprévus. Les appareils de surveillance peuvent tirer des conclusions sur la consommation d'énergie, le niveau sonore et les vibrations afin de détecter les anomalies, de prédire les pannes et de découvrir les appareils défectueux. Grâce aux données et au modèle, nous pouvons prédire quand l'appareil pourrait tomber en panne et transmettre ces informations au personnel d'exploitation. Le personnel d'exploitation peut alors procéder à l'entretien de l'appareil. L'autre solution serait bien pire, la panne coûterait plus cher. Grâce à cette intelligence, tu peux augmenter la disponibilité de l'appareil et augmenter les ventes.

Tu as un cas d'application avec IoT ou Machine Learning ou les deux ? Tu veux en savoir plus sur le portefeuille et les services de Swisscom sur Amazon Web Services (AWS) ? Alors adresse-toi à nos experts sous coc.aws@swisscom.com(ouvre une nouvelle fenêtre) ou visite https://www.swisscom.ch/aws(ouvre une nouvelle fenêtre).

Lien vers l'étude de Gartner: https://www.gartner.com/en/newsroom/press-releases/2018-11-07-gartner-identifies-top-10-strategic-iot-technologies-and-trends(ouvre une nouvelle fenêtre).

Abdurixit Abduxukur

Abdurixit Abduxukur

Cloud Solution Architect

Plus d’articles getIT

Prêts pour Swisscom

Trouve le Job ou l’univers professionnel qui te convient. Où tu veux co-créer et évoluer.

Ce qui nous définit, c’est toi.

Vers les univers professionnels

Vers les postes vacants cybersécurité