L'apprendimento automatico alla frontiera

Machine Learing

L'apprendimento automatico alla frontiera

Secondo uno studio di Gartner, l'intelligenza artificiale (AI) sarà la tendenza numero 1 dell'IoT nei prossimi 5 anni. Il numero di dispositivi IoT passerà da 14,2 miliardi nel 2019 a 25 miliardi nel 2021. Il valore dell'intelligenza artificiale in questo contesto risiede nella sua capacità di ottenere rapidamente informazioni dai dati dei dispositivi. L'apprendimento automatico (ML), una tecnologia di AI, consente di riconoscere automaticamente gli schemi e di individuare le anomalie nei dati generati da sensori e dispositivi intelligenti - informazioni come temperatura, pressione, umidità, qualità dell'aria, vibrazioni e rumore. Rispetto agli strumenti di BI tradizionali, gli approcci ML possono fare previsioni operative fino a 20 volte più velocemente e con maggiore precisione.

Perché l'apprendimento automatico in ambito edge?

Le applicazioni mission-critical come l'automazione di fabbrica, le auto a guida autonoma, il riconoscimento facciale e delle immagini richiedono non solo una latenza estremamente bassa, ma anche un'elevata affidabilità e decisioni rapide e al volo. Le architetture centralizzate non sono in grado di soddisfare i nuovi requisiti di prestazioni, soprattutto a causa della congestione, dell'elevata latenza, della scarsa larghezza di banda e persino della disponibilità delle connessioni. Inoltre, per prendere decisioni rapide ai margini è necessaria una capacità di calcolo avanzata direttamente sul posto, che può essere fornita solo da computer di bordo o da nodi di calcolo locali interconnessi, il che la rende molto costosa.

L'apprendimento automatico ai margini di Internet allevia i problemi sopra citati e offre ulteriori vantaggi.

Come ottenere l'intelligenza artificiale sui dispositivi IoT utilizzando la tecnologia ML su AWS?

I dispositivi IoT hanno in genere meno risorse di calcolo per prendere decisioni in luoghi diversi, spesso con una connessione intermittente o assente al cloud. In alcuni casi, i dati non raggiungono mai il cloud a causa di leggi fisiche, economiche e nazionali, nel qual caso la modellazione e la formazione dei dati devono avvenire al di fuori del dispositivo IoT ed essere sincronizzati con il dispositivo quando è connesso.

Per ottenere questo risultato su AWS, abbiamo bisogno di 3 componenti principali:

  • AWS Greengrass si basa su AWS IoT e ti dà la possibilità di eseguire funzioni Lambda e di mantenere sincronizzato lo stato dei dispositivi anche quando non sei connesso a internet.
  • AWS IoT Greengrass ML Inference è una funzione di AWS IoT Greengrass per l'apprendimento automatico (ML) locale che rende più semplice e veloce l'implementazione e l'esecuzione di modelli di apprendimento automatico sui dispositivi AWS IoT Greengrass.
  • Amazon Sagemaker offre la possibilità di costruire, addestrare e testare modelli di ML utilizzando la potenza del cloud AWS, comprese istanze veloci e ad alte prestazioni dotate di GPU, prima di distribuirli su dispositivi IoT di piccole dimensioni, a basse prestazioni e con connessione intermittente, come quelli utilizzati in fabbriche, veicoli, miniere, campi e case, ove possibile.

Come si creano i modelli M?

È necessario creare e addestrare i modelli di ML prima di iniziare a fare previsioni sulla manutenzione. Un processo di ML di alto livello per la creazione e l'addestramento dei modelli si applica alla maggior parte dei casi d'uso ed è relativamente facile da implementare con AWS IoT.

Inizia a raccogliere i dati di supporto per il problema di ML che stai cercando di risolvere e inviali temporaneamente ad AWS IoT Core. Questi dati devono provenire dalla macchina o dal sistema associato al modello di ML in questione. I dati vengono poi trasferiti dalla sede ai bucket Amazon S3 specificati nel tuo account, tramite VPN, una connessione diretta o un'appliance Snowball, a seconda delle dimensioni.

AWS IoT Analytics supporta l'archiviazione efficiente dei dati e l'elaborazione di pipeline per arricchire e filtrare i dati da utilizzare successivamente nella modellazione ML.

Amazon SageMaker supporta l'integrazione diretta con AWS IoT Analytics come fonte di dati. Jupyter Notebook(apre una nuova finestra) Vengono forniti dei modelli in modo che tu possa iniziare rapidamente a costruire e addestrare il modello ML. Per i casi di utilizzo della manutenzione predittiva, la regressione lineare e la classificazione sono i due algoritmi più comuni che puoi utilizzare. Ci sono molti altri algoritmi che puoi prendere in considerazione per prevedere i dati delle serie temporali. Puoi provare diversi algoritmi e misurarne l'efficacia nel tuo processo. Tieni presente che AWS Greengrass ML Inference utilizza i pacchetti precostituiti Apache MXNet(apre una nuova finestra), TensorFlow(apre una nuova finestra) e Chainer(apre una nuova finestra) che semplificano la distribuzione.

Il recente lancio di Sagemaker Neo(apre una nuova finestra), un nuovo progetto open source di Amazon, ottimizza le prestazioni dei modelli ML per diverse piattaforme.

Come vengono utilizzati i modelli ML addestrati al confine?

Le previsioni locali richiedono dati macchina in tempo reale, modelli ML e risorse di calcolo locali per eseguire l'inferenza. AWS Greengrass supporta la distribuzione di modelli ML creati con Amazon SageMaker sull'edge. Una funzione AWS Lambda esegue l'inferenza. Macchine identiche possono ricevere lo stesso pacchetto di distribuzione contenente il modello ML e la funzione Lambda per l'inferenza. In questo modo si ottiene una soluzione a bassa latenza. Non c'è alcuna dipendenza da AWS IoT Core per analizzare i dati in tempo reale e inviare avvisi o comandi all'infrastruttura per eseguire l'azione desiderata quando è necessario e la fiducia è sufficientemente alta.

Effettuare previsioni locali

La funzione AWS Lambda, collegata al modello ML come parte della configurazione dell'implementazione di AWS Greengrass, esegue la previsione in tempo reale. Il Message Broker di AWS Greengrass inoltra i dati selezionati pubblicati in uno specifico topic MQTT alla funzione AWS Lambda per eseguire l'inferenza. Se l'inferenza ha un'alta probabilità di corrispondenza, la funzione AWS Lambda può eseguire diverse azioni. Ad esempio, è possibile inviare un comando per spegnere una macchina o un avviso a un team operativo tramite servizi di messaggistica locali o nel cloud
Per ogni modello ML, devi definire la soglia di fiducia delle conclusioni che corrisponde a una condizione di errore prevista. Ad esempio, se una conclusione per una macchina che stai monitorando indica un guasto con un livello di confidenza elevato (ad esempio il 90%), allora dovrai intraprendere le azioni appropriate. Tuttavia, se il livello di confidenza è del 30%, potresti decidere di non agire in base a quel risultato. Puoi utilizzare AWS IoT Core per pubblicare i risultati in un argomento dedicato per la registrazione e la reportistica.

Ecco alcuni esempi dei molti modi in cui puoi utilizzare il machine learning nell'IoT edge:

  • Sicurezza fisica - I dispositivi intelligenti (compresi i AWS DeepLens(apre una nuova finestra)) è in grado di elaborare immagini e scene a livello locale, cercare oggetti, osservare cambiamenti e persino riconoscere i volti. Se appare qualcosa di interessante o preoccupante, il dispositivo può inoltrare l'immagine o il video al cloud e utilizzare Amazon Rekognition per dare un'occhiata più da vicino.
  • Manutenzione industriale - Un monitoraggio intelligente e localizzato può aumentare l'efficienza operativa e ridurre i tempi di fermo non programmati. I dispositivi di monitoraggio possono trarre conclusioni sul consumo di energia, sui livelli di rumore e sulle vibrazioni per rilevare le anomalie, prevedere i guasti e individuare le apparecchiature difettose. Utilizzando i dati e il modello, possiamo prevedere quando l'apparecchiatura potrebbe guastarsi e trasmettere queste informazioni al personale operativo. Il personale operativo può quindi effettuare la manutenzione del dispositivo. Il contrario sarebbe molto peggio, il guasto costerebbe di più. Grazie a questa intelligenza, puoi aumentare la disponibilità del dispositivo e incrementare le vendite.

Hai un caso d'uso con l'IoT o il machine learning o entrambi? Vuoi saperne di più sul portafoglio e sui servizi di Swisscom su Amazon Web Services (AWS)? Allora contatta i nostri esperti a coc.aws@swisscom.com(apre una nuova finestra) oppure visita il sito https://www.swisscom.ch/aws(apre una nuova finestra).

Link allo studio Gartner: https://www.gartner.com/en/newsroom/press-releases/2018-11-07-gartner-identifies-top-10-strategic-iot-technologies-and-trends(apre una nuova finestra).

Abdurixit Abduxukur

Abdurixit Abduxukur

Cloud Solution Architect

Altri articoli getIT

Pronti per Swisscom

Trova il posto di lavoro o il percorso di carriera che fa per te. Dove dare il tuo contributo e crescere professionalmente.

Ciò che tu fai, è ciò che siamo.

Vai ai percorsi di carriera

Vai alle posizioni vacanti cibersicurezza