GN Anomaly Detection_1.1

GN Anomaly Detection

I servizi connessi agli asset aziendali 

Individuare tempestivamente le anomalie che accadono ad un qualsiasi asset aziendale è di estrema importanza per evitare l’arresto dei processi aziendali collegati.

img-1 (3)-2

Il servizio di Anomaly Detection è uno strumento evoluto, che opera in modo standardizzato per supportare le aziende nella raccolta e monitoraggio continuo di anomalie da dati e contesti complessi, non gestibili altrimenti da personale umano. 

L’idea nasce come progetto presentato e poi vinto da GN Techonomy al Bando 2021 SI4.0 – Soluzioni innovative 4.0. Il riconoscimento della rilevanza del progetto sulle necessità del tessuto industriale Lombardo ha portato rapidamente alle prime sperimentazioni sul monitoraggio tramite tecnologie IoT delle prestazioni dei macchinari di un cliente di spicco di GN Techonomy.

Il progetto di sperimentazione ha confermato le potenzialità e l’urgenza della soluzione: l’offerta limitata del mercato, la mancanza di modernità architetturale e, l’obsolescenza delle tecniche di rilevazione, non adatte soprattutto a scenari eterogenei e su scala, come quelli legati ad applicazioni Internet of Things, hanno portato quindi il nostro personale tecnico qualificato a studiare una strategia per l’Anomaly Detection all’avanguardia e sviluppare un software .

Il servizio di Anomaly Detection è uno strumento di Automated Machine Learning , cioè un insieme di dati variabili ed ordinati nel tempo. Il suo scopo è quello di rilevare e segnalare tempestivamente qualsiasi fenomeno inatteso o inusuale, attraverso algoritmi in grado di distinguere queste situazioni dall’andamento atteso della serie temporale presa in esame. 

img-2 (1)

Per farlo, abbiamo realizzato un approccio “no-code” automatizzato e multilivello: un sistema adattivo supervisiona quanto acquisito e seleziona in modo appropriato la strategia di rilevazione migliore secondo metriche di affidabilità ed accuratezza. Allo stesso modo in cui un osservatore umano prenderebbe in considerazione diversi fattori per decretare un’anomalia (outlier, derive nel tempo, instabilità temporanee, contesto…), anche l’approccio di GN Techonomy si basa su diverse informazioni, sia puntuali che di contesto, per ricalibrare la propria rilevazione.

Tutto in tempo reale, senza intervento umanoe per qualsiasi segnale; gli algoritmi incorporati nel sistema rappresentano infatti lo stato dell’arte e vengono costantemente aggiornati ed estesi per poter sfruttare le più moderne tecniche di anomaly detection. 

L’utente non deve quindi preoccuparsi di applicare configurazioni o tuning specifici per ogni segnale monitorato; non è altresì richiesta alcuna competenza in materia perché la soluzione si adatta autonomamente a quanto monitorato. 

Il flusso di informazioni raccolte è automatizzato nella sua interezza, il sistema impara infatti l’andamento “normale” del dato ed identifica in tempo reale i punti in cui il segnale monitorato si trova al di fuori di un intervallo di deviazione accettabile. 

La flessibilità dello strumento si riscontra anche nel paradigma di esecuzione ibrido e scalabile che supporta: può infatti essere eseguito sia su potenti infrastrutture di calcolo in cloud, sia su hardware di campo con risorse limitate, prestandosi sia a scenari di cloud computing .

Per quanto potente ed espandibile, l’infrastruttura cloud risulta spesso un collo di bottiglia, sia dal punto di vista delle performance, che dei costi, oltre che della resilienza della soluzione nella sua interezza.

Decentralizzando il carico computazionale, la soluzione è applicabile anche su basi installate di grandi dimensioni, fa economia dell’hardware già impiegato e non presenta “single-point-of-failure”. Il nostro approccio duale “cloud ed edge” consente quindi di sfruttare i vantaggi di entrambe le opzioni. 

Combinando le caratteristiche di adattabilità, scalabilità e resilienza, lo strumento di Anomaly Detection si propone quindi di fornire diversi benefici:

  • Monitoraggio continuo: una control room virtuale costantemente online e monitorata, applicata però su larga scala. Nessuna anomalia passerà inosservata;
  • Miglioramento di processo: uno degli effetti su larga scala del monitoraggio è l’aumento della qualità totale del processo di riferimento. Gli allertamenti possono portare ad una riduzione dei costi/tempi di reazione, oltre che ad una miglior pianificazione degli interventi di manutenzione;
  • Semplicità: non è richiesta alcuna competenza in materia di statistica o machine learning, il sistema gestisce tutto in autonomia ed è alla portata di un click. Non è richiesto tuning iniziale né periodico, essendo in grado di adattarsi alle condizioni operative del segnale monitorato, effettuando continue verifiche di stazionarietà e ricalibrazioni;
  • Minimizza il TCO: sfrutta l’hardware già esistente per i casi di edge computing o, per i casi di cloud computing, consente di scalare dinamicamente secondo il carico. L’approccio generico consente di non dover sviluppare uno specifico algoritmo di rilevazione per ogni combinazione di segnale/macchina, evitandone costi e tempi.
  • Uniformità: il dato può essere acquisito direttamente sul campo, come nel caso edge, o può essere prelevato da un data-lake/historian, come nel caso cloud. Non importa a quale segnale venga applicata la rilevazione o dove si trovi la fonte dati: gli allertamenti generati contengono sempre tutti i dettagli dell’accaduto affinché le anomalie possano essere visualizzate in tempo reale o archiviate a lungo termine in modo trasparente;
  • Tempestività: l’allertamento avviene in modo selettivo ed immediato sui canali configurati dall’utente (ad es. e-mail, SMS…). Il modulo di allertamento consente di applicare logiche di routing complesse, smistando la notifica al personale reperibile o specializzato;
  • Integrabilità: le API fornite dallo strumento consentono di renderlo parte integrante dell’ecosistema e dei flussi aziendali end-to-end. Le anomalie diventano componenti controllabili dei processi aziendali. Molto spesso non saranno inevitabili, ma la loro rilevazione e studio permettono di migliorare l’efficienza e la qualità totale dei processi di gestione.