Qualche considerazione sulla sicurezza dei nostri sistemi di Prognostica e Asset Management

L'avvento dell'Industria 4.0 ha dato il via a una evoluzione costante degli ambienti di produzione intelligenti

  • Giugno 15, 2022
  • 20 views
  • Qualche considerazione sulla sicurezza dei nostri sistemi di Prognostica e Asset Management
    Qualche considerazione sulla sicurezza dei nostri sistemi di Prognostica e Asset Management
  • Qualche considerazione sulla sicurezza dei nostri sistemi di Prognostica e Asset Management
    Qualche considerazione sulla sicurezza dei nostri sistemi di Prognostica e Asset Management

Grandissima importanza rivestono in questo contesto (quello dell'industria 4.0) i cosiddetti sistemi di Prognostics and Health Management (PHM), che hanno già ottenuto successi significativi e hanno consentito a molte realtà di raggiungere un buon vantaggio competitivo attraverso la decurtazione dei costi di manutenzione, dei tempi di inattività e l’aumento della produttività.

Giusto per fornire qualche cifra e dare un’idea dei potenziali ritorni, secondo alcuni studi le moderne tecniche di PHM possono aiutare a ridurre i tempi di inattività del 30%-40%, i costi di manutenzione del 20%-30% e possono aumentare la produzione del 20%-25%. In breve, questi sistemi utilizzano i dati provenienti dai sensori e dai dispositivi IoT installati sugli equipaggiamenti e, trattandoli opportunamente con algoritmi di Machine Learning (ML), prendono decisioni o elaborano previsioni informate relativamente alla vita utile residua degli stessi equipaggiamenti. Potremmo dunque affermare che il mondo dell’Asset Management abbia trovato un nuovo, prezioso alleato.

In effetti, ad oggi, le tecniche e gli strumenti propri della Prognostica vengono utilizzati sempre più spesso, e in modo sempre più pervasivo, per risolvere i problemi di affidabilità che si manifestano a causa della complessità nella progettazione, nella produzione e nella manutenzione dei sistemi. Questo processo è supportato da una crescente disponibilità di dati, che permettono ai modelli di apprendimento automatico di elaborare soluzioni molto raffinate ed efficaci. Le tecnologie in questione sono attualmente integrate in molte applicazioni di PHM in campo aerospaziale, automobilistico, medicale e in svariati altri settori industriali. È del tutto naturale cominciare a porsi alcune domande che non si limitino solo ai vantaggi potenziali derivanti da queste nuove tecnologie. Di fatto, stante una così rapida crescita della complessità e della connettività del mondo digitale intorno a noi, è facile intuire come il comportamento di un sistema possa essere influenzato in modi imprevisti da attacchi informatici, incidenti o eventi catastrofici e/o, più comunemente, da errori umani, determinando l’adozione e l’applicazione di modelli errati o incompleti, alimentati con dati incompleti, erronei o dolosamente modificati.

Pertanto, è certamente opportuno soffermarci su alcune considerazioni che prendono spunto anche da alcuni accadimenti degli ultimi mesi, settimane, addirittura giorni: è ormai evidente a tutti che la forte integrazione del mondo digitale rappresenti un elemento vincente, ma che porta con sé un problema rilevante e quanto mai attuale, quale quello relativo alla sicurezza, che deve necessariamente essere valutato per scongiurare effetti potenzialmente devastanti. È altrettanto noto a tutti che i sensori, i sistemi IoT e le infrastrutture informatiche in generale su cui girano i sistemi di gestione degli asset, ivi compresi gli algoritmi di ML, sono potenzialmente soggetti ad attacchi informatici di diversa provenienza e di crescente gravità.

Si trovano già, ben descritti nella letteratura tecnico-scientifica degli ultimi anni, alcuni esempi rilevanti ed emblematici delle maggiori vulnerabilità che possono interessare i sistemi di PHM. Per fare un esempio facilmente comprensibile, senza entrare troppo nel merito, gli algoritmi di deep learning sono noti per la loro suscettibilità ad esempi contraddittori. In pratica, imparando da dati sbagliati, il modello non potrà fare altro che fornire risultati scorretti. Ebbene, negli ultimi mesi sono stati identificati diversi attacchi informatici tesi a inserire esempi contraddittori nei set di dati utilizzati in applicazioni di visione artificiale in campo industriale. Con esiti che possono essere facilmente intuiti. Secondo alcuni recenti rapporti tecnici, le minacce informatiche contro le aziende sono aumentate di oltre il 220% solo nel corso dell’ultimo anno. In particolare, si tratta molto spesso di attacchi estremamente difficili da rilevare, come i False Data Injection Attack (FDIA), tesi a inserire dati volutamente errati o completamente falsi all’interno di un sistema. In pratica, in un attacco FDIA, utenti malintenzionati o, più spesso, vere e proprie organizzazioni criminali, compromettono furtivamente le misurazioni provenienti dai sensori IoT, in modo tale da bypassare il meccanismo di base di rilevamento dei dati difettosi da parte dei sensori stessi. Un attacco FDIA può essere implementato compromettendo i sensori fisici, la rete di comunicazione dei sensori e, infine, gli stessi programmi di elaborazione dei dati. Attacchi di questo genere possono agire come vere e proprie bombe a orologeria, poiché si propagano dai sensori ai sistemi informatici di elaborazione dei dati ingannando completamente il sistema. Potrebbe accadere, ad esempio, che un guasto di un asset critico venga previsto con un ritardo significativo rispetto al tempo “vero” e che l’intervallo di manutenzione venga pertanto pianificato quando ormai è troppo tardi. Gli effetti finali si concretizzano in un incremento significativo dei costi e, purtroppo, in problemi di sicurezza in applicazioni potenzialmente critiche.

Ad oggi, l’impatto potenziale di questi fenomeni sui sistemi PHM non è ancora stato esplorato abbastanza approfonditamente. È pertanto opportuno sensibilizzare il mondo industriale e la ricerca per affrontare alcune delle questioni più rilevanti per i PHM in applicazioni critiche per la sicurezza, come ad esempio la robustezza agli errori dei modelli, la robustezza ai fenomeni ignoti e imprevisti e la valutazione della robustezza durante l’implementazione e l’uso dei sistemi stessi. Soltanto in questo modo sarà possibile preservare uno strumento così importante ed evitare che i significativi vantaggi che ne potrebbero derivare vengano ostacolati, se non addirittura compromessi, dai fenomeni di crimine informatico sempre più virulenti e frequenti.

Prof. Ing. Marco Frosolini, Docente presso il Dipartimento di Ingegneria Civile e Industriale Università di Pisa, Presidente del Corso di Laurea Magistrale in Technology and Production of Paper and Cardboard, Direttore del Master Lean 4 Smart Factory