Una riflessione sui Big Data e la Manutenzione

In virtù delle sue competenze ed esperienze, anche l’esperto in manutenzione, sia specialista che ingegnere, continuerà ad essere una risorsa fondamentale

  • Novembre 2, 2017
  • 402 views
  • Una riflessione sui Big Data e la Manutenzione
    Una riflessione sui Big Data e la Manutenzione

Big data è un termine di moda. È usato (e, forse troppo spesso, abusato) per espri­mere un cambiamento paradigmatico dell’ap­proccio scientifico adottabile per supportare differenti tipi di analisi.

Con i Big data, l’obiettivo è quello di estrarre infor­mazioni rispetto al fenomeno analizzato partendo da una elevata mole di dati provenienti potenzial­mente da fonti eterogenee, quindi non soltanto dati strutturati ma anche dati non strutturati, come immagini, testo di documenti, log di eventi da di­spositivi sia fissi che mobili, ecc. I Big data sono quindi ampiamente presenti nel mondo industriale, tanto più oggigiorno come effetto della spinta alla connettività dei macchinari e, nello specifico, dei sensori sul campo. D’altra parte, i Big data risie­dono da tempo nelle operations aziendali, purché siano stati immagazzinati in un sistema di gestione del prodotto piuttosto che dell’impianto industriale. Solo come esempio, pensiamo a un sistema che serve a gestire i documenti che arrivano da nor­mative imposte dal settore, piuttosto che normati­ve interne dell’azienda: molti dati, non strutturati o semi-strutturati, sono già lì presenti anche se, nel migliore dei casi, la loro fruibilità passa attraverso l’uomo che li consulta ed un buon sistema di ar­chiviazione e gestione che permette di navigarli in modo efficiente ed efficace.

Big data è quindi una riconosciuta tecnologia della quarta rivoluzione industriale. D’altra par­te, è più risultato di una evoluzione: parlare di Big data in vari ambiti applicativi industriali – ivi com­presa la manutenzione – è il frutto della naturale evoluzione di ciò che è successo nel passato con la ricerca scientifica e con lo sviluppo tecnologico che hanno messo a disposizione specifiche tecno­logie a supporto del processo di gestione di gran­di moli di dati. Guardando al mercato, è evidente che alcuni ben noti giganti dell’IT a livello mondia­le hanno da sempre basato una buona parte del successo su software di data management. Il data management è sempre stato legato al trattamento e alla gestione di grandi quantità di dati. Allo stesso modo, è stato importante per applicazioni legate all’analisi dei flussi finanziari piuttosto che del com­mercio dei prodotti. Oggigiorno, i metodi di ricerca e analisi di grandi moli di dati hanno avuto una ra­pidissima crescita anche sotto la spinta dei giganti del web; sono così diventati una chiave di succes­so per varie applicazioni innovative, ad esempio in ambito logistico o in relazione alla vendita di ser­vizi attraverso nuovi modelli di business (es. per affitti o servizi di mobilità, in competizione con il “tradizionale” taxi); per non parlare delle ricadute dell’analytics applicata ai Big data nella vita socia­le e, in particolare, nel mondo dei social networks, veri e propri depositi di un capitale di dati di grandi dimensioni.

La crescita esponenziale dei dati a disposizione ha influenzato diversi settori della computer science. Si sta oggigiorno osservando una rinnovata enfasi sull’artificial intelligence, usando (e, di nuovo, spes­so abusando) una serie di termini come machine learning e deep learning, come modelli data-driven di creazione della conoscenza. Se da un lato, l’ar­tificial intelligence ritorna in voga come strumento per la modellazione e l’analisi dei dati, d’altro canto servono infrastrutture adeguate che possono essere generalmente dedicate alla gestione di una tale mole di dati. In tal senso, la gestione dei Big data sta spingendo verso lo sviluppo del cloud computing, opzione tecnologica importante per poter garantire una infrastruttura che abilita l’ac­cesso diffuso, agevole e on demand a un insieme condiviso di risorse: il cloud può essere un com­ponente tecnologico importante in cui far risiedere intelligence e metodi di analytics dei Big data.

Al di là di altri approfondimenti su cui ora sorvole­rei, a questo punto mi chiedo – in maniera critica, forse un po’ per provocare – se le “mirabilie” pro­messe siano davvero tali. Non ho nessuna volontà di mostrarmi scettico di fronte a quella che è cer­tamente una potenzialità tecnologica oggigiorno disponibile per essere impiegata anche in manu­tenzione. Sento però l’esigenza di rimanere con i piedi per terra, aggrappandomi alla conoscenza d’ambito applicativo che è propria della manuten­zione e che si è consolidata nel corso degli anni. In generale, penso che ciò che si è raggiunto nel passato sia sempre una conquista e, quindi, non si debba mai dimenticare; nello specifico, credo che le “vecchie” tecniche e i “vecchi” concetti che og­gigiorno, a guardare i titoli nei convegni, sembrano non essere più di moda, debbano essere sempre un punto di partenza, uno zoccolo duro fondan­te su cui innestare le nuove tecnologie messe a disposizione dal mercato. Da impiantista, direi, è come pensare a un retrofit con nuove tecnologie; la novità è che queste tecnologie disponibili non “girano” solo vicino al fisico (automazione di im­pianto) ma anche nel virtuale (il cloud).

Quando parlo di un concetto del passato, penso alle basi della conoscenza manutentiva. È sempre im­portante, ad esempio, parlare di modo di gua­sto, vale a dire, la manifestazione della cessazione di attitudine di un’entità (asset, dispositivo, sottosi­stema, componente) a erogare la funzione richie­sta. Il modo di guasto è frutto della conoscenza, ed è anzi un cardine, perché aiuta a caratterizzare il termine del processo di degrado, passando per una serie di meccanismi di generazione del guasto (dovuti al carico meccanico, termico, chimico, ecc. ...), che hanno portato il materiale dell’asset (o di un suo sottosistema o componente) a indebolirsi e, appunto, a far occorrere il guasto. Dico questo perché ritengo opportuno condividere un pensiero che è certamente chiaro al lettore: il degrado è pur sempre una trasformazione delle caratteristiche dell’asset soggetto alle sollecitazioni dell’ambiente in cui opera. In tal senso, è un fenomeno in molti casi noto, che può essere affrontato con approc­ci ingegneristici tradizionali e “vecchie” tecniche. Questo è inequivocabile. Come anche è evidente che i Big data, i metodi “nuovi” di analytics, di ma­chine/deep learning, ecc. sono interessanti opzioni tecnologiche per un approccio scientifico, basato sui dati – i.e. approccio data-driven – e finalizzato a una migliore conoscenza del fenomeno del de­grado unitamente alle sollecitazioni ambientali che lo determinano.

Non esiste, quindi, contrapposizione tra “vec­chio” e “nuovo”, ma una potenziale sinergia. È anzi interessante riflettere sull’adozione di un approccio ibrido, che non sia basato solo su una black box pura, dovuta all’approccio data-driven, ma che combini le potenzialità dei Big Data con l’esperienza tecnica e ingegneristica di manuten­zione per ottenere, così, il miglior assetto del siste­ma di Big data & analytics, capace di sintetizza­re la conoscenza delle trasformazioni fisiche che nell’asset accadono. In virtù delle sue competenze ed esperienze, anche l’esperto in manutenzione, sia specialista che ingegnere, continuerà ad essere una risorsa fondamentale, e il data scientist non potrà che imparare dalla sua conoscenza, per un contributo efficace ad uno sviluppo di successo dei Big data in manutenzione.

 

 

Prof. Marco Macchi, Direttore Manutenzione T&M