Manutenzione predittiva: quale novità in vista?

  Richiedi informazioni / contattami

La Manuten­zione sarà sempre più centrata sul dato e, fortu­natamente, la persona sarà ancora centrale per generare un valore dal dato

Manutenzione predittiva: quale novità in vista?
Manutenzione predittiva: quale novità in vista?

Con questo editoriale arriviamo alla terza occasione per una riflessione sulla manu­tenzione predittiva stimolata dalla domanda (già utilizzata nelle puntate precedenti): “qua­le è la novità portata nel quadro dell’Industria 4.0 per la manutenzione predittiva?”. Continu­iamo perché la manutenzione predittiva in salsa 4.0 è ricca di argomentazioni – di natura tecnica, tecnologica, ingegneristica e gestionale –, ed è quindi difficile esaurire la discussione nei limiti di poche battute.

Parlare di manutenzione predittiva, lo sappiamo, non è una novità. Si è sviluppata attraverso una storia importante, basti pensare ai primi anni in cui le tecniche diagnostiche “classiche” furono indu­strializzate. Oggigiorno, la manutenzione predit­tiva può sfruttare il trampolino di lancio offerto dall’evoluzione tecnologica dell’Industria 4.0, e anche questo lo sappiamo per effetto dello stato di euforia legato alle nuove tecnologie. Tra le tecnolo­gie dell’Industria 4.0, in questo editoriale concen­trerò l’attenzione sulle tecniche per fare (big) data analytics. Tali tecniche sono varie e molteplici, e sono sfruttabili per migliorare la conoscenza sui processi industriali e sui processi di degrado degli asset in diverse condizioni operative. Ma è questa una vera novità? Non proprio, se non che al giorno d’oggi si può prospettare un utilizzo più sistematico, diffuso e capillare dell’analytics per la manutenzione predittiva.

Tale prospettiva è favorita dall’offerta tecnologi­ca che garantisce una maggiore accessibilità alle tecniche di data analytics: è facile, per esempio, osservare che tali tecniche sono oggi proposte da più vendor del settore dell’Information Tech­nology (IT) come una parte integrante di piatta­forme dotate di funzionalità di data management e di capacità computazionali. Nelle piattaforme, in aggiunta a servizi IT di base (ad es., per l’in­tegrità e la protezione del dato), si offrono sia librerie di tecniche di data analytics, sia ambienti di sviluppo e di gestione nel quale i diversi al­goritmi/modelli possono essere creati, operati e mantenuti, quindi gestiti nel loro ciclo di vita (ndr, per un’azienda, algoritmi/modelli sono anch’essi asset che generano valore e che hanno un pro­prio ciclo di vita, a partire dagli asset fisici).

Le tecniche di data analytics che troviamo nelle piattaforme sono nate originariamente in diversi domini disciplinari. Cito i domini principali, quel­li che meglio conosco e che hanno un maggior numero di referenze per l’impiego in ambito ma­nutentivo: il dominio della computer science e, più precisamente, dell’intelligenza artificiale (artificial intelligence, AI) – un ramo della computer science dedicato allo sviluppo di sistemi di data processing che svolgono funzioni normalmente associate all’intelligenza umana, come il reasoning e il lear­ning; il dominio della statistica, che permette di di­sporre di altrettante valide tecniche impiegabili sia per estrarre informazioni dai dati utili per fini pre­dittivi (in tal senso, le tecniche della statistica sono assimilabili alle tecniche dell’AI), sia per condurre le prime e le ultime fasi dell’intero processo di svi­luppo e test dei modelli/algoritmi di data analytics (ad es., nelle prime fasi, per avere sensibilità sulla distribuzione e sulla “pulizia” dei dati o, nelle ultime fasi, a supporto dei necessari test per valutare la confidenza statistica delle stime predittive).

Sono, quindi, tante le tecniche impiegabili per fare data analytics: ben venga l’offerta di vendor IT che ne permettono una fruizione accessibile in librerie e ambienti di lavoro appositi, utili per gestire la va­rietà. Questo è però solamente un punto di parten­za: parliamo di tecniche che vanno ad aggiungersi alle tecniche della più “classica” diagnostica indu­striale; e sono pur sempre tecniche che meritano opportune competenze ingegneristiche per otte­nerne un uso efficace ed efficiente. Perché? Qui di seguito, sottolineo due ragioni principali.

1. La gestione della varietà delle tecniche di data analytics non è semplice perché ciascuna tecnica ha le sue caratteristiche, ed esistono proprietà e prestazioni in trade-off per cui è giocoforza necessario procedere con un ad­destramento di più modelli/algoritmi creati da più tecniche (ndr, si parla di supervised o un­supervised learning, a seconda dei casi) per identificare quelli che meglio si comportano nel contesto dati (e, quindi, nel processo/as­set industriale) studiato. I tentativi sino ad oggi fatti per definire framework capaci di mappa­re generalmente proprietà e prestazioni delle diverse tecniche, per supportarne la scelta in funzione degli ambiti d’impiego, sono ancora parziali e/o non convincenti. Al contrario, mi pare più promettente l’utilizzo dinamico delle tecniche che, riaddestrate con l’evolvere dei fenomeni studiati (quindi, della vita dei processi e degli asset industriali), sono impiegate in ma­niera selettiva in determinati periodi d’utilizzo e per definiti orizzonti di previsione.

2. L’approccio black-box, guidato dai dati di un processo (i.e. è il naturale approccio sotteso alle tecniche di data analytics), non è suffi­ciente. Manca di quella che alcuni definiscono l’“arte” della creatività, che arriva da chi ha esperienza e conoscenza ingegneristica delle tecnologie e dei processi industriali, e delle leg­gi fisiche che regolano il funzionamento degli asset e il loro degrado. L’“arte” è di assoluto valore per guidare lo sviluppo del data analytics verso le feature “chiave” dei processi. Anche se sono imperfette, esperienze e conoscenze di processo sono, quindi, ancora importanti per un’azienda che possiede i suoi asset, piuttosto che per il costruttore che li progetta: rimango­no un patrimonio che deve essere valorizzato assieme alle potenzialità dovute al crescente uso di sensori (anche sensori smart) e di mac­chinari e impianti connessi, e alla capacità di analitycs di grandi volumi di dati.

Per diverse ragioni, comprese quelle poco fa citate, consiglierei un approccio più equilibrato all’in­novazione della manutenzione predittiva. Sono convinto, e per questo lo metto nero su bianco, che, se si esagera con la credenza dell’“intelligenza” superiore (!?!) delle tecniche di (big) data analytics unitamente all’eccessiva spinta all’approccio black-box, si rischia di prendere abbagli perdendo, nel migliore dei casi, del tempo nella ricerca di featu­re e pattern per la predizione, senza poi essere in grado di comprenderli a fondo.

Riportando al centro la conoscenza del processo e dell’asset industriale, le tecniche di (big) data analytics diventeranno un bagaglio fondamentale per fare manutenzione predittiva in salsa 4.0. In questa prospettiva, sottolineo anche la potenziale ricaduta di natura organizzativa: l’arma vincente, oggi, è la multidisciplinarità. Come ho visto dal confronto nell’Osservatorio TeSeM, alcune azien­de, che possiedono asset industriali e che hanno intrapreso il percorso verso la Manutenzione/Indu­stria 4.0, hanno pensato alla presenza di un data scientist accanto alla solida base di conoscenza portata dagli esperti di progettazione e gestione dei processi e degli asset industriali, con l’evidente risultato di una serie di applicazioni Industry 4.0-like concrete e di successo, ottenute in tempi indu­strialmente accettabili.

In conclusione, già parlando della sola manuten­zione predittiva, come fatto in questi ultimi editoria­li, emergono i tratti della Manutenzione del futuro in una realtà industriale.

Come da definizione originariamente coniata dall’Os­servatorio TeSeM, presentata in pubblico durante il SIMa ad Ottobre 2017 e codificata nel report della ricerca d’anno lo scorso Aprile 2018, la Manuten­zione sarà sempre più centrata sul dato e, fortu­natamente, la persona sarà ancora centrale per generare un valore dal dato, i.e. vision di data- e human-centered maintenance.

Prof. Marco Macchi, Direttore Manutenzione T&M

Pubblicato il Luglio 19, 2018 - (22 views)
Articoli correlati
Quarant’anni del PEEK con Victrex
Conrad abbassa i prezzi di molti marchi in distribuzione
I corsi e i centri per la formazione presentati da NSK
I Cobots in mostra a Hannover Messe
Trasmettitori di pressione piezoresistivi
Il sito internet di mbo Osswald è disponibile in italiano e spagnolo
Pompe a pistone e a camme
Torce ermetiche per uso industriale
Etichetta per campioni di laboratorio
La tredicesima edizione di Automation & Testing
Lubrificatore intelligente
Asset Management
Servizio clienti personalizzato
Articoli di trasmissione e potenza
Lubrificatori affidabili per compressori
Avvitatori pneumatici
Prodotti per la riduzione dei rischi
Trasmettitori di pressione
Soluzione per forniture industriali
Penna per guarnizioni
Penna per guarnizioni
Lubrificanti per la manutenzione
Strumento portatile AC/DC
CMMS Smart Generation
Custodia per termografia
Etichetta per campioni di laboratorio
Punte per la foratura dell'alluminio
Resina epossidica per giunzioni strutturali
Sensori con IO-Link per scambio dati
Compact Dosing Solution: il sistema di dosaggio per microportate
Avvitatori pneumatici
Prodotti per la riduzione dei rischi
Penna per guarnizioni
Grasso lubrificante per cuscinetti
Macchine pneumatiche di qualità
Torce ermetiche per uso industriale
Etichetta per campioni di laboratorio
Interruttori d’arresto per unità di controllo mobili
Compact Dosing Solution: il sistema di dosaggio per microportate
Guida lineare per applicazioni heavy-duty