Manutenzione predittiva: quale novità in vista?

  Richiedi informazioni / contattami

La Manuten­zione sarà sempre più centrata sul dato e, fortu­natamente, la persona sarà ancora centrale per generare un valore dal dato

Manutenzione predittiva: quale novità in vista?
Manutenzione predittiva: quale novità in vista?

Con questo editoriale arriviamo alla terza occasione per una riflessione sulla manu­tenzione predittiva stimolata dalla domanda (già utilizzata nelle puntate precedenti): “qua­le è la novità portata nel quadro dell’Industria 4.0 per la manutenzione predittiva?”. Continu­iamo perché la manutenzione predittiva in salsa 4.0 è ricca di argomentazioni – di natura tecnica, tecnologica, ingegneristica e gestionale –, ed è quindi difficile esaurire la discussione nei limiti di poche battute.

Parlare di manutenzione predittiva, lo sappiamo, non è una novità. Si è sviluppata attraverso una storia importante, basti pensare ai primi anni in cui le tecniche diagnostiche “classiche” furono indu­strializzate. Oggigiorno, la manutenzione predit­tiva può sfruttare il trampolino di lancio offerto dall’evoluzione tecnologica dell’Industria 4.0, e anche questo lo sappiamo per effetto dello stato di euforia legato alle nuove tecnologie. Tra le tecnolo­gie dell’Industria 4.0, in questo editoriale concen­trerò l’attenzione sulle tecniche per fare (big) data analytics. Tali tecniche sono varie e molteplici, e sono sfruttabili per migliorare la conoscenza sui processi industriali e sui processi di degrado degli asset in diverse condizioni operative. Ma è questa una vera novità? Non proprio, se non che al giorno d’oggi si può prospettare un utilizzo più sistematico, diffuso e capillare dell’analytics per la manutenzione predittiva.

Tale prospettiva è favorita dall’offerta tecnologi­ca che garantisce una maggiore accessibilità alle tecniche di data analytics: è facile, per esempio, osservare che tali tecniche sono oggi proposte da più vendor del settore dell’Information Tech­nology (IT) come una parte integrante di piatta­forme dotate di funzionalità di data management e di capacità computazionali. Nelle piattaforme, in aggiunta a servizi IT di base (ad es., per l’in­tegrità e la protezione del dato), si offrono sia librerie di tecniche di data analytics, sia ambienti di sviluppo e di gestione nel quale i diversi al­goritmi/modelli possono essere creati, operati e mantenuti, quindi gestiti nel loro ciclo di vita (ndr, per un’azienda, algoritmi/modelli sono anch’essi asset che generano valore e che hanno un pro­prio ciclo di vita, a partire dagli asset fisici).

Le tecniche di data analytics che troviamo nelle piattaforme sono nate originariamente in diversi domini disciplinari. Cito i domini principali, quel­li che meglio conosco e che hanno un maggior numero di referenze per l’impiego in ambito ma­nutentivo: il dominio della computer science e, più precisamente, dell’intelligenza artificiale (artificial intelligence, AI) – un ramo della computer science dedicato allo sviluppo di sistemi di data processing che svolgono funzioni normalmente associate all’intelligenza umana, come il reasoning e il lear­ning; il dominio della statistica, che permette di di­sporre di altrettante valide tecniche impiegabili sia per estrarre informazioni dai dati utili per fini pre­dittivi (in tal senso, le tecniche della statistica sono assimilabili alle tecniche dell’AI), sia per condurre le prime e le ultime fasi dell’intero processo di svi­luppo e test dei modelli/algoritmi di data analytics (ad es., nelle prime fasi, per avere sensibilità sulla distribuzione e sulla “pulizia” dei dati o, nelle ultime fasi, a supporto dei necessari test per valutare la confidenza statistica delle stime predittive).

Sono, quindi, tante le tecniche impiegabili per fare data analytics: ben venga l’offerta di vendor IT che ne permettono una fruizione accessibile in librerie e ambienti di lavoro appositi, utili per gestire la va­rietà. Questo è però solamente un punto di parten­za: parliamo di tecniche che vanno ad aggiungersi alle tecniche della più “classica” diagnostica indu­striale; e sono pur sempre tecniche che meritano opportune competenze ingegneristiche per otte­nerne un uso efficace ed efficiente. Perché? Qui di seguito, sottolineo due ragioni principali.

1. La gestione della varietà delle tecniche di data analytics non è semplice perché ciascuna tecnica ha le sue caratteristiche, ed esistono proprietà e prestazioni in trade-off per cui è giocoforza necessario procedere con un ad­destramento di più modelli/algoritmi creati da più tecniche (ndr, si parla di supervised o un­supervised learning, a seconda dei casi) per identificare quelli che meglio si comportano nel contesto dati (e, quindi, nel processo/as­set industriale) studiato. I tentativi sino ad oggi fatti per definire framework capaci di mappa­re generalmente proprietà e prestazioni delle diverse tecniche, per supportarne la scelta in funzione degli ambiti d’impiego, sono ancora parziali e/o non convincenti. Al contrario, mi pare più promettente l’utilizzo dinamico delle tecniche che, riaddestrate con l’evolvere dei fenomeni studiati (quindi, della vita dei processi e degli asset industriali), sono impiegate in ma­niera selettiva in determinati periodi d’utilizzo e per definiti orizzonti di previsione.

2. L’approccio black-box, guidato dai dati di un processo (i.e. è il naturale approccio sotteso alle tecniche di data analytics), non è suffi­ciente. Manca di quella che alcuni definiscono l’“arte” della creatività, che arriva da chi ha esperienza e conoscenza ingegneristica delle tecnologie e dei processi industriali, e delle leg­gi fisiche che regolano il funzionamento degli asset e il loro degrado. L’“arte” è di assoluto valore per guidare lo sviluppo del data analytics verso le feature “chiave” dei processi. Anche se sono imperfette, esperienze e conoscenze di processo sono, quindi, ancora importanti per un’azienda che possiede i suoi asset, piuttosto che per il costruttore che li progetta: rimango­no un patrimonio che deve essere valorizzato assieme alle potenzialità dovute al crescente uso di sensori (anche sensori smart) e di mac­chinari e impianti connessi, e alla capacità di analitycs di grandi volumi di dati.

Per diverse ragioni, comprese quelle poco fa citate, consiglierei un approccio più equilibrato all’in­novazione della manutenzione predittiva. Sono convinto, e per questo lo metto nero su bianco, che, se si esagera con la credenza dell’“intelligenza” superiore (!?!) delle tecniche di (big) data analytics unitamente all’eccessiva spinta all’approccio black-box, si rischia di prendere abbagli perdendo, nel migliore dei casi, del tempo nella ricerca di featu­re e pattern per la predizione, senza poi essere in grado di comprenderli a fondo.

Riportando al centro la conoscenza del processo e dell’asset industriale, le tecniche di (big) data analytics diventeranno un bagaglio fondamentale per fare manutenzione predittiva in salsa 4.0. In questa prospettiva, sottolineo anche la potenziale ricaduta di natura organizzativa: l’arma vincente, oggi, è la multidisciplinarità. Come ho visto dal confronto nell’Osservatorio TeSeM, alcune azien­de, che possiedono asset industriali e che hanno intrapreso il percorso verso la Manutenzione/Indu­stria 4.0, hanno pensato alla presenza di un data scientist accanto alla solida base di conoscenza portata dagli esperti di progettazione e gestione dei processi e degli asset industriali, con l’evidente risultato di una serie di applicazioni Industry 4.0-like concrete e di successo, ottenute in tempi indu­strialmente accettabili.

In conclusione, già parlando della sola manuten­zione predittiva, come fatto in questi ultimi editoria­li, emergono i tratti della Manutenzione del futuro in una realtà industriale.

Come da definizione originariamente coniata dall’Os­servatorio TeSeM, presentata in pubblico durante il SIMa ad Ottobre 2017 e codificata nel report della ricerca d’anno lo scorso Aprile 2018, la Manuten­zione sarà sempre più centrata sul dato e, fortu­natamente, la persona sarà ancora centrale per generare un valore dal dato, i.e. vision di data- e human-centered maintenance.

Prof. Marco Macchi, Direttore Manutenzione T&M

Pubblicato il Luglio 19, 2018 - (22 views)
Articoli correlati
La trasformazione digitale dell’industria e l’evoluzione dei servizi di manutenzione
Il futuro della manutenzione
Oil Management 4.0, Oil Lifetime e Remote Monitoring
Il Problem Solving in contesti aziendali
La manutenzione nell’industria 4.0
Sviluppo digitale e Digital Twin nell’industria e nell’Oil&Gas
L’avanguardia italiana nella produzione di strumentazione di processo
Termocamera per smartphone e tablet
Rivestimento polimerico per applicazioni heavy-duty
Sistema di verifica per saldatura ad arco
Sistemi di bullonatura industriali
Manutenzione e tecnologia predittive
Sistema di gestione malfunzionamenti
Prospettiva + prestazione
Sistemi per il condition monitoring
Termocamera ad alta precisione
Misuratore di isolamento
Soluzione per il Field Service Management
CMMS per l'Industria 4.0
Software per ispezioni termografiche
Termocamera per smartphone e tablet
Misuratore di isolamento
Avvitatore a impulsi in magnesio
Manifold ergonomico e compatto
Adesivo strutturale per elevate temperature
Boroscopi per ispezioni industriali
NTN-SNR: Offerta globale per l'agricoltura
PORTA AUTOMATICA SCORREVOLE
LeakExpert per SONAPHONE
Lubrificante per motori a metano
Sistema di allineamento
Avvitatore a impulsi in magnesio
Manifold ergonomico e compatto
CARRELLO DRIVER ABC Tools
Giunti a lamelle
Pressostati digitali
Aperto il primo centro di manutenzione ferroviaria digitale di Siemens Mobility
Boroscopi per ispezioni industriali
NTN-SNR: Contraffazione
NTN-SNR Gamma BB cuscinetti standard a sfere