Quando pensiamo all’Information Technology uno degli assunti che riteniamo assiomatici è che tutto si sviluppi con grande velocità. Tuttavia talvolta ciò non è completamente vero. Anzi, a dirla tutta, quando ci si trova di fronte a soluzioni realmente importanti c’è sempre bisogno – perché si affermino davvero – di un po’ più di tempo di quello che si sarebbe portati a pensare. È successo per gli sms, che hanno impiegato anni per affermarsi come strumenti di comunicazione interpersonale. Per la videofonia, della quale si parla da un oltre un ventennio ma soltanto negli ultimi anni si sta rivelando efficace. Per gli e-book, dei quali si è parlato per lustri prima che si diffondessero in maniera significativa. E che dire di Blockchain, della domotica, delle mille applicazioni della tecnologia che – dal momento dell’ideazione – hanno richiesto un tempo di gestazione sempre più lungo del previsto? È successo addirittura per Internet, che ha avuto bisogno del Web. Insomma: non è sbagliato dire che le buone idee, anche nell’era della Rete, hanno bisogno di tempo per affermarsi. Ne hanno bisogno in parte perché inducono un cambiamento nei comportamenti delle persone (e questo tipo di cambiamento non può essere compresso troppo nei tempi), in parte perché richiedono condizioni di contesto – tecnologiche ma non solo – che non sempre sono immediatamente disponibili.
Non deve stupire, quindi, se il concetto di Digital Twin, del quale tanto si parla in questo momento, non sia “figlio” del fenomeno di Industria 4.0, ma ne sia addirittura progenitore. Fu infatti Michael Grieves, docente all’Università del Michigan, a coniarlo. E lo fece nel 2002, quando il concetto di Industria 4.0 era ancora lontano (la sua nascita risale infatti al 2011).

Cos’è Digital Twin?
Cos’è il Digital Twin è presto detto: il “gemello digitale” è la riproduzione (digitale, appunto) di un processo fisico. Riproduzione che si basa su dati reali e che consente – grazie a tali dati – di simulare cambiamenti a tale processo analizzandone gli esiti, senza che esso – tuttavia – ne sia realmente intaccato. Il Digital Twin è quindi la modellizzazione di un sistema basata su dati, che consente di effettuare simulazioni su una riproduzione virtuale di tale sistema. Una specie di second life dei processi insomma, dove sperimentare variazioni, comportamenti, reazioni, conseguenze. Il tutto senza alcun impatto sul mondo fisico. I vantaggi sono evidenti: disporre del Digital Twin di un impianto di produzione consente di ottimizzarlo potendo sperimentare gli effetti dei cambiamenti in un contesto protetto, senza rischiare retroazioni negative sulla produzione.
Ma perché si parla così tanto di Digital Twin solo oggi, a oltre 15 anni dalla sua concettualizzazione?
Presto detto: perché per riprodurre un processo fisico in maniera sufficientemente affidabile da poter sperimentare variazioni su di esso servono dati. E neanche pochi. E la capacità di elaborarli.
Nel 2002, giusto per dare un riferimento, ancora non era nato il concetto di Web 2.0 e Wikipedia aveva un anno. Insomma: informaticamente parlando un’era zoologica fa. Da allora la capacità computazionale è aumentata più che esponenzialmente, la pervasività della Rete è divenuta un dato di fatto, si è iniziato a parlare seriamente di Internet delle cose e ciò ha portato allo sviluppo di sensoristica diffusa che consente di acquisire dati dalle operational technology in maniera continua, si sono sviluppati sistemi di Intelligenza Artificiale in grado di simulare fenomeni reali con sempre maggiore accuratezza. Insomma: si è sviluppato quell’ecosistema che consente di acquisire informazioni dal mondo fisico in quantità (e qualità) sufficienti da poter simulare la realtà con accuratezza. Dietro i modelli basati sul Digital Twin, infatti, non c’è una tecnologia specifica, ma un insieme di tecnologie abilitanti che oggi hanno raggiunto quella massa critica tale da consentire applicazioni e casi d’uso efficaci.
L’evoluzione dei modelli basati su Digital Twin, le cui caratteristiche sono ben illustrate nel White Paper da poco pubblicato da Engineering e disponibile per chi volesse approfondire il tema, è solo all’inizio. Il punto di incontro tra Information Technology e Operational Technology aprirà prospettive di integrazione che oggi facciamo fatica anche solo a immaginare. Lo sviluppo di ciò che verrà dopo Industria 4.0 si baserà su modelli di retroazione incrociata in cui il confine tra analogico e digitale sarà così labile da diventare quasi del tutto indistinguibile, in un contesto in cui gli stessi concetti di “reale” e “virtuale” perderanno di significato, sostituiti da una dimensione in cui analogico e digitale si compenetreranno nello sviluppo di modelli di realtà a complessità crescente: una realtà della quale starà a noi cogliere il meglio dei due mondi.
Stefano Epifani