Avere a disposizione una quantità illimitata di dati non è di per sé sufficiente. Quanto più affidabili saranno i dati da acquisire tanto più valida, efficace ed efficiente potrà essere la soluzione. Il focus è sui modelli analitici.
La simulazione non è più confinata alla sola progettazione di prodotto ma diventa lo strumento per interpretare il comportamento di un sistema/prodotto/impianto/macchina in uno spazio fisico reale. Simulazione comportamentale, quindi, che viene abilitata da un modello numerico data driven ovvero il digital twin.
L’obiettivo primario di quest’ultimo? La risoluzione di un problema.
Se questa è la nuova frontiera IoT occorre però tenere presente che l’acquisizione di dati sul campo rappresenta soltanto l’ultimo miglio di un processo molto più ampio e articolato. Per interpretare la fenomenologia di un problema, e per fornire una soluzione orientata ad automatizzare o supportare un processo decisionale, è infatti necessario elaborare modelli numerici e analitici possibilmente coadiuvati da algoritmi di intelligenza artificiale.
La discussione attuale sul digital twin è spesso è inflazionata e non è focalizzata a sufficienza sullo sviluppo di modelli analitici. Fare simulazione significa infatti partire dai dati per sviluppare logiche predittive funzionali alla soluzione del problema. Senza di queste non esiste nessun digital twin. Detto in altre parole, è inutile continuare a estrarre petrolio in un mondo senza raffinerie. Il valore di un digital twin non è infatti espresso dalla quantità di dati ma dalla qualità di un modello interpretativo problem solving. Insomma, il digital twin non è il fine ma il mezzo. I dati abilitanti la formulazione di un modello numerico possono essere endogeni – acquisiti dall’oggetto/sistema – o esogeni, basati su rilevazioni ambientali e di contesto. Nell’uno e nell’altro caso contribuiscono a formulare la base su cui sviluppare la soluzione al problema. Quanto più affidabili saranno i dati acquisiti tanto più valida, efficace ed efficiente potrà essere la soluzione.
Abbracciare il digital twin non significa soltanto introdurre nuovi software o nuove piattaforme in azienda, ma essere pronti a un cambio di mentalità, adottando una visione olistica alla gestione del dato. Il punto di arrivo non dovrebbe essere l’ottimizzazione di un singolo processo, ma quello di estendere l’approccio all’intera organizzazione. Il consiglio alle aziende utenti del mondo manifatturiero e industriale? Vedere il digital twin in un’ottica più ampia e non confinarlo a singoli macchinari o sistemi. Iniziare questo percorso vuol dire essere consapevoli della debolezza di un’organizzazione a silos, risolvendo quelle incongruenze che limitano il raggiungimento di obiettivi aziendali.
Diventa vitale l’adozione di un mindset collaborativo. Il digital twin è infatti un’opportunità per re-interpretare il valore potenziale dei dati. Sono tre gli elementi chiave abilitanti un digital twin pervasivo: intelligenza all’edge, interoperabilità tra applicazioni enterprise – Mes, Supply Chain, Erp – ma soprattutto la definizione di un modello unificato che possa creare valore esteso e non solo dove il dato viene prodotto. Solo se si riesce a orientarsi sulla qualità del dato e non sulla quantità di possono ottenere risultati premianti. A questo proposito va ricordato che, a fronte di un aumento dei volumi di dati IoT la densità di informazioni utili generata è oggi ancora bassa.
Questo significa che il costo economico dell’acquisizione dei dati, a meno che non vi sia la capacità di sfruttarlo attraverso regole e modelli definiti, tenderà sempre più a crescere senza produrre un adeguato ritorno dell’investimento.