PEOPLE | 14 Nov

Come è cambiato il dato? Intervista a Francesco Bonfiglio

Nell’era del post Big Data meno dati ma più corretti e utili

“La tecnologia – esordisce Francesco Bonfiglio, Amministratore Delegato di Engineering D.HUB  – è diventata sensoriale. Nel nostro smartphone, nella nostra auto, nel mondo che ci circonda, i sensori (e le informazioni che raccolgono e forniscono) sono ormai percepiti come nostre estensioni, al punto che la loro assenza ci provoca sensazioni di isolamento. L’informazione che siamo abituati a gestire è un insieme di dati raccolti dai sistemi e dai sensori dei nostri dispositivi o che sottendono servizi forniti da terzi. La mancanza di webcam nel posto che vorremmo visitare o di copertura GPS dove ci troviamo crea di fatto fastidio, come se l’assenza di informazioni reali e contestualizzate mi rendessero parzialmente cieco, sordo e immobile. Questo tipo di reazione renderà l’uomo sempre più dipendente dai sensori e dalla qualità dei loro dati, utili a elaborare processi decisionali sempre più complessi e rapidi.”

Cosa significa oggi parlare di dati?

“L’utilizzo della parola dato in informatica implica che questo sia un elemento noto, consapevolmente ed esplicitamente reso disponibile, donato, regalato. Fino a qualche tempo fa effettivamente era così, ma oggi il significato dovrebbe cambiare in preso, recuperato o sempre più spesso rubato, elaborato e certamente venduto.

Viviamo – finalmente dal mio punto di vista – l’era del Post Big Data, ovvero dopo anni di raccolta di volumi sempre crescenti di dati e la creazione di regole sempre più complesse per la loro ricerca e correlazione in report che avessero un minimo di significato, i clienti (e noi nella vita di tutti i giorni) abbiamo oggi piena consapevolezza che è più importante raccogliere meno dati e quelli giusti (Small Data), che ci permettono di fare meglio il nostro lavoro. È necessario trovarli ovunque siano (identificando quelli rilevanti, correlandoli nel modo giusto) e comprenderne il significato per usarli al fine dell’accelerazione di un processo di vendita o per la riduzione di tempi e costi di esecuzione di un processo.

Questa nuova etimologia prevede dunque un cambio di paradigma: dalla separazione dei servizi di raccolta (storage), correlazione (business intelligence), comprensione (data science) ed elaborazione di suggerimenti (business process reengineering, digital marketing, predictive analytics), si passa alla creazione di servizi sempre più integrati che, partendo dalla raccolta di dati su una piattaforma in cloud, possano rendere direttamente disponibile l’elaborazione dell’informazione finale in forma di micro-servizi, minimizzando lo scambio di flussi e reportistica di grandi volumi ma poco valore.”

Quale il valore dell’informazione in tempo reale? E quali le implicazioni rispetto alla qualità del dato?

“Una volta esistevano applicazioni cosiddette Business Critical perché in caso di guasto avrebbero compromesso l’operatività del core business di un’azienda. La digitalizzazione dei processi rende oggi necessario che ogni componente o servizio sia up and running 24 ore su 24 per 7 giorni la settimana, con disponibilità prossime al 100% e dati sempre aggiornati in tempo reale.

Il costo del downtime non è più qualcosa che può essere compensato da SLA (Service Level Agreement) e penali del fornitore. Oggi la tecnologia che sottende il business ha un impatto diretto su questo, tanto che un fermo tecnologico si traduce in un blocco del business.

Gli impatti vanno da perdita economica a perdita di contratti, clienti, market share, reputazione e competitività. La Business Continuity dunque non deve essere applicata in modo indifferente a tutte le infrastrutture tecnologiche ma ponderata (riducendone peraltro i costi), a partire dai processi di business e calcolandone impatto e sostenibilità.

Allo stesso modo, il concetto di disastro, nell’approccio al Disaster Recovery, non è più solo quello di calamità naturale ma di ogni possibile evento (da una ruspa che taglia un cavo al fermo dell’erogazione di energia o altro) che possono causare un’interruzione del business sufficiente ad arrecare danno.

Cosa succede se il nostro business rimane fermo per 1 minuto? E per un’ora? E per un giorno? Pensando a una banca, un aeroporto, una metropolitana, un acquedotto piuttosto che un supermercato o un ospedale sarà facile capire che l’impatto di un fermo anche solo di pochi minuti crea danni milionari e può mettere a repentaglio sicurezza e incolumità dei cittadini.

Se parliamo di percezione di qualità del dato, possiamo dire che questa è oggi più importante della bontà del dato stesso. Per esempio è più importante avere una previsione del tempo aggiornata in tempo reale e specifica del luogo dove mi trovo, che un dato rilevato dalla più vicina stazione meteorologica da apparecchiature di precisione.”

Quale la relazione tra sicurezza e dati?

“Il concetto di sicurezza rispetto al dato è cambiato negli anni: da insieme di strumenti e procedure necessarie a garantire la robustezza delle infrastrutture di gestione dei dati, a caratteristica intrinseca del dato.  Basti pensare per esempio a Blockchain e come questo algoritmo renderà intrinsecamente sicure transazioni commerciali ed economiche che ora impiegano strumenti, documenti, processi e istituzioni pubbliche e private a garanzia della sicurezza e veridicità del dato.

Un dato non è più sicuro solo se depositato in una infrastruttura sicura ma anche se intrinsecamente vero (reale), inviolabile, affidabile e protetto dall’utilizzo improprio da parte di chiunque non ne sia legalmente proprietario o incaricato del trattamento.

Le dimensioni della sicurezza del dato diventano quindi molteplici: dall’identità, al controllo, al rispetto delle normative, alla diffusione per esempio in ambito social, alla sua monetizzazione ai fini economici. La nuova generazione di servizi per la sicurezza che stiamo approntando risponde a tutte queste dimensioni in una chiave olistica, fondendo sicurezza fisica (safety), logica (cyber), metodi di progettazione (built-in vs. bolt-on security), strumenti (SoC), conformità normativa (regulatory) in un approccio consulenziale e proattivo finalizzato alla creazione di servizi e dati sicuri, garanzia di competitività.”

Quale futuro ci aspetta?

“In un mondo sempre più controllato da automi fisici e logici, che adempiono a tutti quei processi che prima svolgevano umani, dobbiamo porci delle nuove domande: chi saranno gli utenti? Come faremo a negoziare con un ufficio acquisti gestito da robot? Quali saranno le informazioni sensibili di un robot? Quali saranno i meccanismi di marketing e comunicazione che permetteranno di posizionare un prodotto meglio di un altro di fronte a un cliente robotico? 

L’utilizzo di AI (Artificial Intelligence) è ormai un dato di fatto. Dietro un nostro acquisto su Amazon abbiamo motori di ML (Machine Learning) che conoscono le nostre abitudini di spesa e quelle di persone a noi simili che senza che ne ce accorgiamo ci portano alla scelta che facciamo facendoci sembrare tutto sommato piccola ed esattamente ritagliata sui nostri gusti una ‘vetrina’ virtuale che in realtà ha milioni di articoli che altrimenti impazzirei a curiosare. 

Più importante è il legame di fiducia che ormai si sta creando tra uomo e macchina, algoritmi di ricerca, assistenti digitali. Mentre il rapporto tra umani diventa sempre più rarefatto e disintermediato da strumenti di comunicazione e collaborazione (tweet, post, chat) la relazione con un Assistente Digitale o con un ChatBot crea da subito fiducia nell’assoluta equità di trattamento, educazione e di qualità del servizio che quell’aiutante sintetico mi potrà dare senza rischiare di dovermi confrontare con un operatore di help desk svogliato, incompetente o anche sgarbato.

Nasce una nuova psicologia della relazione digitale ed è tutta da esplorare. Sarà difficile, o meglio inutile, cercare forzare i robot a usare le regole degli umani e sarà altresì necessario ripensare a regole e processi e sicurezza dei dati adatti a questo nuovo mondo.”