PEOPLE | 4 Set 2018

Intelligenza o follia artificiale? Intervista a Luca Bolognini

Il difficile equilibrio tra uomo, macchine, algoritmi e diritti

La tecnologia e in particolare l’Intelligenza Artificiale (che verrà o che è già qui, ndr) non solo, in alcuni casi, sostituirà l’uomo eseguendo azioni in modo più efficiente e meno costoso, ma limiterà la sua capacità di effettuare scelte indipendenti, ragionate, ponderate sulla base di dati ed esperienze personali.

Questo il rischio concreto al quale, forse inconsapevolmente, andiamo incontro e che è ben descritto nel libro “Follia artificiale” di Luca Bolognini, uno dei massimi esperti europei di privacy e diritto dei dati, avvocato e presidente dell’Istituto Italiano per la Privacy e la Valorizzazione dei Dati (IIP). Non una visione catastrofica o apocalittica del futuro, ma un tentativo di ragionare a voce alta per cercare un equilibrio tra opposti estremismi, che vanno dall’entusiasmo incontrollato per l’innovazione a tutti i costi al “fermiamo tutto, voglio scendere”.

Quale il giusto equilibrio uomo-tecnologia?

“La ricerca dell’equilibrio, in questo caso, è un esercizio dinamico, una ricerca costante, un po’ come quella che ci porta a raggiungere il peso forma. Non esiste una soluzione che possa andare bene a tutti: ciascuno cercherà di pesare rischi e opportunità, cederà dati e “parti di sé” nella misura in cui ritiene di poterlo fare e diventerà più possessivo quando penserà che il gioco non valga la candela. Si tratta di una sorta di “imperfezione accettata”. Una delle novità più positive introdotte dal GDPR, per esempio, sta proprio in questa ricerca costante della salvaguardia effettiva dei diritti delle persone da attuarsi tramite misure adeguate al rischio, in continua evoluzione e da sottoporre a costante valutazione”.

Si potrebbe intervenire, e in quale modo, sui poteri dei grandi player IT?

“Dopo aver preso coscienza del potere che i grandi player hanno sulle nostre vite (esercizio non sempre praticato), si dovrebbe discutere a livello nazionale, europeo e internazionale di possibili modifiche a Carte dei Diritti e Convenzioni, che possano regolare e limitare lo strapotere tecnologico di alcuni soggetti. Si dovrebbe, per esempio, introdurre nei trattati e nelle costituzioni il principio di Rule of Human Law (Stato di diritto umano), aggiungendo la parola “umano” quando si descrivono i requisiti dei membri dei parlamenti.

Il principio di “Rule of Human Law by Default” dovrebbe imporre la progettazione di sistemi informatici, a maggior ragione se intelligenti, nei quali l’ultima parola spetti sempre e solo a super-admin umani. Cosa che adesso non c’è e non ci mette al riparo dall’avere in futuro macchine a governarci, anche solo implicitamente. Già oggi, se ci si pensa, quando parliamo di tutela dei lavoratori, i sindacati sono costretti spesso ad avere a che fare, più che con datori di lavoro umani, con algoritmi, app, controlli automatizzati che dettano le regole sul lavoro. In pratica dobbiamo difendere gli umani dalle macchine”.

Quanta sensibilità e consapevolezza c’è rispetto alla follia artificiale che viviamo?

“Poca consapevolezza purtroppo. L’essere umano medio non dà troppo peso a quanto non percepisce chiaramente: ognuno pensa che, a prescindere dagli scenari che si disegnano, alla fin fine non succederà niente. Questo meccanismo è lo stesso che, nei passati decenni, ci ha portati a inquinare l’ambiente pensando che in fondo non ci sarebbero state gravi conseguenze, perché tanto “la natura” era vasta e poteva assorbire tutto. Non era così, e oggi i mari e le spiagge sono pieni di plastica: allora ce ne accorgiamo.

Del resto, i grandi player che utilizzano i nostri dati lo fanno in modo “silenzioso”, impercettibile. Questo fa parte del meccanismo di “circonvenzione digitale”, di cui parlo nel mio libro, utilizzato anche a fin di bene in alcuni casi. Ci rendiamo conto della gravità della situazione solo quando abbiamo un problema, subiamo un’ingiustizia e avvertiamo tutta la nostra impotenza. Basti pensare a come ci sentiamo quando un social network ci blocca l’account e cerchiamo di comunicare con una entità distante e a volte disinteressata”.

Come si possono sensibilizzare le persone sull’importanza dei propri dati?

“Mi piace pensare a un parallelismo: dai microbi non ci difendiamo abbastanza perché non li vediamo e non li percepiamo come pericolosi. Però, impariamo a lavarci le mani perché qualcuno ci spiega fin da piccoli che solo attraverso l’igiene possiamo difenderci da malattie anche gravi. Così potrebbe funzionare anche con il digitale: con una prevenzione fatta di corsi di “igiene digitale”.

GDPR: quali i vizi e quali le virtù?

“Partendo dalle virtù, ne apprezzo almeno un paio: da un lato, il concetto di “imperfezione accettata” al quale accennavo prima, che porta alla verifica continua delle misure tecniche e organizzative di protezione dei dati; dall’altro lato, le sanzioni elevate che si possono applicare e che responsabilizzano finalmente aziende ed enti, che prima non prendevano sul serio questi adempimenti.

Il difetto più grande, invece, sta nell’aver impostato il GDPR legandolo ancora a logiche preventive (le informative, i consensi) che hanno dimostrato negli anni di non funzionare. L’informativa dovrebbe essere resa non solo ex ante, quando nessuno legge, ma soprattutto a valle della raccolta: al momento della presentazione di un contenuto personalizzato, frutto di profilazione, dovrei comunicare al consumatore-utente come sono arrivato a suggerire quella cosa, usando quali dati, presi da chi. Un po’ come quando leggiamo gli ingredienti sull’etichetta della merendina che stiamo per mangiare. Questo metterebbe in guardia le persone e le renderebbe più coscienti circa i risultati concreti della cessione dei loro dati. Altro difetto importante è che il GDPR non è adatto all’IoT, perché non è una normativa in grado di responsabilizzare gli oggetti intelligenti e i “titolari del trattamento non umani”.

Se è vero che i dati rappresentano delle miniere d’oro, come si difenderà il consumatore dall’assalto al fortino?

“Sogno un mondo in cui esistano degli intermediari digitali (ma dal mio osservatorio so che ci sono già e stanno per invadere il mercato), che siano in grado di abilitare ogni utente a decidere veramente da chi farsi profilare o contattare per fini di marketing e, una volta decisa l’impostazione che a lui piace, a fissare il proprio prezzo per guadagnarci un po’.

Perché non mi pare corretto che, nel proficuo gioco del trattamento di dati considerati così preziosi, l’utente sia l’unico a non ricavarci qualcosa. Un vero diritto privacy di terza generazione sarà proprio il diritto a monetizzare i propri dati”.


Sonia Montegiove