Chiunque abbia avuto ruoli di responsabilità e si sia trovato a guidare, coordinare o semplicemente sovrintendere l’attività di altre persone riconoscerà che una delle caratteristiche più apprezzate in un collaboratore è l’autonomia. Qualsiasi tipo di compito si decida di affidare a un collaboratore, il sogno di ogni coordinatore, manager o leader è quello di non dover più pensare a quel compito fino a che non sia stato portato a compimento e ce ne venga data evidenza.
L’autonomia è una caratteristica apprezzata anche nelle macchine: per esempio ciascuno di noi, una volta impostato il programma della lavatrice, vuole dormire sonni tranquilli mentre la centrifuga si occupa di lavare, insaponare, sciacquare e magari anche asciugare i nostri panni. Ovviamente in questo caso l’autonomia è guidata e deterministica: in altre parole, siamo sicuri che la lavatrice eseguirà il suo compito senza deviare in nulla dal programma prestabilito, a meno che un guasto e un conseguente allagamento della casa non vengano a turbare i nostri suddetti sonni. Nulla di più naturale e auspicabile, parrebbe quindi a prima vista, rendere autonome anche le macchine più sofisticate, come quelle che oggi sono già disponibili e in grado di svolgere compiti sorprendentemente complessi.
Senonché, quando si viene all’autonomia degli automi (si perdoni il calembour), la musica pare cambiare e la tranquillità dei nostri sogni naufraga in incubi distopici e apocalittici.
Fin dai suoi albori la fantascienza ha evocato scenari di devastazione, omologazione e riduzione in schiavitù del genere umano legati al sopravvento delle macchine sull’uomo. Tant’è che uno degli autori più letti e amati del genere, Isaac Asimov, è passato alla storia anche per aver coniato, nei suoi racconti della serie Io, Robot, le tre leggi della robotica, la prima delle quali recita: “un robot non può recare danno a un essere umano né permettere che un essere umano riceva danno senza intervenire”.
L’etica delle macchine
Asimov è stato quindi uno dei primi a occuparsi di etica delle macchine: in effetti qualsiasi entità che sia suscettibile di un comportamento possiede, etimologicamente, un’etica. Ma l’etica asimoviana non è l’unica possibile: per esempio si potrebbe programmare una macchina per perseguire il bene dell’umanità, diciamo la lotta al terrorismo, e in questo caso essa potrebbe decidere di uccidere dei terroristi per ottemperare ai propri scopi (si pensi a HAL 9000 di 2001: Odissea nello spazio o alla rete Skynet di Terminator).
Oggi la tecnologia ha superato la fantascienza: armi, droni e automobili sono autonomi nel senso pieno della parola, cioè non soltanto portano a termine un compito prestabilito, ma riescono ad eseguire attività complesse che comportano decisioni, anche cruciali, come nel caso delle armi che possono decidere se sparare o meno su un obiettivo umano.
Un esempio sono le armi automatiche schierate dalla Corea del Sud al confine della DMZ (termine usurpato dagli informatici) che costituisce da 65 anni un “cuscinetto” fra le due Coree: la guerra di Corea non è mai terminata formalmente, e i due eserciti schierati ai due lati della DMZ possono sparare a vista su chiunque provi ad attraversare questo confine.
In particolare, il modello Samsung SGR-A1 costituisce una “sentinella automatica”, cioè un’arma capace di sparare a un bersaglio in modo autonomo, utilizzando il riconoscimento vocale per funzioni di sorveglianza armata. Questa macchina dovrebbe essere capace di discriminare un bersaglio umano da animali o altri oggetti in movimento ma, per esempio, non è in grado di distinguere un fuggiasco da un sabotatore. L’azienda che l’ha costruito, in collaborazione con una università sudcoreana, afferma che SGR-A1 non è in grado di prendere la decisione di sparare senza un intervento umano, sebbene le caratteristiche del sistema siano proprio quelle dell’autonomia decisionale rispetto agli obiettivi cui sparare.
Al di là del caso specifico, è tuttavia indubbio che le macchine oggi possono essere programmate per decidere di nuocere agli esseri umani (o ad animali o ad altre macchine), e quindi violare espressamente la prima legge della robotica. Ma oggi, a occuparsi di queste questioni, non siano più soltanto gli scrittori di fantascienza ma anche i filosofi.
Filosofia e autonomi
Il ruolo della filosofia nelle scienze cognitive contemporanee è indiscutibile, e nel caso delle macchine autonome, e in particolare delle armi autonome, consente di analizzare i problemi in maniera oggettiva e generale. Per esempio, i filosofi hanno individuato due possibili “algoritmi” comportamentali per una macchina autonoma in caso di dilemma etico, come per esempio un’automobile che debba scegliere se investire due pedoni o mettere a repentaglio l’incolumità del passeggero sterzando bruscamente a destra: l’approccio “consequenzialista” e l’approccio “deontologico”.
Nel primo caso la macchina è programmata per decidere in modo neutrale rispetto al singolo individuo, operando in modo razionale per minimizzare i danni e quindi scegliendo di non investire un gruppo di persone ma mettendo in pericolo il singolo passeggero.
L’approccio deontologico non è invece neutrale rispetto al singolo individuo, e gli riconosce il diritto di non comportarsi in modo “eroico”, dunque, per esempio, di non sacrificarsi per gli altri. In generale, la teoria deontologica ritiene lesivo della dignità umana affidare alle macchine qualsiasi decisione che possa danneggiare un essere umano, sostanzialmente in linea con la prima legge di Asimov.
Se le armi automatiche sono escluse da un approccio deontologico, è tuttavia un fatto che si continuino a costruire e che saranno sempre più sofisticate e in grado di decidere dell’incolumità e del destino degli esseri umani.
In ogni caso, l’ultimo esule nordcoreano che è riuscito a passare la DMZ e rifugiarsi in Corea del Sud è stato gravemente ferito dalle guardie nordcoreane e non dalle armi automatiche: per il momento dobbiamo continuare a temere non tanto l’intelligenza delle macchine ma la stupidità dell’Uomo.
Paolo Caressa