
Chi ha avuto la fatalità di vivere negli anni ‘80 ricorderà il film di Paul Veroheven “Robocop”, robot d’assalto in forze alla polizia di Detroit.
E chi ha avuto la fortuna di leggere i racconti di Isaac Asimov sui robot positronici ricorderà le tre leggi della robotica. La prima e più importante, a cui anche le due leggi successive non possono contravvenire, recita così: “Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno”.
Per quanto potrà sembrare strano queste leggi fantascientifiche e utopistiche hanno ancora oggi un grande peso nella discussione scientifica che ruota intorno all’intelligenza artificiale e alla robotica.
La neutralità della scienza è una favola che non fa nemmeno più addormentare i bambini e il dibattito riesploso in questi giorni intorno ai “Robot Killer” ne è solo l’ennesima dimostrazione.
The Guardian, celebre quotidiano britannico, ha pubblicato nei giorni scorsi una lettera aperta firmata da una cinquantina di ricercatori che annunciano il boicottaggio del Korea Advanced Institute of Science and Technology. La prestigiosa università pubblica sudcoreana sta infatti sviluppando insieme alla Hanwha Systems, principale azienda di armamenti del paese, il progetto “Centro di Convergenza della Difesa Nazionale e Intelligenza Artificiale” con l’obiettivo di sviluppare tecnologie di intelligenze artificiali per attrezzature militari autonome. Trattasi di quelli che vengono volgarmente definiti “Robot Killer”, veri e propri strumenti da guerra che non necessiterebbero più del controllo umano.
Niente di paragonabile neppure a ciò che di terrificante esiste già oggi sul mercato della robotica applicata alla guerra e che, seppur dotato di grande autonomia, prevede ancora che sia un essere umano a impartire il comando di uccidere. Come i famigerati droni o il robot sentinella progettato da Samsung ed utilizzato nella zona demilitarizzata di confine fra le due Coree.
Saremmo di fatto davanti alla terza rivoluzione nella tecnologia militare dopo la polvere da sparo e le armi nucleari. Due scoperte che hanno rivoluzionato in negativo la vita del nostro pianeta. Tutto questo avverrebbe con buona pace della prima legge della robotica di Asimov che potrebbe essere riformulata più o meno così: “Un robot progettato per uccidere un essere umano”.
L’appello al boicottaggio del Korea Advanced Institute of Science and Technology ha indubbiamente il merito di riporre nuovamente al centro del dibattito il problema dell’eticità di simili creature. Un dibattito ormai vivace negli ultimi anni e che ha visto la presa di parola contraria dei più autorevoli scienziati che si occupano di robotica e intelligenza artificiale.
Nella chiusura di un appello del 2017 rivolto all’Onu si legge: “Una volta sviluppate, i conflitti armati saranno combattuti su una scala più grande che mai, e in tempi più rapidi di quanto gli umani possano comprendere. Possono essere armi del terrore, armi che despoti e terroristi utilizzeranno contro popolazioni innocenti, armi che possono essere riprogrammate per agire nel modo desiderato”.
Per rendere ancora più chiara l’entità del problema Stuart Russel, uno dei firmatari dell’appello, ha prodotto un video esplicativo di cosa già oggi si potrebbe fare con queste tecnologie.
Possiamo forse sottovalutare l’uso che ne verrebbe fatto dagli Stati che hanno fra i loro fondamenti di nascita il monopolio dell’uso legittimo della forza?
Sarebbe un errore imperdonabile poiché quel fondamento ha giustificato internamente la repressione delle istanze di cambiamento ed esternamente la guerra. Forse, memori dei conflitti militari passati e presenti, ci vorrebbe il coraggio di affermare con forza che il problema non è tanto quello dell’ipotetico uso distorto, ma quello dell’uso che innanzitutto ne potrebbero fare gli Stati. Questa tecnologia avrebbe il grande pregio di eliminare uno dei problemi maggiori che hanno sempre dovuto affrontare i governanti votati alla guerra, quello del ritorno in patria delle bare avvolte nelle rispettive bandiere nazionali. Uno scenario certamente interessante per chi ha sempre fatto la guerra a casa degli altri. Molto meno per le popolazioni civili, “effetto collaterale” da sempre sacrificato sull’altare della guerra con il consueto tributo di sangue e morte. Sbaglia chi pensa che grazie ai “Robot Killer” le prossime guerre saranno combattute solamente da eserciti di Robot come in alcuni celebri videogame. Gli Stati che avranno in dotazione “Robot Killer” li useranno per uccidere persone. D’altronde a questo sono sempre servite le armi.
Il problema etico non è quindi una questione da appaltare agli scienziati.
Non ha a che fare con l’intelligenza artificiale e la robotica. Gli sviluppi di queste tecnologie potrebbero arrecare dei benefici enormi al genere umano. Le macchine, in un futuro non troppo lontano, faranno molti dei lavori che oggi fanno gli uomini. E gli uomini potranno lavorare molto meno o addirittura non lavorare, potendosi così finalmente dedicare alle proprie passioni. A patto che la ricchezza prodotta dai robot venga socialmente distribuita sotto forma di un reddito di base, di autodeterminazione o di esistenza. Un sicuro terreno di conflittualità sociale degli anni a venire.
Il problema non è pertanto l’intelligenza artificiale e la robotica, ma è ancora una volta la guerra. Nessuna tecnologia applicata alla guerra può vantare una sua eticità. Se c’è pertanto una battaglia che vale la pena di fare è quella che vieti totalmente l’utilizzo della robotica e dell’intelligenza artificiale a fini militari. Per tornare a porre al centro del dibattito politico la necessità del disarmo e l’utopia necessaria della costruzione di un mondo in cui la guerra sia messa al bando.
Per lavorare alla costruzione di rapporti di forza che sappiano mettere in discussione la società in cui viviamo. Una società dove la guerra non è più da svariato tempo “la prosecuzione della politica con altri mezzi” per usare la celebre definizione di Carl von Clausewitz, ma fondamento stesso della politica, fondamento stesso del potere.
Autore
Camillo Centofuochi