Sguardi e voci dalla stiva (5)


 

Terribili mostri entro pochi anni potrebbero aggirarsi su tutto il nostro già massacrato pianeta. Sono i robot- killer, non più interamente comandati da un essere umano, e quindi capaci di agire in modo del tutto autonomo sulla base delle informazioni ricevute. Si chiamano, appunto, “armi letali autonome”.

Cinque sono principalmente gli Stati che sono impegnati alla costruzione e alla sperimentazione di tali robot, i quali possono individuare un obiettivo e ucciderlo senza determinante controllo umano: Stati Uniti, Cina, Israele, Corea del Sud, Russia e Regno Unito. Dopo la polvere da sparo e le armi nucleari, i robot-killer rappresenterebbero la terza rivoluzione nell’impiego bellico.

L’intelligenza artificiale potrebbe pertanto essere impiegata a produrre tali terribili armi che, se messe sciaguratamente in mano a pirati, a terroristi , a governi non rispettosi dei diritti umani, costituirebbero una minaccia fatale per la sicurezza globale. Ma in tutti i casi, i sistemi di armi completamente automatizzate non possederebbero lo spirito critico e il senso etico necessari per assumere decisioni e responsabilità. Si comporterebbero appunto come mostri, imprevedibili e incensurabili. La fantascienza che si realizza in terra.

Oltre che il mondo dei pacifisti, si sono sollevati, chiedendo a governi e a parlamenti di mettere al bando i robot-killer, molti scienziati nei campi dell’intelligenza artificiale, della robotica, dell’informatica e delle discipline collegate. Ciò che preoccupa non è certamente il crescente livello di intelligenza artificiale raggiunto; è invece il pericoloso grado di autonomia progressivamente concesso a delle macchine. A cose senza anima e senza cuore.

Si Ipotizza che già il 2030 sarebbe l’anno della “guerra degli automi”: uno scenario piuttosto ravvicinato, poiché Russia, Cina e Usa si trovano già in uno stato avanzato. Il veloce sviluppo delle tecnologie informatiche e dell’elettronica, applicate nel settore militare, appare irresistibile.

I sistemi robotici saranno sempre più automatici, cammineranno da soli, combatteranno, andranno persino in prima linea. Come diavoli dell’Inferno dantesco, a supporto dei robot di terra, sciami di droni voleranno e bombarderanno senza pietà e senza colpa.

Intanto gli arsenali, mentre non si svuotano delle armi nucleari, si stanno riempiendo di robot per ora semiautomatici. Fra metà novembre e metà dicembre dello scorso anno l’esercito britannico ha sperimentato un combattimento impiegando insieme sistemi robotici aerei e terrestri. I russi hanno testato in Siria un ben armato robot da sei tonnellate.

Come sempre è avvenuto, la ricerca militare fruisce dei maggiori investimenti e porta alla produzione, ma anche alla venditaeall’uso delle armi più tecnologicamente innovative. L’industria bellica compie enormi affari; ma provoca destabilizzazioni, conflitti, tipici della “ terza guerra mondiale a pezzetti” , secondo la deplorante affermazione di papa Francesco.

E intanto incombe la follia. Francesco Palmas, analista militare indipendente, ha riempito un’intera pagina dell’Avvenire contro i robot-killer. Ne ho tratto molte informazioni. Il servizio si conclude con riferimento all’acronimo “ Saia”, che sta per “ Sistemi d’arma letali autonomi “. Letale vuol dire che provoca la morte.

Ad oggi tutti i robot sono teleguidati dall’uomo. Ma se, come si teme, diventeranno via via sempre più autonomi, avranno piena “licenza di uccidere”. Di uccidere l’uomo. Di uccidere uomini e donne, vecchi e bambini. Senza tremare e senza rimorsi.

Egidio Lucchini



LE TRE LEGGI DELLA ROBOTICA

scritte dal russo-statunitense Isaac Asimov (1920-1992)

  1. Un robot non può recare danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
  3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.

Share This