Nel 2022 il Dipartimento della Difesa statunitense aveva aggiornato la posizione militare USA a riguardo delle armi nucleari dichiarando esplicitamente che l’essere umano debba rimanere “in the loop”, ovvero che non sia possibile delegare le decisioni relative agli ordigni atomici alle intelligenze artificiali. Questa posizione non è stata evidentemente sufficiente a risolvere i dubbi dei legislatori a stelle e strisce, i quali hanno sentito la necessità di lavorare a una legge omologa e affine, a tratti ridondante, che dimostra sopra a ogni cosa che le persone al potere hanno ancora difficoltà a comprendere le vere problematiche che si legano alla diffusione delle intelligenze artificiali.
Mercoledì 26 aprile 2023 è stata introdotta la normativa nota come Block Nuclear Launch by Autonomous Artificial Intelligence Act, la quale “proibisce l’uso dei fondi federali per lanciare un’arma nucleare utilizzando sistemi d’arma autonomo che non sono soggetti a un controllo umano significativo”. Si tratta di un codice che ha ricevuto supporto bipartisan e bilaterale, che a suo modo risponde alle paura condivisa che nel futuro macchine prive di consapevolezza ed empatia possano scatenare con le loro azioni un evento potenzialmente cataclismatico.
I precedenti storici d’altronde non mancano. Nel 1983, un innovativo sistema radar russo aveva notificato a un ufficetto nascosto nelle viscere di Mosca che una grandine di missili nucleari statunitensi stesse per abbattersi sulla nazione. La storia ci ha dimostrato che l’episodio non fosse altro che un falso allarme, così come un falso allarme fu anche quello che il 28 ottobre del 1962 portò un rivelatore statunitense a segnalare un sedicente attacco atomico da parte di Cuba. Le macchine non sono mai perfette, tant’è che i leader tecnologici odierni sono i primi a sbandierare le insidie che si celano dietro a un mondo che un domani potrebbe poggiare su delle IA capaci di assumere decisioni critiche.
In linea di massima, dunque, tutte le parti politiche si sono dimostrate d’accordo nell’imporre le restrizioni nucleari a uno strumento tanto pericoloso, tuttavia questa posizione illustra con una certa chiarezza che l’attenzione dell’Amministrazione USA finisce ancora oggi con il concentrarsi su scenari ipotetici e vagamente fantascientifici, piuttosto che affrontare tematiche concrete e più vicine all’attualità. I timori che i robot possano presto soppiantare l’essere umano sono perlopiù considerati iperbolici dagli esperti del settore, o perlomeno da quegli esperti che non sono direttamente coinvolti nel commercializzare applicazioni meno controverse dell’ambiguo strumento.
Il mondo finanziario è in piena frenesia per le potenzialità offerte dalle intelligenze artificiali generative e nel frattempo i leader del settore accompagnano l’attenzione dei legislatori verso ipotetiche problematiche future nella speranza che nessuno si concentri attivamente sulle criticità già ben presenti nei sistemi a disposizione del pubblico. L’Unione Europea cerca nel frattempo un confronto più sfaccettato attraverso la codifica del cosiddetto AI Act, ma anche in questo frangente non è difficile notare che le Big Tech stiano sollecitando i legislatori a non essere troppo severi nell’esprimere un giudizio.
È ovviamente un bene che le Amministrazioni si muovano per impedire che un’intelligenza artificiale possa reggere i controlli di un missile atomico – ancora meglio sarebbe se le nazioni dell’emisfero nord firmassero il Trattato per la proibizione delle armi nucleari -, ma non bisogna dimenticare che bastano ammennicoli apparentemente poco dannosi quali i social media per fomentare campagne genocide che hanno mietuto decine di migliaia di vite. Le IA generative sono una risorsa importante, ma sono anche un rischio decisamente più concreto e palpabile di quello rappresentato dalla genesi di una macchina assassina pronta a sterminare l’umanità: i legislatori dovrebbero ricordarselo, così come dovrebbero ricordarselo gli elettori a cui i politici rispondono.
[di Walter Ferri]