Vincenzo Vespri, Professore di Analisi matematica dell’Università di Firenze
Nel cuore di una delle più rilevanti controversie tecnologiche si è consumato uno scontro destinato a segnare un prima e un dopo nel rapporto tra intelligenza artificiale e potere militare. Due tra le più influenti aziende di AI al mondo, Anthropic e OpenAI, si sono trovate a negoziare con il Pentagono statunitense le modalità e i limiti con cui le loro tecnologie avrebbero potuto essere impiegate in ambito di difesa e sicurezza nazionale. La decisione di Anthropic di rifiutare la richiesta del Dipartimento della Difesa di fornire una versione della propria AI priva di vincoli etici ha acceso un dibattito profondo sulla responsabilità morale delle tecnologie autonome. OpenAI, poche ore dopo, ha invece siglato un accordo con lo stesso Pentagono, assumendo una posizione differente.
Il nodo della controversia è semplice nella formulazione ma enorme nelle implicazioni: il Pentagono avrebbe voluto che Anthropic rimuovesse dai modelli Claude tutte le limitazioni che impediscono l’uso dell’AI per la sorveglianza di massa sui cittadini e per la gestione di sistemi d’arma autonomi privi di supervisione umana. Anthropic ha rifiutato, ribadendo che non avrebbe consentito utilizzi incompatibili con i valori democratici e con la tutela delle libertà individuali, anche a costo di rinunciare a un contratto da 200 milioni di dollari. Il rifiuto ha avuto conseguenze immediate: il presidente Trump ha ordinato alle agenzie federali di interrompere l’uso delle tecnologie Anthropic, definendo l’azienda un “rischio per la catena di approvvigionamento” qualora non avesse adeguato i propri principi etici alle esigenze del governo. OpenAI, al contrario, ha formalizzato un accordo per fornire le proprie tecnologie in contesti militari classificati, sostenendo che nel contratto sono stati inseriti principi di sicurezza analoghi a quelli richiesti da Anthropic, come il divieto di sorveglianza domestica e la necessità di una responsabilità umana nell’uso della forza.
Questa vicenda richiama – e in parte contraddice – le tre leggi della robotica formulate da Isaac Asimov. La prima legge stabilisce che “un robot non può recare danno a un essere umano né, per omissione, permettere che un essere umano subisca danno”. È probabilmente la più celebre formulazione di un vincolo etico inviolabile per sistemi intelligenti, concepita non tanto come norma tecnico-giuridica quanto come monito filosofico contro la delega morale a macchine sempre più autonome. Questa visione profetica di Asimov sembra essersi attualmente attenuata in un pragmatismo istituzionale: mentre Anthropic cerca di preservare un chiaro principio di responsabilità umana nell’uso della propria AI, il Pentagono e una parte dell’industria preferiscono accordi che lascino ampi margini di interpretazione alle autorità militari, facendo affidamento sulle “leggi vigenti” più che su solide salvaguardie tecniche incorporate nei sistemi.
Una dinamica analoga emerge nell’AI Act europeo. Il regolamento, articolato in oltre 400 pagine, che, nel tentativo di disciplinare l’uso dell’intelligenza artificiale sul territorio dell’Unione, da un lato impone restrizioni molto severe su applicazioni apparentemente innocue – come gli assistenti virtuali destinati ad aiutare l’apprendimento dei minorenni a scuola– dall’altro lascia margini significativi in ambiti sensibili, compreso quello militare, dove il rischio potenziale è certamente incomparabilmente più elevato. Si è quindi aperta la questione se tali restrizioni siano davvero adeguate o se stiano soltanto soffocando l’innovazione utile, riducendo la competitività dell’industria digitale europea rispetto ad altri Paesi e permettendo, al tempo stesso, una disciplina meno incisiva nei confronti degli impieghi militari controversi. La contrapposizione tra uso civile e uso militare dell’AI mette in luce il bivio storico davanti al quale si trova l’umanità. Senza regole etiche condivise a livello internazionale, l’AI potrebbe trasformarsi in uno strumento di controllo e dominio degno delle distopie della fantascienza: da Ultron, la coscienza artificiale fuori controllo, a Matrix, con gli esseri umani ridotti a risorse energetiche per le macchine, fino a Terminator, simbolo di un’automazione bellica priva di coscienza morale. A questi si aggiungono universi inquietanti come quelli di Black Mirror o di Neuromancer, che esplorano il medesimo timore: il momento in cui il potere delle macchine supera la capacità degli uomini di governarlo. Per evitare questo scenario non bastano dichiarazioni di principio o clausole contrattuali ambigue. È necessaria un’architettura normativa internazionale solida, capace di vincolare in modo chiaro l’uso dell’AI nei contesti più pericolosi – in primo luogo quello militare – senza però paralizzare l’innovazione civile, educativa e sociale.
La decisione di Anthropic non rappresenta soltanto una scelta aziendale, ma un segnale politico e culturale. Ricorda alla comunità globale che l’etica non è un optional negoziabile e che le tecnologie più potenti richiedono limiti espliciti, condivisi e resistenti alle pressioni del mercato e degli Stati. Allo stesso tempo, impone una riflessione sulla necessità di rivedere restrizioni eccessive che rischiano di frenare lo sviluppo democratico dell’AI. L’umanità si trova oggi davanti a una scelta cruciale: costruire strumenti che amplifichino la dignità e la libertà dell’uomo, oppure consegnare il proprio destino a logiche di potere che potrebbero sfuggire al controllo.
