La giudice che ha fermato il Pentagono: non si può punire per un disaccordo | Culture
Top

La giudice che ha fermato il Pentagono: non si può punire per un disaccordo

Rita Lin blocca la designazione di Anthropic, la casa madre di Claude, come "rischio per la catena di approvvigionamento". È il primo vero caso costituzionale sull'IA in guerra. L'Europa intanto dipende per l'85% dal cloud americano e non ha un solo modello di frontiera proprio

La giudice che ha fermato il Pentagono: non si può punire per un disaccordo
Antropic (Fonte: Corriere.it)
Preroll

redazione Modifica articolo

13 Aprile 2026 - 10.08


ATF

di Lorenzo Lazzeri

Il 26 marzo 2026 la giudice federale Rita F. Lin, tribunale distrettuale della California settentrionale, ha emesso un’ingiunzione preliminare di 43 pagine contro il Dipartimento della Guerra degli Stati Uniti. Il giudice, con questo documento ha bloccato, sia la designazione di Anthropic, benefit corporation statunitense di intelligenza artificiale, come rischio per la catena di approvvigionamento militare, sia la direttiva con cui Donald Trump aveva ordinato a tutte le agenzie federali di abbandonare Claude, il modello di IA dell’azienda californiana. La sentenza, che è stata poi sospesa per sette giorni al fine di consentire un eventuale appello, ha accolto le tesi di Anthropic che ha convinto la corte su tre punti principali. C’è la questione del Primo Emendamento, quella per il diritto a un giusto processo e poi resta la questione, molto concreta, dell’arbitrarietà amministrativa (il diritto a dissentire). Lin ha scritto che nulla nello statuto di riferimento giustifica quella che ha definito una nozione “orwelliana“, ovvero etichettare un’azienda americana come potenziale sabotatore per aver espresso disaccordo col governo.

La rottura risale al febbraio 2026. Il Pentagono voleva usare Claude per “qualsiasi scopo legale”, senza limiti. Anthropic ha posto due condizioni non negoziabili: nessun impiego in armi letali autonome e nessuna sorveglianza di massa dei cittadini americani. Il 24 febbraio il Segretario alla Difesa Pete Hegseth ha consegnato un ultimatum di 72 ore al CEO Dario Amodei. Amodei ha rifiutato. Il 27 febbraio Trump ha pubblicato su Truth Social l’ordine di tagliare ogni rapporto con Anthropic e Hegseth ha applicato un’etichetta di rischio fino ad allora riservata a entità legate ad avversari stranieri come Huawei. Il 9 marzo Anthropic ha depositato due cause, una in California e una presso la corte d’appello di Washington.

L’aspetto militare è la questione più urgente e calda. Secondo il Wall Street Journal, Claude era già integrato nel sistema Maven di Palantir e veniva utilizzato nelle operazioni in corso, compreso il raid che ha portato all’arresto di Nicolás Maduro in Venezuela e le valutazioni di intelligence nel conflitto con l’Iran. Il Pentagono ha bandito la tecnologia di un fornitore da cui i suoi stessi comandanti dipendevano per la conduzione delle operazioni. Il capo della tecnologia del Dipartimento della Guerra, Emil Michael, ha dichiarato a CNBC che non si poteva accettare il rischio che le preferenze politiche di un’azienda privata inquinassero la catena di approvvigionamento dei combattenti.

La sentenza Lin non obbliga il governo a continuare ad acquistare servizi da Anthropic, ma impedisce di usare il potere federale per devastarne il mercato. Microsoft, Google, ricercatori di OpenAI e DeepMind, ex vertici dell’intelligence, un gruppo di teologi cattolici e l’ACLU (American Civil Liberties Union) hanno depositato memorie a sostegno dell’azienda. I download di Claude sono balzati al primo posto nell’App Store americano il giorno dopo il bando.

Il caso parla anche all’Europa, che considera questa lotta di potere da una posizione di dipendenza strutturale. I fornitori di cloud statunitensi controllano l’85% del mercato europeo. Il Parlamento europeo ha votato a gennaio 2026 un rapporto sulla sovranità tecnologica che stima la dipendenza dell’UE da prodotti digitali extra-europei oltre l’80%, e un eurodeputato relatore ha parlato apertamente del rischio di diventare una “colonia digitale”. L’AI Act esonera il settore della difesa dalle proprie regole, creando un vuoto normativo in cui i sistemi militari basati su IA americana operano senza alcun quadro di governance europeo.

Il progetto EURO-3C, lanciato al Mobile World Congress di Barcellona con oltre 70 organizzazioni, tenta di costruire un’infrastruttura cloud e IA federata, ma gli analisti di Gartner stimano che servano almeno dieci anni per ottenere alternative sovrane credibili. Nel frattempo, l’Europa compra metà del proprio materiale bellico da aziende americane e non dispone di un modello di IA di frontiera paragonabile a Claude, Gemini o GPT. Se Washington può usare una designazione di rischio per mettere in ginocchio il proprio fornitore più avanzato, può farlo anche con qualunque alleato che dipenda dalla stessa tecnologia.

Native

Articoli correlati