il caso
L'IA davanti a un bivio: il Pentagono punta ad armi in grado di "autoattivarsi" (senza l'ok degli umani)
La disputa ruota attorno a Claude, il sofisticato chatbot sviluppato da Anthropic (che però ha detto no all'Amministrazione Trump). Il Ceo è di origini italiane
L'evoluzione dell'intelligenza artificiale ha raggiunto un punto critico, trasformandosi da puro strumento tecnologico a fulcro di una vera e propria battaglia etica e istituzionale. Al centro di questo scontro vi è la chiara volontà del Pentagono di ottenere un accesso senza limiti ai sistemi di IA più avanzati, spingendosi fino alla richiesta di sviluppare armi in grado di operare senza l'intervento umano e di implementare sistemi di controllo sugli stessi cittadini americani.
Questa dinamica ha generato una profonda e accesa frattura con Anthropic, una delle principali startup nel settore dell'intelligenza artificiale.
La disputa ruota attorno a Claude, il sofisticato chatbot sviluppato da Anthropic. Questo modello non rappresenta un semplice esperimento commerciale: attualmente, Claude è l'unico modello di intelligenza artificiale disponibile all'interno dei sistemi più riservati dell'esercito degli Stati Uniti. Le sue capacità lo rendono lo strumento con le migliori performance in assoluto nelle attività di intelligence più delicate. Proprio in virtù di questa superiorità, il Pentagono ha avanzato una richiesta categorica per ottenere un accesso illimitato alle potenzialità del modello.
Tuttavia, di fronte alla prospettiva di un utilizzo militare senza filtri, Anthropic ha opposto un fermo rifiuto, negando la revoca totale delle proprie misure di sicurezza. L'azienda si era inizialmente mostrata disposta a un compromesso, aprendo alla possibilità di allentare alcuni vincoli, ma ha tracciato due aree di salvaguardia invalicabili. La prima area che Anthropic ha inteso proteggere categoricamente riguarda il divieto di utilizzare la propria tecnologia per la sorveglianza di massa dei cittadini americani. La seconda riguarda lo sviluppo di armi autonome, definite esplicitamente come sistemi in grado di colpire senza alcun intervento da parte di un essere umano.
La fermezza di Anthropic su queste due linee rosse non è stata accettata dai vertici militari, i quali hanno preteso di più, innescando uno scontro aperto. La tensione ha raggiunto il suo apice nei giorni scorsi, quando il ministro della Difesa degli Stati Uniti, Pete Hegseth, ha deciso di imporre un vero e proprio ultimatum ad Anthropic, concedendo all'azienda tempo solo fino a venerdì per accettare o meno la sua proposta.
La risposta dell'amministratore delegato di Anthropic, Dario Amodei, è stata netta. Affrontando l'impasse venutasi a creare sull'uso militare di Claude, Amodei ha dichiarato che l'azienda "non può in buona coscienza" cedere alle richieste del Pentagono per un accesso senza restrizioni. Replicando direttamente all'ultimatum di Hegseth, il CEO ha ribadito con forza un concetto fondamentale: "Le minacce non cambiano la nostra posizione".
Questa vicenda si configura come un precedente storico di grande rilevanza. Il rifiuto di piegarsi allo sviluppo di armi capaci di uccidere autonomamente e alla sorveglianza di massa dimostra come l'industria tecnologica debba costantemente bilanciare le pressioni governative con la responsabilità etica, cercando di evitare che i sistemi di intelligenza artificiale vengano impiegati senza le necessarie garanzie per la sicurezza e i diritti umani.