Dopo l'accordo con il Pentagono

"Autonomia letale senza autorizzazione umana", la responsabile della robotica lascia OpenAI

A febbraio la rottura tra il dipartimento della Difesa e Anthropic che si era detta preoccupata sul suo impiego in guerra (che adesso è usata in Iran)

09 Mar 2026 - 12:12
openai chatgpt ipo © Tgcom24

openai chatgpt ipo © Tgcom24

"La sorveglianza degli americani senza controllo giudiziario e l'autonomia letale senza autorizzazione umana meritavano più riflessione di quanta ne abbiano avuta". Così Caitlin Kalinowski, la responsabile del dipartimento di robotica di OpenAI (la società di ChatGpt), ha annunciato le sue dimissioni, rese pubbliche con un Tweet su X. Il riferimento della ricercatrice riguarda la decisione di OpenAi di collaborare con il Pentagono per la fornitura di tecnologie da utilizzare per la sicurezza nazionale. E quindi anche in guerra.

Non è che l'ultimo tassello del mosaico dei rapporti - altalenanti e confusi - tra il Pentagono e l'Intelligenza artificiale. Il dipartimento per la Difesa degli Usa vuole utilizzarli con ampia libertà ma dentro le società AI i mal di pancia sono all'ordine del giorno. A febbraio era arrivata la rottura con Anthropic dopo le richieste di maggiore cautela richieste nell'utilizzo delle proprie tecnologie in guerra. Che adesso sarebbero impiegate anche in Iran. 

Il dipartimento Usa: "Anthropic un rischio per la sicurezza nazionale"

 Anthropic aveva siglato contatti da centinaia di milioni di dollari con il Pentagono. I suoi algoritmi vennero utilizzati anche per l'arresto del presidente Venezuelano Nicolas Maduro. La società di Claude aveva però chiesto cautele e garanzie sull'impiego delle tecnologie, richiesta che non è piaciuta alla Casa Bianca, in primis a Donald Trump che a fine febbraio ha fatto saltare il tavolo delle trattative con l’azienda. Non solo.

Antrophic è stata anche bollata dal governo come "supply-chain risk", cioè come un fornitore che costituisce un rischio per la sicurezza nazionale. Contromisura considerata dall'altra parte dell'Atlantico sproporzionata e infondata, dettata però dalla volontà del dipartimento di aver a che fare con un fornitore più accomodante. E infatti il Ceo Dario Amodei si è detto pronto a portare la questione in tribunale. Intanto però gli algoritmi sviluppati da Antrophic sarebbero utilizzati - spiega il Wall Strett Journal - sul campo di battaglia, in Iran per velocizzare i processi decisionali e ottimizzare le strategie di battaglia. 

L'accordo con OpenAI e le appe di Chat Gpt disinstallate

 Il 28 febbraio Open AI ha stretto l'accordo con il Pentagono. Sam Altman, il CEO di OpenAI, ha detto che gli algoritmi "non devono essere utilizzati intenzionalmente per la sorveglianza interna di cittadini e residenti statunitensi" ma le rassicurazioni non hanno placato i malumori. Anche perché, come spiegano i media Usa, non ci sono vere e proprie garanzie da parte del dipartimento e le limitazioni nell'oggetto dell'intesa sono piuttosto generiche. Il New York Times aveva inoltre sottolineato che, nel caso in cui il Pentagono utilizzasse le tecnologie per la sorveglianza di massa, OpenAI potrebbe solo recedere il contratto. 

E così sono arrivate le dimissioni della manager della robotica: "Si trattava di principi, non di persone", ha scritto nel suo tweet di addio. Tra l'altro non è l'unica tegola che si abbatte su Open AI che, dopo l'accordo con il Pentagono, è alle prese con una disintsallazione in massa delle app di Chat Gpt. Alla quale, per la legge dei vasi comunicanti, è corrisposto un aumento delle installazioni di Claude di Anthropic che ha registrato un +57% proprio il giorno in cui OpenAI ha stretto la mano al governo Usa. Un exploit a cui la società non era forse abituata, visto che è andata in tilt. Proprio quel giorno

Ti potrebbe interessare

videovideo