Intelligenza artificiale e Pentagono, i sette giorni che hanno cambiato tutto

L'ai è diventata una questione di potere

La decisione del governo degli Stati Uniti di interrompere l’utilizzo dei software di Anthropic, in seguito al mancato accordo sulle limitazioni etiche per l’impiego militare, ha innescato una rapida e complessa riorganizzazione nel settore dell’intelligenza artificiale. Mentre OpenAI subentra siglando una nuova intesa con il Pentagono per l’accesso alle reti classificate, sollevando perplessità tra gli esperti sulle reali garanzie contro la sorveglianza di massa e l’uso di armi autonome, il mercato registra la dura reazione dei consumatori e movimenti finanziari di vasta portata, tra cui spicca il maxi-investimento di Amazon. Parallelamente, le scelte operative di società tecnologiche come Block evidenziano le prime, concrete conseguenze dell’automazione sui livelli occupazionali, delineando un intreccio sempre più stretto tra tecnologia, etica e dinamiche del lavoro.

Seguici su WhatsApp

Lo scontro tra Anthropic e il governo degli Stati Uniti

Può un’azienda tecnologica dire no al governo più potente del mondo? E che cosa succede quando lo fa? La risposta è arrivata venerdì scorso, nel giro di poche ore, e ha scosso l’intero settore dell’intelligenza artificiale con una rapidità che nessuno si aspettava. La vicenda riguarda Anthropic, l’azienda californiana che sviluppa Claude, uno dei sistemi di intelligenza artificiale più avanzati al mondo. Da mesi Anthropic stava negoziando con il Pentagono i termini di un contratto dal valore di circa 200 milioni di dollari per l’utilizzo del suo software nelle reti classificate dell’esercito americano. Anthropic era stata la prima azienda del settore ad accedere a quelle reti. Ma aveva posto due condizioni precise: il suo sistema non avrebbe potuto essere impiegato per la sorveglianza di massa dei cittadini americani, né per il funzionamento di armi autonome, cioè in grado di colpire senza che un essere umano prenda la decisione finale.

Il Pentagono, dal canto suo, pretendeva che l’intelligenza artificiale potesse essere usata per qualunque scopo lecito, senza eccezioni contrattuali. Quando le trattative si sono arenate, il presidente Donald Trump ha ordinato a tutte le agenzie federali di cessare immediatamente l’utilizzo della tecnologia di Anthropic. In un post su Truth Social, il suo social network, Trump ha attaccato l’azienda con toni aspri. Il segretario alla Difesa Pete Hegseth ha poi aggiunto un provvedimento ancora più pesante: l’inserimento di Anthropic nella lista dei “supply chain risk”, una assegnazione che fino a venerdì era stata riservata esclusivamente ad aziende legate a governi stranieri ostili, come quelli cinese e russo. In pratica, qualunque azienda che lavori con il Dipartimento della Difesa dovrà dimostrare che le proprie attività non coinvolgono i prodotti di Anthropic.

Dal canto suo Anthropic ha reagito dicendo di aver «tentato in buona fede» di raggiungere un accordo e ha annunciato che impugnerà la designazione in tribunale, ritenendola «giuridicamente infondata» e un «precedente pericoloso per qualunque azienda americana che abbia affari con il governo». In un comunicato, l’azienda ha spiegato le ragioni del suo rifiuto: da un lato, la convinzione che i modelli attuali di intelligenza artificiale non siano abbastanza affidabili per essere utilizzati in armi completamente autonome, cosa che metterebbe in pericolo sia i soldati americani sia i civili; dall’altro, la certezza che la sorveglianza di massa dei cittadini americani costituisca una violazione dei diritti fondamentali.

A poche ore dal bando, è entrata in scena OpenAI, la società che sviluppa ChatGPT: il suo amministratore delegato Sam Altman ha annunciato di aver raggiunto un accordo con il Pentagono per installare i propri modelli nelle reti classificate, affermando che il contratto include le stesse limitazioni richieste da Anthropic. In un post sul social network X, Altman ha scritto che i due principi fondamentali della sua azienda sono «il divieto della sorveglianza di massa interna e la responsabilità umana nell’uso della forza, comprese le armi autonome». Ma in una sessione di domande e risposte sempre su X, lo stesso Altman ha ammesso che l’accordo è stato «sicuramente affrettato» e che «l’immagine che ne esce non è buona», definendo la messa al bando di Anthropic «una pessima decisione».

I dubbi sui termini dell’intesa con OpenAI

Resta aperta una domanda: se le condizioni sono davvero le stesse, perché il Pentagono ha accettato da OpenAI ciò che ha rifiutato da Anthropic? Diversi osservatori ed esperti legali hanno sollevato dubbi sulla reale equivalenza dei due accordi. OpenAI ha pubblicato nel fine settimana un documento in cui elenca tre aree precluse ai propri modelli: la sorveglianza di massa, le armi autonome e le «high-stakes automated decisions» (decisioni automatizzate ad alto rischio). Tuttavia, alcuni analisti hanno notato che l’ambito contrattuale cui si fa riferimento rinvia a norme come l’Executive Order 12333, che in passato ha consentito la raccolta di dati sui cittadini americani attraverso intercettazioni effettuate fuori dai confini nazionali. La differenza tra garanzie contrattuali vincolanti e impegni generici è piuttosto ambigua e potrebbe nascondere qualche “sopresa”.

La mobilitazione degli utenti sui social network

Il contraccolpo sui consumatori, ovviamente, è stato immediato. Claude, l’applicazione di Anthropic, è schizzata al primo posto tra le app gratuite più scaricate sull’App Store di Apple negli Stati Uniti, superando per la prima volta sia ChatGPT sia Gemini di Google. Dati alla mano, il 28 febbraio Anthropic ha registrato oltre 500mila download in un solo giorno, il numero più alto della sua storia. Sui social network, in particolare su X e su Reddit, si è diffuso rapidamente un movimento chiamato “Cancel ChatGPT” (cancella ChatGPT), con migliaia di utenti che hanno documentato pubblicamente la disdetta del proprio abbonamento a OpenAI e il passaggio a Claude. Persino la popstar Katy Perry ha condiviso su X uno screenshot della pagina di abbonamento di Claude, con un cuore rosso accanto al piano da 20 dollari al mese.

I nuovi equilibri finanziari e il ruolo di Amazon

Oltre la diatriba tra Anthropic e lo Zio Sam, ci sono state altre notizie che hanno scosso il modo dell’intelligenza artificiale. Sempre venerdì, OpenAI ha annunciato una raccolta di capitali da 110 miliardi di dollari, la più grande mai realizzata da un’azienda privata, che porta la sua valutazione a 730 miliardi di dollari. A guidare l’investimento è stata Amazon con 50 miliardi, seguita da Nvidia e SoftBank con 30 miliardi ciascuna. L’ingresso di Amazon, che in passato aveva investito soprattutto nella rivale Anthropic, da il via, di fatto, ad un cambiamento nelle alleanze del settore Ai. Come parte dell’accordo, Amazon diventerà il distributore cloud esclusivo della piattaforma enterprise di OpenAI e le due aziende svilupperanno insieme modelli personalizzati. Microsoft, storica sostenitrice di OpenAI, non ha partecipato a questa tornata, anche se entrambe le società hanno dichiarato che la loro collaborazione «resta solida e centrale». OpenAI ha anche comunicato che ChatGPT ha superato i 900 milioni di utenti settimanali e i 50 milioni di abbonati paganti. Anthropic, giusto per capire le dimensioni della partita in gioco, ha raggiunto nelle scorse settimane una valutazione di 380 miliardi di dollari.

L’impatto sul lavoro e i licenziamenti in Block

A completare un quadro già abbastanza ricco, c’è una notizia che riguarda direttamente il mondo del lavoro. Block, la società fondata da Jack Dorsey – è dietro i servizi di pagamento Square e Cash App – ha annunciato il licenziamento di oltre 4.000 dipendenti, quasi la metà della sua forza lavoro. E Dorsey è stato esplicito nell’indicare la ragione: l’intelligenza artificiale. In una lettera agli azionisti, ha scritto che «gli strumenti di intelligenza hanno cambiato il concetto di costruzione e di gestione di un’azienda» e che «un team molto più piccolo, usando gli strumenti che stiamo costruendo, può fare di più e farlo meglio». Il fondatore di Block ha anche previsto che la maggior parte delle aziende arriverà alla stessa conclusione entro un anno. Non tutti gli analisti sono convinti che la motivazione sia davvero solo tecnologica: Block aveva quasi triplicato il numero di dipendenti durante la pandemia, passando da circa 4.000 nel 2019 a oltre 10.000, e il titolo in Borsa aveva perso il 40% dal 2025. Ma il segnale lanciato ai mercati è stato inequivocabile: le azioni di Block sono salite di oltre il 20% dopo l’annuncio.

L’intreccio tra tecnologia, etica e potere

Dalle vicende (più o meno trasparenti) di questi giorni emerge un intreccio complicato tra tecnologia, politica, etica e mercati. L’intelligenza artificiale ha superato i confini delle discussioni legate ad algoritmi e potenza di calcolo, è diventata una questione di potere: chi decide come si usa, chi stabilisce i limiti, chi ne paga le conseguenze. La scelta di Anthropic di mantenere la propria policy aziendale di fronte alle pressioni del governo americano, e la reazione dei consumatori che l’hanno premiata, dicono qualcosa di importante sulla sensibilità crescente dell’opinione pubblica verso le implicazioni etiche di queste tecnologie. Al tempo stesso, i licenziamenti di Block ricordano che l’altra faccia dell’efficienza promessa dall’intelligenza artificiale può comportare, molto concretamente, la perdita dei posti di lavoro. In un mondo che cambia a questa velocità, siamo ormai certi che la cosa più difficile non è costruire macchine più intelligenti, ma assicurarsi che le scelte su come usarle restino, fino in fondo, nelle mani degli esseri umani.

Articoli Correlati
Rubriche
Famiglia

Spazio Genitori

di Gianni Trudu

Società
Immagine in evidenza categoria Dottrina sociale

Appunti di dottrina sociale

di Domenico Marino

Cultura

Il libro della settimana

di Mimmo Nunnari

Storia
Immagine in evidenza categoria dagli Archivi

Dagli archivi

di Renato Laganà

tecnologia
Immagine Human Prompt

Human Prompt

di Davide Imeneo

Articoli Correlati
Aula G
ministro valditara

Nuove regole del Ministero per il decoro degli ambienti scolastici tra i ragazzi

Supporto psicologico figli

Supporto psicologico figli: la gestione dello stress dopo un evento traumatico

terzo spazio adolescenti

Educazione adolescenti: il ruolo del terzo spazio tra iperprotezione dei genitori e mondo digitale

Iscriviti alla Newsletter

Ricevi ogni giorno le notizie più importanti dalla Chiesa calabrese direttamente nella tua casella email