Microsoft l’anno scorso ha proposto di utilizzare il popolarissimo strumento di generazione di immagini di OpenAI, DALL-E, per aiutare il Dipartimento della Difesa a creare software per eseguire operazioni militari, secondo i materiali di presentazione interna esaminati da The Intercept. La rivelazione arriva pochi mesi dopo che OpenAI ha silenziosamente posto fine al divieto del lavoro militare.

La presentazione di Microsoft, intitolata “Generative AI with DoD Data”, fornisce un’analisi generale di come il Pentagono può utilizzare gli strumenti di machine learning di OpenAI, tra cui il popolarissimo generatore di testo ChatGPT e il creatore di immagini DALL-E, per attività che vanno dalla creazione di documenti dall’analisi alla manutenzione della macchina. (Microsoft ha investito 10 miliardi di dollari nella startup in ascesa del machine learning lo scorso anno, e le due attività sono diventate strettamente intrecciate. A febbraio, The Intercept e altri organi di stampa digitali hanno citato in giudizio Microsoft e OpenAI per aver utilizzato il loro giornalismo senza permesso o credito.)

Il documento di Microsoft è tratto da una grande quantità di materiali presentati in un seminario di formazione sull’“alfabetizzazione dell’intelligenza artificiale” del Dipartimento della Difesa dell’ottobre 2023 ospitato dalla US Space Force a Los Angeles. L’evento includeva una serie di presentazioni da parte di aziende di machine learning, tra cui Microsoft e OpenAI, su ciò che hanno da offrire al Pentagono.

I file accessibili al pubblico sono stati trovati sul sito web di Alethia Labs, una società di consulenza senza scopo di lucro che aiuta il governo federale nell’acquisizione di tecnologia, e scoperti dal giornalista Jack Poulson. Mercoledì Poulson ha pubblicato un’indagine più ampia sui materiali della presentazione. Alethia Labs ha lavorato a stretto contatto con il Pentagono per aiutarlo a integrare rapidamente gli strumenti di intelligenza artificiale nel suo arsenale e dallo scorso anno ha stipulato un contratto con l’ufficio principale dell’intelligenza artificiale del Pentagono. L’azienda non ha risposto a una richiesta di commento.

Una pagina della presentazione di Microsoft evidenzia una varietà di usi federali “comuni” per OpenAI, anche per la difesa. Un punto elenco sotto “Formazione avanzata sulla visione artificiale” recita: “Sistemi di gestione della battaglia: utilizzo dei modelli DALL-E per creare immagini per addestrare i sistemi di gestione della battaglia”. Proprio come sembra, un sistema di gestione della battaglia è una suite software di comando e controllo che fornisce ai leader militari una panoramica situazionale di uno scenario di combattimento, consentendo loro di coordinare cose come il fuoco di artiglieria, l’identificazione dei bersagli degli attacchi aerei e i movimenti delle truppe. Il riferimento all’addestramento alla visione artificiale suggerisce che le immagini artificiali evocate da DALL-E potrebbero aiutare i computer del Pentagono a “vedere” meglio le condizioni sul campo di battaglia, un vantaggio particolare per trovare – e annientare – obiettivi.

In una dichiarazione inviata via e-mail, Microsoft ha dichiarato a The Intercept che, sebbene avesse suggerito al Pentagono di utilizzare DALL-E per addestrare il suo software sul campo di battaglia, non aveva ancora iniziato a farlo. “Questo è un esempio di potenziali casi d’uso che sono stati informati dalle conversazioni con i clienti sull’arte del possibile con l’intelligenza artificiale generativa.” Microsoft, che ha rifiutato di attribuire l’osservazione a qualcuno in azienda, non ha spiegato perché un caso d’uso “potenziale” è stato etichettato come uso “comune” nella sua presentazione.

La portavoce di OpenAI Liz Bourgeous ha detto che OpenAI non è stata coinvolta nella presentazione di Microsoft e che non ha venduto alcuno strumento al Dipartimento della Difesa. “Le politiche di OpenAI vietano l’uso dei nostri strumenti per sviluppare o utilizzare armi, ferire altri o distruggere proprietà”, ha scritto. “Non siamo stati coinvolti in questa presentazione e non abbiamo avuto conversazioni con le agenzie di difesa statunitensi riguardo agli ipotetici casi d’uso descritti.”

Bourgeous ha aggiunto: “Non abbiamo prove che i modelli OpenAI siano stati utilizzati in questa veste. OpenAI non ha partnership con agenzie di difesa per utilizzare la nostra API o ChatGPT per tali scopi.”

Al momento della presentazione, le policy di OpenAI avrebbero vietato un utilizzo militare di DALL-E. Microsoft ha dichiarato a The Intercept che se il Pentagono avesse utilizzato DALL-E o qualsiasi altro strumento OpenAI attraverso un contratto con Microsoft, sarebbe stato soggetto alle politiche di utilizzo di quest’ultima società. Tuttavia, qualsiasi utilizzo della tecnologia OpenAI per aiutare il Pentagono a uccidere e distruggere in modo più efficace rappresenterebbe una svolta drammatica per l’azienda, che descrive la sua missione come sviluppo di un’intelligenza artificiale incentrata sulla sicurezza a beneficio di tutta l’umanità.

“Non è possibile costruire un sistema di gestione della battaglia in un modo che non contribuisca, almeno indirettamente, al danno civile.”

“Non è possibile costruire un sistema di gestione della battaglia in un modo che non contribuisca, almeno indirettamente, al danno civile”, Brianna Rosen, visiting fellow alla Blavatnik School of Government dell’Università di Oxford che si concentra sull’etica della tecnologia.

Rosen, che ha lavorato al Consiglio di sicurezza nazionale durante l’amministrazione Obama, ha spiegato che le tecnologie di OpenAI potrebbero essere facilmente utilizzate sia per aiutare le persone che per danneggiarle, e il loro utilizzo per quest’ultima da parte di qualsiasi governo è una scelta politica. “A meno che aziende come OpenAI non abbiano garanzie scritte da parte dei governi che non utilizzeranno la tecnologia per danneggiare i civili – cosa che probabilmente non sarebbe giuridicamente vincolante – non vedo alcun modo in cui le aziende possano affermare con sicurezza che la tecnologia non sarà usato (o abusato) in modi che hanno effetti cinetici.

Il documento di presentazione non fornisce ulteriori dettagli su come esattamente i sistemi di gestione del campo di battaglia potrebbero utilizzare DALL-E. Il riferimento all’addestramento di questi sistemi, tuttavia, suggerisce che DALL-E potrebbe essere abituato fornire al Pentagono i cosiddetti dati sintetici di addestramento: scene create artificialmente che assomigliano molto a immagini pertinenti del mondo reale. Al software militare progettato per rilevare obiettivi nemici sul terreno, ad esempio, potrebbe essere mostrata un’enorme quantità di false immagini aeree di piste di atterraggio o colonne di carri armati generate da DALL-E per riconoscere meglio tali obiettivi nel mondo reale.

Anche mettendo da parte le obiezioni etiche, l’efficacia di un simile approccio è discutibile. “È noto che l’accuratezza e la capacità di un modello di elaborare i dati in modo accurato si deteriorano ogni volta che viene ulteriormente addestrato sui contenuti generati dall’intelligenza artificiale”, ha affermato Heidy Khlaaf, un ingegnere di sicurezza del machine learning che ha precedentemente collaborato con OpenAI. “Le immagini Dall-E sono tutt’altro che accurate e non generano immagini riflettenti nemmeno vicine alla nostra realtà fisica, anche se dovessero essere messe a punto sugli input del sistema di gestione di Battlefield. Questi modelli di immagini generative non possono nemmeno generare accuratamente un numero corretto di arti o dita, come possiamo fare affidamento sulla loro accuratezza rispetto a una presenza realistica sul campo?”

In un’intervista del mese scorso con il Centro per gli studi strategici e internazionali, il capitano M. Xavier Lugo della Marina degli Stati Uniti ha immaginato un’applicazione militare di dati sintetici esattamente come il tipo che DALL-E può produrre, suggerendo che le immagini false potrebbero essere utilizzate per addestrare i droni a vedere e riconoscere meglio il mondo sotto di loro.

Lugo, comandante della missione della task force sull’intelligenza artificiale generativa del Pentagono e membro dell’ufficio capo dell’intelligenza digitale e artificiale del Dipartimento della Difesa, è elencato come contatto alla fine del documento di presentazione di Microsoft. La presentazione è stata fatta dal dipendente Microsoft Nehemiah Kuhns, uno “specialista di tecnologia” che lavora nella Space Force e nell’Aeronautica Militare.

L’Air Force sta attualmente costruendo l’Advanced Battle Management System, la sua parte di un più ampio progetto multimiliardario del Pentagono chiamato Joint All-Domain Command and Control, che mira a mettere in rete l’intero esercito americano per una comunicazione estesa tra i rami, grazie all’intelligenza artificiale. analisi dei dati e, in definitiva, una migliore capacità di uccidere. Attraverso JADC2, come è noto il progetto, il Pentagono immagina un futuro prossimo in cui le telecamere dei droni dell’aeronautica militare, i radar delle navi da guerra della Marina, i carri armati dell’esercito e i marines a terra si scambieranno senza soluzione di continuità dati sul nemico per distruggerlo meglio.

Il 3 aprile, il Comando Centrale degli Stati Uniti ha rivelato di aver già iniziato a utilizzare elementi di JADC2 in Medio Oriente.

Il Dipartimento della Difesa non ha risposto a domande specifiche sulla presentazione di Microsoft, ma il portavoce Tim Gorman ha detto a The Intercept che “il [Chief Digital and Artificial Intelligence Office’s] la missione è accelerare l’adozione di dati, analisi e intelligenza artificiale in tutto il Dipartimento della Difesa. Nell’ambito di tale missione, conduciamo attività per educare la forza lavoro sull’alfabetizzazione dei dati e dell’intelligenza artificiale e su come applicare le tecnologie commerciali esistenti ed emergenti alle aree di missione del Dipartimento della Difesa”.

Mentre Microsoft ha dopo aver raccolto miliardi da contratti per la difesa, OpenAI ha riconosciuto solo di recente che avrebbe iniziato a collaborare con il Dipartimento della Difesa. In risposta al rapporto di gennaio di The Intercept sul dietrofront militare-industriale di OpenAI, il portavoce della società Niko Felix ha affermato che, anche con un linguaggio allentato, “la nostra politica non consente che i nostri strumenti vengano utilizzati per danneggiare le persone, sviluppare armi, per la sorveglianza delle comunicazioni, o per ferire altri o distruggere proprietà”.

“Il punto è che stai contribuendo alla preparazione della guerra.”

Se l’uso del software OpenAI da parte del Pentagono possa comportare danni o meno potrebbe dipendere da una visione letterale di come funzionano queste tecnologie, simile all’argomentazione secondo cui l’azienda che aiuta a costruire l’arma o addestra chi spara non è responsabile di dove viene puntata o di premere il grilletto. . “Potrebbero infilare un ago tra l’uso di [generative AI] per creare dati sintetici di addestramento e il loro utilizzo nei combattimenti di guerra reali”, ha affermato Lucy Suchman, professoressa emerita di antropologia della scienza e della tecnologia alla Lancaster University. “Ma questa sarebbe una distinzione spuria a mio avviso, perché il punto è che stai contribuendo alla preparazione della guerra.”

A differenza di OpenAI, Microsoft ha poche pretese di rinunciare ai danni nel suo documento sull’”intelligenza artificiale responsabile” e promuove apertamente l’uso dei suoi strumenti di apprendimento automatico nella “catena di uccisione” militare.

In seguito alla sua inversione di rotta, OpenAI si è affrettata a sottolineare alla stampa pubblica e economica che la sua collaborazione con l’esercito era di natura difensiva e pacifica. In un’intervista di gennaio a Davos in risposta al rapporto di The Intercept, la vicepresidente per gli affari globali di OpenAI Anna Makanju ha assicurato ai partecipanti al panel che il lavoro militare dell’azienda era concentrato su applicazioni come iniziative di sicurezza informatica e prevenzione del suicidio dei veterani, e che gli innovativi strumenti di apprendimento automatico dell’azienda erano ancora vietato causare danni o distruzioni.

Contribuire allo sviluppo di un sistema di gestione della battaglia, tuttavia, collocherebbe il lavoro militare di OpenAI molto più vicino alla guerra stessa. Sebbene l’affermazione di OpenAI di evitare danni diretti potrebbe essere tecnicamente vera se il suo software non gestisse direttamente sistemi d’arma, Khlaaf, l’ingegnere di sicurezza dell’apprendimento automatico, ha affermato che il suo “uso in altri sistemi, come la pianificazione delle operazioni militari o le valutazioni sul campo di battaglia” avrebbe in definitiva un impatto “dove vengono schierate le armi o svolte le missioni”.

In effetti, è difficile immaginare una battaglia il cui scopo principale non sia causare danni fisici e materiali. Un comunicato stampa dell’Air Force di marzo, ad esempio, descrive una recente esercitazione del sistema di gestione della battaglia come “letalità alla velocità dei dati”.

Altri materiali della serie di seminari sull’alfabetizzazione sull’intelligenza artificiale chiariscono che il “danno” è, in definitiva, il punto. Una diapositiva di una presentazione di benvenuto tenuta il giorno prima di Microsoft pone la domanda: “Perché dovremmo preoccuparci?” La risposta: “Dobbiamo uccidere i cattivi”. In un cenno all’aspetto “alfabetico” del seminario, la diapositiva aggiunge: “Dobbiamo sapere di cosa stiamo parlando… e non lo sappiamo ancora”.

Origine: theintercept.com



Lascia un Commento