OpenAI questa settimana ha cancellato silenziosamente dalla sua politica di utilizzo un linguaggio che vieta espressamente l’uso della sua tecnologia per scopi militari, che cerca di dettare quanto possano essere utilizzati strumenti potenti e immensamente popolari come ChatGPT.

Fino al 10 gennaio, la pagina “politiche di utilizzo” di OpenAI includeva il divieto di “attività che presentano un alto rischio di danni fisici, tra cui”, in particolare, “sviluppo di armi” e “militare e guerra”. Quel divieto, chiaramente formulato, contro le applicazioni militari escluderebbe apparentemente qualsiasi utilizzo ufficiale, ed estremamente redditizio, da parte del Dipartimento della Difesa o di qualsiasi altro esercito statale. La nuova politica mantiene l’ingiunzione di non “utilizzare il nostro servizio per danneggiare se stessi o gli altri” e fornisce come esempio “sviluppare o utilizzare armi”, ma il divieto generale sull’uso “militare e bellico” è svanito.

La redazione senza preavviso fa parte di un’importante riscrittura della pagina della politica, che secondo la società aveva lo scopo di rendere il documento “più chiaro” e “più leggibile” e che include molte altre modifiche sostanziali alla lingua e alla formattazione.

“Abbiamo mirato a creare una serie di principi universali che siano facili da ricordare e da applicare, soprattutto perché i nostri strumenti sono ora utilizzati a livello globale dagli utenti di tutti i giorni che ora possono anche creare GPT”, ha detto il portavoce di OpenAI Niko Felix in un’e-mail a The Intercept. “Un principio come ‘Non danneggiare gli altri’ è ampio ma facilmente comprensibile e rilevante in numerosi contesti. Inoltre, abbiamo citato specificamente le armi e le lesioni ad altri come chiari esempi”.

Felix ha rifiutato di dire se il vago divieto di “danno” comprenda qualsiasi uso militare, scrivendo: “Qualsiasi uso della nostra tecnologia, incluso da parte dei militari, per ‘[develop] O [use] armi, [injure] altri o [destroy] proprietà, o [engage] in attività non autorizzate che violano la sicurezza di qualsiasi servizio o sistema,’ non è consentito.”

“OpenAI è ben consapevole dei rischi e dei danni che possono derivare dall’uso della propria tecnologia e dei propri servizi in applicazioni militari”, ha affermato Heidy Khlaaf, direttore tecnico presso la società di sicurezza informatica Trail of Bits ed esperta di apprendimento automatico e sicurezza dei sistemi autonomi. , citando un articolo del 2022 di cui è coautrice insieme ai ricercatori di OpenAI che segnalava specificamente il rischio di uso militare. Khlaaf ha aggiunto che la nuova politica sembra enfatizzare la legalità rispetto alla sicurezza. “C’è una netta differenza tra le due politiche, poiché la prima sottolinea chiaramente che lo sviluppo di armi, l’esercito e la guerra non sono consentiti, mentre la seconda enfatizza la flessibilità e il rispetto della legge”, ha affermato. “Lo sviluppo di armi e lo svolgimento di attività legate all’esercito e alla guerra sono legali in vari modi. Le potenziali implicazioni per la sicurezza dell’IA sono significative. Considerati i ben noti casi di pregiudizi e allucinazioni presenti nei Large Language Models (LLM) e la loro generale mancanza di accuratezza, il loro utilizzo nella guerra militare può solo portare a operazioni imprecise e distorte che potrebbero esacerbare i danni e le vittime civili.

Le conseguenze nel mondo reale di questa politica non sono chiare. L’anno scorso, The Intercept ha riferito che OpenAI non era disposta a dire se avrebbe applicato il proprio chiaro divieto “militare e di guerra” di fronte al crescente interesse da parte del Pentagono e della comunità dell’intelligence statunitense.

“Dato l’uso dei sistemi di intelligenza artificiale nel prendere di mira i civili a Gaza, è un momento importante prendere la decisione di rimuovere le parole ‘militare e guerra’ dalla politica di utilizzo consentito di OpenAI”, ha affermato Sarah Myers West, amministratore delegato di AI Now Institute ed ex analista delle politiche sull’intelligenza artificiale presso la Federal Trade Commission. “Il linguaggio utilizzato nella politica rimane vago e solleva interrogativi su come OpenAI intende affrontare l’applicazione delle norme”.

Sebbene nulla di ciò che OpenAI offre oggi possa essere plausibilmente utilizzato per uccidere direttamente qualcuno, militarmente o in altro modo (ChatGPT non può manovrare un drone o lanciare un missile), qualsiasi militare si occupa di uccidere, o almeno di mantenere la capacità di uccidere. Esistono numerose attività adiacenti all’uccisione che un LLM come ChatGPT potrebbe aumentare, come scrivere codice o elaborare ordini di appalto. Una revisione dei bot personalizzati basati su ChatGPT offerti da OpenAI suggerisce che il personale militare statunitense sta già utilizzando la tecnologia per accelerare le pratiche burocratiche. La National Geospatial-Intelligence Agency, che aiuta direttamente gli sforzi di combattimento degli Stati Uniti, ha apertamente ipotizzato di utilizzare ChatGPT per aiutare i suoi analisti umani. Anche se gli strumenti OpenAI fossero impiegati da parte di una forza militare per scopi che non sono direttamente violenti, aiuterebbero comunque un’istituzione il cui scopo principale è la letalità.

Gli esperti che hanno esaminato i cambiamenti politici su richiesta di The Intercept hanno affermato che OpenAI sembra indebolire silenziosamente la sua posizione contro i rapporti commerciali con gli eserciti. “Potrei immaginare che il passaggio da ‘militare e guerra’ a ‘armi’ lasci uno spazio aperto a OpenAI per supportare le infrastrutture operative purché l’applicazione non coinvolga direttamente lo sviluppo di armi strettamente definite”, ha affermato Lucy Suchman, professoressa emerita di Antropologia della scienza e della tecnologia presso la Lancaster University. “Naturalmente, penso che l’idea che si possa contribuire alle piattaforme di guerra sostenendo di non essere coinvolti nello sviluppo o nell’uso delle armi sarebbe falsa, rimuovendo l’arma dal sistema sociotecnico – comprese le infrastrutture di comando e controllo – di cui fa parte. .” Suchman, studioso di intelligenza artificiale dagli anni ’70 e membro del Comitato internazionale per il controllo degli armamenti robotici, ha aggiunto: “Sembra plausibile che il nuovo documento politico eluda la questione degli appalti militari e delle operazioni di guerra concentrandosi specificamente sulle armi”.

Suchman e Myers West hanno entrambi sottolineato la stretta collaborazione di OpenAI con Microsoft, un importante appaltatore della difesa, che fino ad oggi ha investito 13 miliardi di dollari nel produttore di LLM e rivende gli strumenti software dell’azienda.

I cambiamenti arrivano mentre gli eserciti di tutto il mondo sono ansiosi di incorporare tecniche di apprendimento automatico per ottenere un vantaggio; il Pentagono sta ancora esplorando provvisoriamente come utilizzare ChatGPT o altri modelli di linguaggio di grandi dimensioni, un tipo di strumento software in grado di generare rapidamente e abilmente sofisticati output di testo. Gli LLM vengono addestrati su enormi volumi di libri, articoli e altri dati web al fine di approssimare le risposte umane ai suggerimenti degli utenti. Sebbene i risultati di un LLM come ChatGPT siano spesso estremamente convincenti, sono ottimizzati per la coerenza piuttosto che per una solida comprensione della realtà e spesso soffrono di cosiddette allucinazioni che rendono l’accuratezza e la fattualità un problema. Tuttavia, la capacità dei LLM di assimilare rapidamente testo e produrre rapidamente analisi – o almeno il simulacro dell’analisi – li rende una soluzione naturale per il Dipartimento della Difesa carico di dati.

Mentre alcuni all’interno della leadership militare statunitense hanno espresso preoccupazione per la tendenza dei LLM a inserire evidenti errori fattuali o altre distorsioni, nonché per i rischi per la sicurezza che potrebbero derivare dall’utilizzo di ChatGPT per analizzare dati classificati o altrimenti sensibili, il Pentagono rimane generalmente desideroso di adottare metodi artificiali strumenti di intelligenza. In un discorso di novembre, il vice segretario alla Difesa Kathleen Hicks ha affermato che l’intelligenza artificiale è “una parte fondamentale dell’approccio globale e incentrato sui combattenti all’innovazione che il segretario [Lloyd] Austin e io guidiamo dal primo giorno”, anche se ha avvertito che la maggior parte delle offerte attuali “non sono ancora tecnicamente abbastanza mature per conformarsi ai nostri principi etici sull’intelligenza artificiale”.

L’anno scorso, Kimberly Sablon, il principale direttore del Pentagono per l’intelligenza artificiale affidabile e l’autonomia, ha dichiarato in una conferenza alle Hawaii che “[t]c’è molto di buono in termini di come possiamo utilizzare modelli di linguaggio ampio come [ChatGPT] per interrompere le funzioni critiche in tutto il dipartimento.

Origine: theintercept.com



Lascia un Commento