Fonte della fotografia: David S. Soriano – CC BY-SA 4.0

Le voci e le serie di isteria sono all’ordine del giorno su ciò che tali sistemi di intelligenza artificiale (AI) come ChatGPT dovrebbero fare. Il senatore del Connecticut Chris Murphy ha recentemente dimostrato di esserlo ignorante dal terrore sul bot di ricerca creato da OpenAI. “ChatGPT ha imparato da solo a fare chimica avanzata. Non era integrato nel modello. Nessuno l’ha programmato per imparare la chimica complicata. Ha deciso di insegnare a se stesso, quindi ha messo a disposizione le sue conoscenze a chiunque lo chiedesse. Sta arrivando qualcosa. Non siamo pronti.”

Melanie Mitchell, un’accademica che sa una o due cose sul campo, era perplessa e twittato tanto. “Senatore, sono un ricercatore di intelligenza artificiale. La tua descrizione di ChatGPT è pericolosamente male informata. Ogni frase è errata. Spero che imparerai di più su come funziona effettivamente questo sistema, come è stato addestrato e quali sono i suoi limiti.

Murphy ha ribattuto indignato che non intendeva quello che aveva detto. “Certo che so che l’IA non ‘impara’ o ‘insegna da sola’ come un essere umano. Sto usando la scorciatoia. Quelle critiche, ha affermato, avevano l’intenzione di costringere “i responsabili politici a non regolamentare le nuove tecnologie ridicolizzandoci quando non usiamo i termini utilizzati dall’industria”.

Come uccelli di una piuma, l’intervento di Murphy è arrivato insieme al contributo del Future of Life Institute sotto forma di una lettera aperta (la Lettera). Il documento fa una serie di affermazioni attese da un istituto che ha messo in guardia sui rischi di sistemi di intelligenza artificiale estremamente intelligenti. Letteralmente migliaia si sono accorsi digitalmente per prestargli il proprio nome, inclusi luminari della tecnologia come Elon Musk (un avvertimento lì) e il co-fondatore di Apple Steve Wozniak. (Attualmente, il numero di firme è di 27.567.)

La lettera sostiene che è necessaria una moratoria di sei mesi affinché l’umanità faccia il punto sulle implicazioni dell’IA. “Dovremmo sviluppare menti non umane che alla fine potrebbero essere più numerose, superate in astuzia, obsolete e sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà. Tali decisioni non devono essere delegate a leader tecnologici non eletti”. Con enfasi, continua: “I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili”.

La Lettera è insignificante, goffa e chiara nel suo sforzo di produrre ansia. Sebbene ci sia molto da dire sull’aver preso in considerazione i dibattiti sul modo in cui l’IA si sta sviluppando, ci si deve chiedere da dove provenga questo appello. Quando i miliardari chiedono di fermare la pratica tecnologica, lo scetticismo dovrebbe iniziare a solleticare la coscienza. Improvvisamente, tali voci chiedono trasparenza, responsabilità e apertura, le stesse cose che hanno evitato attraverso i loro sforzi per fare soldi. E chi sono in ogni caso i leader tecnologici non eletti?

Per quanto riguarda il livello di ansia, i potenti e i ricchi ne avranno sempre dei pacchi. Se c’è una merce che vogliono veramente condividere con il resto di noi – chiamiamola ansia come socialismo – sono le loro stesse paure scritte in grande e diffuse come Nostro paure. L’intelligenza artificiale è quel condotto perfetto, un caso sia di promessa che di terrore, quindi necessita di uno stretto controllo. “Le uniche cose che possono opprimere i miliardari statunitensi”, riflette il giornalista e scrittore indiano Manu Joseph, “sono le malattie, le insurrezioni, gli alieni e le macchine paranormali, il motivo per cui tendono a sviluppare l’esagerazione [sic] nozioni dei loro pericoli.

Per Mitchell, gli autori e i sostenitori avevano abbracciato una situazione fin troppo cupa dell’umanità di fronte all’IA. “Gli esseri umani”, ha scritto all’inizio di questo mese, “sono continuamente a rischio di antropomorfizzazione eccessiva, fiducia eccessiva in questi sistemi, attribuendo loro l’agenzia quando non ce n’è”.

L’utile premessa per gli inquieti allarmisti produce due corollari: il tentativo di tentare di arrestare la natura mutevole di tali sistemi di fronte all’innovazione; e il fattore di vendita. “La paura pubblica dell’intelligenza artificiale è effettivamente utile per le aziende tecnologiche che la vendono, poiché il rovescio della paura è la convinzione che questi sistemi siano veramente potenti e che le grandi aziende sarebbero sciocche a non adottarli”.

Le moratorie nel campo della tecnologia tendono ad essere imprese condannate. Il desiderio umano di inventare anche il più cataclismicamente sciocco dei dispositivi, è roba da leggenda prometeica. Si consideri, ad esempio, il dibattito sull’opportunità che gli Stati Uniti sviluppino un’arma ancora più distruttiva della bomba atomica. Il timore, quindi, era che i sovietici senza Dio potessero acquisire una superbomba, un mostro muscoloso basato sulla fusione, piuttosto che sulla fissione.

Nel documento seminale ricevuto dal presidente degli Stati Uniti Harry Truman il 14 aprile 1950, i timori di una tale scoperta sono diffusi. Scritto da Paul Nitze dell’Ufficio di pianificazione politica del Dipartimento di Stato americano, avvertiva “che la probabile capacità di bombe a fissione e la possibile capacità di bombe termonucleari dell’Unione Sovietica hanno notevolmente intensificato la minaccia sovietica alla sicurezza degli Stati Uniti”. Il risultato di tale paura divenne la bomba all’idrogeno.

I pragmatici più equilibrati nel campo riconoscono, così come gli autori elencati di Stochastic Parrots (incluso Mitchell) pubblicato sul sito web del DAIR Institute, che ci sono “pericoli reali e presenti” associati ai danni derivanti dall’IA, ma questo è qualificata dagli “atti di persone e aziende che implementano sistemi automatizzati. Gli sforzi normativi dovrebbero concentrarsi sulla trasparenza, la responsabilità e la prevenzione delle pratiche di sfruttamento del lavoro”.

Forse, suggerisce Mitchell, dovremmo mirare a qualcosa di simile a un “Progetto Manhattan di intensa ricerca” che riguardi “le capacità, i limiti, l’affidabilità e l’interpretazione dell’IA, in cui l’indagine e i risultati sono aperti a chiunque”. Un suggerimento tutt’altro che insensato, a parte il fatto che l’originale Progetto Manhattan, dedicato alla creazione della prima bomba atomica durante la seconda guerra mondiale, era esso stesso una competizione per assicurarsi che la Germania nazista non arrivasse prima.

Origine: https://www.counterpunch.org/2023/05/01/anxiety-as-socialism-ai-moratorium-fantasies/



Lascia un Commento