Come ha imposto Israele Dopo un blackout di Internet a Gaza venerdì, gli utenti dei social media che hanno postato post sulle tristi condizioni hanno dovuto fare i conti con una censura irregolare e spesso inspiegabile dei contenuti relativi alla Palestina su Instagram e Facebook.

Da quando Israele ha lanciato attacchi aerei di ritorsione a Gaza dopo l’attacco di Hamas del 7 ottobre, gli utenti di Facebook e Instagram hanno segnalato diffuse cancellazioni dei loro contenuti, traduzioni che inseriscono la parola “terrorista” nei profili Instagram palestinesi e soppressione degli hashtag. Anche i commenti su Instagram contenenti l’emoji della bandiera palestinese sono stati nascosti, secondo 7amleh, un gruppo palestinese per i diritti digitali che collabora formalmente con Meta, che possiede Instagram e Facebook, su questioni relative al discorso regionale.

Numerosi utenti hanno segnalato a 7amleh che i loro commenti sono stati spostati in fondo alla sezione commenti e richiedono un clic per visualizzarli. Molte delle osservazioni hanno qualcosa in comune: “Spesso sembrava coincidere con l’avere una bandiera palestinese nel commento”, ha detto a The Intercept il portavoce di 7amleh Eric Sype.

Gli utenti segnalano che Instagram ha contrassegnato e nascosto i commenti contenenti le emoji come “potenzialmente offensivi”, ha riferito per la prima volta TechCrunch la scorsa settimana. Meta ha regolarmente attribuito casi simili di presunta censura a problemi tecnici. Meta ha confermato a The Intercept che la società ha nascosto commenti che contengono l’emoji della bandiera palestinese in alcuni contesti “offensivi” che violano le regole della società.

“L’idea di trovare un’offensiva di bandiera è profondamente angosciante per i palestinesi”, ha detto a The Intercept Mona Shtaya, una ricercatrice non residente presso il Tahrir Institute for Middle East Policy che segue la politica di Meta in materia di discorso.

“L’idea di trovare un’offensiva di bandiera è profondamente angosciante per i palestinesi”.

Alla domanda sui contesti in cui Meta nasconde la bandiera, il portavoce di Meta Andy Stone ha sottolineato la politica sulle organizzazioni e gli individui pericolosi, che designa Hamas come un’organizzazione terroristica, e ha citato una sezione del regolamento sugli standard comunitari che proibisce qualsiasi contenuto “che elogia, celebra o deridere la morte di qualcuno.”

Non è chiaro, tuttavia, esattamente come Meta determini se l’uso dell’emoji della bandiera sia sufficientemente offensivo da poter essere soppresso. The Intercept ha esaminato diversi commenti nascosti contenenti l’emoji della bandiera palestinese che non avevano alcun riferimento ad Hamas o a qualsiasi altro gruppo vietato. La stessa bandiera palestinese non ha alcuna associazione formale con Hamas e precede di decenni il gruppo militante.

Alcuni dei commenti nascosti esaminati da The Intercept contenevano solo emoji e nessun altro testo. In uno, un utente ha commentato un video Instagram di una manifestazione filo-palestinese in Giordania con emoji di cuori verdi, bianchi e neri corrispondenti ai colori della bandiera palestinese, insieme agli emoji delle bandiere marocchina e palestinese. In un altro, un utente ha pubblicato solo tre emoji con la bandiera palestinese. Un altro screenshot visto da The Intercept mostrava due commenti nascosti costituiti solo dagli hashtag #Gaza, #gazaunderattack, #freepalestine e #ceasefirenow.

“Nel corso della nostra lunga storia, abbiamo sopportato momenti in cui il nostro diritto di esporre la bandiera palestinese è stato negato dalle autorità israeliane. Decenni fa, gli artisti palestinesi Nabil Anani e Suleiman Mansour usarono ingegnosamente un’anguria come simbolo della nostra bandiera”, ha detto Shtaya. “Quando Meta si impegna in tali pratiche, fa eco alle misure oppressive imposte ai palestinesi”.

Moderazione dei contenuti difettosa

Gli utenti di Instagram e Facebook si sono rivolti ad altre piattaforme di social media per segnalare altri casi di censura. Su X, precedentemente noto come Twitter, un utente ha pubblicato che Facebook ha bloccato uno screenshot di un popolare account Instagram palestinese che aveva tentato di condividere con un amico tramite messaggio privato. Il messaggio è stato contrassegnato come contenente immagini sessuali non consensuali e il suo account è stato sospeso.

Su Bluesky, gli utenti di Facebook e Instagram hanno riferito che i tentativi di condividere il recente articolo del giornalista per la sicurezza nazionale Spencer Ackerman che criticava il sostegno del presidente Joe Biden a Israele sono stati bloccati e contrassegnati come rischi per la sicurezza informatica.

Venerdì il sito di notizie Mondoweiss twittato uno screenshot di un video Instagram sugli arresti israeliani di palestinesi in Cisgiordania che è stato rimosso perché violava la politica delle organizzazioni pericolose.

La crescente dipendenza di Meta dalla moderazione automatizzata dei contenuti basata su software può impedire alle persone di dover selezionare immagini estremamente inquietanti e potenzialmente traumatizzanti. La tecnologia, tuttavia, si basa su algoritmi opachi e irresponsabili che introducono il rischio di fallimenti, censurando i contenuti senza spiegazione. La questione sembra estendersi ai post relativi al conflitto Israele-Palestina.

Un audit indipendente commissionato da Meta lo scorso anno ha stabilito che le pratiche di moderazione dell’azienda equivalevano a una violazione dei diritti umani degli utenti palestinesi. L’audit ha inoltre concluso che la politica relativa alle organizzazioni e agli individui pericolosi – che i sostenitori del discorso hanno criticato per la sua opacità e la sovrarappresentazione di mediorientali, musulmani e asiatici del sud – aveva “maggiori probabilità di avere un impatto sugli utenti palestinesi e di lingua araba, entrambi basati sull’interpretazione di Meta. di obblighi legali e in errore”.

La settimana scorsa, il Wall Street Journal ha riferito che Meta ha recentemente abbassato il livello di fiducia richiesto dai suoi sistemi automatizzati prima di sopprimere il “discorso ostile” al 25% per il mercato palestinese, una diminuzione significativa rispetto alla soglia standard dell’80%.

L’audit ha inoltre criticato Meta per aver implementato uno strumento di scansione software per rilevare incitamenti violenti o razzisti in arabo, ma non per i post in ebraico. “I classificatori arabi sono probabilmente meno accurati per l’arabo palestinese rispetto ad altri dialetti… a causa della mancanza di competenza linguistica e culturale”, rileva il rapporto.

“Dall’inizio di questa crisi, abbiamo ricevuto centinaia di documenti che documentavano l’incitamento alla violenza in ebraico”.

Nonostante Meta affermi che la società abbia sviluppato un classificatore vocale per l’ebraico in risposta all’audit, secondo 7amleh discorsi ostili e incitamenti alla violenza in ebraico dilagano su Instagram e Facebook.

“Sulla base del nostro monitoraggio e della nostra documentazione, sembra essere molto inefficace”, ha detto il direttore esecutivo e cofondatore di 7amleh Nadim Nashif del classificatore ebraico. “Dall’inizio di questa crisi, abbiamo ricevuto centinaia di documenti che documentano incitamento alla violenza in ebraico, che violano chiaramente le politiche di Meta, ma sono ancora presenti sulle piattaforme.”

Una ricerca su Instagram per un hashtag in lingua ebraica che significa più o meno “cancellare Gaza” ha prodotto dozzine di risultati al momento della pubblicazione. Non è stato possibile raggiungere immediatamente Meta per un commento sull’accuratezza del suo classificatore vocale ebraico.

Il Wall Street Journal fa luce sul motivo per cui su Instagram compaiono ancora discorsi ostili in ebraico. “All’inizio di questo mese”, riporta il giornale, “la società ha riconosciuto internamente di non aver utilizzato il suo classificatore di discorsi ostili in ebraico sui commenti di Instagram perché non disponeva di dati sufficienti affinché il sistema funzionasse adeguatamente”.



Origine: theintercept.com



Lascia un Commento