laR+ Inchieste e approfondimenti

Meta sta limitando i contenuti pro Palestina? Cos'è lo shadowban

Diversi utenti, fra cui una giornalista Premio Pulitzer, lamentano di essere stati colpiti da tale restrizione da parte del social network per i loro post

In sintesi:
  • I social possono, manualmente o tramite algoritmi, limitare la diffusione di contenuti senza cancellarli
  • Meta nega la volontà di censura e parla di un bug tecnico: ma la stessa giustificazione è stata già usata in casi analoghi
Censura o errore?
(Keystone)
17 ottobre 2023
|

Ombre e sospetti si addensano negli ultimi giorni su Meta, la casa madre dei social network Facebook e Instagram. Al centro delle lamentele da parte di molti utenti, la gestione dei post sulla guerra in Medio Oriente: in molti lamentano di essere stati colpiti dalla restrizione nota come "shadowban" per aver postato dei contenuti in favore della causa palestinese. Fra di essi, Azmat Khan, giornalista palestinese del New York Times e Premio Pulitzer, che su X (il fu Twitter) scrive: "Dopo aver pubblicato ieri una storia su Instagram sulla guerra a Gaza, il mio account è stato shadowbannato. Molti colleghi e amici giornalisti hanno segnalato la stessa cosa. È una minaccia straordinaria al flusso di informazioni e al giornalismo credibile su una guerra senza precedenti...".

Altri utenti segnalano che al proprio profilo è stato impedito di pubblicare altri post o di commentare sotto i contenuti di altre Pagine, altri ancora ravvisano una netta e improvvisa riduzione delle visualizzazioni, tutto collegato al fatto di aver recentemente pubblicato contenuti di sostegno alla Palestina e di condanna degli attacchi israeliani su Gaza.

‘Con lo shadowban l'utente parla, ma è una voce nel deserto’

Ma cos’è lo shadowban? Per saperne di più, abbiamo interpellato il giornalista ed esperto di social network Paolo Attivissimo: «Fondamentalmente lo shadowbanning è un'azione intrapresa dai social media che serve per oscurare i contenuti di qualcuno senza che quel qualcuno se ne accorga. In pratica, mettiamo che io scriva qualcosa su un social network: quest'ultimo ritiene che per un qualunque motivo quel contenuto sia inaccettabile o comunque da non incoraggiare, e allora non lo nasconde e non mi avvisa che l'ha nascosto, però ne limita la circolazione. Si può fare sia a livello del singolo utente, nel senso che tutto quello che esso scrive viene shadowbannato e quindi ne viene ridotta o annullata la circolazione, oppure sul singolo messaggio di un utente o anche su tutti i messaggi che contengono riferimenti, parole chiave o immagini specifici».

Come avviene, tecnicamente, lo shadowban? «Di solito nei grandi social network è un'azione che viene fatta con gli algoritmi, perché la quantità di messaggi da gestire è talmente vasta che non si può farlo manualmente. Nei social network gestiti professionalmente, che hanno un buon livello di moderazione, c’è anche un intervento umano. Quindi, per esempio, una persona che si accorge di essere di essere stata shadowbannata può segnalarlo, e allora magari interviene un moderatore umano che ammette che è stato compiuto un errore. C’è un caso molto conosciuto di un utente che aveva postato su Facebook la foto di una ragazza in una vasca da bagno e, per il modo in cui lei aveva appoggiato il gomito, sembrava che avesse il seno visibile ed è stata bandita dagli algoritmi fino a che è stato avvisato il moderatore sul fatto che era, appunto, un gomito e non un seno».

Lo shadowban è una condanna perenne o è possibile uscirne? «La durata è variabile, dipende tutto dalla situazione e dal social network specifico. Per esempio, se si va su certe piattaforme e si toccano argomenti sensibili che non piacciono al gestore (penso a quello che una volta si chiamava Twitter), allora molto spesso si viene shadowbannati per ordine del capo, e lì è finita, fondamentalmente. Se invece si tratta di processi automatici, allora c’è la possibilità, di solito, di appellarsi e richiedere una revisione della situazione. Il problema è accorgersene, perché di solito lo shadowban viene fatto apposta per non far notare all'utente che è cambiato qualcosa. L'utente parla, racconta, pubblica, ma la sua è una voce nel deserto che non arriva a nessuno, finché non arrivano gli utenti a dire: "Ma come mai non scrivi più niente? Come mai non hai commentato questo argomento?", e allora si rende conto che lo ha fatto ma nessuno lo ha letto. Oppure, se guardiamo le statistiche delle interazioni, notiamo che su certi post manca completamente la risposta, l'interazione, il commento, il like. In questo caso è possibile accorgersene, però è un'azione che deve intraprendere l'utente, il quale deve fare monitoraggio, vedere quali sono le risposte. Quindi si chiama shadowban proprio perché avviene nell'ombra».

Meta: ‘Nessuna censura, solo un bug’

Da parte sua, Meta ha smentito qualsiasi intenzione censoria con una comunicazione su X da parte del direttore della comunicazione Andy Stone: "Abbiamo identificato un bug che incideva su tutte le storie che ricondividevano i post di Reels e Feed, il che significava che non venivano visualizzati correttamente nella sezione Storie delle persone, con una conseguente riduzione significativa della portata. Questo bug interessava gli account in egual misura in tutto il mondo e non aveva nulla a che fare con l'oggetto del contenuto: lo abbiamo risolto il più rapidamente possibile".

Una giustificazione che, tuttavia, come riporta il portale Arab News, era già stata utilizzata da Instagram due anni fa, nel maggio del 2021, in occasione degli sfratti di massa di famiglie palestinesi dal sobborgo di Sheik Jarrah a Gerusalemme Est. Allora il social network scrisse su X/Twitter: "Sappiamo che alcune persone riscontrano problemi nel caricamento e nella visualizzazione delle storie. Si tratta di un problema tecnico globale diffuso, non correlato ad alcun argomento particolare e lo stiamo risolvendo proprio adesso. Forniremo un aggiornamento non appena possibile".

Quell’‘errore’ che non dissipa le ombre di censura

Una coincidenza quanto meno bizzarra, a pensar bene, che non fa che alimentare i sospetti, già consistenti, di censura da parte di Meta su contenuti e argomenti "sgraditi": e se è vero che si tratta pur sempre di una piattaforma privata, del tutto libera di imporre le sue regole agli utenti, è altrettanto vero che, considerando la sua enorme diffusione a livello globale, anche volendo metter da parte complottismi vari è inevitabile constatare il concreto pericolo che queste limitazioni mirate possano indirizzare in modo rilevante l'informazione in un senso o nell'altro, incidendo in modo sostanziale sull'opinione pubblica e la percezione dei fatti.

Riguardo al conflitto attuale, per inciso, la stessa Meta in un comunicato sul proprio sito afferma di aver incrementato gli sforzi per evitare di veicolare informazioni distorte, con l'istituzione di "un centro operativo speciale composto da esperti, tra cui persone che parlano correntemente l'ebraico e l'arabo, per monitorare da vicino e rispondere in tempo reale a questa situazione in rapida evoluzione". Il social comunica, fra l'altro, di aver rimosso, nei giorni seguenti l'attacco di Hamas, un numero "sette volte superiore" di contenuti riguardanti le "organizzazioni pericolose" ovvero i gruppi e individui che, come emerso in un'inchiesta del 2021, sono banditi da Facebook e nei confronti dei quali è vietato esprimere apprezzamento da parte degli utenti.

Nello stesso comunicato, la stessa Meta afferma che le proprie politiche "sono state concepite per dare voce a tutti e per garantire la sicurezza delle persone" sulle app, che esse vengono applicate "indipendentemente da chi pubblica o dalle sue convinzioni personali", e che non c’è l'intenzione di escludere una particolare comunità o punto di vista. Ma, infine, ammette la possibilità di aver preso un abbaglio: "Dato l'elevato volume di contenuti che ci vengono segnalati, sappiamo che i contenuti che non violano le nostre politiche possono essere rimossi per errore", motivo per il quale non si rischia di incorrere nella disabilitazione dell'account ed è possibile appellarsi. Se lo shadowban rilevato dagli utenti riguardo i contenuti pro-Palestina faccia parte di questo "errore", è ancora tutto da vedere.

Leggi anche: