Nato dalla crasi tra le parole inglesi algorithm e speak (algoritmo e parlata), l’algospeak è una forma di comunicazione digitale alternativa, fatta di emoji, parole scritte sbagliate o graficamente alterate e numeri, creata dagli utenti stessi per commentare tematiche ritenute “inappropriate” dalle piattaforme. Il fenomeno registrato su vari social a partire da YouTube e Instagram, ma anche Facebook e Twitter, è diventato di massa quando milioni di utenti per lo più giovanissimi hanno iniziato a popolare TikTok, dove la tagliola dei contenuti ha recentemente portato alla rimozione di oltre 90 milioni di video.

Ed è così che oggi leggiamo “Isr43le” e “H**as”, termini criptati per raccontare il conflitto israelopalestinese, o che compaiono emoticon di girasoli parlando di Ucraina, o i cuoricini biancoazzurri per invitare al social dai contenuti porno, OnlyFans. Ma lo shadowbanning (la limitazione della visibilità di un account o di un contenuto, ndr) a cui stiamo assistendo ha un’origine più profonda. Nasce, a dire il vero, come una forma di moderazione della bacheca elettronica di Internet degli anni ’80 che limita chi vede un contenuto: alla segnalazione, l’utente veniva retrocesso a postare nel nulla. Con il tempo, però, la definizione si è ampliata. Online si viene visualizzati anche con il coinvolgimento degli algoritmi, ottenendo ricondivisioni da utenti influenti, acquistando annunci pubblicitari e aumentando la mole di follower. Per cui, lo shadowbanning è diventato qualsiasi metodo opaco per nascondere gli utenti dalla ricerca, dall’algoritmo e da altre aree in cui i loro profili potrebbero apparire.

L’algolingua e il conflitto israelo-palestinese

Il conflitto tra Israele e Palestina è solo l’ultimo dei casi in cui le tante immagini violente e la propaganda di guerra vengono volontariamente oscurate dalle grandi piattaforme. Le preoccupazioni degli attivisti e degli osservatori dei diritti digitali è che i contenuti sui palestinesi non vengano trattati equamente dai sistemi di moderazione. Il problema è che, se i divieti definiti dell’account sono ben visibili ai rispettivi titolari, la limitazione non è etichettata pubblicamente e non è comunicata all’utente interessato.

Quello di cui ci si è accorti però nelle ultime settimane, in particolare su Instagram, è che le recenti escalation hanno portato al divieto esclusivo dell’uso dei nomi arabi, alla restrizione di commenti da profili che non sono amici e alla riduzione di visibilità di post, reels, storie che fossero pro-Palestina. Meta, intervenendo, si è scusata per il “bug” globale specificando che alcuni hashtag non erano più ricercabili perché parte del contenuto violava le regole della community.

Gli esperti di diritti digitali hanno notato che spesso più che di veri ban, i contenuti filopalestinesi sono vittime di pregiudizi di moderazione. Una ragione potrebbe essere che Meta ha risorse linguistiche insufficienti per tradurre e interpretare l’arabo presente nei suoi tantissimi dialetti finendo per rimuovere centinaia di contenuti come nel 2021 quando i suoi sistemi avevano bloccato i riferimenti alla Moschea di al-Aqsa, un luogo sacro per i musulmani, erroneamente contrassegnato come affiliato a certi gruppi terroristici.

È interessante sapere che Meta non è sola nell’individuare contenuti pericolosi. Il dipartimento informatico israeliano, infatti, è un esempio di quello che gli studiosi chiamano unità addette alle segnalazioni su internet (Iru, internet referral unit), cioè un team governativo che segnala ai servizi online di intervenire per determinati contenuti. In Germania e in Francia, alla fine degli anni Dieci, queste tattiche sono servite per reprimere l’estremismo di destra e la disinformazione sanitaria durante la pandemia.

Il più delle volte le piattaforme si adeguano volontariamente, anche se gli attivisti hanno sottolineato gli evidenti abusi di potere delle Iru e le pressioni forti che esercitano sulle aziende. Ed è così che gli equilibri offline di potere sono gli stessi che si riflettono online con le Autorità palestinesi che soffrono un’impotenza palese nel gestire una Iru efficace e quella israeliana che solo nel 2021, secondo un’informativa annuale del governo israeliano ha inviato 6000 richieste di rimozione e/o restrizione di contenuti che facevano da “apologia del terrorismo”.

Nel frattempo nel luglio 2023 un’ingiunzione preliminare emessa da un giudice della Louisiana, negli USA, ha vietato a 41 funzionari dell’amministrazione Biden di poter operare; in Ue la nuova legge, il Digital Services Act, il pacchetto sulla legge dei servizi digitali in vigore dal 2024, prevede che ogni paese membro dovrà designare entro febbraio un organismo regolatore nazionale destinato a definire i “segnalatori fidati” specializzati nelle tipologie di contenuti vietati, come l’incitamento all’odio razziale, la contraffazione delle merci o la violazione del copyright.

La resistenza digitale

Se efficace o meno si saprà, quel che ora è chiaro è che la comunità di Internet un’opzione creativa e fantasiosa, oltre che difficilmente arginabile, già l’ha trovata. Diventa facile così riconoscere la parola sesso camuffata in “seggs” o nelle emoji allusive della melanzana, della pesca o della pannocchia (associata dall’assonanza dall’inglese corn-porn), o anche l’acronimo L.G.B.T.Q in “leg booty” o la parola lesbica sostituita dall’espressione “Le Dollar bean” che è il modo in cui i sintetizzatori vocali pronunciano il termine spurio “Le$bian”. Intuibili poi le associazioni tra le foglie rosse autunnali e la cannabis, oltre che i fiocchi di neve per la droga. La vera resistenza digitale è però quella delle angurie che hanno invaso i social e che contengono tutti i colori della bandiera palestinese, sostituendone l’uso laddove censurato o censurabile.

Fa discutere, però, il rischio di non riuscire a interpretare la lingua codificata ed è esempio la polemica che ha immischiato l’attrice Julia Fox per un suo commento sotto un post. L’utente di TikTok aveva scritto di “aver dato il mascara a una ragazza e deve essere stato così buono che lei ha deciso che lei e la sua amica avrebbero dovuto provarlo entrambe senza il mio consenso” aggiungendo il tag #saawareness, abbastanza conosciuto nella community. L’ingenuità l’ha portata a non riconoscere la violenza sessuale che era nascosta nella parola “mascara”.

Il tema è davvero scottante: si tratta di preservare la libertà di espressione e la sicurezza degli utenti allontanandoli dai messaggi sessualmente espliciti, dall’odio e dalla violenza. L’algoritmo, purtroppo, a volte include molto di più scivolando in squisite ragioni politiche. Quello che oggi chiamiamo algolingua è forse una grande soluzione innovativa alla censura automatizzata dei social, e lo è proprio perché diventa a tutti gli effetti una pratica sociale, nata peraltro nel linguaggio internet della Gen Z.

Resta possibile aggirare l’intelligenza artificiale. E la nostra creatività, tutta umana, ce lo permette.

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here