Ma non si può più dire niente! E ci mancava solo l’Algospeak…

da Chiara Soldani

Ben lontani i tempi in cui si potevano fare battute e parlare di tutto, senza troppi tabù. Non ci si indignava, infatti, di fronte a quello che oggi viene bollato come “politicamente scorretto”. Così, Edoardo Vianello poteva cantare, tranquillo: “Siamo i Watussi, siamo i Watussi…gli altissimi negri…. Poteva, appunto! Oggi verrebbe tacciato di razzismo (come minimo). Sarebbe emarginato ed il suo innegabile successo musicale subirebbe gogna censoria, oltre che mediatica. Come successo a Francesco Acerbi, difensore dell’Inter. Quel presunto “Stai zitto, negro!” poi rivenduto dal calciatore come “Ti faccio nero”, rivolgendosi al collega Juan Jesus. Estromissione dalla Nazionale, tuonava qualcuno. “Dieci giornate di squalifica, almeno”: auspicavano altri. Il tutto si è poi risolto con un nulla di fatto: la giustizia sportiva scagiona Acerbi per “insufficienza di prove”.

Chissà…intanto c’è da rimarcare quanto opinione pubblica e lauta fetta di social (SSC Napoli incluso) avessero già emesso la propria sentenza: “Il calciatore Francesco Acerbi, nato a Vizzolo Predabissi il 10 febbraio 1988, è razzista quindi colpevole”. Sport a parte, lo sappiamo tutti molto bene: oggi non si può più dire niente. Ban e censure piovono dal cielo con tanta idiozia e altrettanto fare ipocrita. Social (e non solo) pullulano di volgarità. Eppure guai a scrivere parole come Palestina, covid, sesso e Gaza: pena la scomunica. Perché i problemi lessicali (oltre agli altri, s’intende) viaggiano su due piani: quello social-mediatico e quello meno blasonato, della vita comune e reale.  Sarà capitato a tutti, almeno una volta, di essere guardati male per una battuta tacciata di sessismo o di essere bannati per un post alquanto scomodo. Ivi compresa la radio: persino nei podcast o nelle dirette YouTube, parole come “vaccino, covid, effetti avversi” vengono silenziate, seduta stante. Libertà d’espressione? Parliamone (sempre che ce lo permettano!).

COSA STA SUCCEDENDO SUL FRONTE “CENSURA”

Ma entriamo nel vivo. In un post del 27 marzo, dal suo profilo LinkedIn il founder di Ugolize, Mattia Marangon, riflette su questo tema. Sempre attualissimo: “Stiamo cambiando il nostro modo di parlare perché altrimenti i social ci cancellano. Lo ricordate il periodo della pandemia? Alcuni contenuti che su YouTube (ma anche su instagram) contenevano le parole “COVID, pandemia, virus” venivano demonizzati…sta avvenendo anche oggi: i post che contengono le parole “Gaza” o Palestina” vengono penalizzati dall’algoritmo spingendo pagine di informazione e non solo ad attrezzarsi, sostituendo per esempio “Gaza” con “G4z4”, al fine di ovviare il blocco”. Prosegue Marangon: “Qualcosa non si può dire? Cerco un modo differente per dirlo. Questo fenomeno si chiama Algospeak: è la ricerca di termini “sicuri”, non bannabili, spesso in codice, per fare in modo che i contenuti non vengano rimossi, penalizzati o demonetizzati”. Ecco quindi spiegato questo nuovo escamotage, questa modernissima Stele di Rosetta che permette di eludere cesure pur facendosi (si spera) capire. Un nuovo linguaggio, fatto di segni, emoji e, da ultimo, parole. “Non c’è una soluzione, perché possiamo fare ben poco quando dipendiamo dagli algoritmi – ci spiega l’ideatore di Ugolize quindi, non ci resta che modellare la nostra comunicazione in funzione dei paletti imposti dal Dio algoritmo”. Houston! Abbiamo un (altro) problema: il lavorio incessante dei censori del linguaggio, la costante sorveglianza in nome del politicamente corretto e woke culture, porta a limitare notevolmente il lavoro dei veri professionisti a vantaggio di informazioni manipolate e farlocche alias fake news. Algospeak è un linguaggio in codice, con sue regole e suoi giochi di parole. Così per indicare la Palestina si utilizza l’emoji della fetta d’anguria, l’Ucraina diventa un girasole, la parola “sesso” viene invece indicata con una pannocchia (riferendosi all’uomo) e con un rossetto (per indicare il femminile). Altre assurdità: la spicy eggplant (melanzana piccante) rappresenta un vibratore. La “$” viene più genericamente utilizzata per riproporre parole indicibili e scabrose. Una profanazione della lingua. E per cosa? Per non toccare la già suscettibile sensibilità di chi boicotta modi di dire come “Signori e signore”, sostenendo per esempio che “i sessi non esistono”. Un modo ipocrita per camuffare di buonismo le tanto martoriate parole.

C’E’ SEMPRE DI MEZZO L’IDEOLOGIA

Altri spunti, amari ma interessanti, giungono da “Inclusive talk”. Strumento gratuito generato dall’intelligenza artificiale per convertire qualsiasi testo nella sua versione edulcorata, progressista ed inclusiva. Modernissimi diktat tuonano feroci su comunicazione e vocaboli tutti. Una censura pretestuosa e ideologica, che rende spesso difficile la decifrazione di codici e sottolinguaggi: è il caso dell’over-algospeak, per esempio. Ma le parole sono importanti. Anzi, importantissime. Ci aiutano a capire, capirci, a farci capire. Servono per raccontare, informare, testimoniare. Permettono di custodire, per poi tramandare. E se è pur vero che siano limitate e riduttive, rispetto alla complessità di sensazioni, sentimenti e pensieri, sono preziose. E meritano rispetto. Ma gli algoritmi, plasmati dall’IA, le beffano e se ne fregano di tutto ciò: decidono loro, decidono tutto, decidono per tutti. Così, su TikTok più di 90.000 video sono stati rimossi: e non per oscenità (magari!) ma per semplici parole come quelle sopracitate. Il danno, inoltre, è ben più grande. Perché esiste un pericolo reale: bannando le parole ed inventandone di nuove, si possono promuovere comportamenti distruttivi ed autolesionistici come l’anoressia. Eludendo subdolamente i controlli dei quali, stavolta, avremmo reale bisogno. Human Rights Watch riferisce che il “pugno duro” colpisca solo contenuti politici: su Meta, per esempio, il materiale che riguarda la Palestina viene reso meno visibile o direttamente rimosso. Gli algoritmi automatizzati, insomma, sono più un danno che un beneficio.

LE INASPETTATE ORIGINI DEL LINGUAGGIO IN CODICE

Da dove nasce? Il linguaggio in codice in realtà ha origini lontane nel tempo. Siamo negli anni ’80 e un gruppo di hacker inventa il “linguaggio leet, che richiama il termine elìte per comunicare su BBS (precursore del World Wide Web). Pur di non discriminare, va a finire che si incappi nella disinformazione: paradossale! Il sistema di moderazione è troppo perentorio. E limitante, per il lavoro di tantissime persone che si ritrovano “oscurate” senza colpa alcuna. Il problema riguarda non solo chi opera sui social ma anche chi ne fruisce. A livello culturale, linguistico e lessicale invece è un enorme sconfitta per tutti. Perché, ricordiamoci, l’umano deve sempre prevalere sull’artificiale (vedi per esempio i testi tradotti da ChatGpt). Questa ennesima sfida moderna-modernista-progressista, ci richiama ad un compito. O meglio, ad una responsabilità: quella di essere artefici e mai vittime.

TI E’ PIACIUTO QUESTO ARTICOLO?
ACQUISTA O ABBONATI ALLA RIVISTA:

Ti potrebbe piacere anche

Lascia un Commento