Connect with us
Azzera la bolletta

Diritti umani

I fluidi confini tra algospeak, gergo della criminalità e libertà

Published

on

Tempo di lettura: 6 minuti

Siccome le piattaforme social sono nella maggior parte gestite da grosse società private o, come nel caso della Cina e di altri Paesi, da un apparato di controllo statale, ci sono ampi margini a che la cosiddetta “tutela dell’utente” nasconda manipolazioni e censure sostanzialmente fuori controllo.

di Antonio Virgili – vicepresidente Lidu onlus

Nel tempo, ogni comunità umana ha definito dei propri codici di comunicazione prevalenti, o standard, ed altri specifici di gruppi e settori, adeguandosi a tempi e tecnologie. L’informatica ha prodotto forme linguistiche anomale e neologismi mutuati dalla sua terminologia ma con una forma di ampia sudditanza verso la lingua inglese.   Le piattaforme di social media e di messaggistica sono di fatto regolatori del discorso online e quindi decisori chiave nel flusso di comunicazioni online. Negli ultimi anni, le principali piattaforme hanno iniziato a mantenere “standard comuni” pubblici, ovvero politiche di blocco su un’ampia gamma di contenuti e attività problematiche come l’incitamento all’odio, la violenza e le attività di influenza e manipolazione. In effetti una sorta di censura che blocca alcuni contenuti, sebbene la parola censura sia stata sempre evitata.

Come tutti i filtri anche questi standard comuni offrono spunti preziosi per quanti vogliano aggirarli. Le varie piattaforme e canali sociali non sono omogenee circa i tipi di filtro e i contenuti bloccati, sebbene tutte condividano almeno quanto è classificato come: contenuti terroristici, molestie online, disinformazione.  E’ da notare che tali filtri e censure siano stati di fatto accettati senza porre il problema di chi e come controlli tali filtri e di quali contenuti possano essere classificati anche semplicemente nelle tre tipologie prima indicate. Ad esempio, “disinformazione” è un termine generico che si può prestare a una grande quantità di contenuti, a seconda della cultura sociale prevalente e delle direttive politiche. Il recente esempio del Covid-19 ha evidenziato, a scala mondiale, come ciascuno possa facilmente accusare altri di disinformazione, mentre è esperienza quotidiana il fatto che in situazioni belliche e/o di aperta ostilità ciascuna delle parti si senta autorizzata e in diritto di “disinformare” su alcuni contenuti.

Siccome le piattaforme social sono nella maggior parte gestite da grosse società private (dotate di sempre maggior peso e potere) o, come nel caso della Cina e di altri Paesi, da un apparato di controllo statale, ci sono ampi margini a che la cosiddetta “tutela dell’utente” nasconda manipolazioni e censure sostanzialmente fuori controllo.     La Partnership for Countering Influence Operations (PCIO), della Carneige Endowment for International Peace, ha raccolto tutti gli standard della comunità di tredici social media e piattaforme di messaggistica (Facebook, Gab, Instagram, LinkedIn, Pinterest, Reddit, Signal, Telegram, TikTok, Tumblr, Twitter, WhatsApp e YouTube) e li ha organizzati in un insieme di dati codificati per facilitare l’analisi. Gli standard sono, come noto, in continua evoluzione, quindi, i dati rappresentano solo un’istantanea nel tempo.  L’analisi dei dati ha prodotto tre osservazioni iniziali:

– Le piattaforme variano nel modo in cui caratterizzano le operazioni di influenza e le relative tattiche. Gli standard della comunità delle piattaforme evitano in larga misura i termini più familiari agli esperti e al pubblico, come “disinformazione”. Hanno invece definito una serie di divieti specifici, alcuni familiari (come le minacce violente) e altri nuovi (come il “comportamento inautentico coordinato” o le violazioni dell’ “integrità civica”).

– Gli standard delle piattaforme non si concentrano solo sul contenuto delle comunicazioni degli utenti. Il comportamento degli utenti, ad esempio le attività moleste o di spam, è ancora più importante. Esistono anche politiche che regolano quali attori del mondo reale siano autorizzati a utilizzare le piattaforme, come possano essere distribuiti i contenuti e quali effetti reali potrebbero indurre le piattaforme.

– Gli standard di alcune piattaforme sono molto più lunghi, complessi e/o dettagliati di altri. Gli standard della comunità di Twitter sono ad esempio quasi il doppio di quelli di Facebook e più di cento volte quelli di Signal.

L’apparente attuale coincidenza tra il consenso della società in senso lato e le scelte operate dalle piattaforme suggerisce però che le società potrebbero aver bisogno di sviluppare e definire confini più chiari per delimitare la differenza tra discorsi legittimi e illegittimi, ciò prima che le piattaforme convergano in modo autonomo su modi comuni di gestire molte operazioni di filtro e censura. I governi e le organizzazioni della società civile dovrebbero avere tutti un ruolo attivo da svolgere nell’alimentare il dibattito. Anche perché gli standard comuni delle piattaforme possono influenzare ciò che la società ritiene, o riterrà, accettabile, creando le premesse per il consenso. La storia suggerisce che sarà difficile raggiungere un ampio consenso all’interno delle società e tra di esse, e che queste questioni potrebbero lungamente restare irrisolte lasciando così che i gestori delle varie piattaforme social, e dei media in generale, procedano autonomamente.

Tra gli esempi di conseguenze di tali filtri è l’algospeak.  Il neologismo algospeak indica un modo di comunicare cifrato adoperato dagli utenti di alcuni social network per eludere i filtri dei contenuti settati dai codici algoritmici. Il termine nasce dall’unione fra le parole inglesi “algorithm” e “speak” e indica appunto un modo di parlare condizionato dagli algoritmi delle cosiddette intelligenze artificiali cui è affidata la moderazione dei contenuti sui social network. L’uso di questa modalità ha aiutato anche le persone che vivono sotto regimi totalitari a fare attivismo e a comunicare utilizzando eufemismi, emoji e giochi di parole. Come in altri casi, la parola “algospeak”, neologismo anglofono sempre più diffuso anche in Italia, semplifica e riduce il termine che sarebbe forse maggiormente appropriato, cioè gergo.  Riduce perché limita questa modalità alla sola necessità di eludere i filtri informatici, semplifica perché restringe temporalmente e funzionalmente una prassi che ha una evoluzione più complessa e correlati non sempre funzionali.

Da un punto di vista sociologico è ben noto l’uso di gruppi (anche molto piccoli), minoranze e organizzazioni di formulare alcune modalità di linguaggio proprie ed esclusive per rinsaldare il gruppo stesso e aumentarne la coesione, o anche per differenziarsi da altri aggregati, ciò capita prevalentemente in base a differenze di età, lavoro, genere, religione, etnia, ecc.  Esaminando almeno una parte dei contenuti “criptati” e camuffati con l’algospeak, si notano, a parte i contenuti dovuti alle censure politiche e ideologiche, molti contenuti limite (violenza, sessualità aggressiva, sostanze psicoattive, incitamento all’odio, ecc.) ciò induce ad assimilare almeno una parte di tale tipo di codice a quello argot, ovvero il gergo della malavita e della criminalità.  Si può anzi dire che una quota degli usi del linguaggio criminale siano stati ripresi o assorbiti dall’algospeak che, probabilmente, è purtroppo funzionale anche a tali tipi di gruppi e ad azioni illegali, rendendo per essi più facile eludere i controlli.  Oltretutto, come è noto, è più agevole nascondere qualcosa se lo si può mescolare con cose simili o uguali.  Da sempre coloro che vivono al di fuori della Legge hanno escogitato svariati modi per eludere le norme o chi è chiamato a tutelarle, arrivando ad utilizzare un linguaggio segreto, fatto spesso di parole comuni ma cui si attribuisce un significato diverso, incomprensibile per chi non appartenga al mondo criminale.

L’ingresso di questo gergo criptato all’interno della lingua comune avvenne soprattutto per merito di scrittori e romanzieri, quali Balzac, Victor Hugo ed Eugène Sue, capaci di utilizzarlo al fine di rendere più realistici e intriganti i propri racconti. Il confine tra il gergo usato per coprire contenuti sensibili specifici da nascondere e la formulazione di un più articolato insieme di modalità espressive tipiche, al fine di rinsaldare e sottolineare i legami di contesto e d’interazione è chiaramente fluido e permeabile. Occorrerebbe misurare le frequenze e i tipi di contenuto specifici per una corretta analisi, poiché in comune hanno la unicità dei codici, comprensibili solo agli appartenenti a un dato gruppo (dipendenti di una azienda, amici, gruppo etnico, gruppo familiare, gruppo criminale, ecc.). Codici che nel caso dell’algospeak e dell’argot tendono a mutare abbastanza velocemente perché sottoposti a costante osservazione e indagine esterne proprio per decodificarne i contenuti. Invece, in altri contesti come quello lavorativo o amicale, caratteristiche e temi possono essere molto persistenti nel tempo. Se è vero che l’algospeak appare una lingua fatta appositamente per aggirare le rigidità degli algoritmi social, poiché la maggior parte delle piattaforme agisce in modo censorio, o comunque penalizzante, nei confronti di contenuti che trattano di argomenti considerati delicati o vietati, come per esempio la sessualità, in effetti essa riprende i metodi usati nell’argot della criminalità per l’esigenza di comunicare senza essere compresi e scoperti da altri.

In una sorta di perenne braccio di ferro tra i censori e i creatori di codici comunicativi, siano essi umani o artificiali, si manifestano periodi di più intenso utilizzo di tali modalità. Ai nostri giorni, la guerra in Ucraina, ma anche le repressioni politiche, culturali e religiose in Afganistan, Iran e in numerosi altri Paesi del mondo, pongono le premesse per un risorgere di tali codici ristretti. La lingua come ferreo meccanismo identitario è del resto praticabile anche dai più ignoranti. La cosa paradossale è che per aggirare le censure dei gestori delle reti di comunicazione, risultano più efficaci le azioni di gruppi organizzati, o comunque creanti una micro-rete.  Gli utenti singoli o comunque slegati da tali reti subiscono invece sia l’effetto delle censure dei gestori, a volte frutto di mode culturali oltre che di intenti manipolatori, sia dai gerghi dei piccoli o grandi gruppi, legali o illegali, formali o informali che siano.

Almeno da quando si sono diffusi i cellulari e la posta elettronica, esiste anche un linguaggio iconico fatto di segni grafici per esprimere emozioni e stati d’animo. Si tratta dei cosiddetti emoticons, cioè «icone emotive»: formate da segni di interpunzione quali virgole, punti, e simboli quali parentesi, asterischi, da leggere in orizzontale come se però fossero disposti in verticale.  Da accostare agli emoticons è il linguaggio degli sms (short message system o service), detti ordinariamente «messaggini», che si compone di abbreviazioni quali “3mendo”, “hdere”, “novelordin” (non vedo l’ora di incontrarti), “tvb” (ti voglio bene), “xxx” (baci)…   Con la diffusione crescente delle intelligenze artificiali tali meccanismi e i rischi insiti connessi potranno ampliarsi ulteriormente incrementando l’inquinamento dell’infosfera.

Apollo Mini Fotovoltaico
Serratore Caffè