Samizdat2



SAMIZDAT #2

I 5 LIVELLI DELLA MODERAZIONE DI CONTENUTI

aka E SE FOSSI PROPRIO TU A SUBIRE LA PROSSIMA CENSURA?




I sospetti sono diventati realtà a settembre di quest’anno: sul Wall Street Journal, per la prima volta, sono apparse le prove dell’esistenza di un programma di Facebook volto a tutelare sei milioni di persone dai possibili interventi di sorveglianza e censura dall’ attività di moderazione di contenuti. Il programma, conosciuto internamente come XCheck, contiene una lista in continuo aggiornamento di nomi, cognomi, pagine e account di personaggi pubblici, vip e celebrities esentati del tutto o in parte dalle regole di moderazione stabilite da Facebook stessa nei confronti dei propri iscritti.


La scoperta, in realtà da tempo prevista a partire da semplici osservazioni empiriche, rappresenta un ulteriore segnale dell’enorme potere accumulato dalle aziende tecnologiche private nei confronti della libertà di espressione di una fetta maggioritaria della società: per chi non fa parte di XCheck, per chi non gode di visibilità pubblica ma solo dei “normali” diritti umani e di cittadinanza, non è prevista alcuna forma di tutela. Tutti, indipendentemente dalla nostra età, condizione, esperienza, attività sulla piattaforma e investimenti, siamo allo stesso tempo vittime e collaboratori del più grande sistema di sorveglianza e censura creato a memoria d’uomo: quello dei cinque livelli – a oggi conosciuti - di moderazione di contenuti online.


LIVELLO 1: UTENTI – NESSUNA TUTELA PER IL PRIMO E PIÙ DEBOLE ANELLO DELLA CATENA


Al livello più basso di questo capillare sistema di moderazione ci troviamo proprio noi, gli utenti “normali”, quelli che non sono riconosciuti come personaggi pubblici, che non investono milioni in pubblicità online o non hanno un media proprietario – giornale, tv, radio - che ne prenda celere le difese. Possiamo rimuovere i contenuti e gli utenti indesiderati solo dai nostri profili personali, mentre per ogni altra necessità l’unica soluzione è segnalare (anonimamente) un utente o un contenuto a un moderatore anonimo e inavvicinabile, che non ha alcun obbligo di rispondere entro tempi certi e in maniera trasparente e imparziale. Dai moderatori un basic user non ha, a sua volta, alcuna protezione garantita: può essere oggetto di segnalazione anonima da parte di un altro utente, e tutti i suoi contenuti - profili, messaggi, chat private - possono essere esposti alla sorveglianza di un moderatore professionista, senza neppure rendersi conto di questo controllo.

Siamo il primo e più debole anello della catena, e allo stesso tempo quello che, con le proprie segnalazioni, alimenta e giustifica i due livelli successivi, i moderatori volontari e i professionisti.


LIVELLO 2: MODERATORI VOLONTARI – LAVORARE GRATIS PER UN PO’ DI POTERE


A un livello di poco superiore si trovano, infatti, i moderatori di contenuti volontari: nelle chat di Twitch, nei canali di YouTube, nei gruppi di Facebook che godono di una certa popolarità e diffusione, essi possono bloccare o limitare la visibilità di utenti e contenuti accusati di violare uno o più standard di una specifica community. Si distinguono dagli utenti normali solo perché hanno ottenuto il potere di censurare uno spazio online ristretto, solitamente un gruppo o un canale, dagli amministratori delle community stesse.


Il controvalore di questo potere è il proprio lavoro, perlopiù gratuito, e parte della propria sicurezza. A differenza dei moderatori professionisti, vengono remunerati solo raramente e costretti a intervenire utilizzando i propri profili, con conseguenze impreviste ma immaginabili in termini di tutela e responsabilità personale. Ai moderatori volontari, infatti, non è concesso il privilegio dell’invisibilità proprio dei professionisti. Solo le piattaforme, e le società fornitrici di queste ultime, possono ricollegare un intervento di censura a un operatore specifico, mentre dall’esterno rimane (e deve rimanere) sempre il dubbio se a intervenire sia stata una macchina, un essere umano o un insieme di entrambi.


LIVELLO 3: MODERATORI PROFESSIONISTI – L’ESERCITO INVISIBILE DEI LAVORATORI SENZA DIRITTI


Il livello intermedio, quello più studiato nel mondo e di recente anche in Italia, è quello dei moderatori di contenuti professionisti: essi ricevono le segnalazioni anonime degli utenti e delle intelligenze artificiali al lavoro sulle piattaforme, intervengono dove i moderatori volontari non possono (o non vogliono, o non se la sentono di intervenire), ed esercitano un potere pressoché illimitato di sorveglianza e censura nei confronti della maggioranza degli utenti di una o più piattaforme, a eccezione, ovviamente, di coloro che sono tutelati da Xcheck e simili.


Inaccessibili agli utenti normali, invisibili rispetto all'esterno, essi rispondono solo al proprio datore di lavoro di potenziali carenze, omissioni, conflitti di interesse nei confronti degli utenti su cui esercitano il proprio potere di sorveglianza e censura. Vero e proprio infinito esercito di riserva del capitalismo delle piattaforme e della sorveglianza, prototipo del gig worker e prefigurazione di uno scambio sempre più asimmetrico tra lavoratore e capitale, oggi, finalmente, sappiamo su di loro molte più cose rispetto al passato grazie alla crescente disponibilità di inchieste e testimonianze, sovente rilasciate sotto garanzia di anonimato, che ritraggono vite distrutte dai ritmi e dai terribili contenuti alla cui visione costringe l’algoritmo e gli umani che ne dipendono.


LIVELLO 4: SUPERVISORI, TEAM DI SICUREZZA, I PROPRIETARI DELLE PIATTAFORME DIGITALI – I MODERATORI CON BENEFIT


Un gradino sopra i moderatori remunerati si collocano i loro supervisori (di norma scelti tra i moderatori con maggiore esperienza) e, soprattutto, i responsabili dei team di sicurezza delle piattaforme digitali, ovvero coloro che sono chiamati a prendere le decisioni di moderazione più critiche (attentati terroristici trasmessi in diretta, violenze da parte delle istituzioni e forze di polizia, etc.).

Questi moderatori "premium" agiscono in coordinamento con il management e possono solitamente contare su una conoscenza più approfondita e specialistica delle tematiche di moderazione rispetto alla massa dei moderatori loro sottoposti. A differenza di questi ultimi possono contare su un lavoro stabile e godono di benefit, stipendi adeguati e prospettive di carriera che vanno oltre l'attività di moderazione a tutto tondo: neppure loro, tuttavia, possono ritenersi del tutto immuni da ricadute negative e da improvvise censure decise da coloro da cui dipende la sopravvivenza online delle piattaforme.


LIVELLO 5: MODERATORI DI STORE E SERVIZI DI HOSTING – L’ULTIMO CLICK


Il quinto e più alto livello gerarchico è occupato da coloro che dispongono del potere di rimuovere una app dagli store più popolari, o di eliminare un intero sito web o di precluderne i canali di finanziamento. Con pochi click di mouse sono dunque in grado di cancellare tutta l'infrastruttura sottostante: rimuovere le app di Facebook, i suoi tre miliardi di utenti, i suoi 20.000 moderatori di contenuti professionisti e tutti coloro che a vario titolo collaborano alla sua capillare attività di moderazione di contenuti, così come ogni giorno rimuovono o limitano l’accesso di migliaia di altre app e piattaforme.


Ovviamente i moderatori del quinto livello condividono con i livelli inferiori il fatto di non essere soggetti ad alcuna forma di regolamentazione esterna: non esiste alcuna limitazione al loro potere di censura nei confronti di sviluppatori, aziende e utenti di queste ultime.


LIBERTA’ DI ESPRESSIONE: UNO SCONTRO GLOBALE DALL’ESITO QUANTO MAI INCERTO


E non è in realtà nemmeno finita qui. Nel corso degli anni i governi e le forze di polizia di tutto il mondo, dopo un periodo di iniziale incertezza, hanno preso le misure e hanno imparato sempre più a servirsi delle piattaforme digitali per rimuovere voci dissonanti, informazioni “pericolose”, giornalisti non graditi in cambio della possibilità offerta alle piattaforme stesse di continuare a operare in un determinato Paese. Non è possibile, tuttavia, considerare la moderazione di soggetti esterni come governi, magistratura, forze di polizia o cybercriminali come un vero e proprio sesto livello di moderazione, in quanto le piattaforme stesse dispongono del potere di ricatto nei confronti di queste istituzioni e forze esterne: se è possibile su un piano teorico per un governo limitare o vietare del tutto l’accesso o Facebook o Twitter, a oggi nessun governo è stato in grado di impedire alle piattaforme di non censurare i propri rappresentanti in forma permanente o semi-permanente. Detto altrimenti, per ogni limitazione e ingerenza subita, le piattaforme sono in grado di rispondere censurando o limitando l’operatività dei propri “avversari”, in un gioco potenzialmente a somma zero di cui non si scorge ancora la fine.


E ancora, se da un lato le piattaforme dispongono oggi di un potere pressoché illimitato nel dare e togliere visibilità a qualunque contenuto, individuo, gruppo ritenuto più o meno ostile alle proprie strategie, dall’altro non è scontato che la completa redistribuzione di questo potere nelle mani di governi democratici - e non - possa essere una soluzione ottimale ai problemi del presente. In questo contesto, finché non verrà raggiunto un punto di equilibrio tra i diversi livelli di moderazione di contenuti sarà di fatto inutile domandarsi se abbia senso o meno smembrare Facebook o TikTok, o imporre delle regole più stringenti alla moderazione di contenuti di una piattaforma rispetto all’altra. Nei livelli superiori, ci sarà sempre qualcuno che potrà fare click prima di tutti gli altri.



Bibliografia minima


Gillespie T., Custodians of the Internet: Platforms, Content Moderation, And The Hidden Decisions That Shape Social Media, Yale University Press 2018.


Roberts S.T., Behind the Screen, Content Moderation in the Shadows of Social Media, Yale University Press 2019


Jacopo Franchi, Gli obsoleti. Il lavoro impossibile dei moderatori di contenuti, Agenzia X, Milano 2021


Novembre 2021


Share by: