La strategia di Facebook contro l'odio in rete

Ha fatto riflettere la strage di Christchurch, folle apoteosi di una corrente d'odio che ha palesato se stessa in una diretta streaming di quasi venti minuti. Un'eternità, durante la quale il video girato dal killer Brenton Tarrant ha mostrato tutta l'efferatezza di una lucida pazzia, a tutti gli utenti che, potenzialmente, potevano connettersi su Facebook per vedere ciò che stava facendo prima che i contenuti fossero oscurati. Il bilancio di quarantanove musulmani morti, trucidati durante la preghiera in moschea, ha convinto il Ceo del social, Mark Zuckerberg, a correre ai ripari, precludendo la sua creatura a qualsiasi post o commento inneggiante a logiche di estremismo politico. Il che, tradotto, significa che su Facebook non ci sarà più posto per i suprematisti bianchi e per chi, come loro, sceglie la via della rete (accessibile a chiunque, giovanissimi compresi) per veicolare messaggi d'odio e discriminazione, arrivando a creare vere e proprie interconnessioni fra gruppi anche estremamente lontani geograficamente.

La nuova policy

Facebook ha chiarito immediatamente che il bando non riguarderà solo il suprematismo in senso stretto, sul quale peraltro vigeva già in precedenza “una politica che ha a lungo proibito manifestazioni d'odio”. Oggetto della nuova strategia saranno anche altri gruppi o correnti di pensiero ritenute al centro di un'escalation rischiosa: “In origine – ha spiegato Facebook in un comunicato – non applicavamo la stessa logica anche al nazionalismo e al separatismo bianco perché avevamo in mente un concetto più ampio di queste due idee – come l’orgoglio americano o il separatismo basco, che sono una parte importante dell’identità delle persone”. Sentimenti che, a quanto pare, sono ora stati inquadrati come, in potenza, eccessivamente avvicinabili ai dettami del separatismo bianco ma anche del nazionalismo, medesimo “colore”, impossibili, secondo il social, “da separare in modo significativo dal suprematismo e da altri gruppi d'odio organizzati”.

Da Charlottesville a Christchurch

In sostanza, l'intento di Facebook è mettere al bando le apologie non le idee. E si tratta di un percorso che, con la strage di Christchurch, ha visto lo step finale per essere messo definitivamente in pratica. La valutazione del social sui propri standard di salvaguardia della piattaforma dai sentimenti d'odio e dalla diffusione di temi d'intolleranza e fomentazione, era partita già nei giorni successivi alla contro-manifestazione del 12 agosto 2017 a Charlottesville, in Virginia (dove i suprematisti marciavano, nello stesso giorno, per protestare contro la decisione di rimuovere la statua del generale confederato Robert Lee), presa di mira da un suprematista e dalla sua auto, che investirono e uccisero la giovanissima Heather Hayer. Già allora, Facebook iniziò a fare i conti con la sua piattaforma come potenziale veicolo di contatti rischiosi ma, in quel momento, non vi era ancora stato un “accorpamento” di nazionalismo e razzismo come strumenti dagli effetti simili, perlomeno da un punto divista di contenuti social. All'epoca, i vertici di Fb avevano spiegato come l'ideale nazionalista fosse un “movimento e un'ideologia di estrema destra” ma che “non sembra essere sempre associato al razzismo (almeno non esplicitamente)”.

Risposta decisa

Non è ben chiaro, al momento, quali saranno gli strumenti effettivi con i quali Facebook metterà in pratica la sua strategia di prevenzione, né quali siano state le interfacce del confronto per la sua adozione. Di certo, però, la nuova policy riguarderà l'oscuramento e la cancellazione, di post e account a essi connessi, con sufficientemente chiari riferimenti, anche non particolarmente espliciti, alle ideologie del suprematismo, separatismo e nazionalismo bianco. Una risposta (attesa) chiara a chi, dopo i fatti di Christchurch, aveva aspramente criticato il social, gettando una nuova pesante ombra sulla sicurezza, a fronte di un periodo certamente non facile dovuto agli strascichi del Datagate e al dibattito sulla privacy. Va detto che, al netto dei necessari provvedimenti richiesti all'azienda, una decisione simile conferma quanto avanzato già all'indomani della strage in Nuova Zelanda, quando era apparso chiaro come la rete suprematista fosse rimasta latente ma comunque in grado di veicolare pericolosi messaggi d'intolleranza attraverso il web, dando vita a un reticolato globale fino a quel momento poco o per nulla conosciuto.

Lotta all'intolleranza

Facebook, da parte sua, precisa in modo tacito che la rimozione immediata di contenuti simili è difficile, se non impossibile. Nel caso del video di Tarrant, ad esempio, si parla di 1,5 milioni di filmati rimossi in 24 ore, i primi pochi minuti dopo l'inizio della diretta, dopo avviso della Polizia. Il che sta a significare una sfida certamente impegnativa ma necessaria, se non altro per rendere le regole del web (dei social nello specifico) più restrittive in materia, attraverso sistemi di monitoraggio specifico che, se non altro, porteranno le piattaforme a essere un terreno meno agile per la diffusione di un determinato tipo di ideali. D'altra parte, nonostante il social resti lo strumento più potente di interscambio, la sensazione è che la battaglia all'arginamento del sentimento suprematista e di altri sentimenti di odio razziale sia da combattere su fronti ben più numerosi.