Dal Corriere della Sera di domenica 17 marzo 2019:
Perché Facebook, Google e Twitter fanno ancora fatica a individuare e rimuovere rapidamente video come quello della strage in Nuova Zelanda?
«Negli ultimi anni queste piattaforme hanno fatto passi avanti. Sono stati chiusi milioni di account collegabili a terrorismo ed estremismo. Il problema è che gli algoritmi usati per bloccare le immagini di nudità non sono utilizzabili in questo caso. Qui è necessario il controllo dell’occhio umano. Ciò significa che servono più risorse».
Sulle grandi piattaforme spesso rimbalzano contenuti postati in siti diversi. Nella pagina Facebook di Brenton Tarrant c’erano link a «8Chan» e altri account…
«È uno dei problemi: la migrazione e la dispersione degli estremisti in una giungla di siti e piccole piattaforme meno controllabili. Appunto come «8Chan», «4Chan». I militanti jihadisti usano molto un’App chiamata Telegram».
Come si può intervenire?
«La normativa della Germania è tra le più studiate: i siti che non rimuovono contenuti violenti o estremisti rapidamente, nel giro di ore, vengono multati. Un’altra pista è imporre alle società di Internet gli stessi obblighi che devono seguire tv e radio. Negli Usa c’è un organismo incaricato di vigilare, senza intaccare il Primo emendamento che garantisce massima libertà di espressione. La formula funziona».
Facebook e gli altri big dei social sono pronti ad accettare questi vincoli?
«È una lobby potente. Ma nel Congresso cresce un’insofferenza, direi bipartisan, nei confronti della Silicon Valley».