Questa storia paradossale e per questo emblematica la riassume il Washington Post in prima pagina. Non si tratta di qualcosa di nuovo, c’erano già state moltissime denunce precedenti, ma è la riprova che ( malgrado le affermazioni di Zuckerberg, le sua ammissioni di responsabilità, le persone assunte e ancora da assumere per controllare) gli algoritmi continuano a essere stupidi, a colpire chi denuncia piuttosto che chi ( basta solo un pizzico di furbizia) immette contenuti che aggrediscono quotidianamente donne e minoranze. Oggi facebook dice di eliminare 288 mila post al mese. ma sono quelli “giusti”? E anche la decisione di sospendere per 24 ore o più un utente come viene presa? Di chi è la responsabilità se un troll riempie di parolacce la tua pagina?
Poiché la stessa cosa accade con analoga frequenza pure con i filmati c’è da essere allarmati. Sospendendo il giudizio sulle buone intenzioni dei gestori di questa “piazza virtuale” il problema è che affidarsi ai meccanismi automatici espone al rischio totale, di venire risucchiati in paradossi, contraddizioni, censure ingiustificate. E’ un argomento questo che dovrebbe valutare bene pure chi in italia pensa di poter battere lo hatespeech “alleandosi” con le grandi compagnie. Con due miliardi di utenti come fa Facebook a “sorvegliare” quanto avviene? Non è che si è lasciato a una multinazionale privata che vive di pubblicità e quindi di traffico uno spazio enorme?
Belle domande tutte aperte. Se siete arrivati fin qui vi chiederete come è finita la vicenda della signora Latour. Dopo 24 ore l’ azienda di Zuckerberg le ha inviato un avviso automatico affermando che un membro della sua squadra aveva rimosso il suo post in errore senza dare peraltro nessun’altra spiegazione. “Per Facebook, la cancellazione del linguaggio dell’odio è un compito arduo”, titola il Washington Post, quasi una sfida scoraggiante. Sarebbe importante se ne tenesse conto pure in Italia.