Sento brindare in non poche redazioni. Ancora una volta uno scricchiolio della rete spinge gli irriducibili ad annunciare che si chiude l’insopportabile parentesi e siamo pronti a ricominciare. Magari recuperiamo anche la fissa.
In realtà quanto sta accadendo non è solo uno scricchiolio, è un vero terremoto.
Non siamo lontani dalla caduta dell’impero romano d’occidente. Come allora, si accartocciava un sistema politico ormai logoro e immobile, mentre fuori scalpitavano i barbari, sempre più vitali e scompostamente energici.
Lo scandalo Facebook/Cambridge Analytica sta riclassificando l’intero mercato globale. Finalmente.
Il dominio monopolistico di un sistema come Facebook che oggi convoglia sulle sue pagine 2 miliardi di persone non era sopportabile. Così come non è sopportabile l’arroganza di chi pensa di ridisegnare l’opinione pubblica del mondo solo perché dispone di alcune sofisticate competenze tecnologiche e di immensi capitali per acquisire una grande potenza di calcolo. Ma andiamo per ordine. In un mio libretto in uscita in questi giorni, intitolato Algoritmi di Libertà (Donzelli Editori) cerco di descrivere la dinamica che si sta profilando in rete proprio alla luce di questo scandalo che per coincidenza fortuita ho potuto analizzare nei mesi scorsi.
Due sono gli aspetti essenziali che parlano al mondo del giornalismo di questa vicenda che è ancora lontana dal suo epilogo:
1) Il ruolo e la gestione dei data base
2) Il potere e la funzione degli algoritmi
Sono i due elementi che costituiscono il motore del nuovo mondo digitale: memorie e potenza di calcolo.
La vicenda Cambridge Analytica ci dice che un gruppo privato, in virtù di una infinita disponibilità economica, è in grado di acquisire, in maniera esclusiva e riservata, una concatenazione di data base. Infatti insieme ai dati di Facebook, gli analisti di Cambridge Analytica lavorano con data base geo referenziati, ossia ancorati al territorio su cui intervengono, nel caso americano, hanno combinato i dati del social network con quelli di compagnie telefoniche e di piattaforma di pay tv, come ci spiega la requisitoria del super procuratore americano Muller che indaga sul Russiagate. Grazie a questo carotaggio verticale di data set gli analisti sono in grado di isolare un pulviscolo di singoli profili di elettori, diciamo 28 milioni. Esattamente il numero sufficiente a spostare i 4 stati chiave del mosaico elettorale statunitense. In questi stati, proprio grazie alla georeferenziazione dei dati, si è riusciti a decentrare, contea per contea, città per città, quartiere, per quartiere, condominio per condominio, la scannerizzazione dei profili culturali, emotivi e commerciali dei singoli elettori.
A questo punto, come descrivo dettagliatamente nel mio libro, si è cominciato a procedere con il cosiddetto market pulling, ossia il bombardamento di ogni singolo bersaglio con flussi mirati di dark advertising che adottavano esattamente il linguaggio e la caratteristica emotiva che coincideva proprio con l’intimo profilo di ognuno dei 28 milioni di elettori individuati come obbiettivi.
Vi rendete conto che questa strategia scardina radicalmente tutti i presupposti di uno stato democratico, in quanto sfarina l’opinione pubblica, l’unico elemento dialettico e civile in grado di bilanciare il potere degli apparati statali in una democrazia, disarticolando ogni gruppo sociale in un caleidoscopio insieme di profili individuali che non sono in grado di dialogare e confrontarsi fra loro perché nessuno conosce le informazioni che ha avuto l’altro. La condivisione e reciprocità delle informazioni, il fatto cioè è che io sappia più o meno cosa legge e ascolta il mio interlocutore perché, bene o male, condividiamo il sistema della stampa e dei notiziari televisivi, è la condizione preliminare per una dialettica sociale. Se ciò viene rimossa, e ogni individuo riceve input diversi la discussione è impensabile o , altrimenti, diventa una rissa.
Questo è il vero inquinamento messo in atto da Cambridge Analytica negli USA, in Inghilterra, con la Brexit e anche nel nostro paese.
Proprio le indagini del superprorcuratore Mueller, come riporta in maniera circostanziata Collusion, il libro reportage del giornalista investigativo del Guardian Luke Harding, dedica 37 pagine al caso italiano, anticipando, la requisitoria è stata scritta nell’autunno scorso, che le elezioni in Italia sarebbero state a rischio, come per altro ci aveva avvisato sorprendentemente l’ex vice presidente americano Biden su Foreign Affair. Di cosa si tratta? Come le elezioni sono state deformate? Mueller descrive una ragnatela di siti web che dall’estate scorsa stanno pompando notizie distorte o palesemente falsificate, recapitate a gruppi specifici di interlocutori, su particolari territori o regioni. Questi siti, una ventina, connessi ad alcune piattaforma che fanno capo alla centrale di S. Pietroburgo, lavorano su tre temi: paura anti immigrazione, rancore anti elitario, rabbia e rissosità giovanile. Dai loro grafici si ricava una geografia del voto che converge su due destinatari: I 5S e la Lega. Questa è la vera origine di un possibile governo sovranista, altro che i diplomatismi di Salvini o Di Maio: alle spalle i due vincitori hanno un committente unico.
Cosa fare allora? Proprio i due elementi fondamentali di questa azione- data base e algoritmi- ci indicano una strada: le memorie che coincidono con una comunità, ad esempio i profili della popolazione di un’ intera regione o paese, devono essere considerati spazio pubblico, come la TV.
I colleghi di Articolo 21 forse ricorderanno la battaglia sul conflitto di interessi, in cui in una certa fase solo uno sparuto gruppo di sindacalisti e giornalisti del servizio pubblico poneva il tema che fare tv, a qualsiasi livello e con qualsiasi statuto proprietario, era comunque uno spazio pubblico che doveva rispondere a regole e valori condivisi nazionalmente. I data base sono come le frequenze della TV: dotazioni pubbliche che se anche vengono occasionalmente privatizzate come gestione, non possono essere commercializzate in termini speculativi. Ogni giacimento di memoria è innanzitutto un patrimonio pubblico che deve essere trasparente e tracciabile nei suoi movimenti e utilizzazione.
Il secondo punto riguarda gli algoritmi, ossia la potenza di automatizzare il trattamento e l’elaborazione delle informazioni e delle memorie. Qui entriamo direttamente in un campo che vede i giornalisti in prima fila. Da anni entriamo nelle nostre redazioni, apriamo i nostri computer, ci connettiamo ai sistemi editoriali delle nostre testate e non ci chiediamo cosa ci sia in quei server, quali culture, quali ideologie, quali interessi, quali valori siano rappresnetati in quel codice. E soprattutto quanto di questo è stato negoziato? Quanto è il risultato di un confronto e interferenza da parte delle culture professionali del giornalismo? Queste domande ora investono l’insieme della società. Un algoritmo, spiega il grande matematico Alexander Galloway è un sistema di istruzioni inconsciamente eseguibile. E’ proprio su quell’inconsciamente che si gioca ora la partita: l’algoritmo deve diventare un sistema valoriale socialmente negoziabile, perché è socialmente influente e discriminante. Un sistema automatico di software organizza e ottimizza operazioni e soluzioni proprio sulla base delle culture e degli obbiettivi del suo progettista, volendo imporre la conclusione che quella sia l’unica soluzione possibile. Ora se non apriamo, come dice Frank Pasquale, uno dei più brillanti e giovani analisti di sistemi robottizzati, la black box dei sistemi automatici rischiamo di affidare la nostra discrezionalità ad un gruppo sempre più ristretto di titolari di algoritmi.
Su questi due valori, la dimensione pubblica dei data base e la negoziabilità e trasparenza degli algoritmi, si ripropone una antica battaglia di civiltà fra chi ha molto e chi non ha niente, fra chi guida l’innovazione e chi ne è solo utente, fra chi parla e chi può solo ascoltare. E’ la partita di Cambridge Analytica, che è stata certo riaperta da giornalisti, ma che ci porta in un ambiente in cui i giornalisti non ci sono ancora: la riprogrammazione dei sistemi automatici. Intanto sarebbe bene che le redazioni dei grandi giornali che hanno aderito all’intesa di Instant Articles, il sistema di distribuzione via Facebook delle notizie della carta stampata, fra cui eminenti testate italiane, si prodigassero per capire se anche i dati accumulati da Instant Articles sono stati usati da Facebook e Cambridge Analytica per organizzare il microtagging elettorale. Sarebbe gravissimo, e sarebbe ancora più indecente che questo eventuale constatazione non portasse i quotidiani a ritirarsi da una opaca e del resto anche non efficiente intesa con Mark Zuckerberg.
Da qui si riparte per dare un senso moderno e attuale a quella battaglia di libertà di cui siamo stati testimonial ma che oggi rischia di lasciarci ai margini se non ci poniamo il problema di come essere liberi domani. Anzi questa sera.