Il messaggio principale dell’Ordine esecutivo emanato qualche giorno fa dal Presidente Trump, che punta nel titolo a prevenire la “censura online”, consiste nello svelare, erroneamente, una presunta contraddizione: se le piattaforme online moderano i contenuti in base ai propri codici di condotta – è la tesi di Trump – allora esse si comportano come editori e non possono quindi godere delle eccezioni alla responsabilità (editoriale) che la sezione 230 del Communications Decency Act del 1996 riconosce loro.
Il riferimento è al punto c.1 della norma che chiarisce come le piattaforme che intermediano on line contenuti di terzi – così come gli utenti che vi condividano informazioni di terzi – non possano essere ritenuti civilmente responsabili per quei contenuti. Questa norma, che in realtà serve ad escludere responsabilità in sede civile, viene letta, un po’ forzosamente, come una norma a tutela del free speech. Ma ciò che l’Ordine esecutivo dimentica è che il punto c.2 della stessa norma estende l’eccezione anche alle attività “editoriali” delle piattaforme, in relazione precisamente alle scelte compiute dagli intermediari sulla selezione di contenuti ritenuti, in buona fede, dalle piattaforme come “objectionable”, anche laddove – e qui sta il messaggio più forte – si tratti di contenuti protetti sotto il profilo costituzionale. Incluso il primo emendamento.
Non solo, quindi, la norma non vincola la salvaguardia all’assenza di attività editoriale, ma riconosce quest’ultima anche rispetto a forme di speech protette dalla costituzione, a condizione che tali interventi siano svolti in buona fede.
L’Ordine esecutivo avrebbe dovuto quindi, come solo in parte fa, contestare la buona fede delle policy di selezione e moderazione dei contenuti di Twitter e non sostenere, erroneamente, che la pratica in sé di intervento sui contenuti comporti il venir meno della protezione di legge.
In aggiunta a ciò, va ricordato che secondo una costante interpretazione della Corte Suprema, anche in casi molto recenti, le due salvaguardie (riportate come c.1 e c.2) sono del tutto indipendenti. Ne consegue che la libertà di scelta della piattaforma (se in buona fede) sia del tutto indipendente dalla esenzione sulla responsabilità civile per i contenuti di terzi.
Sotto accusa non vi è poi solo il codice di autoregolazione per la selezione e la rimozione di taluni contenuti (ad esempio per hatespeech o incitamento alla violenza), ma anche il ‘flagging’ che le piattaforme introducono su notizie false o fuorvianti con link all’approfondimento. Qui, oltre a quanto detto, si propone il divieto di counterspeech della piattaforma la quale dovrebbe rinunciare ad applicare una policy di fact-checking, anche se affidata al ruolo di fact-checkers terzi e indipendenti.
Su questo punto, sinceramente, la posizione di Facebook, che pure svolge attività di moderazione, ma che anche nell’intervista riportata su MF ha criticato la politica di Twitter, non convince. Infatti, uno dei mantra della difesa del free speech nel dibattito costituzionale americano, è che il counterspeech è la precondizione per la sua tutela. E’ la famosa dottrina del free marketplace of ideas enunciata dal giudice Holmes nel lontano 1919. Sarebbe ben strano immaginare che la tutela del free speech debba essere accompagnata da un ambiente esclusivo, impedendo il counterspeech, a maggior ragione quando esso si limita al fact-checking. Sarebbe una forma di compelled speech, e quindi di censura, anch’essa contraria al primo emendamento.
Immaginare che le piattaforme debbano essere solo il luogo neutrale e automatico del free speech degli utenti equivale da un lato a non comprendere il filtro algoritmico, che comunque seleziona i contenuti, e dall’altro a dare campo libero alle strategie organizzate di disinformazione online, di cui pure l’Order, giustamente, si lamenta. La moderazione è necessaria per contrastare questi fenomeni a patto che sia in buona fede, indipendente, trasparente e non discriminatoria.
E’ poi paradossale che la ‘regolazione’ richiamata nell’Order comporti il trasformare le piattaforme in puri editori, i quali aumenterebbero e non diminuirebbero il controllo e la selezione dei contenuti, peraltro indipendentemente dal requisito di buona fede.
Le critiche condivisibili, riportate nell’Order, riguardano invece (i) la specificità delle grandi piattaforme; (ii) l’assenza di piena trasparenza e accountability nell’applicazione delle policy; (iii) l’assenza di informazioni chiare agli utenti. A questi andrebbero aggiunti: (iv) il ruolo di filtro, spesso non consapevole agli utenti, della profilazione algoritmica dei contenuti; (v) lo sfruttamento economico dei dati; (vi) la capacità di individuare e contrastare strategie organizzate di disinformazione online. Ma l’Order non si occupa specificamente di questo. Non chiede più regolazione nel senso di maggiore trasparenza, né chiede che si dettagli il requisito di buona fede. Si limita ad un intervento che ha il sapore della influenza politica, riproponendo uno dei tipici casi di violazione di free speech del primo emendamento: la produzione di leggi e regole da parte del potere politico che limitino la libertà d’espressione, inclusa quella dei gestori delle piattaforme, a maggior ragione se la legge riconosce già loro questo diritto.
La soluzione europea appare invece, ad oggi, quella più promettente: trasparenza piena e accessibilità ai dati e agli algoritmi nonché alle informazioni e motivazioni sottostanti i codici di autoregolazione che le piattaforme si danno. Nonché contrasto alle strategie di disinformazione e all’hatespeech on line. Nei confronti di ogni utente. Alla fine di questa strada, con l’ European Digital Act, ci sarà probabilmente una nuova forma di regolazione per le soli grandi piattaforme globali. Ma essa andrà esattamente nel senso contrario a quello indicato nell’Order: regole certe che permettano di tenere assieme l’agora pubblica della nostra libertà d’espressione e la moderazione, trasparente e non discriminatoria, dei contenuti secondo codici di autoregolazione e procedure verificabili da autorità terze indipendenti.