Fonte JACOPO IACOBONI de La Stampa di Torino

Parla il ricercatore in Computational Science all’Imt: «Il maestro mondiale è Putin. E Trump ha seguito l’esempio»

«È come nella Russia di Putin, o nell’America della campagna Trump: diventa centrale la cognitive inoculation, meccanismi di inoculazione delle credenze, specialmente false credenze, o false notizie. Ma l’ingegneria ha un peso decisivo. Non mi sorprende che accada anche nel web italiano». Walter Quattrociocchi ha appena scritto un libro, «Misinformation» (assieme a Antonella Vicini. Guida alla società dell’informazione e della credulità), che studia come falsa informazione, propaganda e black propaganda, e non di rado calunnie, diffamazioni seriali e veri e propri reati, stanno inquinando pesantemente lo spazio pubblico. Anche nelle democrazie. Quattrociocchi è ricercatore all’Imt di Lucca, coordina il Laboratorio di Computational science; l’abbiamo interpellato come esperto terzo, non avendo lui avuto alcun ruolo nelle analisi che abbiamo citato ieri.

Che ne pensa?  

«Lo scenario è quello. Naturalmente non parlo degli aspetti giudiziari, né identifico la centrale. Ma è evidente che è in atto in Italia, direi, una clusterizzazione fortissima della discussione in Facebook, che non si configura come casuale».

Può spiegare meglio cosa significa?  

«Che, ancor più della connettività in sé, si stanno creando gruppi di discussione molto aggregati, molto densi, compatti e che si autorinforzano, molto interconnessi, che si aggregano in parte spontaneamente, per il meccanismo diconfirmation bias, in parte ingegneristicamente. È un fenomeno molto pericoloso in sé, e molto studiato all’estero. Mi fanno arrabbiare quelli che dicono che in fondo i social sono piazze che potenziano ciò che è sempre esistito. No. Questa cosa, così, non è mai esistita prima».

Può fare alcuni esempi di “clusterizzazione ingegneristica”? Il primo che le viene in mente.  

«Direi che queste tecniche sono usatissime da Vladimir Putin, in Russia. I maestri sono loro. Tecniche studiate, documentate. Da questo punto di vista è interessante vedere il tipo di legami col web politico italiano. Noi, come Laboratorio di Computationl Science, abbiamo quasi finito di scrivere un proposal per un progetto internazionale di analisi sistematica del web russo».

E il presidente eletto Donald Trump? Ha ingegnerizzato molto la disinformazione, o si è solo giovato di una situazione in parte anche spontanea del web in lingua inglese, spesso fuori dai confini Usa, in paesi dove è più facile e redditizio monetizzare il traffico, anche dalla viralizzazone dei falsi?  

«È vero che c’è stato questo spontaneismo, mi viene in mente il piccolo paesino della Macedonia dove sono nati cento dei siti pro Trump tra i più cliccati della campagna, e totalmente virali e accettati in Facebook. Ma bisogna capire che Trump ha ingegnerizzato in modo pesante. L’hannno detto loro stessi. Il suo ingegnere Covernich è un genio, da questo punto di vista. Hanno preso una narrativa, l’hanno sostituita con un’altra senza minimamente porsi il problema della falsità, e hanno scoperchiato la pentola».

Come si viralizza un falso o una calunnia?  

«Dei cluster ho detto. Fondamentali sono le echo chambers, le camere di risonanze, pagine in cui attivisti e troll rullano i tamburi, che possono essere molto manipolate, e profilate. E attrarre comunità anche in base a un engagement spontaneo, ma se non si capisce – come non capiscono molti “internettiani” – che è l’architettura che plasma, siamo fuori strada, in una situazione pericolosa».