Le principali aziende tech rafforzano l’impegno nel combattere le fake news

Network Luiss IDMO, Data Lab e Zeta.


«La disinformazione non può più essere una fonte di guadagno. Abbiamo bisogno di un impegno più forte da parte delle piattaforme, dell’intero ecosistema pubblicitario e delle reti di fact-checker», affermava il 26 maggio 2021 Thierry Breton, Commissario europeo per il mercato interno e i servizi, subito dopo la pubblicazione della Guida del Codice sulla disinformazione. Circa un anno dopo, il 16 giugno è stato emanato il nuovo Codice, firmato da 34 attori tra piattaforme e aziende già affermate o emergenti nel settore tecnologico e dell’informazione, come Meta, Google, TikTok e Microsoft, che rafforza le misure previste dalla Guida promossa dalla Commissione Europea nel 2018. L’obiettivo della nuova versione del documento non è solo quello di rendere più stringente l’impegno dei firmatari nella lotta alla disinformazione, ma anche di avviarsi, nel lungo periodo, alla realizzazione di un ambiente virtuale più trasparente, sicuro e affidabile. 

Secondo Věra Jourová, vicepresidente della Commissione Europea e responsabile del coordinamento delle politiche sui valori e la trasparenza, i due momenti storici della pandemia e della guerra russo-ucraina hanno reso necessario un aggiornamento del Codice «perché è necessario che le piattaforme online e tutti gli altri attori affrontino i rischi sistematici che i loro servizi e l’amplificazione algoritmica comportano, smettano di elaborare policies in maniera autonoma e impediscano di realizzare guadagni sulla disinformazione, in modo da preservare la libertà di espressione». 

In questo senso, il nuovo Codice definisce in maniera più incisiva le disposizioni previste dalla Guida della Commissione Europea, che svolge un ruolo di supervisione nell’applicazione e nel rispetto di misure come demonetizzare la diffusione della disinformazione, assicurare la trasparenza degli inserti pubblicitari in materia di propaganda politica, rafforzare il ruolo degli utenti, incrementare la cooperazione con i fact-checker e permettere ai ricercatori di avere un accesso migliore ai dati.  

Il documento prevede l’istituzione di due dispositivi, una task force e un centro di trasparenza, adibiti l’uno al controllo del rispetto delle norme previste dal Codice e l’altro alla pubblica diffusione delle misure e delle modalità di funzionamento di questo organismo di controllo. Il monitoraggio avverrà ogni sei mesi a partire da gennaio 2023: i firmatari saranno tenuti a presentare periodicamente alla Commissione una relazione sulle misure attuate contro la disinformazione, permettendo così di valutare l’impatto effettivo delle norme previste dal Codice, ed eventualmente procedere a una sua modifica in ottica di miglioramento. 

Le criticità che i firmatari si impegnano ad affrontare sono relative a quattro grandi macroaree. La prima si concentra sulle modalità di definanziamento degli agenti che promuovono la disinformazione (Demonetisation of disinformation). L’obiettivo è evitare che advertising pubblicitari siano accostati a contenuti di disinformazione o contengano disinformazione loro stessi. Gli Stati Membri si impegnano così a sviluppare politiche e sistemi per verificare l’idoneità dei contenuti da monetizzare e il posizionamento degli annunci. Tra le azioni che i firmatari potranno attuare vi sono la rimozione e la restrizione di pubblicità su pagine web e domini che diffondono disinformazione e la collaborazione con tutte le società e le aziende che si occupano del controllo dell’affidabilità e della veridicità dei siti. 

La seconda macroarea (Political avertising) riguarda la trasparenza degli annunci. Gli advertising di contenuto politico e pubblicitario saranno chiaramente etichettati e distinguibili come contenuti a pagamento. Gli utenti potranno visualizzare dati come sponsor, la spesa pubblicitaria, il periodo di visualizzazione, così come il motivo per cui sono destinatari di quella specifica pubblicità. 

Le misure che, invece, tenteranno di ridurre i comportamenti che favoriscono la diffusione della disinformazione, come gli account falsi, i deep fakes, i furti d’identità e i bot, costituiscono la penultima macro area del Codice (Integrity of Services). Un elenco di TTP (Tattiche, Tecniche e Procedure) sarà stilato periodicamente da ogni Stato firmatario con l’obiettivo di aggiornarsi, in maniera reciproca, sulle pratiche utilizzate per la diffusione di notizie false. In questo ambito rientra anche la promozione di pubbliche campagne sulla disinformazione, le sue forme e i suoi pericoli. 

Nella quarta e ultima parte del codice (Empowering users, empowering researchers ed empowering the fact-checking community) vengono stabilite alcune misure che hanno l’obiettivo di rafforzare la protezione degli utenti. I firmatari si impegnano a fornire elementi affinché i navigatori del web possano distinguere le fonti autorevoli e segnalare i servizi di disinformazione. Allo stesso modo, ai ricercatori che si occuperanno di disinformazione, verrà garantito accesso a libere piattaforme fornite di dati anonimi e aggregati. Il nuovo Codice stabilisce infine un incremento e un maggior sostegno economico ai fact-checkers, spingendo piattaforme e servizi a una più puntuale verifica dei fatti sui loro domini. 

Articolo di Alissa Balocco e Silvia Pollice, studentesse del Master in Giornalismo e Comunicazione Multimediale dell’Università Luiss Guido Carli.

Data analysis Europei 2016

Il team Catchy ha condotto uno studio sulle conversazioni social intorno al Campionato Europeo di calcio per analizzare i temi che tifosi e spettatori discutono