L’informazione è un argomento sempre stato centrale nella vita della polis, e di particolare rilevanza dall’affermarsi dei sistemi digitali quale piazza nella quale circolano le notizie.
La preoccupazione sempre maggiore riguarda la sua affidabilità per la quale sono identificate due categorie, spesso confuse o sovrapposte: la misinformazione che riguarda la condivisione, a volte in buona fede, di notizie inaccurate, non verificate o ingannevoli (la satira ne è esclusa), e la disinformazione che è la creazione e diffusione volontaria di notizie false e funzionale a scopi precisi (le fake news ed i deep fakes fanno parte di questa categoria), anche se la ricerca indica che le notizie false contribuiscano principalmente a rafforzare i propri convincimenti, piuttosto che alterare quelli altrui.
Un problema importante riguarda il fatto che gli sviluppi tecnologici hanno allargato a dismisura le fonti da cui provengono le notizie. Problema che si è presentato altre volte nella storia (invenzione/diffusione della scrittura, della stampa, della radio/telefono, della televisione); oggi lo strumento a cui la maggioranza si affida per informarsi è internet.
Le grandi piattaforme detengono un enorme potere: decidono in maniera autonoma e poco trasparente i contenuti che verranno visti dagli utenti, quali verranno amplificati e quali verranno cancellati, e non è chiaro come gestiscano argomenti o post dannosi (molestie, incitamento all’odio, falsità), formalmente protetti dalla libertà di espressione.
Un altro aspetto riguarda il controllo del cyberspazio da parte delle autorità di alcuni Paesi, che riducono o bloccano l’accesso a determinati siti e piattaforme, ne inondano alcuni con i propri contenuti (comprese propaganda e fake news) per distrarre gli utenti, o lo utilizzano per un controllo capillare della popolazione, limitando quindi la possibilità di un’informazione plurale.
Infine, il costante aumento della capacità di calcolo permette di elaborare quantità enormi di dati raccolti in rete, permettendo la parcellizzazione di gruppi che successive analisi considerano sensibili a messaggi specifici (micro-targeting), gruppi poi influenzabili con informazioni minuziosamente calibrate.
I costanti miglioramenti e le nuove applicazioni dell’Intelligenza Artificiale (Generative Artificial Intelligence), permettono a chiunque di creare realistici video, audio, testi ed immagini solo grazie a poche indicazioni dell’utente. Un esperimento – precedente alle ultime innovazioni, e quindi alla maggiore qualità delle immagini – ha evidenziato come, mentre le immagini statiche ed i testi falsi creati dalla IA siano abbastanza riconoscibili dal pubblico, soprattutto a seguito di segnalazioni di fact checkers, i video siano considerati quasi sempre autentici, in quanto le immagini in movimento sono considerate una rappresentazione più vicina al mondo reale e quindi sono più persuasive.
In sintesi, la difficoltà di riconoscere video falsi (deep fakes) non dipende da scarsa attenzione, ma da un’inabilità cognitiva legata ad una propensione sistematica per considerare autentici i video, alla quale si aggiunge una generalizzata sovrastima delle proprie capacità di riconoscere un falso.
In considerazione del fatto che la maggioranza delle interazioni in internet riguarda video, le nuove possibilità offerte dall’Intelligenza Artificiale rappresentano un ulteriore sviluppo che mette in discussione la veridicità dell’informazione disponibile in rete; né le tecnologie per identificare i deep fakes sono davvero utili, in quanto aggirabili abbastanza facilmente e comunque presto obsolete.
Un aspetto di cui poco si parla è quello relativo alla influenzabilità del pubblico alla misinformazione ed alla disinformazione.
La mente umana è condizionata dalla tendenza alla ricerca di meccanismi cognitivi minimi2 e superficiali, e quindi subottimali, che vengono ritenuti utili a produrre un beneficio personale o sociale; a questi meccanismi appartengono anche le proprie convinzioni che spesso producono modelli della realtà inaccurati, nonostante siano accompagnate da un vincolo di razionalità.
L’importanza dei convincimenti è anche legata al fatto che hanno conseguenze che superano la loro capacità di incorporare informazioni sullo stato del mondo reale (per esempio sulle scelte che uno compie), indipendentemente dai loro effetti concreti; questo aspetto risulta importante nella scelta delle informazioni che si accettano o che si escludono, in quanto si tende a cercare notizie che confermino le proprie convinzioni.
Spesso le credenze infondate sono condivise da una vasta platea, che si sforza di trovare metodi per confermarne la razionalità, e ciò crea un … [mercato per le razionalizzazioni], una struttura sociale emergente, nella quale agenti competono per confezionare razionalizzazioni a sostegno di quanto la gente vuole credere in cambio di denaro o ricompense sociali3. Fenomeno favorito anche dal progressivo aumento della polarizzazione della società (e di molti media “tradizionali”) a partire dagli inizi del secolo che ha aumentato da un lato la sensazione di incertezza fra i meno schierati (e quindi la ricerca di fonti di informazione alternative a quelle normalmente seguite), e d’altro lato la necessità per i più convinti di trovare sempre nuove argomentazioni a conferma delle proprie convinzioni per essere più attrezzati in eventuali confronti.
Un mercato aperto, molto concorrenziale ed occupato da tutti i media.
Ingenuamente, immagino che nelle intenzioni dei creatori di internet e dei primi sviluppatori dell’intelligenza artificiale ci fossero solo obiettivi legati, per il primo, all’apertura di uno spazio universale per la condivisione della conoscenza e, per la seconda, di uno strumento che permettesse di incrementare la velocità di elaborazione dei dati per nuove scoperte.
Tuttavia, la crescita esponenziale di questi due ambiti del nostro mondo, tale da permeare tutti gli aspetti della nostra vita, richiederebbe una governance generale condivisa ovunque.
Per internet, nonostante sia un’infrastruttura universale, la maggior parte degli sforzi per governarla (i.e.: affrontare i processi che influenzano le decisioni relative ai problemi legati alla misinformazione ed alla disinformazione, alla sorveglianza di massa, ed all’amministrazione delle infrastrutture tecniche che alimentano la rete) sono stati di fatto lasciati ad un’autoregolamentazione decisa dai grandi attori (non a caso chiamati anche gate – keepers).
Le organizzazioni formali di governance hanno in genere mandati limitati, scarsa supervisione da parte della società civile, dei giornalisti, di politici democraticamente eletti, oltre ad una limitata rappresentanza geografica di altre aree al di fuori di Nord America, Europa e Cina nei fora dove si affrontano i problemi.
Unita ad una difficoltà ad intervenire da parte di varie categorie di cittadini – utenti (disabili, persone senza un’approfondita conoscenza tecnica o della lingua inglese, etc.) o localizzati in Paesi in via di sviluppo.
Per la Generative Artificial Intelligence, più recente nella sua diffusione presso un vasto pubblico, il problema della sua regolamentazione è – se possibile – ancora più complicato che per internet, per la complessità della sua struttura, per il valore dei suoi algoritmi, per la quantità di dati necessari a farla funzionare, oltreché per la sua evoluzione rapidissima in un’infinità di campi ognuno con caratteristiche specifiche.
Importante notare che l’UE abbia da poco proposto uno schema operativo basato su quattro livelli di rischio che pare sufficientemente elastico per adattarsi agli sviluppi della tecnologia, e che ha l’ambizione di diventare il prototipo per la regolamentazione ovunque.
Di fatto, sembra molto difficile rendere il processo tecnologico il più possibile esente da rischi per gli utenti tramite una governance valida ovunque, anche perché si è visto che la mancata compliance a regolamenti locali è fonte di lunghissimi contenziosi che – nonostante il rischio di sanzioni molto costose – non impediscono interpretazioni discutibili del quadro normativo.
Gli aspetti che ho cercato di delineare mi fanno pensare che l’esercizio del diritto di scegliersi i propri governanti sia inficiato, senza che ce ne si renda conto, da chi utilizza per i propri fini le meravigliose innovazioni degli scienziati e degli ingegneri, oltreché dalle nostre debolezze e insicurezze.
Il mio dubbio è che l’eccesso di polarizzazione, le preoccupazioni legate alla evidente frammentazione geopolitica, le numerose guerre in corso, unite all’assuefazione ai drammi di questo scorcio di secolo, abbiano gettato molti di noi in uno stato di pigrizia mentale che rende il combattere per le idee ed i principi un esercizio secondario, narcotizzando la ricerca e la difesa dei diritti.
Tale preoccupazione è tanto più profonda in considerazione del fatto che molti Paesi quest’anno andranno ad elezioni. La coincidenza che circa la metà della popolazione mondiale si appresti a votare dovrebbe rendere felice chi considera questa pratica la base della democrazia e della libertà.
Ma, in realtà, nella grande maggioranza dei luoghi dove si apriranno (si sono aperte) le urne, democrazia e libertà sono solo simulacri; ed anche nelle regioni dove la stampa è libera e sono presenti una pluralità di candidati di idee diverse è presente il rischio, per non dire la certezza, che le elezioni siano influenzate da agenti esterni, soprattutto tramite i canali informatici.
Cercare di capire se le informazioni sulle quali si formeranno, o consolideranno, le opinioni degli elettori sono degne di fede rappresenta quindi un passo importante non solo per gli stessi elettori, ma anche per valutare se i panorami politici che emergeranno rappresentino fedelmente convinzioni non manipolate di cui i cittadini abbiano a pentirsi.
Dovremmo tutti applicare il motto della Royal Society.