Un convegno organizzato attorno al tema del diritto alla conoscenza ha messo in fila riflessioni che vanno dalla dimensione filosofica a quella pratica. In apertura si è richiamata la tradizione, da Socrate a Marco Pannella, indicando come la perdita di controllo sull’informazione renda urgente un ripensamento della relazione tra tecnologia e democrazia. La giornata, segnata anche dal riferimento al 9 maggio e ad alcune ricorrenze civili, ha unito artisti, giuristi, filosofi e tecnologi in una diagnosi condivisa: l’IA sta trasformando lo spazio della conoscenza in modo profondo, spesso invisibile.
L’IA come meccanismo linguistico e la frantumazione della conoscenza
Una delle tesi più ricorrenti è che l’intelligenza artificiale contemporanea funzioni primariamente come congegno sintattico: un sistema che riorganizza il linguaggio e che, nel farlo, produce una sorta di diffrazione della conoscenza. Il risultato non è solo una maggiore velocità di accesso alle informazioni, ma una trasformazione della loro struttura: la conoscenza si frammenta, si entropizza e perde la linearità che permetteva la verifica critica. Questo processo porta a conseguenze tangibili: la difficoltà di discriminare fonti affidabili, l’aumento delle allucinazioni testuali e la riduzione della capacità di costruire ragioni robuste nelle comunità civiche.
Conseguenze epistemiche e cognitive
Dal punto di vista individuale si parla di de-skilling o di cognitive skilling inverso: gli strumenti di IA semplificano compiti complessi ma impoveriscono l’esercizio critico. Dal lato sociale emergono fenomeni di inquinamento epistemico: ambienti informativi modellati per l’engagement premiano contenuti divisivi e superficiali, favorendo il tribalismo emotivo. In pratica, la tecnologia che prometteva democratizzazione può generare una nuova gerarchia di accesso alla conoscenza, dove la capacità di formare credenze robuste viene progressivamente erosa.
Diritto alla conoscenza, pubblico e privato: i nodi giuridici
Nel dibattito è tornato spesso il tema del diritto alla conoscenza teorizzato da Marco Pannella: non basta l’accesso ai dati, occorre che tali dati siano trasformati in conoscenza verificabile. In questo senso è emerso il concetto di habeas codex come proposta simbolica: non si tratta solo di privacy o di habeas data, ma di un codice di regole che renda trasparente il modo in cui gli algoritmi plasmavano decisioni amministrative e politiche. Il Consiglio di Stato e altre istituzioni europee sono state richiamate a garantire la riserva di umanità nell’uso dei sistemi decisionali automatizzati, soprattutto quando si tratta di atti pubblici che impattano sulla vita dei cittadini.
Accesso a pagamento, voce e neuroscienze
Un punto pratico e preoccupante è la creazione di due mondi informativi: la versione gratuita degli strumenti, limitata, e quella a pagamento, con maggiori capacità. Questo modello crea una doppia accessibilità alla conoscenza. Sono emersi anche problemi concreti come la vendita di voci per addestrare assistenti vocali e la diffusione di device neurotecnologici non regolati, che aprono scenari di controllo e di mercificazione della dimensione cognitiva umana.
Proposte, responsabilità e percorsi concreti
Il convegno non si è limitato alla diagnosi: sono state avanzate proposte operative. Tra queste, la necessità di integrare l’etica by design nei processi di sviluppo, la promozione di competenza epistemica pubblica attraverso l’educazione civica digitale e la definizione di modelli di sovranità tecnologica che ridisegnino i modelli di business. Si è anche richiamata l’urgenza di strumenti di accountability per i grandi operatori, e di meccanismi di democrazia partecipativa che coinvolgano cittadini e terzo settore nella valutazione dei progetti pubblici finanziati.
Azioni pratiche per un percorso difensivo
Tra le azioni concrete suggerite: regolamentare l’uso dell’IA nella pubblica amministrazione con obblighi di trasparenza, investire in alfabetizzazione critica diffusa, promuovere standard europei per la governance dei dati e sostenere modelli di impresa digitale che non si basino esclusivamente sulla mercificazione delle competenze cognitive. Tutte misure che convergono verso un obiettivo chiaro: difendere il diritto alla conoscenza come condizione di sopravvivenza della democrazia.