Disentità e delega del pensiero: come l’AI riscrive identità e relazioni

Un'analisi chiara di come l'uso diffuso dell'AI per scrivere post, email e messaggi modella la nostra identità e le relazioni

È sempre più comune aprire un social o la casella di posta e trovare la necessità di rispondere subito a un commento, una critica o un messaggio difficile. In quel momento molti ricorrono a un assistente digitale: si descrive la situazione, si chiede una replica efficace e l’AI propone un testo elegante e convincente. Il risultato può funzionare, ma dietro quella risposta c’è una dinamica meno visibile che mette in gioco la nostra percezione di sé.

Questo fenomeno non riguarda soltanto la praticità quotidiana: tocca il modo in cui costruiamo le nostre idee. Quando cominciamo a pubblicare e difendere testi che non abbiamo generato integralmente, si crea una frattura tra ciò che pensiamo e la versione digitale che presentiamo. Qui entra in gioco il concetto di disentità, utile per descrivere lo scollamento tra identità reale e identità prodotta con l’aiuto di strumenti artificiali.

Quando l’AI prende la parola

L’affidarsi a un chatbot per articolare un argomento o rispondere a un critico produce spesso risultati efficaci sul piano retorico: frasi calibrate, toni concilianti o assertivi, e argomentazioni strutturate. Tuttavia, questo processo può trasformarsi in un corto circuito cognitivo. L’uso frequente di strumenti di generazione testuale introduce una forma di delega che non è solo pratica ma epistemica: il contenuto non è più solo un veicolo di pensiero, ma può diventare il pensiero stesso. Quando la nostra voce pubblica è in parte costruita da un’altra entità, diventa più difficile riconoscere i confini tra la propria convinzione e la posizione proposta dallo strumento.

La scissione tra pensiero e proiezione

Questa scissione si manifesta in modi concreti: si posta una replica suggerita dall’AI, un collega o un follower ribatte su un punto che non avevamo previsto, e noi ci troviamo a difendere argomenti che non abbiamo esplorato fino in fondo. Il meccanismo sociale agisce come un cricchetto: più difendiamo pubblicamente una tesi, più la sentiamo nostra. La psicologia sociale e le teorie sulla dissonanza cognitiva spiegano perché smarcarsi da una posizione esposta è costoso: l’AI accelera l’inserimento di idee eterodirette in questo circuito, consolidando così la disentità e rendendo complicato l’accesso al nostro pensiero originale.

Impatto su lavoro, affetti e reputazione

Le conseguenze si vedono sia in ambito professionale che personale. Nel lavoro, l’uso di testi generati dall’AI può farci apparire più preparati o eloquenti di quanto effettivamente siamo, con il rischio di creare aspettative che poi bisogna sostenere. Nelle relazioni sentimentali, affidare a un chatbot la formulazione di messaggi delicati costruisce un’immagine di sé mediata da uno strumento: il partner risponderà a quella versione, e la relazione potrà svilupparsi su un terreno meno autentico. In entrambi i casi la fiducia e la reputazione si modellano su contenuti che non sempre riflettono la nostra profondità reale.

Isolamento e sindrome dell’impostore

La sindrome dell’impostore può acuirsi: scoprire di non riconoscere più la propria voce induce insicurezza e, in alcuni casi, ritiro sociale. Paradossalmente, l’uso routinario di AI può ridurre la polarizzazione nelle conversazioni online, perché i testi proposti sono spesso moderati e conformi alle linee guida dei produttori, ma ciò non elimina il problema centrale: la perdita del processo cognitivo che ci permette di sapere cosa pensiamo. Il rischio epistemico non è soltanto che siamo inautentici agli occhi degli altri, ma che diventiamo illeggibili a noi stessi.

Riprendere il controllo: pratiche e buone abitudini

Per contenere la delega cognitiva è utile adottare alcune pratiche: trattare l’AI come uno strumento di bozza e non come l’autore definitivo, annotare perché si accetta una proposta testuale, e dedicare tempo al processo di revisione critica. Trasformare la co-scrittura in un esercizio attivo significa esercitare la retorica, mettere alla prova le proprie convinzioni e usare l’attrito intellettuale come filtro. In questo modo l’AI può diventare una stampella utile, senza sostituire il lavoro di edificazione del pensiero personale.

Linee guida pratiche

Alcune regole rapide aiutano: dichiarare quando un testo è stato co-scritto con un’AI, fare una prima stesura senza aiuti esterni per chiarire le idee, e confrontare più versioni proposte dallo strumento per selezionare ciò che risuona davvero. Infine, coltivare l’abitudine alla scrittura come scoperta—come ricordava Joan Didion, scrivere per capire cosa si pensa—resta il presidio più efficace contro la perdita di misura tra sé e la propria immagine digitale.

In sintesi, l’uso dell’AI nella scrittura non è di per sé negativo: può migliorare la forma e ampliare i punti di vista. Il problema emerge quando l’AI diventa il narratore principale della nostra identità. Recuperare il ruolo attivo nel processo di scrittura e riflettere criticamente sulle posizioni che pubblichiamo è la strada per evitare che la nostra voce venga progressivamente esternalizzata e che la disentità diventi il nuovo standard dell’auto-rappresentazione.

Scritto da Chiara Ferrari

Giulia Michelini e l’ayahuasca, dalla maternità alle visioni: la confessione a Belve

Milano Design Week 20-26 aprile 2026: quando food e design si incontrano