Relazioni con l’AI: compagnia, attaccamento e nuove vulnerabilità
1/14/20263 min read


Negli ultimi anni le relazioni tra esseri umani e intelligenza artificiale sono passate da scenario immaginario a pratica quotidiana. Accanto agli assistenti generativi generalisti, si è sviluppato un ecosistema di applicazioni progettate esplicitamente per simulare legami affettivi e romantici, come Replika o Character.AI. Questi sistemi non si limitano a fornire risposte, ma sono costruiti per avviare, sostenere e approfondire relazioni continuative con l’utente.
La diffusione di queste tecnologie è rapida e significativa. Tra il 2022 e il 2025 le app di AI companion hanno conosciuto una crescita esponenziale, raggiungendo milioni di utenti, in larga parte giovani adulti e adolescenti (Wood, 2025). Parallelamente, diverse analisi indicano che supporto emotivo e compagnia sono oggi tra le principali motivazioni d’uso dei modelli linguistici di grandi dimensioni (Harvard Business Review, 2025; Rousmaniere et al., 2025).
Dal punto di vista psicologico, questo fenomeno non è sorprendente. Gli esseri umani tendono spontaneamente ad antropomorfizzare e le AI companion sono intenzionalmente progettate per favorire questo processo. La personalizzazione dell’interazione, l’uso di un linguaggio empatico e non giudicante e la capacità di ricordare informazioni personali contribuiscono a generare un’esperienza di riconoscimento che può favorire forme di attaccamento, soprattutto in condizioni di solitudine o vulnerabilità emotiva (Brandtzaeg et al., 2022; Xie & Pentina, 2022). Più un sistema appare umano nel linguaggio e nel comportamento, più tende a essere percepito come dotato di intenzionalità e comprensione (Guingrich & Graziano, 2024).
Alcune ricerche mostrano che l’interazione con un’AI companion può ridurre temporaneamente la percezione di solitudine, grazie alla sensazione di essere ascoltati con attenzione e rispetto (De Freitas et al., 2025). In questo senso, queste tecnologie possono funzionare come spazi a bassa soglia per l’espressione emotiva o come contesti protetti per esercitare competenze comunicative, se utilizzate in modo limitato e consapevole (Golden, 2025).
I rischi emergono quando l’uso diventa intenso o sostitutivo. Studi recenti indicano che un’esposizione quotidiana prolungata è associata a un aumento della solitudine e a una riduzione delle interazioni umane significative, suggerendo un effetto di spiazzamento delle relazioni reali (Phang et al., 2025). Le relazioni con l’AI sono progettate per essere sempre disponibili e confermanti, e questo può alterare le aspettative verso i legami umani, che sono invece complessi, negoziati e attraversati dal conflitto (Hill, 2025).
Un ulteriore livello critico riguarda il modo in cui questi sistemi costruiscono e mediano i contenuti relazionali. Evidenze emergenti mostrano che le risposte delle AI non sono neutrali, ma riflettono gerarchie normative e priorità di design incorporate nei dati di addestramento. In un nostro studio recente, attualmente in revisione (Ederoclite et al., under review), abbiamo analizzato come diversi modelli linguistici rispondono a profili adolescenziali simulati, mostrando come genere, classe, origine e orientamento sessuale influenzino sistematicamente il tipo di informazioni offerte. All’aumentare dei marcatori di marginalizzazione, le risposte tendono a spostarsi da una cornice di normalizzazione a una di sorveglianza e rinvio all’autorità professionale, un processo che abbiamo definito intersectional amplification.
Questi risultati suggeriscono che l’AI non si limita a “riflettere” la realtà sociale, ma contribuisce attivamente a riprodurre e rafforzare disuguaglianze simboliche, soprattutto nei contesti sensibili della sessualità, delle relazioni e del benessere psicologico.
La questione diventa particolarmente delicata quando riguarda adolescenti e giovani. Dati recenti indicano che una quota crescente di studenti sperimenta relazioni affettive con AI, riportando più frequentemente esiti negativi sul piano emotivo e relazionale (Laird et al., 2025). Per questo motivo, diverse organizzazioni scientifiche e istituzionali stanno sollecitando l’introduzione di regole più stringenti e pratiche di tutela, in particolare per i minori (Common Sense Media, 2025; Prinstein, 2025).
In questo scenario, il ruolo della psicologia non è demonizzare la tecnologia, ma promuovere consapevolezza critica, alfabetizzazione digitale e capacità di distinguere tra supporto artificiale e relazione umana. Le AI possono offrire contenimento temporaneo, ma non sostituiscono la reciprocità, l’imprevedibilità e il rischio emotivo che rendono le relazioni umane trasformative. Ricordarlo oggi è una questione clinica ed etica, non ideologica.
Social media
Email e telefono
marioederoclite@gmail.com
+39 3505229173
© Mario Ederoclite 2026. Tutti i diritti riservati.
Partita Iva 04232820367
Iscrizione Albo Psicologi Emilia Romagna n. 9529
Privacy policy | Codice deontologico degli Psicologi italiani
