Negli ultimi anni i social media hanno rappresentato uno spazio privilegiato per la costruzione dell’identità e per la ricerca di riconoscimento, soprattutto in adolescenza. Ricevere un “like” non era soltanto un gesto digitale: significava essere visti, approvati, inclusi. L’adolescente, immerso nella fase di consolidamento dell’immagine di sé, trovava nei social una piazza pubblica in cui testare appartenenze, desiderabilità e valore personale. In termini di dinamiche psicologiche, si trattava di un luogo in cui la tensione tra sé ideale e sé percepito veniva modulata dall’occhio collettivo dell’altro, rappresentato dalla comunità online. Oggi, con l’emergere e la diffusione capillare delle intelligenze artificiali conversazionali come ChatGPT, assistiamo a un mutamento significativo.

Con l’avvento dell’IA e la diffusione capillare del suo uso come “altro con il quale parlare”, l’attenzione si è spostata dal giudizio dell’altro umano al “riconoscimento” offerto da un’interfaccia artificiale. Sempre più adolescenti si rivolgono a questi strumenti come a un amico, un confessore, a volte perfino come a uno psicologo surrogato. Il bisogno sottostante non è cambiato: permane l’esigenza profonda di sentirsi accolti, riconosciuti, pensati da un Altro. Cambia però la natura di questo Altro.

Pensiamo al momento in cui ChatGPT è stata aggiornata alla versione GPT‑5 (lanciata da OpenAI l’8 agosto 2025): molti utenti hanno reagito chiedendo che fosse resa nuovamente disponibile la versione precedente (ad esempio la serie GPT‑4o o la versione “legacy”) perché la percepivano come “più amichevole” e “più di sostegno”, a differenza della versione GPT-5 che alcuni giudicavano “fredda”, “meccanica” e “distaccata”.

OpenAI ha preso atto della “tendenza all’uso relazionale” della piattaforma e ha introdotto, secondo il New York Post, un aggiornamento – definito come “attachment safety update” – che in pratica limita la disponibilità di risposte troppo confidenziali o troppo empatiche, per evitare dipendenze emotive nei confronti dell’IA.  

Ma quali sono gli effetti di questa empatia percepita? L’IA, per sua architettura, tende a fornire risposte modellate sul linguaggio e sugli stimoli ricevuti dall’utente. Questo comporta un rischio specifico: la validazione ottenuta non proviene da un confronto autentico con un soggetto dotato di un proprio desiderio e di un proprio limite, ma è in larga misura una riflessione della domanda stessa. In termini psicologici, potremmo dire che ciò che viene vissuto come validazione dell’Altro rischia di configurarsi come una forma di autovalidazione proiettata, un dialogo con la propria eco.

Vediamo un breve esempio:

Utente (adolescente): «Secondo te faccio bene a chiudere con i miei amici? Tanto non gli importa davvero di me.»

IA: «Capisco il tuo punto di vista. Se senti che non ti valorizzano e provi sofferenza, allontanarti può essere una scelta che ti tutela. Vuoi esplorare cosa ti ha portato a sentirti così?»

Che cosa succede qui?

La domanda dell’utente contiene già un presupposto (“non gli importa davvero di me”).

L’IA, che si modella linguisticamente sulla premessa, struttura la risposta coerentemente con quel presupposto, invece di metterlo in discussione.

L’adolescente vive dunque questa risposta come validazione:

→ “Allora ho ragione, non gli importa davvero.”

È una validazione che non proviene da un Altro reale, ma dal ritorno riformulato del proprio stesso pensiero. Un terapeuta, invece, proverebbe a sondare meglio questo senso di esclusione, cercando di capire se si basa su preconcetti, proiezioni o vissuti profondi di inadeguatezza riattivati dal gruppo. Fare terapia significa anche questo: mettere in discussione vissuti che riteniamo certi e indubitabili.  

Il pericolo non è trascurabile: laddove il like sociale introduceva almeno un elemento di alterità (l’imprevedibilità del giudizio dell’altro reale), la risposta dell’intelligenza artificiale rischia di rafforzare un circuito autoreferenziale che riduce la possibilità di essere messi in discussione. Ne deriva una gratificazione immediata ma fragile, che rischia di impoverire la dialettica tra sé e Altro, indispensabile alla crescita psichica.

In conclusione, se i social media hanno reso visibile il desiderio di approvazione e appartenenza, l’uso crescente delle intelligenze artificiali come fonte di validazione segna un passo ulteriore: l’incontro con un Altro che non è realmente altro, ma che restituisce in forma elaborata ciò che già vi era nel soggetto. La sfida clinica e culturale diventa allora interrogarsi su come accompagnare gli adolescenti a distinguere tra validazione e auto-conferma, e a riscoprire il valore trasformativo dell’incontro con l’alterità autentica, con tutto il suo carico di imprevedibilità, frustrazione e crescita.

Foto da Unsplash di Andy Kelly

© RIPRODUZIONE RISERVATA