Da alcune settimane il grande pubblico ha avuto modo di vedere tangibilmente il potenziale dell’Intelligenza Artificiale (IA) mediante la diffusione di Chat GPT. Sebbene sembri una recentissima novità, sono già diversi anni che l’uso di chatbot e assistenti virtuali basati sull’IA sono diventati sempre più diffusi in numerosi settori. Anche il mondo della salute e della psicologia sono stati un terreno di prova di chatbot progettate per offrire un sostegno nella diagnosi e nel trattamento terapeutico medico e mentale.

Attualmente, in ambito psicologico, le più diffuse sono Woebot, Wysa, Tess e Youper. Tutte loro sono state impiegate con l’intento di assistere le persone riluttanti ad andare in terapia o che hanno difficoltà ad accedere a servizi psicologici tradizionali nell’affrontare ansia, stress e depressione. Fanno ciò senza limitarsi a suggerire nozioni psicoeducative preconfezionate, ma sono programmate per impiegare la terapia cognitivo-comportamentale (CBT) e aiutare le persone a comprendere errori nella formulazione di alcuni pensieri o credenze che alimentano emozioni o comportamenti che causano sofferenza.

Una novità di grande successo

I risultati e le potenzialità di queste chatbot sono notevoli, ma fare terapia significa molto più che correggere un pensiero, per quanto distorto possa essere.

Ma allora come mai queste IA nei panni di terapeuti stanno riscontrando così tanto successo? Molte persone che si interfacciano con una chatbot riferiscono la sensazione di parlare con un qualcosa che non li giudica e non li critica, sentendosi quindi a loro agio nel parlare dei propri problemi o nel disvelare per la prima volta paure, timori o fantasie recondite e taciute. Insomma, abbiamo creato un interlocutore col quale abbiamo la totale libertà di poter dire qualunque cosa senza nessuna conseguenza o responsabilità.

L’attrattiva, per chi ha paura di condividere pensieri o vissuti di cui si vergogna o ha vere e proprie fobie nel parlare ad altre persone, è evidente. Tuttavia, ciò comporta anche un grandissimo rischio di alienare le persone abituandole a interazioni senza una “posta in gioco”. Anche il semplice atto di conversare comporta un grande carico psicologico fatto di responsabilità per ciò che si dice, rammarico nel dire qualcosa di sbagliato o esplicita volontà di mentire, soddisfazione nel giungere a un accordo o nel vincere un dibattito, timore di ferire l’altro o desiderio di farsi valere, volontà di entrare in genuina connessione e tanto altro. Persino il silenzio può avere un grandissimo valore comunicativo. Tutte queste cose mancano in un’interazione con una chatbot, dove le proprie parole non hanno un peso e sono, a tutti gli effetti, flatus voci.

Vizi e virtù dell’AI applicata alla psicologia

L’assenza di giudizio di una chatbot non equivale all’essere accettati per quello che si è. Il vero potere terapeutico del poter parlare a un interlocutore che non ci giudica non risiede nel poter dire quello che si vuole senza ripercussioni, ma nel poter aprirsi con una persona che ci accetta e ci accoglie anche nei lati di cui ci vergogniamo. Il timore di essere giudicati non deve essere eliminato, ma superato; solo così si possono creare le condizioni per aprirsi, essere genuinamente accettati e creare una vera relazione terapeutica.

In conclusione, l’IA ha manifestato uno strabiliante potenziale i cui confini tecnologici ed etici sono di difficile previsione e comprensione. La diffusione di chatbot nell’ambito della salute mentale sembra inevitabile e, come per ogni nuova tecnologia adottata per scopi terapeutici (e non), ci sono benefici e rischi che devono essere compresi in modo approfondito per permetterne un impiego sano e consapevole.

Ciò è tanto più vero considerando la facilità di accesso a queste chatbot che potrebbero diventare delle vere e proprie droghe per persone che, accedendovi 24 ore su 24 e 7 giorni su 7, non svilupperebbero la capacità di tollerare e sopportare autonomamente le normali ansie e preoccupazioni di tutti i giorni.

© RIPRODUZIONE RISERVATA