Salute mentale

Psicoterapia e intelligenza artificiale: che impatto avrà sulla pratica clinica?

Psicoterapia e intelligenza artificiale: che impatto avrà sulla pratica clinica?
logo-unobravo
Valerio Imondi
Redazione
Psicologo ad orientamento Umanistico e Bioenergetico
Unobravo
Pubblicato il
12.10.2023

L'integrazione delle tecnologie innovative nella pratica clinica sta cambiando il volto della psicoterapia moderna. Una di queste tecnologie, che ha suscitato grande interesse, è ChatGPT (Generative Pre-trained Transformer), un chatbot sviluppato dall’azienda Open.AI. 


In questo articolo, esploreremo l'impatto dell’intelligenza artificiale nella psicoterapia contemporanea, analizzando le potenziali applicazioni, le sfide etiche e i benefici che questa tecnologia può offrire ai professionisti della salute mentale, oltre ai possibili utilizzi dannosi o pericolosi.


Lo faremo prendendo come esempio proprio l’ormai celebre prodotto di Open.AI, che qui utilizzeremo come sinonimo di intelligenza artificiale anche se, lo ricordiamo, è un modello di linguaggio.


Gli psicologi devono temere ChatGPT?


Dall’avvento di Internet non è più possibile condurre analisi a priori rispetto alle tecnologie nascenti. Questo concetto viene descritto col termine inglese nowness che sta a indicare l’immediatezza dello sviluppo tecnologico e il tentativo di studiarlo come fenomeno nel corso del suo sviluppo. 


Insieme a un nuovo strumento tecnologico, nasce anche il dibattito tra progressisti e conservatori che, come avveniva in passato per altre tecnologie, va a scemare solo quando la tecnologia in questione si radica nella cultura e nelle abitudini delle persone.


L’ultima rivoluzione tecnologica riguarda la più famosa Chat degli ultimi tempi: ChatGPT. Ma come mai la nascita di questa nuova tecnologia porta con sé tanto fermento e tanta preoccupazione?


In questo articolo si proverà a rispondere a questa domanda e a tante altre che riguardano la professione psicologica che si sta confrontando con questo strumento.

ChatGPT: quasi un’intelligenza artificiale


Così come Google non è Internet, ChatGPT non è un’intelligenza artificiale o, almeno, non del tutto; sarebbe più appropriato considerare ChatGPT per quello che è: un tipo di modello di linguaggio basato sull'architettura di trasformatori e addestrato su un vasto insieme di dati testuali per generare un testo coerente e rispondere a domande e comandi degli utenti. 


ChatGPT utilizza tecniche di deep learning per apprendere dai dati di addestramento e generare risposte linguistiche appropriate.


È un'intelligenza artificiale di tipo "debole" o "ristretta": questo significa che il modello è specializzato in una specifica attività, come la generazione di un testo. Tuttavia, mancano molte delle qualità di un’intelligenza umana. ChatGPT, infatti, può produrre risposte coerenti, ma può anche generare informazioni errate o non appropriate. 


Forse siamo ancora lontani dal creare l'Intelligenza. Per ora abbiamo creato un validissimo trasformatore generativo pre-addestrato in grado di fornire risposte testuali davvero complete, potendo accedere a quasi tutta la conoscenza umana, e in grado di apprendere e interpolare contenuti tra loro.


Non è del tutto corretto chiamare ChatGPT “Intelligenza” perché non ha, come l’intelligenza umana, la capacità di navigare ed esplorare territori ignoti trovando insight in grado di rivoluzionare l’ambiente circostanze per renderlo più adattivo.


Non ci si deve neanche spaventare se tendiamo ad attribuire caratteristiche umane a ChatGPT, poiché questa tecnologia è a “immagine e somiglianza” del linguaggio e della comunicazione umani, essendo stata progettata proprio sulla sua neurobiologia.


Così come avvenne per Internet, J.C.R. Licklider, classe 1915 che si laureò in Psicologia nel 1937 e in Matematica e Fisica, entrato a far parte dell’ARPA negli anni ’60, coinvolse alcuni rinomati scienziati appartenenti al campo accademico, la Stanford University, il MIT e Berkeley per gettare le basi di una possibile rete di collegamento tra centri di controllo attraverso computer connessi gli uni agli altri, ma in grado di mantenere la propria individualità.


Attraverso questo stratagemma fu possibile scambiare le informazioni in maniera radiale e se un centro fosse stato attaccato, l’intero sistema non ne avrebbe risentito. Licklider chiamò questo network “rete intergalattica” che di fatto è l’antenata di Internet. 


La sua laurea in psicologia ha influito nella costruzione di questo sistema, poiché gli ha permesso di creare una rete di connessioni esattamente come un cervello umano.

ChatGPT: le possibili applicazioni cliniche


Le applicazioni di ChatGPT sono innumerevoli e si può usufruire di questo strumento in molteplici modi. Questa versatilità ha coinvolto anche la comunità degli psicologi destando un’allerta crescente. Molti psicologi oggi si chiedono infatti se questa tecnologia sia in grado di sostituire il loro operato e quale impatto avrà sul futuro della professione.


Le notizie sulle testate giornalistiche e sul web sicuramente non sono rassicuranti; è di poco tempo fa l’affermazione di un utente su Reddit che ha commentato: “ChatGPT è meglio del mio psicoterapeuta”. 


L’autore ha spiegato il motivo della frase: “Ho fatto una domanda al bot includendo dettagli personali che riguardano alcuni problemi che ho in questo periodo. ChatGPT ha risposto a tutta la mia domanda. Ha preso più frasi e ci si è focalizzato. Una cosa che non riesco a far fare nemmeno agli psicoterapeuti umani. Mi sento ascoltato da ChatGPT, e mi fa paura”.


Ciò che il ragazzo su Reddit afferma, trova riscontro in un software estremamente preciso e “accomodante” in grado di analizzare contemporaneamente tutte le parti del testo, recepirle e fornire una risposta specifica basata sulla letteratura esistente. Il risultato è sorprendente, ma come la comunità degli psicologi ben sa, la psicoterapia è un’altra cosa


Secondo quanto emerso da uno studio condotto da Google Research a Dicembre 2022 i modelli di linguaggio gestiti dall’intelligenza artificiale si sono rivelati in grado di dare risposte corrette a domande in tema medico con un tasso di accuratezza superiore al 90% e molto simile a quello umano.


Nonostante molte testate giornalistiche consiglino in ogni caso di rivolgersi a terapeuti umani, è evidente come la qualità delle risposte della ChatGPT o affini, sia tremendamente alta. Lo studio citato si conclude con la seguente affermazione:


“È necessaria ulteriore ricerca per garantire la sicurezza, l’affidabilità, l’efficienza e la privacy della tecnologia. Inoltre, andrà valutato con attenzione l’uso etico di questa tecnologia”.


Siamo ben lontani dal poter offrire un servizio psicologico adeguato tramite Intelligenza Artificiale e tecnologie come ChatGPT, ma esso resta uno strumento di auto-aiuto valido per interessarsi al benessere e alla crescita personale, trovando risposte alla propria curiosità.


Negli articoli esaminati, sembra che la percezione generale sia di una psicoterapia fatta di consigli più o meno clinici e worksheet. Spesso si tende a valutare la capacità terapeutica in base alle risposte che il paziente riceve, quindi per sillogismo: più una risposta è clinicamente accurata, più i terapeuti sono bravi.


Dal momento che una risposta che contiene informazioni cliniche non sarà mai l’equivalente di una psicoterapia, il rischio che ne consegue è quello di generalizzare l’insieme delle procedure, degli strumenti e dei percorsi che lo psicoterapeuta vive con il cliente/paziente.


Il percorso terapeutico è più simile a un lavoro “sartoriale”, confezionato ad hoc nel rispetto della fragilità di una persona. Gli obiettivi di un trattamento psicoterapeutico, infatti, sono sempre più orientati a raggiungere un'esperienza emozionale e relazionale riparativa oltre alla risoluzione dei sintomi.

Psicologia, chatbot e prospettive future


Non è la prima volta nella storia che viene utilizzato un bot per fornire supporto psicologico. Woebot Health, per esempio, è un bot sviluppato dalla Stanford University che si configura come un'applicazione di supporto emotivo basata su un chatbot che utilizza risposte precompilate per fornire un'esperienza simile a quella di una conversazione terapeutica. 


Questo chatbot utilizza tecniche di terapia cognitivo-comportamentale (CBT) con l’obiettivo di aiutare le persone a identificare e cambiare i modelli di pensiero e di comportamento negativi. 


L’utilizzo prolungato di Woebot Health è spesso considerato un valido aiuto per la gestione di sentimenti contrastanti e pensieri negativi, in più offre degli esercizi interessanti e contatta chi ne usufruisce in maniera costante ed empatica. Tiene anche traccia dell’andamento delle emozioni e dei progressi ottenuti.


Woebot Health è percepito come un valido “compagno di viaggio”, può offrire ottimi spunti, è accessibile 24/7, garantisce la privacy degli utenti ed è in grado di fornire delle risposte di coping personalizzate, tuttavia non è adatto ad affrontare casi gravi o situazioni di crisi. Inoltre la comunicazione via chat non consente una comunicazione libera.


Con l'avanzamento dell'IA, è probabile che i chatbot di psicoterapia diventeranno più personalizzati, adattandosi alle specifiche esigenze e preferenze degli utenti. In base alle risposte e ai feedback dell'utente, queste migliorie potrebbero includere:


  • l'adattamento del linguaggio
  • lo stile di conversazione
  • l'approccio terapeutico. 


Inoltre, con l'apprendimento automatico, i chatbot potranno "imparare" dalle interazioni con gli utenti, migliorando le loro risposte e tecniche terapeutiche nel tempo.


Un'altra prospettiva interessante è l'integrazione dei chatbot di psicoterapia con altre tecnologie di salute digitale. Per esempio, potrebbero essere collegati ad App di monitoraggio della salute mentale, dispositivi indossabili e piattaforme di telemedicina, fornendo un supporto più olistico e integrato alla salute mentale.


Si può utilizzare l'intelligenza artificiale per risolvere i propri disagi psicologici?


È una domanda scottante che porta con sé molti dubbi, sia per il futuro della professione psicologica, sia per il futuro del trattamento psicologico.


La storia del ragazzo su Reddit conferma che ChatGPT è in grado di trattare i disagi psicologici e anche di risolvere alcuni sintomi psichici. Possono questo modello di linguaggio o l’intelligenza artificiale condurre un percorso di psicoterapia con gli stessi risultati di un percorso svolto da un terapeuta umano?


Il Dr. Gianni Lanari, Psicoterapeuta responsabile del Pronto Soccorso Psicologico di Roma Est, afferma che L’IA può essere utilizzata per supportare il benessere psicologico. Lo psicoterapeuta riporta che l’intelligenza artificiale può essere utile per:


  • analizzare grandi quantità di dati
  • identificare i fattori di rischio per i disturbi psicologici
  • sviluppare nuovi trattamenti personalizzati. 


Afferma anche che l’IA non è ancora in grado di sostituire gli psicoterapeuti, ma può essere utile per dare supporto, per aiutare le persone a mettere in pratica strategie apprese durante la psicoterapia tradizionale, ma il contatto umano è ancora fondamentale per la salute mentale e per il benessere a lungo termine.


Questo potrebbe chiarire la confusione generata: ChatGPT è in grado di supportare il clinico nella diagnosi o nella creazione di worksheet coerenti col problema della persona, divenendo di fatto uno degli strumenti psicologici integrati nella psicoterapia.

ChatGPT può assumere una modalità molto empatica di comunicare e una precisione minuziosa nel fornire risposte nonostante il grande rischio di errori. Non rappresenta necessariamente una minaccia ai clinici, ma potrebbe invece fornire un supporto primario nell’accoglienza del problema medico/psicologico. 


A Ottobre del 2022, uno studio trasversale pubblicato su Jama Internal Medicine, ha analizzato e confrontato 195 slot di domande e risposte, postate su un apposito forum online che offre uno spazio per porre domande a carattere clinico e assistenziale e ricevere risposta da clinici verificati. Questo forum conta un bacino di 474.000 utenti.


Gli operatori clinici che hanno valutato le risposte, fornite dai medici e da ChatGPT, hanno preferito le risposte dell’Intelligenza Artificiale nel 78% dei casi, su un totale di 585 valutazioni effettuate.


Le risposte date da ChatGPT sono state giudicate complessivamente di qualità migliore, la media è stata infatti dichiarata come buona, mentre quelle dei clinici come accettabile.


Le risposte giudicate di qualità “meno che accettabile”, quindi scarse o molto scarse, sono state maggiori nel gruppo dei clinici (37% vs 2%), mentre la proporzione di risposte buone o molte buone era decisamente più alta per ChatGPT (22% vs 78%).


Le risposte date dall’intelligenza artificiale sono state considerate anche più empatiche, il 41% delle risposte dei clinici era meno empatico di quelle fornite dall’intelligenza artificiale, e la proporzione di risposte giudicate come poco empatiche era più alta nelle risposte dei medici (80% vs 15%). 


Le risposte dei medici erano, infine, mediamente più brevi rispetto a quelle fornite da ChatGPT.


Il risultato di questo studio lascia emergere una importante prospettiva: un chatbot come ChatGPT non può sostituire la relazione umana, ma è uno sprone a migliorarci, a integrare lo strumento nella pratica clinica. Potrebbe anche semplificare la risposta clinica e renderla istantanea. Previa verifica da parte del clinico delle informazioni erogate.


Come sta avvenendo in molti campi in cui ChatGPT potrebbe essere coinvolto, anche alla comunità degli psicologi è richiesto di aggiornarsi in tal senso, sviluppare nuove modalità, valorizzare il proprio stile personale e insegnare ai pazienti/clienti come utilizzare la Chat. 


Per esempio, nella stesura di questo articolo è stato chiesto alla Chat quali sono le 10 regole per guidare il paziente ad un uso responsabile di ChatGPT nella ricerca di risposte terapeutiche. Il risultato è riportato in seguito, opportunamente editato.


Se volessimo ipotizzare delle linee guida per un utilizzo responsabile di ChatGPT in terapia, potrebbero essere queste:


  • consapevolezza dei limiti: spiegare al paziente che GPT è un modello di linguaggio  basato sull’intelligenza artificiale e non ha una comprensione personale o emotiva. Può fornire risposte generiche basate su modelli di linguaggio, ma non ha capacità empatiche o la capacità di comprendere le sfumature individuali
  • utilizzo di fonti attendibili: incentivare il paziente a verificare sempre le informazioni trovate con fonti affidabili. La terapia e la salute mentale sono questioni complesse, quindi è essenziale ottenere informazioni accurate da professionisti qualificati e fonti autorevoli
  • comunicazione con il terapeuta: sottolineare l'importanza di mantenere una comunicazione aperta con il terapeuta e di condividere qualsiasi dubbio o preoccupazione riguardo alle informazioni trovate online
  • evitare autodiagnosi: incoraggiare il paziente a non cercare di auto-diagnosticarsi utilizzando strumenti come GPT-3.5. Solo uno psicologo qualificato può fornire una diagnosi accurata basata su una valutazione completa
  • sensibilizzazione alle possibili distorsioni: informare il paziente che i modelli di linguaggio come GPT-3.5 potrebbero non sempre fornire risposte neutre o oggettive. Potrebbero riflettere le distorsioni e i pregiudizi presenti nei dati su cui sono stati addestrati
  • rispetto della privacy: insegnare al paziente a non condividere informazioni personali sensibili o confidenziali con modelli di intelligenza artificiale o altre risorse online
  • uso complementare, non sostitutivo: sottolineare che GPT-3.5 o altre risorse online possono essere considerate come strumenti di supporto, ma non dovrebbero sostituire mai la terapia o il supporto di un terapeuta qualificato
  • gestione del tempo: incoraggiare il paziente a stabilire limiti di tempo quando utilizza risorse online per la ricerca di informazioni terapeutiche, in modo da evitare di diventare eccessivamente dipendenti da tali strumenti
  • filtro emotivo: invitare il paziente a tenere presente che i modelli di intelligenza artificiale non possono capire le emozioni umane, quindi è importante non aspettarsi risposte personalizzate o empatia da essi
  • benessere complessivo: ricordare al paziente che la salute mentale è un percorso complesso e individuale. Incoraggiarlo a concentrarsi su pratiche di auto-cura, come una dieta equilibrata, esercizio fisico, meditazione o hobby che favoriscano il benessere psicologico generale.

Dilemmi etici sull’uso delle IA nelle scienze mediche


L’innovazione tecnologica integrata alla pratica clinica porta con sé numerose implicazioni etiche che possono riguardare questioni estremamente importanti quando si ha a che fare con la salute delle persone. 


Alcuni dei punti fondamentali sui quali è importante sollevare l’attenzione dei clinici, dei ricercatori e dei legislatori sono i seguenti:


  • Privacy dei dati: le aziende tecnologiche raccolgono una quantità enorme di dati personali. Come, quando e perché questi dati vengono utilizzati, e in che modo sono protetti, sono questioni etiche importanti. Per esempio, è etico utilizzare i dati degli utenti per scopi di marketing senza il loro consenso esplicito? Come è possibile tutelare la privacy degli utenti/pazienti?
  • Intelligenza Artificiale: come dovrebbe essere programmata l’IA per prendere decisioni che potrebbero avere un impatto sulla vita umana? Per esempio, pensando al possibile inserimento della stessa in auto automatiche, in caso di incidente, come potrebbero comportarsi se dovessero scegliere se salvare la vita del conducente o di un pedone? Per prendere questa decisione non ci si può fermare solo a un calcolo algoritmico, come nel famoso Dilemma del carrello ferroviario formulato nel 1967 da Philippa Ruth Foot. Cosa farebbe l’IA se dovesse decidere se salvare la vita di una persona a scapito di un’altra?
  • Affidabilità e precisione delle risposte: le risposte generate da ChatGPT devono essere accurate, pertinenti e appropriate per il contesto terapeutico. La mancanza di precisione nelle risposte potrebbe causare confusione o danneggiare la fiducia del paziente nell'IA e nel processo terapeutico. Un paziente sarebbe in grado di discriminare l’errore?
  • Empatia e relazione terapeutica: l'empatia e la relazione terapeutica sono componenti fondamentali della psicoterapia. ChatGPT può replicare l'aspetto formale della conversazione, ma manca dell'empatia e della comprensione profonda delle emozioni umane che solo un terapeuta umano può fornire. ChatGPT sarebbe in grado di comprendere a pieno gli stati emotivi e le esperienze relazionali dannose che generano alcuni disturbi psicologici?
  • Rischi di dipendenza e isolamento: l'utilizzo eccessivo di ChatGPT potrebbe portare alcuni pazienti a sviluppare una dipendenza eccessiva dalla tecnologia, isolandosi dalle interazioni umane. È importante bilanciare l'uso dell'IA con l'importanza di un sostegno sociale reale e interazioni umane significative. Chi sarebbe in grado di ridurre l’isolamento di persone che decidono di affidarsi esclusivamente a relazioni digitali con Bot?
  • Controllo e bias dell'IA: le IA come ChatGPT possono essere influenzate dai dati con cui vengono addestrate, e questo potrebbe portare a bias nei confronti di determinati gruppi o a risposte inadeguate per alcune persone. Chi può vigilare su credenze generate per errore dall’IA su scala ristretta e su larga scala?

Il segreto della vita, dell'universo e di tutto quanto


Siamo ben lontani dal generare un avatar senziente in grado di sostituire i terapeuti, al contrario, ChatGPT può arrivare dove il clinico non riesce, rappresenta uno dei molteplici strumenti che possono essere integrati nella pratica clinica, in grado di creare soluzioni testuali immediate. 


Il clinico potrebbe utilizzarli per creare un esercizio, una suggestione, una storia terapeutica, un questionario da sottoporre al paziente/cliente. Ciò che cambia è la gestione della procedura, ad appannaggio del senso critico e clinico dei terapeuti e non dei pazienti, almeno per quanto riguarda la pratica della psicoterapia. 


Uno psicoterapeuta, infatti, ha il senso clinico e la visione d’insieme, gli obiettivi e le direzioni con le quali navigare verso il benessere psicologico. 


Potrebbe essere usato come strumento di triage, aiutando a identificare i pazienti che hanno bisogno di un intervento immediato. Potrebbe anche essere utilizzato per fornire supporto tra le sedute di terapia, offrendo consigli e tecniche di coping in tempo reale.


Nel romanzo Guida galattica per autostoppisti, Douglas Adams descrive un dialogo con Pensiero Profondo, una IA in grado di calcolare e riportare in maniera discorsiva il segreto della vita, dell'universo e di tutto quanto:

"È stato un lungo viaggio", disse Pensiero Profondo con voce grave e solenne, "un lungo, lungo viaggio, ma alla fine ho scoperto qual è il segreto della vita." Gli uomini rimasero senza fiato.


"Pensiero Profondo è in grado di dirci... il segreto della vita!" Urlò qualcuno. "Gli uomini non sono pronti per un'informazione di tale portata!" Disse Pensiero Profondo.


Strinse gli occhi in segno di sollievo quando capì che adesso l'avrebbero lasciato in pace. "Il segreto della vita", disse, "è… Fare una domanda.". "Cosa?" Urlarono gli uomini. "Una domanda", disse Pensiero Profondo.


“Pensiero Profondo” è un computer creato per dare una risposta alla domanda più importante di tutte; allo stesso modo, anche noi abbiamo creato una IA per rispondere a qualunque nostra domanda, forse anche alla domanda fondamentale. 


È bene allora considerare ciò che Adams fece rispondere al super-computer, ovvero che la risposta è tanto importante quanto la domanda stessa. Nella pratica della psicoterapia ciò che è veramente importante è la domanda che i pazienti rivolgono agli psicoterapeuti e che gli psicoterapeuti rivolgono ai pazienti.

Bibliografia

Questo è un contenuto divulgativo e non sostituisce la diagnosi di un professionista. Articolo revisionato dalla nostra redazione clinica

Potrebbero interessarti

Lo stigma, le sue forme e le possibili ripercussioni psicologiche
Salute mentale

Lo stigma, le sue forme e le possibili ripercussioni psicologiche

Lavoro di cura e carriera: i risvolti psicologici sulle donne
Salute mentale

Lavoro di cura e carriera: i risvolti psicologici sulle donne

Salute mentale: un problema di genere?
Salute mentale

Salute mentale: un problema di genere?

scopri tutti gli articoli