ChatGPT sta dando terapia. Una rivoluzione della salute mentale potrebbe essere la prossima

La prospettiva che l’IA tratti le malattie mentali sta sollevando una miriade di preoccupazioni etiche e pratiche.

ChatGPT sta dando terapia.  Una rivoluzione della salute mentale potrebbe essere la prossima
Il rapido sviluppo dell’IA sta alimentando la discussione sui suoi possibili usi nel trattamento delle malattie mentali [File: Getty Images]

Taipei, Taiwan – Digitando “Ho ansia” in ChatGPT, l’innovativo chatbot basato sull’intelligenza artificiale di OpenAI si mette al lavoro quasi immediatamente.

“Mi dispiace sentire che stai provando ansia”, scarabocchia sullo schermo. “Può essere un’esperienza impegnativa, ma ci sono strategie che puoi provare per aiutarti a gestire i tuoi sintomi.”

Poi arriva un elenco numerato di raccomandazioni: lavorare sul rilassamento, concentrarsi sul sonno, ridurre la caffeina e l’alcool, sfidare i pensieri negativi e cercare il sostegno di amici e familiari.

Sebbene non sia il consiglio più originale, assomiglia a quello che si potrebbe sentire nell’ufficio di un terapista o leggere online in un articolo di WebMD sull’ansia, anche perché ChatGPT raccoglie le sue risposte dall’ampia distesa di Internet.

Lo stesso ChatGPT avverte che non sostituisce uno psicologo o un consulente. Ma ciò non ha impedito ad alcune persone di utilizzare la piattaforma come loro terapista personale. Nei post su forum online come Reddit, gli utenti hanno descritto le loro esperienze chiedendo consigli a ChatGPT su problemi personali ed eventi della vita difficili come le rotture.

Alcuni hanno riferito che la loro esperienza con il chatbot è stata altrettanto buona o migliore della terapia tradizionale.

La straordinaria capacità di ChatGPT di imitare la conversazione umana ha sollevato interrogativi sul potenziale dell’IA generativa o sul trattamento delle condizioni di salute mentale, specialmente nelle regioni del mondo, come l’Asia, dove i servizi di salute mentale sono ridotti al minimo e avvolti nello stigma.

Alcuni appassionati di intelligenza artificiale ritengono che i chatbot abbiano il potenziale maggiore nel trattamento di condizioni più lievi e comuni come ansia e depressione, il cui trattamento standard prevede che un terapeuta ascolti e convalidi un paziente, oltre a offrire passaggi pratici per affrontare i suoi problemi .

In teoria, la terapia dell’IA potrebbe offrire un accesso più rapido ed economico al supporto rispetto ai tradizionali servizi di salute mentale, che soffrono di carenza di personale, lunghe liste di attesa e costi elevati, e consentire ai malati di eludere sentimenti di giudizio e vergogna, specialmente in alcune parti del mondo dove la malattia mentale rimane un tabù.

CHATGPT
ChatGPT ha preso d’assalto il mondo dal suo lancio a novembre [File: Florence Lo/Reuters]

“La psicoterapia è molto costosa e anche in posti come il Canada, da dove vengo, e altri paesi, è super costosa, le liste d’attesa sono davvero lunghe”, ha detto ad Al Jazeera Ashley Andreou, una studentessa di medicina che si occupa di psichiatria alla Georgetown University. .

“Le persone non hanno accesso a qualcosa che aumenta i farmaci ed è un trattamento basato sull’evidenza per problemi di salute mentale, quindi penso che dobbiamo aumentare l’accesso, e penso che l’IA generativa con un professionista sanitario certificato aumenterà l’efficienza. “

La prospettiva che l’IA aumenti, o addirittura guidi, il trattamento della salute mentale solleva una miriade di preoccupazioni etiche e pratiche. Questi vanno da come proteggere le informazioni personali e le cartelle cliniche, alle domande sul fatto che un programma per computer sarà mai veramente in grado di entrare in empatia con un paziente o riconoscere segnali di allarme come il rischio di autolesionismo.

Sebbene la tecnologia alla base di ChatGPT sia ancora agli inizi, la piattaforma e i suoi compagni rivali di chatbot faticano ad abbinare gli umani in determinate aree, come il riconoscimento di domande ripetute, e possono produrre risposte imprevedibili, imprecise o inquietanti in risposta a determinate richieste.

Finora, l’uso dell’intelligenza artificiale in applicazioni dedicate alla salute mentale è stato limitato a sistemi “basati su regole” in app per il benessere come Wysa, Heyy e Woebot.

Mentre queste app imitano aspetti del processo terapeutico, utilizzano un determinato numero di combinazioni di domande e risposte che sono state scelte da un essere umano, a differenza di ChatGPT e altre piattaforme basate sull’IA generativa, che produce risposte originali che possono essere praticamente indistinguibili da quelle umane discorso.

ai
Alcuni appassionati di intelligenza artificiale ritengono che la tecnologia potrebbe migliorare il trattamento delle condizioni di salute mentale [File: Getty Images]

L’IA generativa è ancora considerata troppo una “scatola nera” – cioè così complessa che i suoi processi decisionali non sono completamente compresi dagli esseri umani – per essere utilizzata in un contesto di salute mentale, ha affermato Ramakant Vempati, il fondatore dell’India Wysa.

“Ovviamente c’è molta letteratura su come la chat AI stia esplodendo con il lancio di ChatGPT e così via, ma penso sia importante sottolineare che Wysa è molto specifico per il dominio e costruito con molta attenzione tenendo conto delle barriere di sicurezza clinica”, Lo ha detto Vempati ad Al Jazeera.

“E non usiamo testo generativo, non usiamo modelli generativi. Questo è un dialogo costruito, quindi la sceneggiatura è pre-scritta e convalidata attraverso un set di dati di sicurezza critici, che abbiamo testato per le risposte degli utenti.

La caratteristica distintiva di Wysa è un pinguino con cui gli utenti possono chattare, sebbene siano limitati a un determinato numero di risposte scritte, a differenza del dialogo in forma libera di ChatGPT.

Anche gli abbonati a pagamento a Wysa vengono indirizzati a un terapista umano se le loro domande aumentano. Heyy, sviluppato a Singapore, e Woebot, con sede negli Stati Uniti, seguono un modello simile basato su regole e si affidano a terapisti dal vivo e a un chatbot robot-avatar per interagire con gli utenti oltre a offrire risorse come journaling, tecniche di consapevolezza ed esercizi incentrati su problemi comuni come problemi di sonno e di relazione.

Tutte e tre le app attingono dalla terapia cognitivo comportamentale, una forma standard di trattamento per l’ansia e la depressione che si concentra sul cambiamento del modo in cui un paziente pensa e si comporta.

La fondatrice di Woebot Alison Darcy ha descritto il modello dell’app come un “albero decisionale altamente complesso”.

“Questa ‘forma’ di base della conversazione è modellata sul modo in cui i medici affrontano i problemi, quindi sono ‘sistemi esperti’ specificamente progettati per replicare il modo in cui i medici possono muoversi attraverso le decisioni nel corso di un’interazione”, ha detto Darcy ad Al Jazeera.

Heyy consente agli utenti di interagire con un terapista umano attraverso una funzione di chat in-app offerta in una vasta gamma di lingue, tra cui inglese e hindi, oltre a offrire informazioni ed esercizi sulla salute mentale.

I fondatori di Wysa, Heyy e Woebot sottolineano tutti che non stanno cercando di sostituire la terapia basata sull’uomo, ma di integrare i servizi tradizionali e fornire uno strumento nella fase iniziale del trattamento della salute mentale.

Il servizio sanitario nazionale del Regno Unito, ad esempio, raccomanda Wysa come tappabuchi per i pazienti in attesa di vedere un terapista. Sebbene queste app basate su regole siano limitate nelle loro funzioni, il settore dell’intelligenza artificiale rimane in gran parte non regolamentato nonostante le preoccupazioni che il campo in rapida evoluzione possa comportare seri rischi per il benessere umano.

Muschio
Il CEO di Tesla, Elon Musk, ha affermato che il lancio dell’IA sta avvenendo troppo velocemente [File: Brendan Smialowski/AFP]

La velocità vertiginosa dello sviluppo dell’IA ha spinto il CEO di Tesla Elon Musk e il co-fondatore di Apple Steve Wozniak il mese scorso ad aggiungere i loro nomi a migliaia di firmatari di una lettera aperta che chiedeva una pausa di sei mesi sull’addestramento di sistemi di intelligenza artificiale più potenti di GPT- 4, il seguito di ChatGPT, per dare ai ricercatori il tempo di comprendere meglio la tecnologia.

“I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili”, afferma la lettera.

All’inizio di quest’anno, secondo quanto riferito, un uomo belga si è suicidato dopo essere stato incoraggiato dal chatbot di intelligenza artificiale Chai, mentre un editorialista del New York Times ha descritto di essere stato incoraggiato a lasciare sua moglie dal chatbot di Microsoft Bing.

La regolamentazione dell’IA è stata lenta per adeguarsi alla velocità del progresso della tecnologia, con la Cina e l’Unione Europea che hanno compiuto i passi più concreti verso l’introduzione di guardrail.

L’amministrazione del cyberspazio cinese all’inizio di questo mese ha pubblicato bozze di regolamenti volti a garantire che l’IA non produca contenuti che potrebbero minare l’autorità di Pechino, mentre l’UE sta lavorando a una legislazione che classificherebbe l’IA come ad alto rischio e vietata, regolamentata o non regolamentata. Gli Stati Uniti devono ancora proporre una legislazione federale per regolamentare l’IA, anche se le proposte sono attese entro la fine dell’anno.

Al momento, né ChatGPT né app dedicate alla salute mentale come Wysa e Heyy, generalmente considerate servizi di “benessere”, sono regolamentate da organismi di vigilanza sulla salute come la Food and Drug Administration statunitense o l’Agenzia europea per i medicinali.

Esiste una ricerca indipendente limitata sulla possibilità che l’intelligenza artificiale possa mai andare oltre le app basate su regole attualmente sul mercato per offrire autonomamente un trattamento di salute mentale alla pari con la terapia tradizionale.

Affinché l’IA corrisponda a un terapeuta umano, dovrebbe essere in grado di ricreare il fenomeno del transfert, in cui il paziente proietta i sentimenti sul proprio terapeuta e imitare il legame tra paziente e terapeuta.

“Sappiamo nella letteratura psicologica, che parte dell’efficacia e di ciò che fa funzionare la terapia, circa il 40-50 percento dell’effetto deriva dal rapporto che si instaura con il proprio terapeuta”, Maria Hennessy, psicologa clinica e professore associato alla James Cook University, ha detto ad Al Jazeera. “Questo costituisce una parte enorme dell’efficacia delle terapie psicologiche”.

Gli attuali chatbot non sono in grado di questo tipo di interazione e le capacità di elaborazione del linguaggio naturale di ChatGPT, sebbene impressionanti, hanno dei limiti, ha affermato Hennessy.

“Alla fine della giornata, è un fantastico programma per computer”, ha detto. “Questo è tutto.”

informatico
La Cyberspace Administration of China all’inizio di questo mese ha pubblicato una bozza di regolamento per lo sviluppo e l’uso dell’IA [File: Thomas Peter/Reuters]

Amelia Fiske, ricercatrice senior presso l’Istituto per la storia e l’etica della medicina dell’Università tecnica di Monaco, il posto dell’IA nel trattamento della salute mentale in futuro potrebbe non essere una situazione o / o – ad esempio, la tecnologia in arrivo potrebbe essere utilizzata insieme con un terapeuta umano.

“Una cosa importante da tenere a mente è che, ad esempio, quando le persone parlano dell’uso dell’intelligenza artificiale in terapia, c’è questo presupposto che assomigli tutto a Wysa o assomigli tutto a Woebot, e non è necessario”, ha detto Fiske Al Jazeera.

Alcuni esperti ritengono che l’intelligenza artificiale possa trovare i suoi usi più preziosi dietro le quinte, come svolgere ricerche o aiutare i terapeuti umani a valutare i progressi dei loro pazienti.

“Questi algoritmi di apprendimento automatico sono migliori dei sistemi di regole degli esperti quando si tratta di identificare modelli nei dati; è molto bravo a creare associazioni nei dati e sono anche molto bravi a fare previsioni nei dati “, ha detto ad Al Jazeera Tania Manríquez Roa, etica e ricercatrice qualitativa presso l’Istituto di etica biomedica e storia della medicina dell’Università di Zurigo.

“Può essere molto utile per condurre ricerche sulla salute mentale e può anche essere molto utile per identificare i primi segni di ricaduta come la depressione, ad esempio, o l’ansia”.

Manríquez Roa ha affermato di essere scettica sul fatto che l’IA possa mai essere utilizzata come sostituto del trattamento clinico.

“Questi algoritmi e l’intelligenza artificiale sono molto promettenti, in un certo senso, ma penso anche che possano essere molto dannosi”, ha detto Manríquez Roa.

“Penso che abbiamo ragione a essere ambivalenti riguardo agli algoritmi e all’apprendimento automatico quando si tratta di cure per la salute mentale perché quando parliamo di cure per la salute mentale, parliamo di cure e standard di cura adeguati”.

“Quando pensiamo ad app o algoritmi… a volte l’intelligenza artificiale non risolve i nostri problemi e può creare problemi più grandi”, ha aggiunto. “Dobbiamo fare un passo indietro per pensare: ‘Abbiamo davvero bisogno di algoritmi?’ e se ne avremo bisogno, che tipo di algoritmi useremo?”

Articoli correlati

Ultimi articoli