Sempre più persone cercano aiuto da ChatGPT. Ma un bot è veramente in grado di fornire strumenti per guarire?
Negli ultimi anni si è iniziato finalmente a togliere un po’ dello stigma che da sempre circonda la salute mentale. Le persone sono più consapevoli di avere bisogno di aiuto e sono più propense a ricercarlo. Ma come lo fanno? Gli psicologi lanciano l’allarme: i giovani, ma anche gli adulti, confidano sempre più spesso i loro problemi a dei chatbot. Lo fanno perché non possono permettersi di andare da uno psicologo, ma con quali conseguenze?
Link sponsorizzato
Il presidente dell’Ordine degli Psicologi Italiani ha espresso tutta la sua preoccupazione. In un Paese dove ancora mancano le figure dello psicologo scolastico (ristretto a pochi fortunati istituti) e dello psicologo di base, molte persone si trovano di fronte a una scelta: andare in terapia e raschiare il fondo della pentola a fine mese, oppure cercare strumenti di cura alternativi. Questi strumenti vengono spesso identificati nell’IA, che dà l’impressione di parlare effettivamente con qualcuno ed è in grado di dispensare consigli. Il punto è che l’IA non potrà mai essere preparata come un vero psicologo, ma non si tratta solo di questo.
Il pilastro di ogni cura psicologica è la cosiddetta relazione terapeutica, quella che si instaura tra medico e paziente. Una buona relazione terapeutica è fondamentale per la riuscita di un percorso. Va da sé che l’interazione umana non può essere sostituita dal rapporto uomo-macchina, che è solo la simulazione di una relazione. In altre parole, chattando con un bot si può avere talvolta la sensazione di parlare veramente con qualcuno, ma non è così.
Gli strumenti IA come ChatGPT sono addestrati ad analizzare domande e a fornire risposte, ma questo non è in alcun modo affine alla vera pratica clinica. Una ricerca avrebbe dimostrato che, quando vengono sottoposte a domande di medicina, le IA forniscono risposte accurate per il 90%, tanto quanto un medico umano. Ma fornire risposte non è l’equivalente di curare! Questo è del tutto evidente quando si tratta di medicina “fisica”, ma è valido anche quando si parla di terapia psicologica. Purtroppo ancora oggi, nonostante i grandi passi avanti che si sono fatti nella conoscenza della psicologia, ci sono persone che credono che lo psicologo debba essere una specie di “fornitore di risposte”, ruolo che può essere tranquillamente ricoperto da ChatGPT.
L’utilizzo dei chatbot nella pratica clinica non è da demonizzare del tutto. La Stanford University ha creato un sistema chiamato Woebot Health, che fornisce aiuto ai pazienti basandosi sulle regole della terapia cognitivo-comportamentale. Il vantaggio di questo bot è che è attivo ventiquattro ore al giorno, sette giorni su sette, ma gli stessi creatori riconoscono che ha dei grossi limiti. Il più grande dei limiti dei bot è che questi non saranno mai e poi mai in grado di affrontare situazioni gravi o crisi.
A nostro avviso, non dovremmo rischiare che chi ha bisogno di aiuto debba accontentarsi di fare terapia con una macchina. È urgente stanziare più fondi per la salute psicologica, cosicché le persone possano rivolgersi finalmente a un terapeuta umano, decisamente più empatico di quanto potrebbe esserlo un bot. Per quanto le IA utilizzino un linguaggio accomodante, che simula l’empatia, non sono veramente in grado di comprendere che cosa sia la sofferenza e non potranno mai sostituire l’aiuto di chi conosce l’animo umano in prima persona, e non attraverso la mano di un programmatore.