Nirvam home page
Area personaleChatRicercaEsci
Mio Profilo|Mia Area Riservata|Mio Partner Ideale|Miei Avvisi|Mio Account
 Messaggi ricevuti 
 Messaggi inviati
 Messaggi cancellati
 Scrivi un messaggio
 Articoli 
 Visite al mio profilo 
 Richieste Chat 
 Mi hanno votato 
 Sono loro amico 
 Ho votato per loro
 I miei amici
 Lista nera
Mia area
 Attendono accesso 
 Ho autorizzato
 Ho negato accesso
Aree altri utenti
 Attendo accesso da...
 Sono autorizzato da... 
 Autorizzazioni negate 
Magazine
Registrazione richiesta
Per votare o inserire commenti è necessario registrarsi a Nirvam
I pericoli di fare terapia con l'intelligenza artificiale
Sempre più persone cercano aiuto da ChatGPT. Ma un bot è veramente in grado di fornire strumenti per guarire?

Negli ultimi anni si è iniziato finalmente a togliere un po’ dello stigma che da sempre circonda la salute mentale. Le persone sono più consapevoli di avere bisogno di aiuto e sono più propense a ricercarlo. Ma come lo fanno? Gli psicologi lanciano l’allarme: i giovani, ma anche gli adulti, confidano sempre più spesso i loro problemi a dei chatbot. Lo fanno perché non possono permettersi di andare da uno psicologo, ma con quali conseguenze?

Link sponsorizzato

Il presidente dell’Ordine degli Psicologi Italiani ha espresso tutta la sua preoccupazione. In un Paese dove ancora mancano le figure dello psicologo scolastico (ristretto a pochi fortunati istituti) e dello psicologo di base, molte persone si trovano di fronte a una scelta: andare in terapia e raschiare il fondo della pentola a fine mese, oppure cercare strumenti di cura alternativi. Questi strumenti vengono spesso identificati nell’IA, che dà l’impressione di parlare effettivamente con qualcuno ed è in grado di dispensare consigli. Il punto è che l’IA non potrà mai essere preparata come un vero psicologo, ma non si tratta solo di questo.

Il pilastro di ogni cura psicologica è la cosiddetta relazione terapeutica, quella che si instaura tra medico e paziente. Una buona relazione terapeutica è fondamentale per la riuscita di un percorso. Va da sé che l’interazione umana non può essere sostituita dal rapporto uomo-macchina, che è solo la simulazione di una relazione. In altre parole, chattando con un bot si può avere talvolta la sensazione di parlare veramente con qualcuno, ma non è così.

Gli strumenti IA come ChatGPT sono addestrati ad analizzare domande e a fornire risposte, ma questo non è in alcun modo affine alla vera pratica clinica. Una ricerca avrebbe dimostrato che, quando vengono sottoposte a domande di medicina, le IA forniscono risposte accurate per il 90%, tanto quanto un medico umano. Ma fornire risposte non è l’equivalente di curare! Questo è del tutto evidente quando si tratta di medicina “fisica”, ma è valido anche quando si parla di terapia psicologica. Purtroppo ancora oggi, nonostante i grandi passi avanti che si sono fatti nella conoscenza della psicologia, ci sono persone che credono che lo psicologo debba essere una specie di “fornitore di risposte”, ruolo che può essere tranquillamente ricoperto da ChatGPT.

L’utilizzo dei chatbot nella pratica clinica non è da demonizzare del tutto. La Stanford University ha creato un sistema chiamato Woebot Health, che fornisce aiuto ai pazienti basandosi sulle regole della terapia cognitivo-comportamentale. Il vantaggio di questo bot è che è attivo ventiquattro ore al giorno, sette giorni su sette, ma gli stessi creatori riconoscono che ha dei grossi limiti. Il più grande dei limiti dei bot è che questi non saranno mai e poi mai in grado di affrontare situazioni gravi o crisi.

A nostro avviso, non dovremmo rischiare che chi ha bisogno di aiuto debba accontentarsi di fare terapia con una macchina. È urgente stanziare più fondi per la salute psicologica, cosicché le persone possano rivolgersi finalmente a un terapeuta umano, decisamente più empatico di quanto potrebbe esserlo un bot. Per quanto le IA utilizzino un linguaggio accomodante, che simula l’empatia, non sono veramente in grado di comprendere che cosa sia la sofferenza e non potranno mai sostituire l’aiuto di chi conosce l’animo umano in prima persona, e non attraverso la mano di un programmatore.



 Commenti (1)
Accedi o Registrati per inserire commenti e valutazioni.
  1. finchemiva, Roma (Lazio)
    Buongiorno ho letto tutto l'articolo interessante... no non sono d'accordo ci manca solo la terapia psicologica artificiale. già nella scuola non sono d'accordo da insegnante mi rifiuto ai bambini serve il dialogo un abbraccio vero il resto è come direbbe qualcuno " È tutto un magna magna"...


Consigli utili Condizioni d'uso Privacy policy Cookie policy Contattaci