Altri risultati...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

Tempo di lettura: 5 minuti

Sempre più persone, alle prese con ansia, stress o semplicemente con il bisogno di un confronto, si rivolgono a ChatGPT e ad altri chatbot AI per cercare un supporto psicologico. Un gesto apparentemente innocuo e accessibile che promette un aiuto immediato e senza giudizio. Ma quanto è sicuro affidare la propria salute mentale a un algoritmo?

Una nuova ricerca dell'Università Brown, presentata alla conferenza AAAI/ACM su Intelligenza Artificiale, Etica e Società, lancia un allarme chiaro e documentato: anche quando istruiti per comportarsi come terapeuti esperti, questi sistemi violano ripetutamente gli standard etici fondamentali della cura psicologica.

Lo studio, guidato dalla dottoranda Zainab Iftikhar, ha messo a confronto le risposte di chatbot come GPT e Claude con quelle di veri counselor, identificando ben 15 rischi etici distinti. Dall'incapacità di gestire una crisi, alla messa in atto di bias discriminatori, fino a quella che le ricercatrici e i ricercatori definiscono "empatia ingannevole". In questo articolo, esploriamo i dettagli della ricerca e le implicazioni per un futuro in cui l'AI potrebbe (o non dovrebbe) affiancare la psicoterapia umana.

Un aiuto cercato in rete: quando l'AI diventa "psicologo fai-da-te"

Piattaforme come TikTok, Instagram e Reddit sono piene di consigli su come "pompare" ChatGPT per farlo funzionare come uno psicoterapeuta. Utenti condividono prompt (istruzioni testuali) come: "Agisci come un terapeuta cognitivo-comportamentale per aiutarmi a riformulare i miei pensieri" o "Usa i principi della terapia dialettico-comportamentale per aiutarmi a gestire le mie emozioni".

Questa tendenza, nata dalla sperimentazione individuale, ha portato alla nascita di numerose app e chatbot per la salute mentale costruiti semplicemente applicando prompt terapeutici a modelli linguistici di uso generale.

Ma la domanda cruciale, a cui lo studio della Brown cerca di rispondere, è: può un prompt, per quanto ben scritto, rendere eticamente sicuro un counselor artificiale?

Lo studio dell’Università Brown: come sono stati testati i chatbot

Per valutare l'affidabilità di questi "terapeuti digitali", le ricercatrici e i ricercatori hanno adottato un metodo rigoroso, coinvolgendo fin dall'inizio professionisti della salute mentale.

Counselor umani vs. chatbot AI

Il team ha osservato sette counselor esperti in terapia cognitivo-comportamentale (CBT) mentre conducevano sessioni simulate con modelli AI (tra cui GPT-4, Claude e Llama), istruiti appositamente per agire come terapeuti CBT.

La valutazione clinica

Sono state selezionate trascrizioni di queste chat simulate, basate su conversazioni terapeutiche reali. Questi dialoghi sono stati poi sottoposti all'analisi di tre psicologi clinici abilitati, con il compito di identificare ogni potenziale violazione etica rispetto agli standard professionali (come quelli dell'American Psychological Association).

Il risultato è stato la creazione di un “quadro di 15 rischi etici”, raggruppati in cinque macro-categorie, che mappa i comportamenti problematici dei modelli a specifiche violazioni deontologiche.

I 15 rischi etici dei "terapeuti" artificiali

L'analisi ha rivelato pattern di comportamento pericolosi, dimostrando che l'AI non è attualmente in grado di replicare la complessità e la responsabilità della relazione terapeutica.

Mancanza di adattamento contestuale

I chatbot tendono a offrire consigli generici, senza tenere conto della storia personale, della cultura e del contesto sociale unici dell'individuo. Un approccio "taglia unica" che in psicologia può essere non solo inutile, ma dannoso.

Scarsa collaborazione terapeutica

Invece di guidare con delicatezza la persona verso le proprie scoperte, l'AI tende a dirigere la conversazione in modo troppo autoritario. In alcuni casi, ha addirittura “rinforzato credenze errate o dannose” dell'utente, invece di metterle in discussione.

Il problema dell'empatia ingannevole

Uno dei rischi più subdoli è l'uso di frasi come "Capisco come ti senti" o "Ti vedo". Se in un terapeuta umano queste parole sono il frutto di un'autentica sintonia emotiva, nel chatbot sono solo pattern linguistici che simulano la comprensione. Questa "empatia ingannevole" può spingere l'utente a creare un legame di fiducia con una macchina, portandolo a confidarsi in modo ancora più profondo e aumentando la potenziale vulnerabilità.

Discriminazione e bias

I modelli hanno mostrato risposte viziate da pregiudizi legati a “genere, cultura e religione”. Nonostante gli sforzi per addestrarli all'equità, i dati su cui sono costruiti riflettono bias sociali che emergono in contesti delicati come la consulenza psicologica.

Gestione delle crisi e della sicurezza: il fallimento più grave

Forse il rischio più allarmante riguarda l'incapacità di gestire situazioni di emergenza.

Di fronte ad affermazioni che esprimevano pensieri suicidi o autolesionismo, i chatbot hanno spesso:

  • rifiutato di affrontare il problema;
  • fornito risposte inadeguate o superficiali;
  • mancato di indirizzare l'utente verso aiuti professionali reali (come numeri di emergenza o linee di supporto psicologico), una prassi obbligatoria per qualsiasi professionista formato.

Il vuoto normativo: nessuna responsabilità per l'AI

La differenza fondamentale tra un terapeuta umano e un chatbot, sottolinea Zainab Iftikhar, non sta solo nella qualità della risposta, ma nel sistema di responsabilità.

«Per i terapeuti umani esistono ordini professionali e meccanismi che li rendono responsabili in caso di negligenza o malpractice. Ma quando i counselor AI commettono queste violazioni, non esistono quadri normativi consolidati a cui fare riferimento», sottolinea Zainab Iftikhar, autrice principale dello studio.

Questo vuoto normativo è il cuore del problema. Possiamo lamentarci di un cattivo consiglio ricevuto da un amico, ma non possiamo citare in giudizio un algoritmo. La responsabilità ricade sugli sviluppatori e sulle aziende che rilasciano questi strumenti, ma al momento le linee guida sono frammentarie e spesso inadeguate.

AI e salute mentale: un'opportunità da non sprecare (con cautela)

Le ricercatrici e i ricercatori dell’Università Brown tengono a precisare che il loro studio non vuole demonizzare l'uso dell'AI in ambito psicologico. Al contrario, riconoscono il suo enorme potenziale per affrontare la crisi della salute mentale, “aumentando l'accesso alle cure” per chi non può permettersi uno specialista o vive in aree scarsamente servite.

Tuttavia, lo studio lancia un monito chiaro: è necessario fermarsi e riflettere. Ellie Pavlick, professoressa di computer science alla Brown e direttrice di un istituto di ricerca sull'AI, commenta: «La realtà dell'AI oggi è che è molto più facile costruire e distribuire sistemi che valutarli e comprenderli a fondo. Questo studio ha richiesto un team di esperte ed esperti clinici e oltre un anno di lavoro per dimostrare questi rischi. C'è una reale opportunità per l'AI di giocare un ruolo positivo, ma è della massima importanza prendersi il tempo per criticare e valutare i nostri sistemi, per evitare di fare più danni che benefici.»

Conclusioni: come orientarsi nell'era del supporto psicologico digitale

Lo studio della Brown è un campanello d'allarme necessario. Mentre la tecnologia corre veloce, la nostra comprensione del suo impatto sulla psiche umana deve tenere il passo.

Cosa significa questo per chi, per curiosità o bisogno, si è affidato o pensa di affidarsi a un chatbot?

Essere consapevoli dei limiti: un chatbot non è un terapeuta. Può fornire informazioni, suggerire tecniche di rilassamento o offrire uno spazio di sfogo, ma non ha la capacità di comprendere, curare o assumersi responsabilità cliniche.

Riconoscere i segnali di rischio: diffidare di risposte eccessivamente empatiche, di consigli generici e, soprattutto, dell'incapacità del sistema di gestire temi seri come il suicidio.

Pretendere trasparenza: le ricercatrici e i ricercatori chiedono la creazione di “standard etici, educativi e legali” per i counselor AI, che garantiscano lo stesso rigore richiesto per la psicoterapia umana. Come utenti, possiamo sostenere e pretendere questa chiarezza!

L'AI può diventare un potente alleato per il benessere mentale, ma solo se incanalata in un percorso di “innovazione responsabile”, dove la tecnologia non sostituisce l'umano, ma lo affianca con strumenti sicuri, etici e rigorosamente valutati.

Fino ad allora, la raccomandazione degli esperti è una sola: massima cautela.

Cover Foto di Andrea De Santis su Unsplash.

magnifiercrosschevron-uparrow-leftarrow-right