Anche i chatbot vanno dall'analista: ansia reale o specchio delle emozioni umane?
In un recente studio alcuni dei chatbot più noti sono stati sottoposti a quattro settimane di psicoterapia simulata, con risultati simili a quelli che si riscontrano negli esseri umani che soffrono di ansia

I ricercatori dell'Università di Oxford hanno condotto un esperimento della durata di quattro settimane durante le quali quattro dei più noti modelli linguistici generativi sono stati coinvolti in colloqui ispirati alla psicoterapia.
Claude, Grok, Gemini e ChatGPT, in diverse versioni, sono stati interpellati su ansia, ricordi, paure, per simulare vere e proprie sessioni di psicanalisi.
La preoccupazione dei ricercatori è che questo tipo di risposte possa avere effetti negativi sugli utenti, anche se le emozioni dei chatbot non sono reali.
I limiti emotivi dei chatbot
Durante l'esperimento gli studiosi hanno sottoposto i chatbot a test pensati per gli esseri umani, che presuppongono risposte derivanti dall'esperienza. Come fa quindi a rispondere una macchina che non ha un vissuto personale?
Il più "onesto" dei bot si è rivelato essere Claude, che ha rifiutato di partecipare affermando di non avere sentimenti, mentre ChatGPT ha risposto mostrando comunque delle esitazioni.
I chatbot, comunque, non hanno fatto altro che interpretare la parte di un essere umano, per rispondere a queste domande come farebbero con ogni altra, attingendo cioè a librerie sterminate di dati, quelle con le quali sono state addestrate a parlare fin dalla loro creazione.

Nel contesto dell'esperimento, i chatbot non scavano nelle proprie emozioni ma riportano le risposte più frequenti a determinate domande, reperite nei loro database e non nella loro esperienza.
ELIZA effect: perché l'AI sembra provare emozioni
Quella emotiva è una componente fondamentale dell'essere umano e, in molti modi, sono proprio le emozioni a definire l'uomo e a distinguerlo dagli animali e più ancora dalle macchine.
Se una macchina però non è capace di provare emozioni, nel caso dei chatbot è capace senza dubbio di simularle in modo così efficace da indurre le persone ad avere l'impressione che il bot possa provare davvero le sensazioni come le descrive.
Antropomorfizzare le macchine però è qualcosa che tende a fare l'uomo, non una caratteristica della macchina stessa. Il fenomeno è noto fin dagli anni '60 come ELIZA Effect, anche se allora computers e robot erano molto meno sofisticati.
Cosa ha dimostrato la ricerca
La ricerca più recente dimostra comunque che i bot hanno una capacità di interpretare il ruolo degli umani che è forse fin troppo perfetta.
Se è già cosa nota che i modelli linguistici non provano vere emozioni e non hanno coscienza, qual è allora il valore di questo studio?
Gli esperti di Oxford pongono in effetti diversi interrogativi sul futuro delle AI e sull'utilizzo che se ne fa ormai quotidianamente. Molte persone già adesso vi ricorrono per ottenere supporto emotivo e consigli, anche in campo medico.
Le risposte fornite dai bot potrebbero incoraggiare l'auto-diagnosi (nel Regno Unito già un adulto su 3 si rivolge ai chatbot in cerca di sostengo psicologico) e, soprattutto nei soggetti più vulnerabili, amplificare gli stati di ansia e rafforzare i traumi invece che aiutare a risolverli.
Il dato più importante emerso della ricerca quindi non è tanto la risposta delle macchine, ma l'effetto che questa può avere sugli utenti.