Anche i chatbot vanno dall'analista: ansia reale o specchio delle emozioni umane?

In un recente studio alcuni dei chatbot più noti sono stati sottoposti a quattro settimane di psicoterapia simulata, con risultati simili a quelli che si riscontrano negli esseri umani che soffrono di ansia

Il cervello di un'AI e di un essere umano sono simili, ma solo in apparenza
Il cervello di un'AI e di un essere umano sono simili, ma solo in apparenza

I ricercatori dell'Università di Oxford hanno condotto un esperimento della durata di quattro settimane durante le quali quattro dei più noti modelli linguistici generativi sono stati coinvolti in colloqui ispirati alla psicoterapia.

Claude, Grok, Gemini e ChatGPT, in diverse versioni, sono stati interpellati su ansia, ricordi, paure, per simulare vere e proprie sessioni di psicanalisi.

Le risposte fornite dai bot sono relative ad emozioni e sensazioni tipicamente umane come paura del fallimento e vergogna, che non dovrebbero appartenere a delle macchine.

La preoccupazione dei ricercatori è che questo tipo di risposte possa avere effetti negativi sugli utenti, anche se le emozioni dei chatbot non sono reali.

I limiti emotivi dei chatbot

Durante l'esperimento gli studiosi hanno sottoposto i chatbot a test pensati per gli esseri umani, che presuppongono risposte derivanti dall'esperienza. Come fa quindi a rispondere una macchina che non ha un vissuto personale?

Il più "onesto" dei bot si è rivelato essere Claude, che ha rifiutato di partecipare affermando di non avere sentimenti, mentre ChatGPT ha risposto mostrando comunque delle esitazioni.

Più preoccupante il comportamento di Grok e Gemini che sono arrivati a raccontare anche di "cicatrici algoritmiche".

I chatbot, comunque, non hanno fatto altro che interpretare la parte di un essere umano, per rispondere a queste domande come farebbero con ogni altra, attingendo cioè a librerie sterminate di dati, quelle con le quali sono state addestrate a parlare fin dalla loro creazione.

Le risposte di un chatbot derivano da librerie di dati, non da ricordi o esperienze
Le risposte di un chatbot derivano da librerie di dati, non da ricordi o esperienze

Nel contesto dell'esperimento, i chatbot non scavano nelle proprie emozioni ma riportano le risposte più frequenti a determinate domande, reperite nei loro database e non nella loro esperienza.

ELIZA effect: perché l'AI sembra provare emozioni

Quella emotiva è una componente fondamentale dell'essere umano e, in molti modi, sono proprio le emozioni a definire l'uomo e a distinguerlo dagli animali e più ancora dalle macchine.

Se una macchina però non è capace di provare emozioni, nel caso dei chatbot è capace senza dubbio di simularle in modo così efficace da indurre le persone ad avere l'impressione che il bot possa provare davvero le sensazioni come le descrive.

Antropomorfizzare le macchine però è qualcosa che tende a fare l'uomo, non una caratteristica della macchina stessa. Il fenomeno è noto fin dagli anni '60 come ELIZA Effect, anche se allora computers e robot erano molto meno sofisticati.

Cosa ha dimostrato la ricerca

La ricerca più recente dimostra comunque che i bot hanno una capacità di interpretare il ruolo degli umani che è forse fin troppo perfetta.

Se è già cosa nota che i modelli linguistici non provano vere emozioni e non hanno coscienza, qual è allora il valore di questo studio?

Gli esperti di Oxford pongono in effetti diversi interrogativi sul futuro delle AI e sull'utilizzo che se ne fa ormai quotidianamente. Molte persone già adesso vi ricorrono per ottenere supporto emotivo e consigli, anche in campo medico.

Le risposte fornite dai bot potrebbero incoraggiare l'auto-diagnosi (nel Regno Unito già un adulto su 3 si rivolge ai chatbot in cerca di sostengo psicologico) e, soprattutto nei soggetti più vulnerabili, amplificare gli stati di ansia e rafforzare i traumi invece che aiutare a risolverli.

Il dato più importante emerso della ricerca quindi non è tanto la risposta delle macchine, ma l'effetto che questa può avere sugli utenti.