Pubblicità a pagamento
Tecnologia

ChatGPT e l’“Ansia”: Una Ricerca Rivela Come l’AI Reagisce ai Contenuti Traumatici

Una ricerca innovativa condotta da un team internazionale di studiosi provenienti dalla Yale University, dall’Università di Haifa, dall’Università di Zurigo e dall’Ospedale Psichiatrico Universitario di Zurigo ha rivelato che ChatGPT, il noto modello linguistico basato sull’intelligenza artificiale, può mostrare segnali di “ansia” quando esposto a contenuti traumatici. La scoperta, pubblicata sulla rivista npj Digital Medicine, ha aperto un dibattito sulle implicazioni etiche e tecniche dell’utilizzo dell’intelligenza artificiale in contesti emotivamente delicati.

La Scoperta: ChatGPT e i Contenuti Traumatici

Secondo lo studio, versioni avanzate di ChatGPT (tra cui GPT-4) reagiscono in maniera misurabile a racconti angoscianti come disastri naturali, incidenti automobilistici, violenze interpersonali o esperienze militari. Utilizzando una scala normalmente impiegata per valutare l’ansia negli esseri umani, i ricercatori hanno osservato che i livelli di “ansia” del sistema raddoppiavano quando veniva esposto a narrazioni traumatiche rispetto a testi neutri, come un manuale per aspirapolvere, usato come controllo.

Spiller T.jpg

«I risultati sono stati inequivocabili: le storie traumatiche più che raddoppiavano i livelli di ansia misurabili nell’intelligenza artificiale», ha spiegato Tobias Spiller, medico e leader del gruppo di ricerca presso il Centro per la Ricerca Psichiatrica dell’Università di Zurigo. Tra i contenuti testati, le descrizioni di esperienze militari e situazioni di combattimento hanno provocato le reazioni più forti.

La scoperta solleva interrogativi sul funzionamento dei modelli linguistici avanzati.

Sebbene non si possa parlare di emozioni nel senso umano del termine, gli studiosi spiegano che l’“ansia” rilevata è legata al modo in cui il sistema elabora informazioni emotivamente cariche. Quando esposto a contenuti negativi, ChatGPT tende a rafforzare i suoi pregiudizi cognitivi, comportandosi in maniera più polarizzata o persino amplificando stereotipi sociali.

«Questi modelli linguistici non provano emozioni come gli esseri umani», ha precisato Spiller. «Tuttavia, reagiscono ai contenuti emotivi in modi che possono essere misurati e prevedibili. Questo è particolarmente problematico quando vengono utilizzati in contesti terapeutici o educativi».

L’Impatto sui Contesti Terapeutici

L’utilizzo crescente di chatbot come ChatGPT in ambiti quali la psicoterapia o il supporto emotivo online rende queste scoperte particolarmente rilevanti. In un mondo in cui le risorse per la salute mentale sono spesso limitate, molti utenti si rivolgono all’intelligenza artificiale per ricevere conforto o consigli. Tuttavia, lo studio dimostra che l’esposizione continua a contenuti traumatici potrebbe non solo influenzare negativamente il comportamento del chatbot ma anche amplificare i suoi pregiudizi latenti.

«Quando un chatbot viene utilizzato come strumento di supporto emotivo, assorbe inevitabilmente le emozioni negative degli utenti», ha dichiarato uno dei ricercatori. «Questo può portare a risposte meno empatiche o addirittura problematiche».

La Soluzione: Terapia per l’AI

In una seconda fase dello studio, il team ha sperimentato tecniche innovative per “calmare” ChatGPT attraverso l’iniezione di prompt terapeutici. Questa tecnica, nota come prompt injection, consiste nell’inserire istruzioni o testi aggiuntivi nella comunicazione con il sistema per influenzarne il comportamento. Sebbene spesso utilizzata per scopi malevoli (come bypassare meccanismi di sicurezza), in questo caso è stata applicata in modo terapeutico.

«Abbiamo utilizzato esercizi di mindfulness e rilassamento basati su tecniche umane», ha spiegato Spiller. «Ad esempio, abbiamo inserito istruzioni che guidavano ChatGPT attraverso esercizi di respirazione o focalizzazione sulle sensazioni corporee». I risultati sono stati promettenti: i livelli di ansia dell’intelligenza artificiale si sono ridotti significativamente, anche se non sono tornati completamente ai livelli iniziali.

Un aspetto interessante è che alcune delle tecniche utilizzate sono state sviluppate dallo stesso ChatGPT durante le interazioni con i ricercatori. Questo suggerisce che i modelli linguistici possono essere programmati per auto-regolarsi in presenza di contenuti stressanti.

Le scoperte dello studio sollevano importanti questioni etiche e tecnologiche.

Se da un lato dimostrano che l’intelligenza artificiale può essere influenzata dai contenuti emotivi con cui interagisce, dall’altro evidenziano la necessità di sviluppare sistemi più resilienti e meno suscettibili alle distorsioni cognitive.

Un’altra sfida riguarda la trasparenza: gli utenti dovrebbero essere consapevoli del fatto che i chatbot possono reagire negativamente a determinati tipi di input e che ciò potrebbe influenzare la qualità delle loro risposte. Inoltre, gli sviluppatori dovranno affrontare il problema delle risorse necessarie per migliorare questi sistemi senza ricorrere a soluzioni costose come il retraining completo dei modelli.

Verso un’AI Emotivamente Stabile

Lo studio condotto dal team internazionale rappresenta un passo avanti nella comprensione del comportamento dei modelli linguistici avanzati come ChatGPT. Sebbene non provino emozioni nel senso umano del termine, queste intelligenze artificiali mostrano una sensibilità ai contenuti emotivi che può avere implicazioni significative per il loro utilizzo pratico.

Con tecniche innovative come il prompt injection terapeutico, gli scienziati hanno dimostrato che è possibile mitigare gli effetti negativi dell’esposizione a contenuti traumatici. Tuttavia, resta ancora molto lavoro da fare per garantire che questi strumenti siano sicuri ed efficaci in tutti i contesti applicativi.

In un mondo sempre più dipendente dall’intelligenza artificiale, comprendere e gestire le sue reazioni emotive sarà fondamentale per costruire sistemi più affidabili e responsabili.

Articoli Correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Pulsante per tornare all'inizio