ChatGPT come "dottore": quando l'intelligenza artificiale porta a un'automedicazione pericolosa

In un'epoca in cui l'intelligenza artificiale sta entrando in ogni aspetto della nostra vita, molte persone affidano la propria salute a ChatGPT. Ma l'intelligenza artificiale può sostituire un vero medico? Dalle madri che curano i propri figli seguendo i consigli di un robot, all'ascesa globale dell'automedicazione digitale, questo fenomeno sta sollevando serie preoccupazioni per la sicurezza pubblica.

Ida Ismail

Con lo sviluppo dell'intelligenza artificiale, sempre più pazienti evitano le visite mediche, affidandosi a ChatGPT o a piattaforme online per interpretare i test e ricevere consigli medici. Questa tendenza, secondo i medici, sta diventando un serio rischio per la salute pubblica, poiché può portare a diagnosi errate e danni irreparabili ai pazienti.

La dottoressa pediatra Loreta Gjoni condivide casi concreti di giovani madri che ricevono informazioni via Internet e curano i propri figli seguendo i consigli dell'intelligenza artificiale. Una madre si è rifiutata di somministrare al figlio farmaci antipiretici, come il paracetamolo, per una temperatura di 38.5, dopo che ChatGPT le aveva informato degli effetti collaterali del farmaco.

"Il bambino aveva la febbre alta da diverse ore ed è tornato a casa esausto e assonnato. La madre non ci ha permesso di applicare un antipiretico, era molto contraria all'uso del paracetamolo. Solo dopo aver ricevuto spiegazioni si è convinta di aver agito male e abbiamo stabilizzato le condizioni del bambino", racconta.

La madre ha dichiarato di essersi affidata interamente ai consigli di ChatGPT, che aveva detto cose allarmanti sugli effetti dell'uso del paracetamolo, ma anche dell'aspirina in un altro caso.

Secondo gli esperti, ChatGPT può essere utile come strumento informativo, per tradurre termini, riassumere dati o fornire chiarimenti generali, ma non come strumento diagnostico o terapeutico. Il Dott. Gjoni sottolinea che spesso i genitori gli pongono domande che derivano da interpretazioni errate dell'intelligenza artificiale:

"È importante che la comunicazione medico-paziente si basi su solide basi. Solo il medico sa interpretare i sintomi e decidere il trattamento appropriato. ChatGPT non conosce il paziente, non ha alcun contesto clinico e non ha alcuna responsabilità."

Il caso non è isolato. In molti Paesi, i rapporti mostrano un aumento dell'"automedicazione digitale" attraverso l'intelligenza artificiale. Uno studio internazionale pubblicato su Fattori umani JMIR I ricercatori della Stanford University hanno analizzato l'uso di ChatGPT per l'autodiagnosi e i motivi per cui le persone si affidano a questo strumento per la diagnosi di problemi di salute. Dei 607 intervistati, il 78% ha dichiarato di essere disposto a utilizzare ChatGPT per ottenere consigli medici o interpretare i sintomi.

Gli autori sottolineano che questa fiducia deriva dall'impressione di elevate prestazioni e dalla convinzione che ChatGPT aiuti nel processo decisionale. Tuttavia, lo studio ha messo in guardia dai gravi rischi e raccomanda che l'intelligenza artificiale venga regolamentata e adattata per un utilizzo sicuro e supervisionato nel campo sanitario.

Anche OpenAI stessa ha avvertito che ChatGPT "non sostituisce gli operatori sanitari", ma molti utenti lo considerano una fonte autorevole per il modo convincente in cui formula le risposte.

Gli esperti avvertono che l'intelligenza artificiale non è in grado di distinguere le sfumature cliniche, come l'anamnesi del paziente, la co-comparsa di sintomi o le interazioni farmacologiche. Inoltre, i modelli di intelligenza artificiale spesso "allucinano", ovvero creano fatti falsi, presentandoli come accurati.

Un altro problema è che ChatGPT non è progettato per fornire consigli personalizzati. Si basa su testi generici tratti da Internet, che potrebbero essere obsoleti, fuori contesto o privi di fonti mediche verificate.

Secondo la World Medical Association (WMA), l'uso dell'intelligenza artificiale in ambito sanitario richiede protocolli chiari, trasparenza e supervisione professionale. In caso contrario, si corre il rischio che i pazienti prendano decisioni rischiose, ritardino il trattamento o abusino dei farmaci. In un'epoca di rapidi sviluppi tecnologici, il rischio maggiore rimane la sostituzione delle informazioni mediche accurate con quelle dell'intelligenza artificiale. /acqj.al