Di fronte a liste d’attesa sempre più lunghe per accedere a visite mediche specialistiche, molti utenti cercano scorciatoie, rivolgendosi all’intelligenza artificiale per ricevere una diagnosi. ChatGPT e altri chatbot sono diventati strumenti sempre più popolari per ottenere consigli sanitari, ma secondo un recente studio dell’Università di Oxford, questa abitudine può comportare seri rischi per la salute.

Un utente su sei cerca consigli medici da chatbot
Secondo un sondaggio condotto negli Stati Uniti, un cittadino su sei utilizza chatbot AI per ricevere consigli sulla salute almeno una volta al mese. In un’epoca in cui l’accesso tempestivo ai servizi sanitari è spesso complicato, l’intelligenza artificiale sembra offrire una soluzione rapida. Ma a quale prezzo?
Uno studio pubblicato dall’Oxford Internet Institute, che ha coinvolto 1.300 partecipanti nel Regno Unito, ha analizzato l’affidabilità di tre chatbot di ultima generazione — GPT-4o di OpenAI, Command R+ di Cohere e LLaMA 3 di Meta — nel supportare gli utenti in scenari clinici simulati. I risultati sono allarmanti: l’uso dell’intelligenza artificiale non ha migliorato la capacità degli utenti di prendere decisioni mediche corrette, anzi, in molti casi ha portato a sottovalutare la gravità dei sintomi.
Diagnosi errate e comunicazione inefficace
Il problema principale non è solo la qualità delle risposte, ma anche l’interazione stessa tra utente e AI. Come spiegato dal professor Adam Mahdi, coautore dello studio, gli utenti spesso non riescono a fornire informazioni adeguate, e i chatbot rispondono con messaggi ambigui o contraddittori: “Le risposte combinavano consigli utili e fuorvianti. Questo crea confusione e mina la fiducia nel processo decisionale”, afferma Mahdi.
La ricerca evidenzia inoltre che i chatbot non sono progettati per gestire la complessità delle interazioni umane, specialmente in ambito sanitario. Le risposte automatizzate, se non testate in contesti clinici reali, possono risultare pericolose.
La comunità medica lancia l’allarme
Nonostante l’intelligenza artificiale stia rivoluzionando il settore medico — dalla diagnosi precoce dei tumori alla stima dell’età biologica dei pazienti —, le autorità sanitarie mettono in guardia dall’uso improprio di questi strumenti. L’American Medical Association (AMA), una delle organizzazioni mediche più autorevoli al mondo, sconsiglia ai professionisti sanitari di utilizzare l’AI per decisioni cliniche senza una supervisione esperta.
Anche i giganti della tecnologia, come Apple, Microsoft e Amazon, stanno investendo in soluzioni digitali per il monitoraggio della salute, ma sempre nel contesto di dispositivi certificati e in collaborazione con medici professionisti. Chatbot come ChatGPT non sono progettati per sostituire i medici, ma al massimo per supportare l’accesso all’informazione.
Affidarsi a fonti verificate è fondamentale
In ambito sanitario, l’accuratezza e l’affidabilità sono essenziali. Per questo motivo, esperti come Mahdi raccomandano di rivolgersi sempre a fonti autorevoli, come il National Institutes of Health (NIH), la Mayo Clinic o l’Organizzazione Mondiale della Sanità (OMS), per ottenere informazioni sicure sulla propria salute.
“Questi sistemi devono essere testati nel mondo reale, come avviene per i farmaci nei trial clinici. Solo così potremo davvero comprendere il loro impatto e i limiti,” conclude Mahdi.
In sintesi:
- L’intelligenza artificiale non può sostituire un medico.
- Le diagnosi automatiche possono essere imprecise o fuorvianti.
- Anche se utili per alcune funzioni, i chatbot devono essere usati con cautela.
- Le fonti mediche certificate restano il riferimento più sicuro per la salute.

Giornalista e analista, scrive di economia italiana, innovazione e imprese. Appassionato di tecnologia e finanza, racconta il presente e il futuro delle aziende che fanno muovere il Paese.