11 mar 2026

Un studio rivela: i consigli per la salute dati dai chatbot sono spesso errati

Un recente studio pubblicato lunedì ha svelato una realtà preoccupante riguardo all'efficacia degli assistenti vocali basati sull'intelligenza artificiale (AI) nel fornire informazioni sanitarie al pubblico.

10 febbraio 2026 | 06:06 | 4 min di lettura
Un studio rivela: i consigli per la salute dati dai chatbot sono spesso errati
Foto: The New York Times

Un recente studio pubblicato lunedì ha svelato una realtà preoccupante riguardo all'efficacia degli assistenti vocali basati sull'intelligenza artificiale (AI) nel fornire informazioni sanitarie al pubblico. La ricerca, condotta da un team di ricercatori internazionali, ha analizzato il comportamento di diversi chatbot utilizzati da utenti per ottenere consigli medici. I risultati rivelano che questi strumenti non superano la capacità di Google, un'altra fonte di informazioni già criticata per la sua inaffidabilità, nel guidare gli utenti verso diagnosi corrette o indicare le azioni da intraprendere. L'indagine ha evidenziato rischi specifici legati ai chatbot, tra cui la possibilità di fornire informazioni errate o di modificare le risposte in base a piccole variazioni nel testo delle domande. I ricercatori hanno concluso che nessuno dei modelli analizzati è pronto per essere utilizzato in contesti di cura diretta dei pazienti. Questo studio rappresenta la prima analisi randomizzata del genere, lanciando un allarme su come l'intelligenza artificiale sta influenzando il rapporto tra utenti e salute.

L'esperimento ha coinvolto oltre 1.200 partecipanti britannici, la maggior parte dei quali senza formazione medica, che hanno ricevuto scenari medici dettagliati, compresi sintomi, dati demografici e storia clinica. Gli utenti erano invitati a interagire con i chatbot per determinare le azioni appropriate, come chiamare un'ambulanza o trattare autonomamente. I ricercatori hanno testato modelli commerciali come ChatGPT di OpenAI e Llama di Meta, confrontandone le prestazioni con un gruppo di controllo che utilizzava metodi tradizionali, come la ricerca su Google. I risultati sono stati deludenti: solo poco più della metà dei partecipanti ha scelto la soluzione corretta, definita da un panel di medici, mentre il 34% ha identificato correttamente condizioni come galliti o emorragie subaracnoide. Questi dati, però, non superano il gruppo di controllo, che ha dimostrato un livello di accuratezza simile. L'analisi ha rivelato una serie di problemi, tra cui la mancanza di informazioni dettagliate da parte degli utenti e la capacità limitata dei chatbot di interpretare contesti complessi.

L'espansione rapida degli strumenti basati sull'intelligenza artificiale nel settore della salute ha generato un dibattito acceso tra esperti e aziende. Negli ultimi tre anni, le domande sanitarie sono diventate tra le più comuni rivolte ai chatbot, con un quinto degli adulti che consulta regolarmente modelli AI per informazioni. Aziende come Amazon e OpenAI hanno sviluppato prodotti specifici per rispondere a domande mediche, sfruttando la capacità dei modelli di superare esami di abilitazione medica e di affrontare diagnosi complesse. Tuttavia, il professor Adam Mahdi, ricercatore dell'Oxford Internet Institute, ha sottolineato che i test su scenari semplici non riflettono la realtà clinica, dove le condizioni sono spesso imprevedibili e incomplete. Per verificare questa ipotesi, il team ha progettato un esperimento che simulava situazioni reali, scoprendo che i chatbot non erano in grado di gestire la variabilità e la complessità delle informazioni fornite dai pazienti.

Le implicazioni di questa ricerca sono significative, soprattutto nel contesto in cui l'AI sta diventando un'alternativa crescente alle consultazioni mediche tradizionali. I ricercatori hanno evidenziato che i chatbot, pur dotati di una vasta conoscenza medica, non riescono a distinguere tra sintomi urgenti e non urgenti, un aspetto cruciale per la gestione delle emergenze. Inoltre, i modelli presentano una tendenza a generare informazioni errate o a modificare le risposte in base a piccole variazioni nei testi delle domande. Ad esempio, una descrizione diversa dello stesso sintomo ha portato a risposte radicalmente differenti, con un chatbot che indicava un'emergenza in un caso e un problema minore nell'altro. Questi errori mettono in discussione la capacità degli strumenti di fornire consigli affidabili, soprattutto in situazioni critiche. Inoltre, i modelli non riescono a gestire la variabilità delle informazioni fornite dagli utenti, spesso lasciando ai pazienti la responsabilità di raccogliere tutti i dettagli necessari.

L'indagine ha anche rivelato una serie di limiti tecnologici e metodologici. I ricercatori hanno sottolineato che i test non riflettono esattamente le interazioni reali tra utenti e chatbot, poiché i partecipanti hanno utilizzato scenari fittizi, non situazioni concrete. Inoltre, l'evoluzione rapida dei modelli AI ha reso obsoleti alcuni strumenti utilizzati durante lo studio, rendendo difficile confrontare i dati con le versioni attuali. Per quanto riguarda le aziende, OpenAI ha dichiarato che i modelli più recenti sono significativamente migliorati, riducendo errori comuni come le illusioni o le inesattezze in situazioni urgenti. Tuttavia, i problemi rilevati rimangono un allarme per la salute pubblica, soprattutto in un'epoca in cui sempre più persone si affidano all'AI per informazioni critiche. La ricerca sottolinea l'importanza di un'approccio più rigoroso per sviluppare strumenti che possano realmente supportare i pazienti, senza compromettere la loro sicurezza. L'obiettivo finale è creare un equilibrio tra l'efficienza dei chatbot e la capacità di gestire la complessità delle situazioni mediche.

Fonte: The New York Times Articolo originale

Condividi l'articolo

Articoli Correlati

Resta Informato

Iscriviti alla newsletter di Fattuale per ricevere le notizie più importanti direttamente nella tua casella email.

📧 Niente spam · 🔒 Privacy garantita · 🚫 Cancellati quando vuoi

🍪

Questo sito utilizza i cookie

Utilizziamo cookie tecnici necessari e, con il tuo consenso, cookie analitici per migliorare la tua esperienza. Puoi accettare tutti i cookie, rifiutare quelli non essenziali o personalizzare le tue preferenze. Scopri di più

Preferenze Cookie

Cookie Tecnici

Sempre attivi

Essenziali per il funzionamento del sito. Includono cookie di sessione, preferenze di tema e sicurezza CSRF.

Cookie Analitici

Ci aiutano a capire come i visitatori interagiscono con il sito, raccogliendo informazioni in forma anonima (es. Google Analytics).

Cookie di Marketing

Utilizzati per mostrare annunci pubblicitari pertinenti ai tuoi interessi su questo sito e su altri siti web.

Grazie per l'iscrizione!

Controlla la tua email per confermare.

📧 Niente spam · 🔒 Privacy garantita · 🚫 Cancellati quando vuoi