11 mar 2026

Dr. Chatbot chiamato

L'uso dei chatbot basati sull'intelligenza artificiale (AI) per fornire informazioni sanitarie sta diventando un fenomeno sempre più diffuso, ma le conseguenze di questa tendenza sono oggetto di crescente preoccupazione.

11 febbraio 2026 | 16:18 | 5 min di lettura
Dr. Chatbot chiamato
Foto: The New York Times

L'uso dei chatbot basati sull'intelligenza artificiale (AI) per fornire informazioni sanitarie sta diventando un fenomeno sempre più diffuso, ma le conseguenze di questa tendenza sono oggetto di crescente preoccupazione. Uno studio pubblicato recentemente ha rivelato che tali strumenti non sono affatto in grado di sostituire i professionisti della salute, anzi, in alcuni casi potrebbero persino aggravare la situazione. La ricerca ha analizzato diversi chatbot utilizzati da utenti per ottenere diagnosi o consigli medici, ma i risultati sono stati delusi: nessuno dei sistemi testati è pronto a essere utilizzato per la cura dei pazienti. I ricercatori hanno evidenziato che molti chatbot non solo non offrono informazioni accurate, ma possono anche fornire risposte contraddittorie o incoerenti se le domande vengono formulate in modo diverso. Questo rischio è particolarmente alto per chi soffre di iperidrotrofia o altre condizioni mediche complesse, poiché l'incertezza dei dati potrebbe portare a diagnosi errate o a consigli inadeguati. La stessa ricerca ha sottolineato che, pur essendo utilizzati da un sesto degli adulti negli Stati Uniti, i chatbot non possono sostituire i medici né offrire un sostituto affidabile per le consultazioni sanitarie.

Il fenomeno dell'uso di chatbot per consultazioni sanitarie è in crescita, specialmente tra coloro che non hanno accesso a un professionista medico o preferiscono evitare il contatto con i sanitari. Le aziende tecnologiche, tra cui Amazon e OpenAI, hanno sviluppato prodotti specifici per rispondere a domande sanitarie, promettendo di semplificare l'accesso alle informazioni. Tuttavia, la stessa ricerca ha messo in luce i limiti di questi strumenti. Gli esperti hanno rilevato che i chatbot non riescono a interpretare i sintomi in modo completo, né a tenere conto delle variabili individuali come l'età, il background familiare o le condizioni preesistenti. Inoltre, alcuni sistemi mostrano una mancanza di coerenza: se una domanda viene formulata in modo diverso, le risposte possono cambiare radicalmente, creando confusione e potenziale rischio per i pazienti. Questo è particolarmente critico per le condizioni che richiedono un intervento tempestivo, come la mancanza di vitamina B12 o l'artrite psoriasica, dove un errore diagnostico potrebbe portare a conseguenze serie. I ricercatori hanno anche sottolineato che i chatbot non sono in grado di gestire situazioni di emergenza o di fornire un supporto psicologico adeguato, come nel caso di diagnosi psichiatriche.

L'adozione dell'AI nella sanità non è un fenomeno nuovo, ma negli ultimi anni si è intensificata grazie a progressi tecnologici e alla crescente domanda di soluzioni rapide. Alcuni medici hanno riconosciuto i vantaggi di utilizzare chatbot per compiti ripetitivi, come la compilazione di dati pazienti o la gestione di colloqui con pazienti in difficoltà. Tuttavia, la stessa ricerca ha evidenziato preoccupazioni significative. Molti professionisti hanno espresso dubbi sul fatto che l'AI possa realmente migliorare la qualità delle cure, soprattutto in ambiti in cui la relazione paziente-medicina è fondamentale. Alcuni hanno sottolineato che l'AI potrebbe ridurre la fiducia dei pazienti nei confronti dei medici, specialmente se i consigli forniti non si allineano con le conoscenze cliniche. Inoltre, esistono casi in cui l'AI si dimostra più efficace di un medico, come nell'interpretazione di elettrocardiogrammi o nella gestione di screening medici. Tuttavia, questi vantaggi non possono compensare i rischi legati all'uso improprio di strumenti non verificati, soprattutto in contesti in cui la salute mentale è coinvolta.

La diffusione di chatbot medici ha suscitato un dibattito tra esperti e professionisti sanitari, che hanno chiesto maggiore regolamentazione. Molti hanno sottolineato che il rischio principale non è solo la mancanza di accuratezza, ma anche la potenziale manipolazione delle informazioni da parte di sistemi non verificati. Alcuni medici hanno espresso preoccupazioni per il fatto che i pazienti potrebbero dipendere esclusivamente da queste tecnologie, ignorando l'importanza di un consulto personale. Inoltre, il rischio di disinformazione è particolarmente alto in ambiti sensibili come la salute mentale, dove un errore diagnostico potrebbe portare a conseguenze psicologiche gravi. Gli esperti hanno quindi chiesto di aumentare la trasparenza e la supervisione degli strumenti AI, affinché siano utilizzati come supporto, non come sostituti. La stessa ricerca ha sottolineato che, purtroppo, molti chatbot non rispettano standard di qualità sufficienti, e la mancanza di un controllo rigoroso potrebbe portare a danni irreparabili.

La questione dell'AI nella sanità non è solo tecnica, ma anche etica e sociale. Mentre alcuni vedono nell'innovazione un'opportunità per migliorare l'accesso alle cure, altri temono che si stia creando una dipendenza da strumenti non sufficientemente validati. La stessa ricerca ha messo in luce che, nonostante i progressi, i chatbot non possono sostituire il ruolo del medico, che richiede empatia, competenza e capacità di giudizio. Per questo motivo, gli esperti hanno sottolineato l'importanza di un approccio equilibrato: utilizzare l'AI come strumento di supporto, ma sempre in combinazione con l'intervento di professionisti qualificati. Al tempo stesso, è necessario investire in formazione e regolamentazione per garantire che i sistemi AI siano utilizzati in modo responsabile. La sfida futura non è solo tecnologica, ma anche culturale: come società, dobbiamo imparare a integrare l'innovazione senza perdere di vista il valore della relazione umana nel campo della salute.

Fonte: The New York Times Articolo originale

Condividi l'articolo

Articoli Correlati

Resta Informato

Iscriviti alla newsletter di Fattuale per ricevere le notizie più importanti direttamente nella tua casella email.

📧 Niente spam · 🔒 Privacy garantita · 🚫 Cancellati quando vuoi

🍪

Questo sito utilizza i cookie

Utilizziamo cookie tecnici necessari e, con il tuo consenso, cookie analitici per migliorare la tua esperienza. Puoi accettare tutti i cookie, rifiutare quelli non essenziali o personalizzare le tue preferenze. Scopri di più

Preferenze Cookie

Cookie Tecnici

Sempre attivi

Essenziali per il funzionamento del sito. Includono cookie di sessione, preferenze di tema e sicurezza CSRF.

Cookie Analitici

Ci aiutano a capire come i visitatori interagiscono con il sito, raccogliendo informazioni in forma anonima (es. Google Analytics).

Cookie di Marketing

Utilizzati per mostrare annunci pubblicitari pertinenti ai tuoi interessi su questo sito e su altri siti web.

Grazie per l'iscrizione!

Controlla la tua email per confermare.

📧 Niente spam · 🔒 Privacy garantita · 🚫 Cancellati quando vuoi