HHS sviluppa un tool AI per creare ipotesi su reclami di danni da vaccini
L'HHS sviluppa un AI per analizzare dati VAERS, suscitando preoccupazioni su un uso anti-vaccinazione da parte di Kennedy Jr.
L'Ufficio per la Salute e i Servizi Sociali (HHS) degli Stati Uniti sta sviluppando un avanzato strumento basato sull'intelligenza artificiale generativa, progettato per analizzare i dati raccolti nel database nazionale di monitoraggio vaccinale e generare ipotesi riguardo agli effetti collaterali potenzialmente negativi dei vaccini. La notizia è emersa da un inventario pubblicato di recente, che elenca tutte le applicazioni previste per l'AI nel 2025. Secondo il documento dell'HHS, lo strumento non è ancora stato implementato e si trova in fase di sviluppo da fine 2023. La sua introduzione ha suscitato preoccupazioni tra esperti, che temono possa essere utilizzato da Robert F. Kennedy Jr., segretario dell'HHS, per promuovere il suo agenda anti-vaccinazione. Kennedy, noto critico dei vaccini, ha modificato lo schema vaccinale per i bambini, eliminando diverse somministrazioni consigliate, tra cui quelle per il coronavirus, l'influenza e altre malattie. La sua posizione contraria al sistema attuale di monitoraggio delle reazioni avverse ai vaccini, noto come VAERS, ha sollevato dibattiti su come i dati possano influenzare le politiche sanitarie.
L'HHS ha rivelato che il progetto dell'AI mira a identificare pattern nei dati del VAERS, un sistema creato nel 1990 per raccogliere segnalazioni di effetti collaterali post-vaccinazione. Questo database permette a chiunque, tra cui medici e cittadini, di inviare segnalazioni, ma non garantisce una verifica rigorosa. Il sistema, pur essendo utile per generare ipotesi, non può dimostrare una causalità diretta tra un vaccino e un effetto collaterale. Paul Offit, pediatra e direttore del Vaccine Education Center, ha sottolineato che VAERS è un meccanismo esplorativo, ma è affetto da un elevato rumore, poiché qualsiasi persona può segnalare un evento senza un gruppo di controllo. Anche il sito web del CDC precisa che una segnalazione al VAERS non implica necessariamente una relazione causale tra il vaccino e l'evento avverso. Nonostante queste limitazioni, i movimenti anti-vaccinazione hanno spesso abusato dei dati del VAERS per sostenere l'idea che i vaccini siano pericolosi.
Il contesto della vicenda si colloca all'interno di un dibattito più ampio sul ruolo dell'intelligenza artificiale nel monitoraggio della salute pubblica. Il VAERS, pur essendo un'importante fonte di dati, non fornisce informazioni complete su quanti individui ricevono un vaccino, il che potrebbe rendere alcuni eventi sembrare più comuni di quanto non siano realmente. Leslie Lenert, esperta in informatica sanitaria, ha affermato che l'HHS sta già utilizzando modelli tradizionali di elaborazione del linguaggio naturale per analizzare i dati del VAERS da anni, rendendo la transizione verso modelli di grandi linguaggi (LLMs) quasi inevitabile. Tuttavia, i LLM sono noti per la loro capacità di generare informazioni convincenti ma inesatte, evidenziando l'esigenza di un controllo umano per verificare le ipotesi. Lenert ha anche sottolineato che alcuni dipendenti dell'FDA stanno iniziando a trattare il VAERS come una fonte di dati più rilevante, un approccio che potrebbe portare a interpretazioni imprecise.
Le implicazioni di questa evoluzione tecnologica sono significative, soprattutto in un momento in cui la fiducia nella scienza e nei dati è fondamentale per le politiche sanitarie. Il direttore del Center for Biologics Evaluation and Research, Vinay Prasad, ha recentemente proposto una maggiore regolamentazione dei vaccini, attribuendo la morte di almeno dieci bambini al vaccino anti-Covid senza citare prove. Questa dichiarazione ha suscitato preoccupazioni tra ex commissari dell'FDA, che hanno inviato una lettera al New England Journal of Medicine per esprimere la loro preoccupazione per le proposte di regolamentazione basate su un'interpretazione selettiva dei dati. Jesse Goodman, medico e professore, ha riconosciuto che i LLM potrebbero rivelare nuovi rischi per la sicurezza dei vaccini, ma ha sottolineato che è essenziale verificare le segnalazioni prima di agire. La mancanza di risorse a causa delle ridotte dotazioni del CDC potrebbe rendere difficoltosa la gestione di eventuali dati emergenti, richiedendo piani di risposta pronti e competenze tecniche specifiche.
La vicenda solleva questioni etiche e scientifiche cruciali. Sebbene il VAERS abbia in passato segnalato problematiche reali, come la rarezza di coaguli associati al vaccino Johnson & Johnson o casi di miocardite tra ragazzi vaccinati contro il coronavirus, il rischio di abusare dei dati rimane elevato. L'adozione di tecnologie avanzate come i LLM potrebbe migliorare la capacità di rilevare rischi, ma richiede una gestione attenta per evitare falso allerta e distorsioni. La sfida principale consiste nel bilanciare l'innovazione tecnologica con la rigorosità scientifica, garantendo che i dati siano utilizzati per proteggere la salute pubblica senza alimentare paura o disinformazione. Il futuro di questa iniziativa dipenderà da come le istituzioni saranno in grado di integrare l'intelligenza artificiale nel sistema sanitario, mantenendo trasparenza e responsabilità.
Fonte: Wired Articolo originale
Articoli Correlati
Sembra umano, parla e sente dolore: paziente che allena medici a Roma
4 giorni fa
La guerra contro l'Iran minaccia forniture globali di chip e espansione AI
4 giorni fa
Apnea del sonno spesso non diagnosticata nelle donne, sta cambiando
4 giorni fa