Duke AI Health: costruire migliori protezioni per la medicina algoritmica

Data di pubblicazione:

Negli ultimi anni si è assistito a un crescente interesse per l’uso di strumenti di intelligenza artificiale per applicazioni sanitarie, tra cui diagnosi, previsione del rischio, supporto alle decisioni cliniche e gestione delle risorse. Capaci di trovare modelli nascosti all’interno delle enormi quantità di dati che risiedono nelle cartelle cliniche elettroniche (EHR) dei pazienti e nei database amministrativi, questi strumenti algoritmici si stanno diffondendo nel mondo della cura dei pazienti. Spesso, le applicazioni di intelligenza artificiale sanitaria sono accompagnate da garanzie sul loro potenziale per rendere la pratica medica migliore, più sicura e più giusta.

La realtà, però, si è rivelata più complessa.

"L'intelligenza artificiale per l'assistenza sanitaria sta attraversando una sorta di periodo da 'selvaggio West'", afferma Michael Pencina, PhD, direttore sanitario di Duke AI e vicepreside per Data Science. “Molti ospedali e sistemi sanitari si sono messi in proprio e hanno costruito o acquistato sistemi e li gestiscono utilizzando i propri dati, a volte con poca supervisione”.

L’entusiasmo per l’applicazione degli strumenti di intelligenza artificiale ad alcuni dei problemi più fastidiosi del settore sanitario sta contribuendo a promuovere l’adozione di tecnologie che, fino a tempi relativamente recenti, non erano state sottoposte al tipo di controllo rigoroso normalmente applicato a farmaci e dispositivi medici. E per un numero crescente di professionisti e sistemi sanitari crescono le preoccupazioni riguardo al fatto che alcuni di questi strumenti, molti dei quali sono progettati come... imperscrutabile “scatola nera” sistemi – potrebbero non funzionare come dovrebbero.

Queste preoccupazioni sono recentemente arrivate alla consapevolezza del pubblico più ampio quando i ricercatori dell’Università del Michigan hanno studiato le prestazioni di uno strumento algoritmico progettato per avvisare il personale clinico della possibile presenza di sepsi, una grave condizione medica. I ricercatori si sono resi conto che lo strumento funzionava peggio del previsto nel mondo reale della cura dei pazienti, segnalando casi di sepsi inesistenti e tralasciando quelli reali. Spinti da questo e da altri esempi di algoritmi errati, gli esperti sono sempre più preoccupati per la possibilità che il malfunzionamento degli strumenti di intelligenza artificiale possa compromettere la qualità e la sicurezza o rafforzare le disuguaglianze esistenti.

La necessità di una supervisione algoritmica

Sebbene esistano numerose ragioni per cui le prestazioni di un sistema di intelligenza artificiale possono diminuire, molte possono essere ricondotte a decisioni prese durante la fase di progettazione del sistema e, soprattutto, alle differenze tra i dati utilizzati per addestrare il sistema rispetto ai tipi di dati utilizzati dal sistema. incontra una volta applicato in clinica. Per questo motivo, gli strumenti algoritmici devono essere attentamente convalidati durante la loro creazione, esaminati attentamente durante tutto il loro ciclo di vita e monitorati continuamente dopo l’implementazione.

“È diventato abbastanza chiaro che la situazione attuale deve cambiare”, afferma Pencina, che osserva che da tempo si sta sviluppando un’ondata di interesse nello stabilire migliori pratiche condivise e approcci comuni alla regolamentazione degli strumenti sanitari basati sull’intelligenza artificiale.

In effetti, alla Duke questa preoccupazione si è tradotta nella creazione di un sistema di governance e supervisione per gli strumenti di intelligenza artificiale. Soprannominato il Supervisione del supporto decisionale clinico basato su algoritmi (ABCDS). Comitato e co-presieduto da Pencina e dal Chief Health Information Officer della Duke Health Eric Poon, MD, ABCDS La supervisione rappresenta una collaborazione che abbraccia sia la Duke University che il Duke University Health System.

"La supervisione di ABCDS ci consente di garantire che la qualità e l'equità siano integrate in tutti gli strumenti algoritmici sviluppati o utilizzati presso Duke Health", afferma Poon. “Abbiamo sviluppato un approccio che riunisce esperti provenienti da tutti i settori rilevanti: intelligenza artificiale, pratica clinica specialistica, IT, regolamentazione e altro ancora. Questi esperti offrono input e guida nelle prime fasi di sviluppo del modello. L’idea è garantire che gli strumenti dimostrino un impatto sull’obiettivo chiave di migliorare il modo in cui forniamo assistenza ai pazienti”.

Contribuire al quadro più ampio

Data la tempestiva adozione da parte di Duke di approcci rigorosi alla supervisione algoritmica, non sorprende vederlo assumere un ruolo in un nuovo consorzio nazionale, il Coalizione per l'intelligenza artificiale sanitaria (CHAI), che sta convocando esperti del mondo accademico, industriale e delle agenzie di regolamentazione per discutere le questioni urgenti relative all'uso etico ed equo degli strumenti di intelligenza artificiale per la salute e l'assistenza sanitaria. Tra questi, il principale è la necessità di armonizzare molteplici raccomandazioni concorrenti per gli standard di rendicontazione e di garantire che l’equità e l’equità siano integrate fin dalle fondamenta nei sistemi di IA sanitaria.

Si tratta di considerazioni di fondamentale importanza, perché gli utenti finali, i pazienti e i consumatori potrebbero non fidarsi dei sistemi di intelligenza artificiale se gli standard e le linee guida condivise non sono chiaramente compresi o, peggio, mancano del tutto. La trasparenza e l’affidabilità sono fondamentali per garantire che le pratiche di intelligenza artificiale sanitaria possano essere applicate efficacemente per migliorare l’assistenza ai pazienti e alle comunità sottoserviti e sottorappresentati che sono maggiormente colpiti dalla disuguaglianza.

“È stimolante vedere la comunità dell’intelligenza artificiale e della scienza dei dati unirsi per armonizzare gli standard e il reporting per un’intelligenza artificiale sanitaria di alta qualità, equa e affidabile. Per valutare questi sistemi di intelligenza artificiale e aumentarne la credibilità, esperti di sistemi sanitari accademici, organizzazioni sanitarie e partner del settore stanno anche collegando i punti tra scienziati dei dati, responsabili politici e la più ampia comunità di coloro che sviluppano e utilizzano l’intelligenza artificiale nel settore sanitario”, afferma ABCDS Oversight La direttrice Nicoleta J. Economou-Zavlanos, PhD, che è anche co-guida degli sforzi del CHAI. “Stiamo anche beneficiando delle intuizioni di coloro che sono direttamente interessati da queste tecnologie di intelligenza artificiale. Il CHAI si impegna a dare a tutte le parti interessate un posto al tavolo e una voce nel dibattito su come governare questi strumenti incredibilmente potenti”.

La Coalition for Health AI cerca di creare “linee guida e guardrail" che consentirà lo sviluppo di sistemi di intelligenza artificiale sanitaria che siano "credibili, equi e trasparenti". Un primo passo verso questo obiettivo è un quadro di riferimento, raggiunto attraverso la discussione e il consenso tra i partner e le parti interessate, compresi gli utenti finali e i pazienti. Il quadro definirà precetti, standard e criteri chiave che verranno utilizzati da coloro che sviluppano, implementano e utilizzano i sistemi di intelligenza artificiale nel settore sanitario per monitorare e valutare le proprie prestazioni durante l’intero ciclo di vita di una determinata applicazione.

Uno degli obiettivi immediati del CHAI è quello di stabilire standard che si tradurranno in sistemi di intelligenza artificiale sanitaria in grado di promuovere cure di alta qualità, aumentare la credibilità tra gli utenti e soddisfare le esigenze sanitarie. A seguito di un annuncio iniziale della formazione e delle intenzioni del gruppo, CHAI ha trascorso gli ultimi mesi convocare una serie di riunioni virtuali, incentrato sui temi della testabilità, usabilità, sicurezza, trasparenza, affidabilità e monitoraggio per esplorare diverse aree di interesse nell'IA sanitaria attraverso casi d'uso illustrativi.

Questi incontri sono culminati in un incontro ibrido di persona/virtuale (con il supporto della Partnership on AI e il finanziamento della Gordon and Betty Moore Foundation) che ha posto le basi per la creazione di una serie di linee guida e raccomandazioni. Ogni incontro è stato accompagnato da a foglio di “lettura”. catturare presentazioni e discussioni di riunioni. Più recentemente, la Coalizione ha rilasciato a Bozza di progetto per linee guida e garanzie affidabili per l’implementazione dell’intelligenza artificiale nel settore sanitario ed è sollecitare commenti e feedback da parte del pubblico.

"La cosa veramente entusiasmante del CHAI è che rappresenta un'opportunità per le parti interessate di riunirsi e creare consenso attorno a un quadro che garantirà che l'intelligenza artificiale venga utilizzata in modi realmente vantaggiosi a tutti i livelli", afferma Andrew Olson, direttore associato di Duke AI Health, MPP .

In un post sul blog recentemente condiviso sul sito web CHAI, il copresidente Michael Pencina ha sottolineato il "forte impegno della Coalizione nel fare dell'equità la pietra angolare del quadro etico che stiamo cercando di costruire per l'intelligenza artificiale nel settore sanitario". Pencina ha inoltre osservato che la capacità di impegnarsi in modo significativo con tutte le parti interessate interessate dall’IA sanitaria è stata essenziale per promuovere la fiducia in tali strumenti.

Oltre a Duke AI Health, l'elenco crescente di partner di CHAI comprende la Stanford University, l'UC San Francisco, la Johns Hopkins University, l'UC Berkeley, la Mayo Clinic, MITRE Health, Change Healthcare, Microsoft Corporation, SAS e Google, tra gli altri. Alle recenti riunioni del CHAI erano presenti anche osservatori della Food and Drug Administration statunitense, che esercita la supervisione normativa delle applicazioni di intelligenza artificiale sanitaria che soddisfano determinati criteri, e del National Institutes of Health e dell’Ufficio del coordinatore nazionale per la tecnologia dell’informazione sanitaria.

Mentre continua il lavoro del CHAI e dei suoi partner, sono in corso sforzi complementari anche a livello federale, con la pubblicazione da parte della FDA di un documento orientamento finale riguardante il software di supporto alle decisioni cliniche e a Progetto per una Carta dei diritti dell’IA pubblicato dall’Ufficio per la politica scientifica e tecnologica della Casa Bianca.

“Siamo in un momento davvero entusiasmante per l’intelligenza artificiale sanitaria. C’è un enorme potenziale per tutti – pazienti, medici e sistemi sanitari – per trarre vantaggio da queste capacità”, osserva Pencina. “Ma”, aggiunge, “dobbiamo assicurarci che tutti possano condividere questi benefici, e la chiave per farlo è garantire che gli strumenti che creiamo forniscano miglioramenti significativi per la cura dei pazienti”.

Fonte articolo originale: Duca AI Salute