Duke AI Health: betere vangrails bouwen voor algoritmische geneeskunde
Datum gepubliceerd:De afgelopen jaren is er sprake geweest van een groeiende belangstelling voor het gebruik van hulpmiddelen voor kunstmatige intelligentie voor toepassingen in de gezondheidszorg, waaronder diagnose, risicovoorspelling, ondersteuning van klinische beslissingen en beheer van hulpbronnen. Deze algoritmische hulpmiddelen zijn in staat verborgen patronen te vinden in de enorme hoeveelheden gegevens die zich in elektronische patiëntendossiers (EPD's) en administratieve databases bevinden en verspreiden zich over de hele wereld van de patiëntenzorg. Vaak gaan AI-toepassingen in de gezondheidszorg gepaard met garanties over hun potentieel om de medische praktijk beter, veiliger en eerlijker te maken.
De werkelijkheid is echter complexer gebleken.
“AI voor de gezondheidszorg maakt een soort ‘Wilde Westen’-periode door”, zegt Duke AI Health Director en vice-decaan voor Data Science Michael Pencina, PhD. “Veel ziekenhuizen en gezondheidszorgsystemen zijn op eigen houtje aan de slag gegaan en hebben systemen gebouwd of aangekocht en draaien deze op hun eigen data, soms met weinig toezicht.”
Het enthousiasme voor het toepassen van AI-instrumenten op enkele van de meest lastige problemen in de gezondheidszorg draagt bij aan de adoptie van technologieën die tot voor kort niet het soort rigoureuze controle hadden ondergaan dat routinematig wordt toegepast op medicijnen en medische apparatuur. En bij een groeiend aantal beoefenaars en gezondheidszorgsystemen groeit de zorg dat sommige van deze instrumenten – waarvan er vele zijn ontworpen ondoorgrondelijke ‘zwarte doos’ systemen – werken mogelijk niet zoals ze zouden moeten.
Deze zorgen kwamen onlangs onder het bredere publieke bewustzijn toen onderzoekers van de Universiteit van Michigan onderzocht de prestaties van een algoritmisch hulpmiddel ontworpen om klinisch personeel te waarschuwen voor de mogelijke aanwezigheid van sepsis, een ernstige medische aandoening. De onderzoekers realiseerden zich dat de tool slechter presteerde dan verwacht in de echte wereld van de patiëntenzorg, waarbij niet-bestaande gevallen van sepsis werden opgemerkt en feitelijke gevallen ontbraken. Naar aanleiding van dit en andere voorbeelden van foutieve algoritmen zijn experts zich steeds meer zorgen gaan maken over de mogelijkheid dat slecht functionerende AI-instrumenten de kwaliteit en veiligheid in gevaar kunnen brengen of bestaande ongelijkheid kunnen versterken.
De noodzaak van algoritmisch toezicht
Hoewel er talloze redenen zijn waarom de prestaties van een AI-systeem kunnen afnemen, zijn veel daarvan terug te voeren op beslissingen die tijdens de ontwerpfase van het systeem zijn genomen, en het meest kritische: op verschillen tussen de gegevens die worden gebruikt om het systeem te trainen en de soorten gegevens die het systeem gebruikt. tegenkomt zodra het in de kliniek wordt toegepast. Om deze reden moeten algoritmische tools zorgvuldig worden gevalideerd tijdens hun creatie, nauwlettend in de gaten gehouden gedurende hun levenscyclus, en voortdurend gemonitord na de implementatie.
“Het is vrij duidelijk geworden dat de huidige situatie moet veranderen”, zegt Pencina, die opmerkt dat er al een tijdje sprake is van een vloedgolf aan belangstelling voor het vaststellen van gedeelde best practices en gemeenschappelijke benaderingen voor het reguleren van AI-hulpmiddelen in de gezondheidszorg.
Bij Duke heeft die bezorgdheid zich inderdaad vertaald in de creatie van een systeem van bestuur en toezicht op AI-instrumenten. Genaamd de Op algoritmen gebaseerd toezicht op klinische beslissingsondersteuning (ABCDS). Comité en mede voorgezeten door Pencina en door Duke Health Chief Health Information Officer Eric Poon, MD, vertegenwoordigt ABCDS Oversight een samenwerking die zowel Duke University als het Duke University Health System omvat.
“ABCDS Oversight stelt ons in staat ervoor te zorgen dat kwaliteit en gelijkheid zijn ingebouwd in alle algoritmische tools die bij Duke Health zijn ontwikkeld of gebruikt”, zegt Poon. “We hebben een aanpak ontwikkeld die experts uit alle relevante domeinen samenbrengt: AI, klinische specialistische praktijk, IT, regelgeving en meer. Deze experts bieden input en begeleiding in de vroegste stadia van de modelontwikkeling. Het idee is om ervoor te zorgen dat instrumenten impact laten zien op het belangrijkste doel: het verbeteren van de manier waarop we patiëntenzorg leveren.”
Bijdragen aan het grotere geheel
Gezien Duke's vroege adoptie van rigoureuze benaderingen van algoritmisch toezicht, is het niet verrassend om te zien dat Duke een rol op zich neemt in een nieuw nationaal consortium, de Coalitie voor Gezondheids-AI (CHAI)Dat houdt in dat experts uit de academische wereld, de industrie en regelgevende instanties bijeenkomen om urgente kwesties aan te pakken die verband houden met het ethische en rechtvaardige gebruik van AI-instrumenten voor de gezondheid en de gezondheidszorg. De belangrijkste hiervan is de noodzaak om meerdere concurrerende aanbevelingen voor rapportagestandaarden te harmoniseren, en ervoor te zorgen dat eerlijkheid en gelijkheid vanaf de basis in de gezondheidszorg-AI-systemen worden ingebouwd.
Dit zijn overwegingen van cruciaal belang, omdat eindgebruikers, patiënten en consumenten AI-systemen mogelijk niet vertrouwen als gedeelde normen en richtlijnen niet duidelijk worden begrepen – of erger nog, helemaal ontbreken. Transparantie en betrouwbaarheid zijn van cruciaal belang om ervoor te zorgen dat AI-praktijken op het gebied van de gezondheidszorg effectief kunnen worden toegepast om de zorg te verbeteren voor de onderbediende en ondervertegenwoordigde patiënten en gemeenschappen die het meest worden getroffen door ongelijkheid.
“Het is inspirerend om te zien hoe de AI- en datawetenschapsgemeenschap samenkomen om de normen en rapportage voor hoogwaardige, eerlijke en betrouwbare gezondheids-AI te harmoniseren. Om deze AI-systemen te evalueren en hun geloofwaardigheid te vergroten, verbinden experts uit academische gezondheidszorgsystemen, gezondheidszorgorganisaties en industriële partners ook de punten tussen datawetenschappers, beleidsmakers en de bredere gemeenschap van degenen die AI in de gezondheidszorg ontwikkelen en gebruiken”, zegt ABCDS Oversight. Directeur Nicoleta J. Economou-Zavlanos, PhD, die ook mede leiding geeft aan de inspanningen van CHAI. “We profiteren ook van de inzichten van degenen die rechtstreeks worden beïnvloed door deze AI-technologieën. CHAI is vastbesloten om alle belanghebbenden een plaats aan tafel te geven en een stem te geven in het debat over hoe deze ongelooflijk krachtige instrumenten moeten worden beheerd.”
De Coalition for Health AI streeft naar het creëren van “richtlijnen en vangrailsDat zal de ontwikkeling mogelijk maken van AI-systemen voor de gezondheidszorg die ‘geloofwaardig, eerlijk en transparant’ zijn. Een eerste stap op weg naar dit doel is een raamwerk, dat tot stand komt via discussie en consensus tussen partners en belanghebbenden, waaronder eindgebruikers en patiënten. Het raamwerk zal belangrijke voorschriften, normen en criteria definiëren die zullen worden gebruikt door degenen die AI-systemen in de gezondheidszorg ontwikkelen, inzetten en gebruiken om hun prestaties gedurende de levenscyclus van een bepaalde applicatie te monitoren en evalueren.
Een van de directe doelen van CHAI is het vaststellen van normen die zullen resulteren in AI-systemen voor de gezondheidszorg die zorg van hoge kwaliteit kunnen aansturen, de geloofwaardigheid onder gebruikers kunnen vergroten en aan de gezondheidszorgbehoeften kunnen voldoen. Naar aanleiding van een eerste aankondiging van de vorming en bedoeling van de groep heeft CHAI de afgelopen maanden doorgebracht het beleggen van een reeks virtuele bijeenkomsten, gericht op de thema's testbaarheid, bruikbaarheid, veiligheid, transparantie, betrouwbaarheid en monitoring om verschillende interessegebieden in gezondheids-AI te verkennen door middel van illustratieve gebruiksscenario's.
Deze bijeenkomsten culmineerden in een hybride persoonlijke/virtuele bijeenkomst (met steun van het Partnership on AI en financiering van de Gordon and Betty Moore Foundation) die de weg vrijmaakte voor het opstellen van een reeks richtlijnen en aanbevelingen. Elke bijeenkomst werd begeleid door een "voorleespapier". het vastleggen van presentaties en discussies tijdens vergaderingen. Recentelijk heeft de Coalitie een Ontwerpblauwdruk voor betrouwbare AI-implementatierichtlijnen en -borging voor de gezondheidszorg en is het vragen van commentaar en feedback van het publiek.
“Wat echt opwindend is aan CHAI is dat het een kans biedt voor belanghebbenden om bijeen te komen en consensus te bereiken rond een raamwerk dat ervoor zorgt dat AI wordt gebruikt op manieren die echt nuttig zijn op alle niveaus”, zegt Duke AI Health Associate Director Andrew Olson, MPP. .
In een blogpost onlangs gedeeld op de CHAI-websitecovoorzitter Michael Pencina onderstreepte de “sterke inzet van de coalitie om gelijkheid tot de hoeksteen te maken van het ethische raamwerk dat we proberen te bouwen voor AI in de gezondheidszorg.” Pencina merkte verder op dat het vermogen om op zinvolle wijze samen te werken met alle belanghebbenden die door gezondheids-AI worden getroffen essentieel is om het vertrouwen in dergelijke instrumenten te vergroten.
Naast Duke AI Health omvat de groeiende lijst van partners van CHAI onder meer Stanford University, UC San Francisco, Johns Hopkins University, UC Berkeley, de Mayo Clinic, MITRE Health, Change Healthcare, Microsoft Corporation, SAS en Google. Waarnemers van de Amerikaanse Food and Drug Administration, die toezicht houdt op gezondheids-AI-toepassingen die aan bepaalde criteria voldoen, en van de National Institutes of Health en het Office of the National Coordinator for Health Information Technology, waren ook aanwezig bij recente CHAI-bijeenkomsten.
Naarmate het werk van CHAI en haar partners voortduurt, zijn er ook aanvullende inspanningen gaande op federaal niveau, met de publicatie van een rapport door de FDA definitieve begeleiding betreffende klinische beslissingsondersteunende software en a Blauwdruk voor een AI Bill of Rights gepubliceerd door het Witte Huis Office of Science and Technology Policy.
“We bevinden ons op een echt spannend moment in de gezondheidszorg-AI. Er is gewoon een enorm potentieel voor iedereen – patiënten, artsen en gezondheidszorgsystemen – om van deze mogelijkheden te profiteren”, merkt Pencina op. “Maar”, voegt hij eraan toe, “we moeten ervoor zorgen dat iedereen in die voordelen kan delen, en de sleutel daartoe is ervoor te zorgen dat de instrumenten die we creëren betekenisvolle verbeteringen voor de patiëntenzorg opleveren.”
Originele artikelbron: Duke AI-gezondheid