Computerwetenschapper Duke wint 'Nobelprijs' ter waarde van $1M voor werk op het gebied van kunstmatige intelligentie

Datum gepubliceerd:

door Ken Kingery

Of het nu gaat om het voorkomen van explosies op elektriciteitsnetwerken, het opsporen van patronen in misdaden uit het verleden of het optimaliseren van de middelen in de zorg voor ernstig zieke patiënten: computerwetenschapper Cynthia Rudin van Duke University wil dat kunstmatige intelligentie (AI) zijn werk laat zien. Vooral als het gaat om het nemen van beslissingen die de levens van mensen diepgaand beïnvloeden.

Terwijl veel wetenschappers op het zich ontwikkelende gebied van machinaal leren zich concentreerden op het verbeteren van algoritmen, wilde Rudin in plaats daarvan de kracht van AI gebruiken om de samenleving te helpen. Ze koos ervoor om mogelijkheden te benutten om machine learning-technieken toe te passen op belangrijke maatschappelijke problemen, en realiseerde zich daarbij dat het potentieel van AI het beste tot zijn recht komt als mensen naar binnen kunnen kijken en begrijpen wat het doet.

Nu, na 15 jaar pleiten voor en het ontwikkelen van “interpreteerbare” machine learning-algoritmen waarmee mensen in AI kunnen kijken, hebben Rudins bijdragen aan het veld haar de $1 miljoen Squirrel AI Award voor Kunstmatige Intelligentie ten behoeve van de Mensheid opgeleverd van de Association for de vooruitgang van de kunstmatige intelligentie (AAAI). AAAI, opgericht in 1979, fungeert als de prominente internationale wetenschappelijke vereniging die AI-onderzoekers, praktijkmensen en docenten bedient.

“Alleen wereldberoemde erkenningen, zoals de Nobelprijs en de AM Turing Award van de Association of Computing Machinery, brengen geldelijke beloningen met zich mee op het niveau van een miljoen dollar. Het werk van professor Rudin benadrukt het belang van transparantie voor AI-systemen in risicovolle domeinen. Haar moed bij het aanpakken van controversiële kwesties onderstreept het belang van onderzoek om cruciale uitdagingen op het gebied van verantwoord en ethisch gebruik van AI aan te pakken.”

YOLANDA GIL

Rudin, hoogleraar computerwetenschappen en techniek bij Duke, is de tweede ontvanger van de nieuwe jaarlijkse prijs, gefinancierd door het online onderwijsbedrijf Squirrel AI om prestaties op het gebied van kunstmatige intelligentie te erkennen op een manier die vergelijkbaar is met hoofdprijzen op meer traditionele gebieden.

Ze wordt aangehaald vanwege ‘baanbrekend wetenschappelijk werk op het gebied van interpreteerbare en transparante AI-systemen in de praktijk, het pleidooi voor deze kenmerken op zeer gevoelige gebieden zoals sociale rechtvaardigheid en medische diagnose, en het dienen als rolmodel voor onderzoekers en wetenschappers. beoefenaars.”

“Alleen wereldberoemde erkenningen, zoals de Nobelprijs en de AM Turing Award van de Association of Computing Machinery, brengen geldelijke beloningen met zich mee op het niveau van een miljoen dollar”, aldus Yolanda Gil, voorzitter van de AAAI Awards-commissie. “Het werk van professor Rudin benadrukt het belang van transparantie voor AI-systemen in risicovolle domeinen. Haar moed bij het aanpakken van controversiële kwesties onderstreept het belang van onderzoek om cruciale uitdagingen op het gebied van verantwoord en ethisch gebruik van AI aan te pakken.”

Rudins eerste toegepaste project was een samenwerking met Con Edison, het energiebedrijf dat verantwoordelijk is voor de energievoorziening van New York City. Haar opdracht was om machinaal leren te gebruiken om te voorspellen welke putten het risico liepen te exploderen als gevolg van verslechterende en overbelaste elektrische circuits. Maar ze ontdekte al snel dat, hoeveel nieuw gepubliceerde academische toeters en bellen ze ook aan haar code toevoegde, het bedrijf moeite had om de prestaties op betekenisvolle wijze te verbeteren wanneer het geconfronteerd werd met de uitdagingen die het werken met handgeschreven notities van coördinatoren en boekhoudkundige gegevens uit de tijd van Thomas Edison met zich meebracht.

"We kregen meer nauwkeurigheid door eenvoudige klassieke statistische technieken en een beter begrip van de gegevens naarmate we ermee bleven werken", zei Rudin. “Als we konden begrijpen welke informatie de voorspellende modellen gebruikten, zouden we de ingenieurs van Con Edison om nuttige feedback kunnen vragen die ons hele proces zou verbeteren. Het was de interpreteerbaarheid in het proces die de nauwkeurigheid van onze voorspellingen hielp verbeteren, en niet een groter of mooier machine learning-model. Dat is waar ik aan besloot te werken, en het is de basis waarop mijn lab is gebouwd.”https://www.youtube.com/embed/PwLN5irdMT8?wmode=opaque&wmode=opaque

In het daaropvolgende decennium ontwikkelde Rudin technieken voor interpreteerbaar machinaal leren, dit zijn voorspellende modellen die zichzelf verklaren op een manier die mensen kunnen begrijpen. Hoewel de code voor het ontwerpen van deze formules complex en verfijnd is, kunnen de formules klein genoeg zijn om in een paar regels op een indexkaart te worden geschreven.

Rudin heeft haar merk van interpreteerbare machine learning toegepast op talloze impactvolle projecten. Met medewerkers Brandon Westover en Aaron Struck van het Massachusetts General Hospital, en haar voormalige student Berk Ustun, ontwierp ze een eenvoudig, op punten gebaseerd systeem dat kan voorspellen welke patiënten het grootste risico lopen op destructieve aanvallen na een beroerte of ander hersenletsel. En samen met haar voormalige MIT-student Tong Wang en de politie van Cambridge ontwikkelde ze een model dat overeenkomsten tussen misdaden helpt ontdekken om te bepalen of ze deel kunnen uitmaken van een serie die door dezelfde criminelen is gepleegd. Dat open-sourceprogramma werd uiteindelijk de basis van het Patternizr-algoritme van de politie van New York, een krachtig stukje code dat bepaalt of een nieuwe misdaad gepleegd in de stad verband houdt met misdaden uit het verleden.

“Cynthia's toewijding aan het oplossen van belangrijke problemen uit de echte wereld, de wens om nauw samen te werken met domeinexperts en het vermogen om complexe modellen te distilleren en uit te leggen is ongeëvenaard”, zegt Daniel Wagner, adjunct-hoofdinspecteur van de politie van Cambridge. “Haar onderzoek resulteerde in belangrijke bijdragen op het gebied van misdaadanalyse en politiewerk. Nog indrukwekkender is dat ze een sterke criticus is van potentieel onrechtvaardige ‘black box’-modellen in het strafrecht en andere terreinen waar veel op het spel staat, en een groot voorstander is van transparant interpreteerbare modellen waarbij nauwkeurige, rechtvaardige en onbevooroordeelde resultaten essentieel zijn.”

Black box-modellen zijn het tegenovergestelde van Rudins transparante codes. De methoden die in deze AI-algoritmen worden toegepast, maken het voor mensen onmogelijk om te begrijpen van welke factoren de modellen afhankelijk zijn, op welke gegevens de modellen zich richten en hoe ze die gebruiken. Hoewel dit misschien geen probleem is voor triviale taken zoals het onderscheiden van een hond van een kat, kan het wel een groot probleem zijn bij beslissingen waarbij hoge inzetten staan en die de levens van mensen veranderen.

“Cynthia's toewijding aan het oplossen van belangrijke problemen uit de echte wereld, haar verlangen om nauw samen te werken met domeinexperts en haar vermogen om complexe modellen te distilleren en uit te leggen, is ongeëvenaard. Haar onderzoek resulteerde in belangrijke bijdragen op het gebied van misdaadanalyse en politiewerk. Nog indrukwekkender is dat ze een sterke criticus is van potentieel onrechtvaardige ‘black box’-modellen in het strafrecht en andere terreinen waar veel op het spel staat, en een groot voorstander is van transparant interpreteerbare modellen waarbij nauwkeurige, rechtvaardige en onbevooroordeelde resultaten essentieel zijn.”

DANIE WAGNER

“Cynthia verandert het landschap van de manier waarop AI wordt gebruikt in maatschappelijke toepassingen door de inspanningen te verleggen van black box-modellen naar interpreteerbare modellen, door te laten zien dat de conventionele wijsheid – dat zwarte dozen doorgaans nauwkeuriger zijn – heel vaak onjuist is”, zegt Jun Yang. , voorzitter van de computerwetenschappenafdeling van Duke. “Dit maakt het moeilijker om het onderwerpen van individuen (zoals beklaagden) aan black-box-modellen in situaties met hoge inzet te rechtvaardigen. De interpreteerbaarheid van de modellen van Cynthia is van cruciaal belang geweest om ze in de praktijk te laten adopteren, omdat ze menselijke besluitvormers mogelijk maken, in plaats van vervangen.”

Een indrukwekkend voorbeeld betreft COMPAS – een AI-algoritme dat in meerdere staten wordt gebruikt om beslissingen over borgtocht vrijlating te nemen en dat door een ProPublica-onderzoek werd beschuldigd van het gedeeltelijk gebruiken van ras als factor in de berekeningen. De beschuldiging is echter moeilijk te bewijzen, omdat de details van het algoritme bedrijfseigen informatie zijn en sommige belangrijke aspecten van de analyse door ProPublica twijfelachtig zijn. Het team van Rudin heeft aangetoond dat een eenvoudig interpreteerbaar model dat precies laat zien met welke factoren het rekening houdt, net zo goed kan voorspellen of iemand wel of niet nog een misdaad zal begaan. Dit roept de vraag op, zegt Rudin, waarom black box-modellen überhaupt moeten worden gebruikt voor dit soort beslissingen met hoge inzet.

Snelheid van verandering · Het openen van de zwarte doos

"We hebben systematisch aangetoond dat er bij toepassingen met hoge inzet geen verlies aan nauwkeurigheid optreedt om de interpreteerbaarheid te vergroten, zolang we onze modellen maar zorgvuldig optimaliseren", aldus Rudin. “We hebben dit gezien bij beslissingen in het strafrecht, talloze beslissingen in de gezondheidszorg, waaronder medische beeldvorming, beslissingen over het onderhoud van het elektriciteitsnet, beslissingen over financiële leningen en meer. Wetende dat dit mogelijk is, verandert de manier waarop we denken over AI als niet in staat zichzelf te verklaren.”

Gedurende haar hele carrière heeft Rudin niet alleen deze interpreteerbare AI-modellen gecreëerd, maar ook technieken ontwikkeld en gepubliceerd om anderen te helpen hetzelfde te doen. Dat is niet altijd gemakkelijk geweest. Toen ze voor het eerst haar werk begon te publiceren, bestonden de termen ‘data science’ en ‘interpretable machine learning’ niet, en waren er geen categorieën waarin haar onderzoek netjes paste, wat betekent dat redacteuren en reviewers niet wisten wat ze ermee moesten doen. Het. Cynthia ontdekte dat als een artikel de stellingen niet bewees en beweerde dat de algoritmen ervan niet nauwkeuriger waren, het moeilijker was – en vaak nog steeds is – om te publiceren.

‘Ik heb vanaf het allereerste begin enorme bewondering voor Cynthia gehad, voor haar onafhankelijkheidszin, haar vastberadenheid en haar meedogenloze streven naar echt begrip van alles wat ze tegenkwam in lessen en papers. Zelfs als afgestudeerde student was ze een gemeenschapsbouwer en kwam ze op voor anderen in haar cohort.”

INGRID DAUBECHIES

Terwijl Rudin mensen blijft helpen en haar interpreteerbare ontwerpen blijft publiceren – en naarmate er steeds meer zorgen rijzen over de black box-code – begint haar invloed eindelijk het schip te doen keren. Er zijn nu hele categorieën in machine learning-tijdschriften en conferenties gewijd aan interpreteerbaar en toegepast werk. Andere collega's in het veld en hun medewerkers benadrukken hoe belangrijk interpreteerbaarheid is voor het ontwerpen van betrouwbare AI-systemen.

“Ik heb vanaf het allereerste begin enorme bewondering gehad voor Cynthia, voor haar onafhankelijkheidszin, haar vastberadenheid en haar niet aflatende streven naar echt begrip van alles wat ze tegenkwam in lessen en papers”, aldus Ingrid Daubechies, de James B. Duke Distinguished Hoogleraar Wiskunde en Elektrotechniek en Computertechniek, een van 's werelds meest vooraanstaande onderzoekers op het gebied van signaalverwerking, en een van Rudins PhD-adviseurs aan de Princeton University. “Zelfs als afgestudeerde student was ze een gemeenschapsbouwer en kwam ze op voor anderen in haar cohort. Ze liet me kennismaken met machine learning, omdat ik daar helemaal geen expertise in had voordat ze me er zachtjes maar volhardend in duwde. Ik ben zo blij met deze prachtige en zeer verdiende erkenning voor haar!”

“Ik zou niet blijer kunnen zijn om het werk van Cynthia op deze manier geëerd te zien”, voegde Rudins tweede PhD-adviseur, Microsoft Research-partner Robert Schapire, toe, wiens werk op het gebied van “boosting” hielp de basis te leggen voor modern machinaal leren. “Voor haar inspirerende en inzichtelijke onderzoek, haar onafhankelijke denken dat haar in richtingen heeft geleid die heel anders zijn dan de mainstream, en voor haar langdurige aandacht voor kwesties en problemen van praktisch, maatschappelijk belang.”

Rudin behaalde een bachelordiploma in wiskundige natuurkunde en muziektheorie aan de Universiteit van Buffalo voordat ze haar doctoraat in toegepaste en computationele wiskunde aan Princeton voltooide. Daarna werkte ze als postdoctoraal onderzoeker bij de National Science Foundation aan de New York University en als associate research Scientist aan Columbia University. Ze werd universitair hoofddocent statistiek aan het Massachusetts Institute of Technology voordat ze in 2017 bij Duke's faculteit kwam, waar ze functies bekleedt in computerwetenschappen, elektrische en computertechniek, biostatistiek en bio-informatica, en statistische wetenschappen.

Ze heeft drie keer de INFORMS Innovative Applications in Analytics Award ontvangen, die creatieve en unieke toepassingen van analytische technieken erkent, en is Fellow van de American Statistical Association en het Institute of Mathematical Statistics.

"Ik wil AAAI en Squirrel AI bedanken voor het creëren van deze prijs waarvan ik weet dat deze een game-changer zal zijn voor het veld", zei Rudin. “Het feit dat er een ‘Nobelprijs’ is voor AI om de samenleving te helpen, maakt het eindelijk zonder enige twijfel duidelijk dat dit onderwerp – AI werkt ten behoeve van de samenleving – daadwerkelijk belangrijk is.”

(C) Duke Universiteit 

Originele bron: WRAL TechWire