Informatyk Duke zdobywa „Nagrodę Nobla” o wartości $1M za prace nad sztuczną inteligencją
Data opublikowania:przez Kena Kingery’ego
Niezależnie od tego, czy chodzi o zapobieganie eksplozjom w sieciach elektrycznych, wykrywanie wzorców przestępstw z przeszłości czy optymalizację zasobów w opiece nad krytycznie chorymi pacjentami, informatyk Cynthia Rudin z Duke University chce, aby sztuczna inteligencja (AI) pokazała swoją pracę. Zwłaszcza jeśli chodzi o podejmowanie decyzji, które głęboko wpływają na życie ludzi.
Podczas gdy wielu uczonych zajmujących się rozwijającą się dziedziną uczenia maszynowego skupiało się na ulepszaniu algorytmów, Rudin zamiast tego chciał wykorzystać moc sztucznej inteligencji, aby pomóc społeczeństwu. Zdecydowała się wykorzystać możliwości zastosowania technik uczenia maszynowego do ważnych problemów społecznych i przy okazji zdała sobie sprawę, że potencjał sztucznej inteligencji można najlepiej uwolnić, gdy ludzie mogą zajrzeć do środka i zrozumieć, co robi.
Teraz, po 15 latach propagowania i rozwijania „interpretowalnych” algorytmów uczenia maszynowego, które pozwalają ludziom zajrzeć do wnętrza sztucznej inteligencji, wkład Rudin w tę dziedzinę przyniósł jej nagrodę $1 miliona Squirrel AI Award for Artificial Intelligence for the Benefit of Humanity od Stowarzyszenia na rzecz Ludzkości Rozwoju Sztucznej Inteligencji (AAAI). Założone w 1979 r. AAAI jest czołowym międzynarodowym stowarzyszeniem naukowym obsługującym badaczy, praktyków i pedagogów zajmujących się sztuczną inteligencją.
„Tylko wyróżnienia o światowej renomie, takie jak Nagroda Nobla i Nagroda AM Turinga przyznawana przez Association of Computing Machinery, niosą ze sobą nagrody pieniężne na poziomie milionów dolarów. Praca profesora Rudina podkreśla znaczenie przejrzystości systemów sztucznej inteligencji w obszarach wysokiego ryzyka. Jej odwaga w rozwiązywaniu kontrowersyjnych kwestii podkreśla znaczenie badań w celu sprostania krytycznym wyzwaniom w zakresie odpowiedzialnego i etycznego wykorzystania sztucznej inteligencji”.
YOLANDA GIL
Rudin, profesor informatyki i inżynierii na uniwersytecie Duke, jest drugim laureatem nowej corocznej nagrody ufundowanej przez firmę Squirrel AI zajmującą się edukacją internetową, która ma wyróżniać osiągnięcia w dziedzinie sztucznej inteligencji w sposób porównywalny z najważniejszymi nagrodami w bardziej tradycyjnych dziedzinach.
Cytowano ją za „pionierską pracę naukową w obszarze możliwych do zinterpretowania i przejrzystych systemów sztucznej inteligencji we wdrożeniach w świecie rzeczywistym, wspieranie tych funkcji w bardzo wrażliwych obszarach, takich jak sprawiedliwość społeczna i diagnostyka medyczna, a także służenie za wzór do naśladowania dla badaczy i praktyków.”
„Tylko wyróżnienia o światowej renomie, takie jak Nagroda Nobla i nagroda AM Turinga przyznawana przez Association of Computing Machinery, zapewniają nagrody pieniężne na poziomie milionów dolarów” – powiedziała przewodnicząca komisji nagród AAAI i była prezes Yolanda Gil. „Praca profesora Rudina podkreśla znaczenie przejrzystości systemów sztucznej inteligencji w obszarach wysokiego ryzyka. Jej odwaga w rozwiązywaniu kontrowersyjnych kwestii podkreśla znaczenie badań w celu sprostania krytycznym wyzwaniom w zakresie odpowiedzialnego i etycznego wykorzystania sztucznej inteligencji”.
Pierwszym zastosowanym projektem Rudina była współpraca z Con Edison, firmą energetyczną odpowiedzialną za zasilanie Nowego Jorku. Jej zadaniem było wykorzystanie uczenia maszynowego do przewidywania, które studzienki są zagrożone eksplozją z powodu degradacji i przeciążenia obwodów elektrycznych. Wkrótce jednak odkryła, że niezależnie od tego, ile nowo opublikowanych akademickich ciekawostek dodała do swojego kodu, miał on trudności ze znaczącą poprawą wydajności w obliczu wyzwań związanych z pracą z odręcznymi notatkami od dyspozytorów i dokumentacją księgową z czasów Thomasa Edisona.
„Dzięki prostym klasycznym technikom statystycznym uzyskiwaliśmy coraz większą dokładność, a w miarę dalszej pracy z danymi coraz lepiej rozumieliśmy dane” – powiedział Rudin. „Gdybyśmy mogli zrozumieć, z jakich informacji korzystały modele predykcyjne, moglibyśmy poprosić inżynierów Con Edison o przydatne informacje zwrotne, które usprawniłyby cały nasz proces. To interpretowalność procesu pomogła poprawić dokładność naszych przewidywań, a nie jakiś większy i bardziej wyszukany model uczenia maszynowego. Właśnie nad tym postanowiłem popracować i jest to fundament, na którym zbudowane jest moje laboratorium.”https://www.youtube.com/embed/PwLN5irdMT8?wmode=opaque&wmode=opaque
W ciągu następnej dekady Rudin opracował techniki interpretowalnego uczenia maszynowego, które są modelami predykcyjnymi, które wyjaśniają się w sposób zrozumiały dla człowieka. Chociaż kod do projektowania tych formuł jest złożony i wyrafinowany, formuły mogą być na tyle małe, że można je zapisać w kilku wierszach na karcie indeksowej.
Rudin zastosowała swoją markę interpretowalnego uczenia maszynowego w wielu wpływowych projektach. Wraz ze współpracownikami Brandonem Westoverem i Aaronem Struckiem z Massachusetts General Hospital oraz swoim byłym studentem Berkiem Ustunem zaprojektowała prosty system punktowy, który może przewidzieć, którzy pacjenci są najbardziej narażeni na wystąpienie wyniszczających napadów drgawkowych po udarze lub innym uszkodzeniu mózgu. Wraz ze swoją byłą studentką MIT, Tong Wang, i wydziałem policji w Cambridge opracowała model, który pomaga odkryć podobieństwa między przestępstwami i ustalić, czy mogą one stanowić część serii popełnionej przez tych samych przestępców. Ten program typu open source ostatecznie stał się podstawą algorytmu Patternizr nowojorskiej policji – potężnego fragmentu kodu, który określa, czy nowe przestępstwo popełnione w mieście ma związek z przestępstwami z przeszłości.
„Zaangażowanie Cynthii w rozwiązywanie ważnych problemów świata rzeczywistego, chęć ścisłej współpracy z ekspertami dziedzinowymi oraz umiejętność destylacji i wyjaśniania złożonych modeli są niezrównane” – powiedział Daniel Wagner, zastępca komisarza policji w Cambridge. „Jej badania zaowocowały znaczącym wkładem w dziedzinę analizy przestępczości i policji. Co bardziej imponujące, jest zagorzałą krytyką potencjalnie niesprawiedliwych modeli „czarnych skrzynek” w sądownictwie karnym i innych kluczowych dziedzinach, a także zagorzałą zwolenniczką przejrzystych, możliwych do interpretacji modeli, w przypadku których niezbędne są dokładne, sprawiedliwe i wolne od uprzedzeń wyniki”.
Modele czarnej skrzynki są przeciwieństwem przezroczystych kodów Rudina. Metody stosowane w algorytmach sztucznej inteligencji uniemożliwiają ludziom zrozumienie, od jakich czynników zależą modele, na jakich danych się skupiają i w jaki sposób z nich korzystają. Chociaż może to nie stanowić problemu w przypadku trywialnych zadań, takich jak odróżnienie psa od kota, może stanowić ogromny problem w przypadku decyzji o dużej stawce, które zmieniają życie ludzi.
„Zaangażowanie Cynthii w rozwiązywanie ważnych problemów występujących w świecie rzeczywistym, chęć ścisłej współpracy z ekspertami dziedzinowymi oraz umiejętność destylacji i wyjaśniania złożonych modeli są niezrównane. Jej badania zaowocowały znaczącym wkładem w dziedzinę analizy przestępczości i policji. Co bardziej imponujące, jest zagorzałą krytyką potencjalnie niesprawiedliwych modeli „czarnych skrzynek” w sądownictwie karnym i innych kluczowych dziedzinach, a także zagorzałą zwolenniczką przejrzystych, możliwych do interpretacji modeli, w przypadku których niezbędne są dokładne, sprawiedliwe i wolne od uprzedzeń wyniki”.
DANIEL WAGNER
„Cynthia zmienia krajobraz wykorzystania sztucznej inteligencji w zastosowaniach społecznych, przekierowując wysiłki z modeli czarnych skrzynek na modele dające się zinterpretować, pokazując, że konwencjonalny pogląd – że czarne skrzynki są zazwyczaj dokładniejsze – jest bardzo często fałszywy” – powiedziała Jun Yang , kierownik wydziału informatyki w Duke. „To sprawia, że trudniej jest uzasadnić poddawanie konkretnych osób (takich jak oskarżeni) modelom czarnej skrzynki w sytuacjach o wysoką stawkę. Możliwość interpretacji modeli Cynthii odegrała kluczową rolę w ich zastosowaniu w praktyce, ponieważ umożliwiają one podejmowanie decyzji przez ludzi, a nie je zastępują”.
Jednym z wpływowych przykładów jest COMPAS – algorytm sztucznej inteligencji używany w wielu stanach do podejmowania decyzji o zwolnieniu za kaucją, który w dochodzeniu ProPublica został oskarżony o częściowe uwzględnianie rasy jako czynnika w swoich obliczeniach. Zarzut ten jest jednak trudny do udowodnienia, gdyż szczegóły algorytmu stanowią informację zastrzeżoną, a niektóre istotne aspekty analizy ProPublicy budzą wątpliwości. Zespół Rudina wykazał, że prosty, możliwy do interpretacji model, który dokładnie pokazuje, jakie czynniki bierze pod uwagę, jest równie dobry w przewidywaniu, czy dana osoba popełni kolejne przestępstwo. Nasuwa się pytanie, mówi Rudin, dlaczego w ogóle należy stosować modele czarnych skrzynek przy podejmowaniu tego typu decyzji o dużej stawce.
Tempo zmian · Otwieranie Czarnej Skrzynki
„Systematycznie pokazujemy, że w przypadku zastosowań wymagających dużej stawki nie ma utraty dokładności na rzecz możliwości interpretacji, pod warunkiem, że starannie optymalizujemy nasze modele” – powiedział Rudin. „Zaobserwowaliśmy to w przypadku decyzji dotyczących wymiaru sprawiedliwości w sprawach karnych, licznych decyzji dotyczących opieki zdrowotnej, w tym obrazowania medycznego, decyzji dotyczących konserwacji sieci energetycznej, decyzji dotyczących pożyczek finansowych i nie tylko. Świadomość, że jest to możliwe, zmienia sposób, w jaki myślimy o sztucznej inteligencji jako o niezdolnej do wyjaśnienia samej siebie.”
Przez całą swoją karierę Rudin nie tylko tworzyła interpretowalne modele sztucznej inteligencji, ale także opracowywała i publikowała techniki, które pomagały innym zrobić to samo. To nie zawsze było łatwe. Kiedy zaczynała publikować swoje prace, nie istniały terminy „nauka o danych” i „interpretowalne uczenie maszynowe” ani kategorie, do których dobrze pasowałyby jej badania, co oznacza, że redaktorzy i recenzenci nie wiedzieli, co z tym zrobić. To. Cynthia odkryła, że jeśli artykuł nie dowodził twierdzeń i nie twierdził, że jego algorytmy są dokładniejsze, był – i często nadal jest – trudniejszy do opublikowania.
„Od samego początku darzę Cynthię ogromnym podziwem, za jej ducha niezależności, determinację i nieustanne dążenie do prawdziwego zrozumienia wszystkiego, co nowe, co spotyka na zajęciach i w pracach pisemnych. Już jako absolwentka potrafiła budować społeczność, stając w obronie innych ze swojej kohorty”.
INGRID DAUBECHIES
W miarę jak Rudin w dalszym ciągu pomaga ludziom i publikuje swoje projekty, które można interpretować, a także w miarę pojawiania się coraz większej liczby obaw związanych z kodem czarnej skrzynki, jej wpływ w końcu zaczyna zmieniać losy statku. W czasopismach i konferencjach poświęconych uczeniu maszynowemu istnieją obecnie całe kategorie poświęcone pracom możliwym do interpretacji i stosowanym. Inni koledzy w tej dziedzinie i ich współpracownicy głośno wyrażają, jak ważna jest interpretowalność w projektowaniu godnych zaufania systemów sztucznej inteligencji.
„Od samego początku darzę Cynthię ogromnym podziwem, za jej ducha niezależności, determinację i nieustanne dążenie do prawdziwego zrozumienia wszystkiego, co nowe spotyka na zajęciach i w pracach pisemnych” – powiedziała Ingrid Daubechies, odznaczona Jamesem B. Duke Distinguished Profesor matematyki oraz inżynierii elektrycznej i komputerowej, jeden z najwybitniejszych na świecie badaczy w dziedzinie przetwarzania sygnałów i jeden z promotorów doktoratu Rudina na Uniwersytecie Princeton. „Już jako absolwentka potrafiła budować społeczność, broniąc innych ze swojej grupy. Wciągnęła mnie w uczenie maszynowe, ponieważ nie była to dziedzina, w której nie miałem żadnej wiedzy specjalistycznej, zanim delikatnie, ale bardzo uporczywie mnie w to wciągnęła. Bardzo się cieszę z tak wspaniałego i zasłużonego uznania dla niej!”
„Nie mógłbym być bardziej zachwycony, widząc, że praca Cynthii została w ten sposób uhonorowana” – dodał drugi doradca doktorancki Rudin, partner badawczy firmy Microsoft, Robert Schapire, którego praca nad „wzmacnianiem” pomogła położyć podwaliny pod nowoczesne uczenie maszynowe. „Za inspirujące i wnikliwe badania, niezależne myślenie, które poprowadziło ją w kierunkach bardzo odmiennych od głównego nurtu, a także za jej wieloletnie zainteresowanie kwestiami i problemami o praktycznym, społecznym znaczeniu”.
Rudin uzyskała tytuł licencjata w dziedzinie fizyki matematycznej i teorii muzyki na Uniwersytecie w Buffalo, a następnie uzyskała doktorat z matematyki stosowanej i obliczeniowej w Princeton. Następnie pracowała jako pracownik naukowy podoktorski National Science Foundation na Uniwersytecie Nowojorskim oraz jako pracownik naukowy na Uniwersytecie Columbia. Została profesorem nadzwyczajnym statystyki w Massachusetts Institute of Technology, a następnie w 2017 r. dołączyła do wydziału Duke'a, gdzie zajmuje stanowiska w dziedzinach informatyki, inżynierii elektrycznej i komputerowej, biostatystyki i bioinformatyki oraz nauk statystycznych.
Jest trzykrotną laureatką nagrody INFORMS Innovative Applications in Analytics Award, przyznawanej za kreatywne i unikalne zastosowania technik analitycznych, a także jest członkiem Amerykańskiego Stowarzyszenia Statystycznego i Instytutu Statystyki Matematycznej.
„Chcę podziękować AAAI i Squirrel AI za stworzenie tej nagrody, która, jak wiem, zmieni zasady gry w tej dziedzinie” – powiedział Rudin. „Otrzymanie „Nagrody Nobla” za sztuczną inteligencję pomagającą społeczeństwu w końcu i bez wątpienia pokazuje, że ten temat – praca sztucznej inteligencji na rzecz społeczeństwa – jest rzeczywiście ważny”.
(C) Uniwersytet Duke'a
Pierwotnym źródłem: WRALTechWire