Duke-Informatiker erhält „Nobelpreis“ im Wert von $1M für Arbeit im Bereich der künstlichen Intelligenz

Veröffentlichungsdatum:

von Ken Kingery

Ob es um die Verhinderung von Explosionen in Stromnetzen, die Erkennung von Mustern bei vergangenen Verbrechen oder die Optimierung der Ressourcen bei der Versorgung schwerkranker Patienten geht – die Informatikerin Cynthia Rudin von der Duke University möchte, dass künstliche Intelligenz (KI) ihre Wirkung zeigt. Vor allem, wenn es darum geht, Entscheidungen zu treffen, die das Leben der Menschen tiefgreifend beeinflussen.

Während sich viele Wissenschaftler im sich entwickelnden Bereich des maschinellen Lernens auf die Verbesserung von Algorithmen konzentrierten, wollte Rudin stattdessen die Macht der KI nutzen, um der Gesellschaft zu helfen. Sie entschied sich dafür, Möglichkeiten zu nutzen, Techniken des maschinellen Lernens auf wichtige gesellschaftliche Probleme anzuwenden, und erkannte dabei, dass das Potenzial der KI am besten freigesetzt wird, wenn Menschen hineinschauen und verstehen können, was sie tut.

Jetzt, nachdem sie sich 15 Jahre lang für „interpretierbare“ Algorithmen für maschinelles Lernen eingesetzt und diese entwickelt hat, die es Menschen ermöglichen, in die KI zu blicken, haben ihr Rudins Beiträge auf diesem Gebiet den mit $1 Millionen dotierten Squirrel AI Award für künstliche Intelligenz zum Wohle der Menschheit von der Association for eingebracht die Förderung der künstlichen Intelligenz (AAAI). AAAI wurde 1979 gegründet und ist die führende internationale wissenschaftliche Gesellschaft, die KI-Forscher, Praktiker und Pädagogen betreut.

„Nur weltbekannte Auszeichnungen wie der Nobelpreis und der AM Turing Award der Association of Computing Machinery sind mit Geldprämien im Millionen-Dollar-Bereich ausgestattet. Die Arbeit von Professor Rudin unterstreicht die Bedeutung der Transparenz für KI-Systeme in Hochrisikobereichen. Ihr Mut, kontroverse Themen anzugehen, macht deutlich, wie wichtig die Forschung ist, um kritische Herausforderungen beim verantwortungsvollen und ethischen Einsatz von KI anzugehen.“

YOLANDA GIL

Rudin, Professor für Informatik und Ingenieurwissenschaften an der Duke University, ist der zweite Empfänger der neuen jährlichen Auszeichnung, die vom Online-Bildungsunternehmen Squirrel AI finanziert wird, um Leistungen in der künstlichen Intelligenz in einer Weise anzuerkennen, die mit Spitzenpreisen in traditionelleren Bereichen vergleichbar ist.

Sie wird zitiert für „bahnbrechende wissenschaftliche Arbeit im Bereich interpretierbarer und transparenter KI-Systeme in realen Einsätzen, das Eintreten für diese Funktionen in hochsensiblen Bereichen wie soziale Gerechtigkeit und medizinische Diagnose und ihre Rolle als Vorbild für Forscher und.“ Praktiker."

„Nur weltbekannte Auszeichnungen wie der Nobelpreis und der AM Turing Award der Association of Computing Machinery sind mit Geldpreisen in Millionenhöhe verbunden“, sagte die Vorsitzende des AAAI-Preiskomitees und ehemalige Präsidentin Yolanda Gil. „Die Arbeit von Professor Rudin unterstreicht die Bedeutung der Transparenz für KI-Systeme in Hochrisikobereichen. Ihr Mut, kontroverse Themen anzugehen, macht deutlich, wie wichtig die Forschung ist, um kritische Herausforderungen beim verantwortungsvollen und ethischen Einsatz von KI anzugehen.“

Rudins erstes angewandtes Projekt war eine Zusammenarbeit mit Con Edison, dem Energieunternehmen, das für die Stromversorgung von New York City verantwortlich ist. Ihre Aufgabe bestand darin, mithilfe maschinellen Lernens vorherzusagen, bei welchen Mannlöchern die Gefahr einer Explosion besteht, weil sich die elektrischen Schaltkreise verschlechtern und überlastet sind. Doch schon bald stellte sie fest, dass es trotz der vielen neu veröffentlichten akademischen Schnickschnack, die sie ihrem Code hinzufügte, schwierig war, die Leistung sinnvoll zu verbessern, wenn man mit den Herausforderungen konfrontiert wurde, die die Arbeit mit handschriftlichen Notizen von Disponenten und Buchhaltungsunterlagen aus der Zeit von Thomas Edison mit sich brachte.

„Wir erzielten durch einfache klassische Statistiktechniken eine höhere Genauigkeit und ein besseres Verständnis der Daten, während wir weiter damit arbeiteten“, sagte Rudin. „Wenn wir verstehen könnten, welche Informationen die Vorhersagemodelle verwenden, könnten wir die Ingenieure von Con Edison um nützliches Feedback bitten, das unseren gesamten Prozess verbessert. Es war die Interpretierbarkeit des Prozesses, die zur Verbesserung der Genauigkeit unserer Vorhersagen beitrug, nicht irgendein größeres oder ausgefalleneres maschinelles Lernmodell. Daran habe ich mich entschieden und es ist das Fundament, auf dem mein Labor aufgebaut ist.“https://www.youtube.com/embed/PwLN5irdMT8?wmode=opaque&wmode=opaque

Im Laufe des nächsten Jahrzehnts entwickelte Rudin Techniken für interpretierbares maschinelles Lernen, bei denen es sich um Vorhersagemodelle handelt, die sich selbst auf eine für Menschen verständliche Weise erklären. Während der Code zum Entwerfen dieser Formeln komplex und anspruchsvoll ist, können die Formeln klein genug sein, um in ein paar Zeilen auf eine Karteikarte geschrieben zu werden.

Rudin hat ihre Art des interpretierbaren maschinellen Lernens auf zahlreiche wirkungsvolle Projekte angewendet. Gemeinsam mit den Kollegen Brandon Westover und Aaron Struck vom Massachusetts General Hospital und ihrem ehemaligen Studenten Berk Ustun entwarf sie ein einfaches punktbasiertes System, das vorhersagen kann, bei welchen Patienten nach einem Schlaganfall oder einer anderen Hirnverletzung das größte Risiko besteht, destruktive Anfälle zu erleiden. Und zusammen mit ihrem ehemaligen MIT-Studenten Tong Wang und der Cambridge Police Department entwickelte sie ein Modell, das dabei hilft, Gemeinsamkeiten zwischen Straftaten zu entdecken, um festzustellen, ob sie Teil einer Serie sein könnten, die von denselben Kriminellen begangen wurde. Dieses Open-Source-Programm wurde schließlich zur Grundlage des Patternizr-Algorithmus des New York Police Department, eines leistungsstarken Codes, der ermittelt, ob ein neues in der Stadt begangenes Verbrechen mit früheren Verbrechen zusammenhängt.

„Cynthias Engagement für die Lösung wichtiger realer Probleme, ihr Wunsch, eng mit Fachexperten zusammenzuarbeiten und ihre Fähigkeit, komplexe Modelle zu destillieren und zu erklären, sind beispiellos“, sagte Daniel Wagner, stellvertretender Superintendent der Cambridge Police Department. „Ihre Forschung führte zu bedeutenden Beiträgen auf dem Gebiet der Kriminalitätsanalyse und Polizeiarbeit. Noch beeindruckender ist, dass sie eine scharfe Kritikerin potenziell ungerechter „Black-Box“-Modelle in der Strafjustiz und anderen wichtigen Bereichen ist und eine energische Verfechterin transparenter, interpretierbarer Modelle ist, bei denen genaue, gerechte und voreingenommene Ergebnisse unerlässlich sind.“

Black-Box-Modelle sind das Gegenteil von Rudins transparenten Codes. Die in diesen KI-Algorithmen angewandten Methoden machen es für den Menschen unmöglich zu verstehen, von welchen Faktoren die Modelle abhängen, auf welche Daten sich die Modelle konzentrieren und wie sie diese verwenden. Während dies bei trivialen Aufgaben wie der Unterscheidung eines Hundes von einer Katze möglicherweise kein Problem darstellt, könnte es bei Entscheidungen mit hohem Risiko, die das Leben der Menschen verändern, ein großes Problem darstellen.

„Cynthias Engagement für die Lösung wichtiger realer Probleme, ihr Wunsch, eng mit Fachexperten zusammenzuarbeiten, und ihre Fähigkeit, komplexe Modelle zu destillieren und zu erklären, sind beispiellos. Ihre Forschung führte zu bedeutenden Beiträgen auf dem Gebiet der Kriminalitätsanalyse und Polizeiarbeit. Noch beeindruckender ist, dass sie eine scharfe Kritikerin potenziell ungerechter „Black-Box“-Modelle in der Strafjustiz und anderen wichtigen Bereichen ist und eine energische Verfechterin transparenter, interpretierbarer Modelle ist, bei denen genaue, gerechte und voreingenommene Ergebnisse unerlässlich sind.“

DANIEL WAGNER

„Cynthia verändert die Art und Weise, wie KI in gesellschaftlichen Anwendungen eingesetzt wird, indem sie die Bemühungen weg von Black-Box-Modellen und hin zu interpretierbaren Modellen verlagert, indem sie zeigt, dass die herkömmliche Meinung – dass Black-Boxen normalerweise genauer sind – sehr oft falsch ist“, sagte Jun Yang , Vorsitzender der Informatikabteilung bei Duke. „Dadurch ist es schwieriger zu rechtfertigen, dass Einzelpersonen (z. B. Angeklagte) in Situationen, in denen viel auf dem Spiel steht, Black-Box-Modellen unterworfen werden. Die Interpretierbarkeit der Modelle von Cynthia war entscheidend für ihre Umsetzung in die Praxis, da sie menschliche Entscheidungsträger befähigen, anstatt sie zu ersetzen.“

Ein wirkungsvolles Beispiel ist COMPAS – ein KI-Algorithmus, der in mehreren Bundesstaaten zur Entscheidung über Freilassungen gegen Kaution eingesetzt wird und dem in einer ProPublica-Untersuchung vorgeworfen wurde, bei seinen Berechnungen teilweise die Rasse als Faktor herangezogen zu haben. Der Vorwurf ist jedoch schwer zu beweisen, da es sich bei den Details des Algorithmus um proprietäre Informationen handelt und einige wichtige Aspekte der Analyse von ProPublica fraglich sind. Rudins Team hat gezeigt, dass ein einfach interpretierbares Modell, das genau offenlegt, welche Faktoren es berücksichtigt, genauso gut vorhersagen kann, ob eine Person ein weiteres Verbrechen begehen wird oder nicht. Dies wirft die Frage auf, sagt Rudin, warum Black-Box-Modelle überhaupt für Entscheidungen dieser Art mit hohem Risiko eingesetzt werden müssen.

Änderungsrate · Die Black Box öffnen

„Wir haben systematisch gezeigt, dass es bei anspruchsvollen Anwendungen keinen Verlust an Genauigkeit gibt, um die Interpretierbarkeit zu verbessern, solange wir unsere Modelle sorgfältig optimieren“, sagte Rudin. „Wir haben dies bei strafrechtlichen Entscheidungen, zahlreichen Entscheidungen im Gesundheitswesen, einschließlich medizinischer Bildgebung, Entscheidungen zur Wartung des Stromnetzes, Entscheidungen zu Finanzkrediten und mehr gesehen. Zu wissen, dass dies möglich ist, verändert die Art und Weise, wie wir darüber denken, dass KI nicht in der Lage ist, sich selbst zu erklären.“

Im Laufe ihrer Karriere hat Rudin nicht nur diese interpretierbaren KI-Modelle erstellt, sondern auch Techniken entwickelt und veröffentlicht, um anderen dabei zu helfen, dasselbe zu tun. Das war nicht immer einfach. Als sie mit der Veröffentlichung ihrer Arbeit begann, gab es die Begriffe „Datenwissenschaft“ und „interpretierbares maschinelles Lernen“ noch nicht und es gab keine Kategorien, in die ihre Forschung genau passte, was bedeutete, dass Herausgeber und Gutachter nicht wussten, was sie damit anfangen sollten Es. Cynthia stellte fest, dass eine Veröffentlichung schwieriger war – und oft immer noch ist –, wenn sie keine Theoreme bewies und behauptete, dass ihre Algorithmen genauer seien.

„Ich hege schon sehr früh große Bewunderung für Cynthia, für ihren Geist der Unabhängigkeit, ihre Entschlossenheit und ihr unermüdliches Streben nach wahrem Verständnis für alles Neue, was ihr im Unterricht und in den Arbeiten begegnet ist. Schon als Doktorandin war sie eine Gemeinschaftsgestalterin und setzte sich für andere in ihrer Kohorte ein.“

INGRID DAUBECHIES

Während Rudin weiterhin Menschen hilft und ihre interpretierbaren Entwürfe veröffentlicht – und immer mehr Bedenken im Zusammenhang mit Black-Box-Code auftauchen – beginnt ihr Einfluss endlich, das Schiff zu verändern. Mittlerweile gibt es in Fachzeitschriften und Konferenzen zum Thema maschinelles Lernen ganze Kategorien, die sich mit interpretierbarer und angewandter Arbeit befassen. Andere Kollegen auf diesem Gebiet und ihre Mitarbeiter betonen, wie wichtig Interpretierbarkeit für die Entwicklung vertrauenswürdiger KI-Systeme ist.

„Ich hege schon sehr früh große Bewunderung für Cynthia, für ihren Geist der Unabhängigkeit, ihre Entschlossenheit und ihr unermüdliches Streben nach wahrem Verständnis für alles Neue, was ihr in den Kursen und Aufsätzen begegnet ist“, sagte Ingrid Daubechies, die James B. Duke Distinguished Professor für Mathematik sowie Elektrotechnik und Informationstechnik, einer der weltweit führenden Forscher auf dem Gebiet der Signalverarbeitung und einer von Rudins Doktorandenberatern an der Princeton University. „Schon als Doktorandin war sie eine Gemeinschaftsgestalterin und setzte sich für andere in ihrer Kohorte ein. Sie brachte mich zum maschinellen Lernen, da ich in diesem Bereich keinerlei Fachkenntnisse hatte, bevor sie mich sanft, aber sehr beharrlich dazu brachte. Ich freue mich sehr über diese wunderbare und sehr verdiente Anerkennung für sie!“

„Ich freue mich sehr, dass Cynthias Arbeit auf diese Weise gewürdigt wird“, fügte Rudins zweiter Doktorandenberater, Microsoft Research-Partner Robert Schapire, hinzu, dessen Arbeit zum Thema „Boosting“ dazu beitrug, den Grundstein für modernes maschinelles Lernen zu legen. „Für ihre inspirierende und aufschlussreiche Forschung, ihr unabhängiges Denken, das sie in ganz andere Richtungen als den Mainstream geführt hat, und für ihre langjährige Aufmerksamkeit für Themen und Probleme von praktischer, gesellschaftlicher Bedeutung.“

Rudin erwarb einen Bachelor-Abschluss in mathematischer Physik und Musiktheorie an der Universität in Buffalo, bevor sie in Princeton in angewandter und rechnerischer Mathematik promovierte. Anschließend arbeitete sie als Postdoktorandin der National Science Foundation an der New York University und als außerordentliche Forschungswissenschaftlerin an der Columbia University. Sie wurde außerordentliche Professorin für Statistik am Massachusetts Institute of Technology, bevor sie 2017 an die Duke-Fakultät wechselte, wo sie Anstellungen in den Bereichen Informatik, Elektro- und Computertechnik, Biostatistik und Bioinformatik sowie statistische Wissenschaften innehat.

Sie erhielt dreimal den INFORMS Innovative Applications in Analytics Award, der kreative und einzigartige Anwendungen analytischer Techniken würdigt, und ist Fellow der American Statistical Association und des Institute of Mathematical Statistics.

„Ich möchte AAAI und Squirrel AI dafür danken, dass sie diese Auszeichnung ins Leben gerufen haben, von der ich weiß, dass sie für die Branche von entscheidender Bedeutung sein wird“, sagte Rudin. „Einen ‚Nobelpreis‘ für KI als Hilfsmittel für die Gesellschaft zu haben, macht endlich deutlich, dass dieses Thema – KI-Arbeit zum Wohle der Gesellschaft – tatsächlich wichtig ist.“

(C) Duke University 

Originalquelle: WRAL TechWire