L'informatico Duke vince il "Premio Nobel" del valore di $1M per il lavoro sull'intelligenza artificiale

Data di pubblicazione:

di Ken Kingery

Che si tratti di prevenire esplosioni sulle reti elettriche, individuare schemi tra i crimini del passato o ottimizzare le risorse nella cura di pazienti critici, la scienziata informatica della Duke University Cynthia Rudin vuole che l'intelligenza artificiale (AI) mostri il suo lavoro. Soprattutto quando si tratta di prendere decisioni che influenzano profondamente la vita delle persone.

Mentre molti studiosi nel campo in via di sviluppo dell’apprendimento automatico erano concentrati sul miglioramento degli algoritmi, Rudin voleva invece utilizzare il potere dell’intelligenza artificiale per aiutare la società. Ha scelto di cogliere l'opportunità di applicare tecniche di apprendimento automatico a importanti problemi sociali e, nel frattempo, si è resa conto che il potenziale dell'intelligenza artificiale si sblocca meglio quando gli esseri umani possono sbirciare all'interno e capire cosa sta facendo.

Ora, dopo 15 anni di promozione e sviluppo di algoritmi di apprendimento automatico “interpretabili” che consentono agli esseri umani di vedere all’interno dell’intelligenza artificiale, i contributi di Rudin sul campo le sono valsi il premio Squirrel AI Award da $1 milione per l’intelligenza artificiale a beneficio dell’umanità dall’Associazione per il progresso dell'intelligenza artificiale (AAAI). Fondata nel 1979, AAAI è l'importante società scientifica internazionale al servizio di ricercatori, professionisti ed educatori dell'IA.

“Solo i riconoscimenti di fama mondiale, come il Premio Nobel e l’AM Turing Award dell’Association of Computing Machinery, comportano ricompense monetarie a livello di un milione di dollari. Il lavoro del professor Rudin evidenzia l'importanza della trasparenza per i sistemi di intelligenza artificiale nei settori ad alto rischio. Il suo coraggio nell’affrontare questioni controverse sottolinea l’importanza della ricerca per affrontare le sfide cruciali nell’uso responsabile ed etico dell’intelligenza artificiale”.

YOLANDA GIL

Rudin, professore di informatica e ingegneria alla Duke, è il secondo destinatario del nuovo premio annuale, finanziato dalla società di formazione online Squirrel AI per riconoscere i risultati ottenuti nel campo dell'intelligenza artificiale in modo paragonabile ai migliori premi in campi più tradizionali.

È stata citata per "il lavoro scientifico pionieristico nell'area dei sistemi di intelligenza artificiale interpretabili e trasparenti nelle implementazioni nel mondo reale, per la difesa di queste funzionalità in aree altamente sensibili come la giustizia sociale e la diagnosi medica e per aver servito da modello per ricercatori e praticanti”.

"Solo i riconoscimenti di fama mondiale, come il Premio Nobel e l'AM Turing Award dell'Association of Computing Machinery, comportano ricompense monetarie a livello di un milione di dollari", ha affermato Yolanda Gil, presidente del comitato dei premi AAAI ed ex presidente. “Il lavoro del professor Rudin evidenzia l'importanza della trasparenza per i sistemi di intelligenza artificiale nei settori ad alto rischio. Il suo coraggio nell’affrontare questioni controverse sottolinea l’importanza della ricerca per affrontare le sfide cruciali nell’uso responsabile ed etico dell’intelligenza artificiale”.

Il primo progetto applicato di Rudin è stata una collaborazione con Con Edison, la società energetica responsabile dell'energia elettrica di New York City. Il suo compito era quello di utilizzare l’apprendimento automatico per prevedere quali tombini fossero a rischio di esplosione a causa del degrado e del sovraccarico dei circuiti elettrici. Ma presto scoprì che, indipendentemente da quanti fronzoli accademici appena pubblicati aggiungesse al suo codice, faticava a migliorare in modo significativo le prestazioni di fronte alle sfide poste dal lavorare con note scritte a mano dai centralinisti e documenti contabili risalenti ai tempi di Thomas Edison.

"Stavamo ottenendo una maggiore precisione da semplici tecniche statistiche classiche e una migliore comprensione dei dati mentre continuavamo a lavorarci", ha detto Rudin. “Se potessimo capire quali informazioni stanno utilizzando i modelli predittivi, potremmo chiedere agli ingegneri di Con Edison un feedback utile che ha migliorato il nostro intero processo. È stata l’interpretabilità del processo a contribuire a migliorare l’accuratezza delle nostre previsioni, non un modello di apprendimento automatico più grande o più elaborato. Questo è ciò su cui ho deciso di lavorare ed è la base su cui è costruito il mio laboratorio. "https://www.youtube.com/embed/PwLN5irdMT8?wmode=opaque&wmode=opaque

Nel decennio successivo, Rudin ha sviluppato tecniche per l’apprendimento automatico interpretabile, che sono modelli predittivi che si spiegano in modi comprensibili per gli esseri umani. Sebbene il codice per la progettazione di queste formule sia complesso e sofisticato, le formule potrebbero essere abbastanza piccole da essere scritte in poche righe su una scheda.

Rudin ha applicato il suo marchio di apprendimento automatico interpretabile a numerosi progetti di grande impatto. Con i collaboratori Brandon Westover e Aaron Struck del Massachusetts General Hospital e il suo ex studente Berk Ustun, ha progettato un semplice sistema basato su punti in grado di prevedere quali pazienti sono maggiormente a rischio di avere convulsioni distruttive dopo un ictus o altre lesioni cerebrali. E con il suo ex studente del MIT Tong Wang e il dipartimento di polizia di Cambridge, ha sviluppato un modello che aiuta a scoprire punti in comune tra i crimini per determinare se potrebbero far parte di una serie commessa dagli stessi criminali. Quel programma open source alla fine divenne la base dell'algoritmo Patternizr del Dipartimento di Polizia di New York, un potente pezzo di codice che determina se un nuovo crimine commesso in città è correlato a crimini passati.

"L'impegno di Cynthia nel risolvere importanti problemi del mondo reale, il desiderio di lavorare a stretto contatto con esperti del settore e la capacità di distillare e spiegare modelli complessi non hanno eguali", ha affermato Daniel Wagner, vice sovrintendente del dipartimento di polizia di Cambridge. “La sua ricerca ha prodotto contributi significativi nel campo dell’analisi del crimine e della polizia. Ancora più impressionante, è una forte critica dei modelli di “scatola nera” potenzialmente ingiusti nella giustizia penale e in altri campi ad alto rischio, e una strenua sostenitrice di modelli interpretabili trasparenti in cui sono essenziali risultati accurati, giusti e privi di pregiudizi”.

I modelli a scatola nera sono l'opposto dei codici trasparenti di Rudin. I metodi applicati in questi algoritmi di intelligenza artificiale rendono impossibile per gli esseri umani comprendere da quali fattori dipendono i modelli, su quali dati si concentrano i modelli e come li utilizzano. Anche se questo potrebbe non essere un problema per compiti banali come distinguere un cane da un gatto, potrebbe essere un grosso problema per decisioni ad alto rischio che cambiano la vita delle persone.

“L'impegno di Cynthia nel risolvere importanti problemi del mondo reale, il desiderio di lavorare a stretto contatto con esperti del settore e la capacità di distillare e spiegare modelli complessi non hanno eguali. La sua ricerca ha prodotto contributi significativi nel campo dell'analisi e della polizia del crimine. Ancora più impressionante, è una forte critica dei modelli di “scatola nera” potenzialmente ingiusti nella giustizia penale e in altri campi ad alto rischio, e una strenua sostenitrice di modelli interpretabili trasparenti in cui sono essenziali risultati accurati, giusti e privi di pregiudizi”.

DANIELE WAGNER

“Cynthia sta cambiando il panorama del modo in cui l’intelligenza artificiale viene utilizzata nelle applicazioni sociali, reindirizzando gli sforzi dai modelli a scatola nera verso modelli interpretabili, dimostrando che la saggezza convenzionale – secondo cui le scatole nere sono in genere più precise – è molto spesso falsa”, ha affermato Jun Yang. , presidente del dipartimento di informatica alla Duke. “Ciò rende più difficile giustificare l’assoggettamento di individui (come gli imputati) a modelli di scatola nera in situazioni ad alto rischio. L’interpretabilità dei modelli di Cynthia è stata cruciale per farli adottare nella pratica, poiché abilitano i decisori umani, piuttosto che sostituirli”.

Un esempio di grande impatto riguarda COMPAS, un algoritmo di intelligenza artificiale utilizzato in più stati per prendere decisioni sulla libertà su cauzione che è stato accusato da un’indagine di ProPublica di utilizzare parzialmente la razza come fattore nei suoi calcoli. L'accusa è però difficile da dimostrare, poiché i dettagli dell'algoritmo sono informazioni proprietarie e alcuni aspetti importanti dell'analisi di ProPublica sono discutibili. Il team di Rudin ha dimostrato che un modello semplice e interpretabile che rivela esattamente quali fattori sta prendendo in considerazione è altrettanto efficace nel prevedere se una persona commetterà o meno un altro crimine. Ciò fa sorgere la domanda, dice Rudin, sul perché i modelli della scatola nera debbano essere utilizzati per questo tipo di decisioni ad alto rischio.

Tasso di cambio · Apertura della scatola nera

"Abbiamo dimostrato sistematicamente che per le applicazioni ad alto rischio non vi è alcuna perdita di precisione a favore dell'interpretabilità, purché ottimizziamo attentamente i nostri modelli", ha affermato Rudin. “Lo abbiamo visto per le decisioni sulla giustizia penale, numerose decisioni in ambito sanitario, tra cui l'imaging medico, le decisioni sulla manutenzione della rete elettrica, le decisioni sui prestiti finanziari e altro ancora. Sapere che ciò è possibile cambia il modo in cui pensiamo all’intelligenza artificiale come incapace di spiegare se stessa”.

Nel corso della sua carriera, Rudin non solo ha creato questi modelli di intelligenza artificiale interpretabili, ma ha sviluppato e pubblicato tecniche per aiutare gli altri a fare lo stesso. Non è sempre stato facile. Quando iniziò a pubblicare il suo lavoro, i termini “scienza dei dati” e “apprendimento automatico interpretabile” non esistevano e non c’erano categorie in cui rientrare perfettamente la sua ricerca, il che significa che redattori e revisori non sapevano cosa farne. Esso. Cynthia scoprì che se un articolo non dimostrava teoremi e non affermava che i suoi algoritmi erano più accurati, era – e spesso è ancora – più difficile da pubblicare.

“Ho provato un'enorme ammirazione per Cynthia fin dall'inizio, per il suo spirito di indipendenza, la sua determinazione e la sua incessante ricerca della vera comprensione di qualsiasi cosa nuova incontrasse nelle lezioni e nei compiti. Anche quando era una studentessa laureata, era una costruttrice di comunità, che difendeva gli altri nella sua coorte”.

INGRID DAUBECHI

Mentre Rudin continua ad aiutare le persone e a pubblicare i suoi progetti interpretabili – e mentre sempre più preoccupazioni continuano a emergere con il codice della scatola nera – la sua influenza sta finalmente iniziando a cambiare la nave. Ora ci sono intere categorie nelle riviste e nelle conferenze sull'apprendimento automatico dedicate al lavoro interpretabile e applicato. Altri colleghi sul campo e i loro collaboratori stanno sottolineando quanto sia importante l’interpretabilità per progettare sistemi di intelligenza artificiale affidabili.

"Ho avuto un'enorme ammirazione per Cynthia fin dall'inizio, per il suo spirito di indipendenza, la sua determinazione e la sua incessante ricerca della vera comprensione di qualsiasi cosa nuova incontrasse nelle lezioni e nei compiti", ha detto Ingrid Daubechies, James B. Duke Distinguished Professore di matematica e ingegneria elettrica e informatica, uno dei ricercatori più eminenti al mondo nell'elaborazione dei segnali e uno dei consulenti di dottorato di Rudin presso l'Università di Princeton. “Anche quando era una studentessa laureata, era una costruttrice di comunità, difendendo gli altri nella sua coorte. Mi ha introdotto nell'apprendimento automatico, poiché non era un'area in cui avevo alcuna esperienza prima che lei mi spingesse delicatamente ma con molta tenacia a farlo. Sono davvero felice per questo meraviglioso e meritatissimo riconoscimento per lei!”

"Non potrei essere più entusiasta di vedere il lavoro di Cynthia onorato in questo modo", ha aggiunto il secondo consulente di dottorato di Rudin, il partner di Microsoft Research Robert Schapire, il cui lavoro sul "potenziamento" ha contribuito a gettare le basi per il moderno machine learning. “Per la sua ricerca stimolante e penetrante, il suo pensiero indipendente che l’ha portata in direzioni molto diverse dal mainstream, e per la sua attenzione di lunga data a questioni e problemi di importanza pratica e sociale”.

Rudin ha conseguito la laurea in fisica matematica e teoria musicale presso l'Università di Buffalo prima di completare il dottorato in matematica applicata e computazionale a Princeton. Ha poi lavorato come ricercatrice post-dottorato della National Science Foundation presso la New York University e come ricercatrice associata presso la Columbia University. È diventata professore associato di statistica presso il Massachusetts Institute of Technology prima di unirsi alla facoltà di Duke nel 2017, dove ricopre incarichi di informatica, ingegneria elettrica e informatica, biostatistica e bioinformatica e scienze statistiche.

Ha ricevuto tre volte il premio INFORMS Innovative Applications in Analytics, che riconosce le applicazioni creative e uniche delle tecniche analitiche, ed è membro dell'American Statistical Association e dell'Institute of Mathematical Statistics.

"Voglio ringraziare AAAI e Squirrel AI per aver creato questo premio che so sarà un punto di svolta per il settore", ha affermato Rudin. "Avere un 'Premio Nobel' per l'intelligenza artificiale per aiutare la società rende finalmente chiaro, senza alcun dubbio, che questo argomento - l'intelligenza artificiale funziona a beneficio della società - è effettivamente importante."

(C) Università Duke 

Fonte originale: WRAL TechWire