Intelligenza Artificiale, la scienziata Francesca Rossi (IBM): «Insegno l'etica ai robot per un impatto positivo su persone e società»

Mercoledì 23 Dicembre 2020 di Lucilla Niccolini
La scienziata Francesca Rossi

Intelligenza artificiale, comunemente definita con l’acronimo inglese AI, è tra le parole più “abusate” del momento: da oltre 10 anni la nostra vita è condizionata da applicazioni AI, anche senza che ce ne accorgiamo.

Professoressa Rossi, lei è global Leader sull’Etica dell’AI in IBM, potrebbe fare alcuni esempi?

«L’AI ha già moltissime applicazioni nella nostra vita di tutti i giorni, e sa già prendere decisioni o suggerire cosa fare a persone che la usano. Interviene quando paghiamo con una carta di credito, quando cerchiamo informazioni su web o facciamo una foto, per trovare la strada più breve per andare da un amico, quando parliamo al cellulare invece di scrivere, e anche quando usiamo uno dei tanti social network per interagire con i nostri amici. Aziende e istituzioni in tutti i settori hanno iniziato a usare tecniche di AI nelle loro operazioni. Qualunque sia il modello di business e l’ambito applicativo, l’AI può ottimizzare le operazioni, renderle più efficienti, migliorare le decisioni dei professionisti del settore e creare nuovi servizi e modalità di lavoro. Questa tecnologia ha però anche molte limitazioni ancora: ha bisogno di grandi quantità di dati per funzionare bene, non riesce ad apprendere e a usare informazioni di causa ed effetto, e spesso non sa spiegare perché arriva a certe conclusioni».

(Francesca Rossi con il campione degli scacchi Garry Kasparov)

Più insofferenti e disorientati, ci salverà l'amore: così ci ha ha cambiato la pandemia

La filosofa Ilaria Gaspari: «Il segreto della gioia è nell'attimo»

Come si insegna a una macchina a prendere decisioni?

«Una tecnica di grande successo, che usa algoritmi di machine learning, è quella di raccogliere grandi quantità di dati sul problema da risolvere e sulla decisione più corretta da prendere. Con essi, si addestra la macchina a ricostruire il legame tra dati d’ingresso e risultato ottenuto, per poi applicare questi legami per risolvere altri problemi simili non affrontati prima. Per esempio, se si vuole costruire una macchina che sappia decidere se accettare o meno una richiesta di prestito presso un istituto finanziario, va addestrata con molti esempi di richieste e decisioni corrette per tali richieste, in modo che la macchina possa capire le correlazioni tra i dati e sappia capire se accettare o rifiutare nuove richieste. È però opportuno non delegare decisioni importanti a una macchina autonoma, ma invece presentarle a una persona che poi prenderà la decisione in modo informato dall’analisi dei dati effettuata dalla macchina».

Decisioni giuste, sul piano scientifico, ma anche etiche. L’etica è un concetto non sempre chiaro, mutevole nel tempo. Chi decide cosa sia etico, oggi?

«Sia che le macchine prendano decisioni o formulino suggerimenti, per facilitare decisioni prese da persone, è molto importante che sappiano seguire principi etici e valori morali ritenuti importanti nel contesto applicativo. Un tipico esempio è la equità (fairness), che assicura che non vengano fatte discriminazioni fra gruppi di persone. L‘individuazione dei valori che le macchine devono rispettare deve essere effettuata in modo condiviso tra tutti gli attori coinvolti. Non può essere presa solo da chi programma l’AI».

Che rischi corriamo, nel caso si riesca a insegnare alle macchine a decidere?

«Alcune applicazioni dell’AI, in cui le decisioni possono avere un impatto significativo sulla vita delle persone o sui loro diritti, sono più rischiose di altre. È il caso di alcune decisioni in campo medico, o finanziario, o nella pubblica amministrazione. Il coinvolgimento di operatori nella decisione finale può mitigare il rischio, ma è anche necessario che l’AI sappia comunicare in modo efficace le motivazioni delle decisioni proposte, in modo che l’operatore possa decidere, combinando le informazioni fornite dalla AI con la sua esperienza e conoscenza del dominio applicativo».

Potrebbero le macchine indurre un’omogeneizzazione negli squilibri sociali esistenti da sempre, oggi anche più evidenti?

«La scienza e la tecnologia sono fondamentali per risolvere problemi difficili, ma va fatta attenzione a non amplificare i pregiudizi cognitivi che le persone hanno, anche inconsciamente, e a non aumentare il divario tra Paesi sviluppati e altri in via di sviluppo, in cui l’accesso alla tecnologia può essere più difficile. Le soluzioni tecnologiche per evitare questi problemi sono fondamentali, ma vanno messe in opera anche altre misure, quali standard, linee guida, collaborazioni internazionali, e anche leggi per le applicazioni a più alto rischio».

C’è una reale sensibilità, nel mondo scientifico, per la considerazione etica di applicazioni avanzate dell’AI?

«Negli ultimi anni, con l’aumentare delle applicazioni di AI, e con la consapevolezza dei possibili rischi nell’uso di questa tecnologia, i ricercatori hanno iniziato a lavorare sia per creare soluzioni scientifiche e tecnologiche innovative a questi rischi (come per esempio algoritmi per verificare che l’AI non crei discriminazioni), che per collaborare con scienziati di altre discipline (quali filosofi, sociologi, psicologi, economisti e avvocati) per individuare le migliori azioni per un impatto positivo dell’AI sulle persone e la società».

È stato un caso, o una sua particolare predisposizione, a portarla a occuparsi di una tematica così rilevante e specifica come l’etica nell’AI?

«Nel 2014-2015 ho passato il mio anno sabbatico al Radcliffe Institute di Harvard, in un ambiente estremamente multi-disciplinare, in cui lavoravo ogni giorno con esperti di tante altre discipline. Queste persone non erano interessate ai miei risultati scientifici, ma volevano invece discutere dell’impatto del mio lavoro e dell’AI in generale sulla società. Dopo quell’anno, ho iniziato il mio percorso in IBM, in cui fin dall’inizio ho trovato un terreno fertile per integrare ricerche in AI con aspetti relativi all’etica, fino alla creazione del Comitato per l’etica dell’AI, che gestisce tutte le attività IBM sull’etica relativa a questa tecnologia».

Quell’anno, ad Harvard, c’erano altre donne insieme a lei?

«Il Radcliffe Institute ha una grande attenzione per le donne, anche perché in origine era un istituto universitario per sole donne. Adesso che è un istituto di ricerca, accoglie ogni anno 50 esperti di molte discipline diverse, assicurando una presenza femminile e maschile paritaria. Però è vero che nel mio campo le donne sono poche. Ma ho avuto la fortuna di lavorare con tanti colleghi uomini che mi hanno sempre rispettato come ricercatrice e studiosa, indipendentemente dal genere. Certo, ancora oggi mi capita spesso di essere l’unica donna in una riunione o una tavola rotonda, o in una commissione. Le donne sono poche nel mondo scientifico, in Informatica in particolare. Si dovrebbe dare loro più opportunità: nel mio campo, portano un punto di vista diverso, necessario nel considerare l’impatto etico e sociale dell’AI».

Alla IBM, dove ha scelto di proseguire le sue ricerche, sono riconosciute queste caratteristiche di genere?

«Sì, al punto che il nostro amministratore delegato per tanti anni è stata una donna, e molti ruoli di grande responsabilità sono coperti da donne. L’IBM ha una storia di 108 anni, sempre all’avanguardia anche rispetto a diversità e inclusione».

© RIPRODUZIONE RISERVATA

Ultimo aggiornamento: 12 Maggio, 15:13 © RIPRODUZIONE RISERVATA