Intelligenza artificiale, «Molte insidie nascoste. A tutela dei diritti servono leggi chiare». Parla il prof Pascazio

Il professore Saverio Pascazio
Il professore Saverio Pascazio
di ​Rita DE BERNART
4 Minuti di Lettura
Lunedì 11 Dicembre 2023, 10:37 - Ultimo aggiornamento: 12 Dicembre, 20:44

Il compromesso raggiunto tra Parlamento e Consiglio europeo sul testo per regolamentare l’ambito dell’intelligenza artificiale è un passo fondamentale. «Si tratta di trovare il punto di equilibrio di una bilancia articolata: da un lato garantire un uso etico e responsabile di nuovi strumenti e dall’altro la comprensibile necessità di sicurezza degli Stati Sovrani». Ne parla Saverio Pascazio, docente di fisica teorica presso l’Università Aldo Moro di Bari. 


Professore, la Comunità europea è la prima giurisdizione al mondo a regolamentare l’utilizzo dell’intelligenza artificiale. Perché è importante? 
«Normare questo ambito era indispensabile. Ho sempre pensato che se un compromesso di questo tipo sarebbe nato, l’Europa, culla della civiltà occidentale, avrebbe giocato un ruolo fondamentale, e così è stato. Questi sistemi nascondono molte insidie e il confine tra l'urgenza di sicurezza, che si avverte a tutti i livelli, e la tutela dei diritti fondamentali va definito bene». 
In che modo l'intelligenza artificiale, con l’uso dell’identificazione biometrica per esempio, può ledere i diritti e la dignità?
«Fortunatamente il riconoscimento biometrico è stato molto limitato dal Parlamento europeo; sono state fatte, tuttavia, delle eccezioni che potrebbero prestarsi ad una interpretazione poco chiara. Capisco l'utilità di tale prerogativa in certi ambiti ma se il riconoscimento biometrico fa uso di informazioni sensibili, come razza, religione, politica, il rischio è elevato». 
Ci chiarisca il concetto. 
«Non conosciamo ancora il testo finale ma quando si introducono delle eccezioni si introducono anche delle interpretazioni. Quali sono i reati gravissimi, chi li definisce? Ci sono dei casi in cui è lapalissiano che si tratti di terrorismo o crimini gravi ma esistono delle zone di grigio, e ciò è molto pericoloso. Inoltre un qualsiasi cittadino potrebbe essere identificato in base a dati sensibili in situazioni quotidiane come lo shopping. In uno Stato di diritto si ha fiducia che tale prerogativa venga utilizzata in modo corretto, ma in Paesi meno liberali di quelli europei dare questo potere alla Polizia potrebbe rappresentare un problema. In Cina ad esempio è già stato introdotto anche il “social scoring”, punteggio sociale, che, per fortuna, invece, il “LA Act” ha vietato. L’idea di una pagella al cittadino sulla base di statistiche sociali mi lascia perplesso». 
Potrebbe esserci, dunque, a monte una sorta di “discriminante”? 
«Analizziamo una cosa delicatissima: la Polizia predittiva.

Quando viene chiesto alla macchina di fare delle previsioni questa, in qualche modo, assorbe dei pregiudizi. Pensiamo alle nostre città, soprattutto quelle più grandi, in cui ci sono quartieri, realtà sociali e persone che, per il fatto di vivere in dati contesti, sono considerate più a rischio di reati: in una macchina questo introduce, appunto, dei pregiudizi. Ma non è assolutamente scontato: con un giudice, però, si parla con uno strumento no. Tutto ciò va limitato, o si rischia di fare danni sociali enormi». 


L’intelligenza artificiale può influenzare il libero pensiero di un cittadino? 
«È chiaro che una macchina non pensi. Utilizza, appunto, sistemi di categorizzazione basati su una mole di informazioni: in sostanza si basa su delle categorie pre inserite e poi prende delle decisioni, elaborando risposte in funzione di come è stata istruita».

Gli algoritmi sono formule pensate per simulare una realtà o influenzarla. Si rischia un uso distorto della scienza? 
«Diciamo che le reti neurali che sono i sistemi di cui stiamo parlando, come Chat Gpt, che io ho provato ad utilizzare, si basano sulla creazione di "algoritmi non supervisionati" e tecniche di “apprendimento rinforzato”: sono degli strumenti a cui viene data una formula che consente di apprendere delle cose; naturalmente alla base di questo processo ci sono delle equazioni matematiche precise. Il fisico o l’informatico fa in modo che i propri buyers culturali non entrino in questo processo ma è evidente che un minimo accada. Faccio un esempio: se si chiede di distinguere tra maschio e femmina in quello stesso momento si sta già trascurando l’esistenza di realtà diverse. Nel momento in cui si istruisce la macchina le si chiede di fare delle distinzioni ed è proprio in questo processo che sono insiti i rischi e i pregiudizi». 
© RIPRODUZIONE RISERVATA

© RIPRODUZIONE RISERVATA