Ciracì: «L’intelligenza artificiale non è un mostro. Per imparare a gestirla bisogna conoscerla»

Fabio Ciracì
Fabio Ciracì
di Valeria BLANCO
4 Minuti di Lettura
Lunedì 11 Dicembre 2023, 05:00 - Ultimo aggiornamento: 12 Dicembre, 20:44

«L’intelligenza artificiale? Non è un monstrum né un’entità aliena». Fabio Ciracì, direttore del Centro interdipartimentale di ricerca in Digital Humanities dell’UniSalento, preferisce pensare all’AI come a un bambino che va “educato” e che evolve sulla base delle conferme che riceve dall’adulto, che in questo caso è chi adopera la tecnologia stessa.


Prof, partiamo dalla base: cosa si intende quando si parla di intelligenza artificiale?
«È uno strumento performante e trasformativo, con un grosso impatto sulla realtà. L’AI si nutre di dati determinati dall'uomo, su finalità date sempre dall’uomo. La chiamiamo “intelligenza” perché si sa adattare, sa risolvere problemi, ma non dobbiamo presupporre forme di pensiero complesso e discorsivo come il nostro, né tantomeno pensare a un mostro che prende il controllo del mondo come si vede in alcuni cartoni animati giapponesi. Molto più semplicemente, piccole forme perimetrate di AI “vivono” già nelle nostre case sotto forma di Alexa o Cortana e le utilizziamo senza timori. Del resto, questa tecnologia è ormai dappertutto: siamo 8 miliardi di persone, se non ci fossero i pc non riusciremmo nemmeno a prenotare un volo».


Eppure, ancora la parola intelligenza artificiale genera timori.
«Preferisco parlare di rischi e ritengo che possano essere gestiti se si conosce questa tecnologia. Il cervellone si nutre di dati: il primo problema è quindi quali dati vengono immessi, perché se mangio al fast food, di certo non mi faccio del bene. Quindi, se l’AI prende i dati dal web, uno dei rischi è ad esempio che possa incapsulare pregiudizi. Ma ci sono tre fasi da avere ben chiare per utilizzare al meglio e senza rischi questa nuova tecnologia: i dati devono essere controllati, i modelli verificati e i risultati devono essere rafforzati. L’AI funziona proprio come un bambino: acquisisce una forma mentis nel momento in cui ha delle conferme. Infine, bisogna pensare sempre a un principio di revocabilità: non tutto può essere demandato all'AI».


Allora come bisogna rapportarsi con questo tipo di tecnologia?
«Come tutte le tecnologie, sta a noi decidere come utilizzarla. Il cyborg accetta tutto quello che dice la AI in maniera passiva, mentre il centauro utilizza dati e processi dell’AI, ma poi li soppesa e li verifica per migliorare sia la qualità delle informazioni che la qualità delle azioni che sulla base di quelle informazioni vengono messe in campo. Dobbiamo essere centauri».


Una canzone degli anni ‘80 recitava: “Video killed the radio star”, presagendo che la Tv avrebbe ucciso la radio. Ora, l’AI “ucciderà” alcune professioni, rendendole obsolete?
«Alla fine del '700 c’era una persona addetta a spegnere i lampioni per strada, un altro che per mestiere svegliava gli operai affinché fossero puntuali in fabbrica. Il punto quindi non è l'innovazione in quanto tale, ma quanto noi riusciamo ad assorbirla. Il problema dell’AI è che potrebbe creare un cambiamento tanto veloce da richiedere una maggiore capacità di reinventarsi. Forse determinerà la scomparsa di alcuni mestieri, ma allo stesso momento inventerà nuovi professioni. Ad esempio, richiederà nuove competenze umanistiche, perché la creatività e la fantasia mancano all’AI e andranno integrate dall’uomo».


Proprio in questi giorni l’Unione Europea ha varato un quadro normativo per regolare l’uso dell’intelligenza artificiale. Servivano queste regole?
«Assolutamente sì. Come per il nucleare, è fondamentale riuscire a stabilire un perimetro di azione dell’AI nell’ambito della legislazione europea su privacy, dati sensibili, discriminazione e tanto altro. Definire i paletti di una tecnologia ecologica, che si applicherà a livello ecosistemico, che intercetta tanti diritti e che deve convivere con l'uomo è un dato di civiltà».

© RIPRODUZIONE RISERVATA