Facebook cancella 8,7 milioni di foto pedopornografiche grazie ad algoritmo intelligente

Facebook cancella 8,7 milioni di foto pedopornografiche grazie ad algoritmo intelligente
di Paolo Travisi
2 Minuti di Lettura
Venerdì 26 Ottobre 2018, 17:22

Quasi nove milioni di immagini pedopornografiche tra i post di Facebook. In tre mesi un algoritmo messo a punto dal social di Mark Zuckerberg ha scovato 8,7 milioni di foto contenenti nudi di minori o comunque allusive allo sfruttamento di bambini. Facebook ha fatto ricorso alle nuove potenzialità dell'intelligenza artificiale per setacciare materiale con nudità infantili e contrastare le reti pericolose di pedofili che si nascondono tra i post della piattaforma.

WhatsApp, ecco gli stickers: in arrivo per tutti nei prossimi giorni

Maxi multa per Apple e Samsung sui software pesanti



Ed è inquietante la quantità di immagini cancellate in appena un trimestre, da luglio a settembre. Il sistema d'intelligenza artificiale, creato dall'azienda americana, supera le potenzialità di un singolo essere umano o di un gruppo di lavoro, per i quali sarebbe impensabile esaminare ogni singola foto, tra i due miliardi di utenti.
Invece l'algoritmo di machine learning, impara a riconoscere i bambini ed eventuali nudità, le cui immagini vengono bloccate, e “segnalate ad organizzazioni e enti preposti, come il Centro nazionale americano per i bambini scomparsi o sfruttati, che a sua volta collabora con le forze dell'ordine” ha precisato in un post Antigone Davis, responsabile sicurezza di Facebook.

Parallelamente il sistema è in grado d'individuare anche persone adulte che stanno cercando di adescare minori, perché reiterano un certo tipo di comunicazione: la tecnologia intelligente, che sospetta un atteggiamento inappropriato nei confronti degli utenti minori, segnala l'account agli operatori di Facebook, che se confermano l'analisi preventinva, procedono con blocco e segnalazione alle autorità.
Fino ad oggi, nel 99% dei casi, l'accuratezza dell'algoritmo ha consentito d'individuare immagini sospette prima che avvenisse una segnalazione.

© RIPRODUZIONE RISERVATA