Il riconoscimento facciale
è pericoloso e non funziona

Redazione Web
Il riconoscimento facciale è pericoloso e non funziona

Domanda: per rispondere alle nuove istanze che provengono dalla cittadinanza di garantire una maggiore sicurezza, è giusto usare le nuove tecnologie? Sicuramente sì, verrebbe da dire. Ma la realtà è un po’ più complicata. Partiamo da una sigla: Sari, acronimo di Sistema Automatico di Riconoscimento delle Immagini. Nelle scorse settimane questo strumento ha permesso alla polizia bresciana di fermare due ladri georgiani accusati di avere commesso una rapina in un’abitazione confrontando le immagini delle telecamere di sicurezza con un database contenuto nella banca dati Afis (Automated Fingerprint Identification System). Fin qui niente da dire, si tratta di un risultato commendevole. Ma ci sono due enormi ma. Prima di tutto, questa Afis dichiara di contenere 16 milioni di immagini di italiani: ma chi l’ha autorizzata a prenderle? E da dove provengono? Il timore è che abbia accesso al database Eurodac, quello che raccoglie, a livello continentale, i dati biometrici dei migranti. Il secondo, grave problema riguarda il riconoscimento. Secondo uno studio del Mit, Afis funziona nel 99% dei casi riguardanti maschi di carnagione chiara o bianca, mentre questa percentuale scende fino al 35% per donne dalla pelle scura. Un difetto di machine learning che però rischia di rendere vano uno strumento di per sé potenzialmente utile. Ultimo dettaglio: nel corso della finale di Champions League a Cardiff dello scorso anno, il sistema ha identificato 2470 possibili sospetti sbagliando il riconoscimento nel 92% dei casi. Il Grande Fratello è ancora in fase embrionale. Meglio lasciarlo crescere con pazienza, invece che iscriverlo all’università prima che abbia concluso lo svezzamento. Potrebbe essere molto pericoloso.

Lascia il tuo commento

Condividi le tue opinioni su Economy

Caratteri rimanenti: 400

Economy Mag