IBM contro il proprio sistema di riconoscimento facciale

IBM CEO, other top execs give up 2013 bonuses
buongiono cari lettori, oggi parleremo della decisione che ha preso IBM.

Il gigante della tecnologia IBM smetterà di offrire software di riconoscimento facciale per "sorveglianza di massa o profilazione razziale".

In una lettera al Congresso degli Stati Uniti, IBM ha affermato che i sistemi di intelligenza artificiale utilizzati nelle forze dell'ordine dovevano essere testati "per pregiudizio".

Un attivista ha affermato che si è trattato di una mossa "cinica" da parte di un'azienda che ha contribuito a creare tecnologia per la polizia.

Nella sua lettera al Congresso, il CEO di IBM Arvind Krishna ha affermato che "la lotta contro il razzismo è più urgente che mai", delineando tre aree in cui l'azienda voleva collaborare con il Congresso: riforma della polizia, uso responsabile della tecnologia e ampliamento delle competenze e dell'istruzione opportunità.

"IBM si oppone fermamente e non perdonerà l'uso di alcuna tecnologia, inclusa la tecnologia di riconoscimento facciale offerta da altri fornitori, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà fondamentali", ha scritto.

Invece di fare affidamento su un riconoscimento facciale potenzialmente parziale, la ditta ha invitato il Congresso a utilizzare la tecnologia che porterebbe una "maggiore trasparenza", come le telecamere del corpo degli agenti di polizia e l'analisi dei dati.

'Non lasciamoci ingannare'

Eva Blum-Dumontet di Privacy International ha dichiarato che l'azienda ha coniato il termine "città intelligente".

"In tutto il mondo, hanno promosso un modello o un'urbanizzazione che si basava su telecamere a circuito chiuso e sensori elaborati dalle forze di polizia, grazie alle piattaforme di polizia intelligenti che IBM li vendeva", ha detto.

Ha aggiunto: "IBM sta cercando di riscattarsi perché ha contribuito allo sviluppo delle capacità tecniche della polizia attraverso lo sviluppo delle cosiddette tecniche di polizia intelligente. Ma non lasciamoci ingannare dalla loro ultima mossa.

L'Algorithmic Justice League è stato uno dei primi gruppi di attivisti a indicare che vi erano pregiudizi razziali nei set di dati sul riconoscimento facciale.

Uno studio del 2019 condotto dal Massachusetts Institute of Technology ha rilevato che nessuno degli strumenti di riconoscimento facciale di Microsoft, Amazon e IBM era accurato al 100% quando si trattava di riconoscere uomini e donne con la pelle scura.

E uno studio del National Institute of Standards and Technology ha suggerito che gli algoritmi di riconoscimento facciale erano molto meno accurati nell'identificare i volti afroamericani e asiatici rispetto a quelli caucasici.

Amazon, il cui software Rekognition è utilizzato dai dipartimenti di polizia negli Stati Uniti, è uno dei maggiori attori del settore, ma ci sono anche una serie di giocatori più piccoli come Facewatch, che opera nel Regno Unito. Clearview AI, a cui è stato detto di smettere di usare immagini da Facebook, Twitter e YouTube, vende anche il suo software alle forze di polizia statunitensi.

spero che questo articolo ti sia piaciuto e ci vedremo ad un prossimo articolo.

Post più popolari