Pubblicare contenuti su Internet al giorno d’oggi non è un compito da prendere alla leggera. Ogni genere di argomento, infatti, è sottoposto ad uno scrutinio attento – talvolta addirittura feroce – da parte dei lettori. E ciò che si va cercando sono pregiudizi di ogni genere, o semplicemente tracce di essi. Ciascuno di noi può imbattersi giornalmente in diatribe da social, più o meno fondate, su questo argomento, ed è qualcosa col quale associamo sempre di più la realtà “popolare” della Rete. Difficilmente, però, avremmo pensato di riscontrarle nell’ambito della scienza, dell’IA e del machine learning… Quantomeno non così presto.

Pare infatti che alcuni algoritmi di riconoscimento facciale via IA funzionino meglio su volti dai toni chiari: a renderlo noto è uno studio congiunto del MIT e dell’Università di Stanford. Confrontando 3 programmi per la determinazione del sesso a partire da fotografie, i ricercatori hanno visto che il margine di errore è dello 0.8% per i maschi di razza bianca, mentre per quelli di colore va addirittura dal 20 al 34%. C’è forse qualcosa che non va nel modo in cui le IA vengono istruite?

Il soggetto della ricerca, spiega la Boulamwini, è emerso lavorando su Upbeat Wall, un’installazione artistica che crea pattern colorati su uno schermo in base ai movimenti della testa di chi osserva. Basata su un algoritmo di riconoscimento facciale commerciale, l’installazione funziona meglio con soggetti di razza bianca: perché? Incuriosita, la Boulamwini ha cominciato a sottoporre delle sue foto (la donna è di colore) ad altri sistemi commerciali analoghi, riscontrando lo stesso problema.

La conferma definitiva è giunta sottoponendo un campione di 1200 immagini, contenente in egual misura soggetti bianchi e di colore, a tre algoritmi di produttori differenti. Con un errore del 46.8%, le donne di fototipo IV, V e VI (i più scuri nella scala di Fitzpatrick) risultano le più difficili da identificare.

Afferma la Boulamwini: “le stesse tecniche con cui determiniamo il sesso di un soggetto sono usate in forensica per identificare potenziali criminali e sbloccare dispositivi. Non si tratta solo di visione computerizzata. Spero che questi risultati portino ad investigare anche disparità di altro tipo”.

[via MIT]  Pregiudizi pregiudizi pregiudizi. Pregiudizi pregiudizi pregiudizi. Pregiudizi pregiudizi pregiudizi.