Ti svegli, ti lavi, prendi tutte le cose indispensabili per vestirti e per iniziare la giornata. Tazzina di caffè – esclusivamente – senza zucchero. Il/la tuo/a partner ti ricorda di scartare il regalo che ha
fatto per te. L’altro giorno è stato il tuo compleanno, ma il corriere ha fatto tardi a consegnarlo.
Tu, con un sorriso a trentadue denti e con la voglia di un bambino delle elementari impaziente, scarti la carta che copre il contenuto del regalo. Hai già capito cos’è. Infatti, al primo strappetto salti dalla gioia. Finalmente: l’iPhone che aspettavi da tempo. Ormai è tuo. Niente ti divide da lui. Abbracci, ringrazi il/la tuo/a partner e corri subito a settare le impostazioni per portare il cellulare nuovo di zecca a lavoro.
Arrivi allo step del riconoscimento facciale, ma il cellulare non ti fa andare avanti: non riconosce il tuo viso. Dopo svariati tentativi si sblocca. Ogni giorno così, pensi: “È il mio telefono, come fa a non riconoscermi?” Ebbene sì: il discorso potrebbe essere scontato per i bianchi caucasici. Ma per altre minoranze etniche e di genere è un problema. Non parlo solo di sbloccare il cellulare, ma del riconoscimento artificiale tramite l’AI (intelligenza artificiale). Gatte da pelare belle grosse in ambito giudiziario, investigativo e di privacy.
Riconoscimento facciale: i casi che scottano
Ti elenco qualche esempio di riconoscimento facciale con problemi discriminatori e :
– La campagna Ban the Scan lanciata da Amnesty International sul difendere il diritto di riservatezza dalla polizia di New York che lo viola costantemente. E quindi l’atteggiamento gli discriminatorio nei confronti delle minoranze, avendo delle fallacie nell’identificare persone afroamericane e preparando terreno fertile per le discriminazioni razziali da parte delle istituzioni.
– Se sei una donna transessuale o un uomo transessuale, secondo il sistema di riconoscimento di Amazon, hai circa appena il 61 per cento di possibilità di essere riconosciuto. Problemi che invece non hai se sei un uomo o una donna cisgender.
– Alcuni utenti cinesi, a poche settimane dal lancio del nuovo modello di iPhone, hanno scoperto di poter sbloccare telefoni altrui con la propria immagine, indipendentemente dall’esistenza di relazioni di parentela.
– Persone che vengono scambiati per criminali avendo dei tratti simili al malavitosi (bad facial recognition).
Come vedi è un problema molto complesso. Cito due righe di Futura Network per spiegare il suo fondamento: “Il problema è che l’intelligenza artificiale applicata al riconoscimento facciale, come del resto applicata a qualunque altra cosa, è basata su una scienza probabilistica che fa errori dovuti ai suoi algoritmi e alla base di dati che utilizza. Nel caso del riconoscimento facciale il livello di errore sta diventando inaccettabile”.
La buona notizia è che, con il tempo, gli algoritmi si stanno evolvendo. I data scientist da una parte stanno aumentando la possibilità di essere riconosciuti dall’intelligenza artificiale e dall’altra stanno eliminando i bias cognitivi che determinano le suddette discriminazioni. Ovviamente, il tuo iPhone non è razzista, tranquillo. Ma qualche piccolo problema, se non sei bianco, ce lo potrebbe avere. La strada è ancora lunga, tuttavia abbiamo intrapreso quella giusta.