Le nostre identità digitali sono diventate tanto cruciali quanto quelle fisiche, e la disuguaglianza esiste all'interno dello spazio dell'identità digitale tanto quanto in qualsiasi parte della vita umana. La discriminazione di genere può essere vista nella mancanza di identificazione che le donne possiedono rispetto agli uomini su scala globale, così come nei pregiudizi dell'intelligenza artificiale dovuti all'immissione di dati non equa. Le donne, in particolare le donne di colore, vengono lasciate indietro nella rivoluzione dell'identità digitale, con le tecnologie di verifica dell'identità (IDV) che hanno tassi di errore molto più elevati per le donne rispetto agli uomini. Questo non è solo un problema tecnologico, è una crisi dei diritti umani con conseguenze di vasta portata.

Il divario globale dell'ID
Immagina di non poter aprire un conto in banca, votare o accedere all'assistenza sanitaria semplicemente perché ti manca un pezzo di plastica o un codice digitale. Per una cifra sbalorditiva 1 donna su 4 in tutto il mondo, questa è la realtà. Non hanno un documento d'identità valido, il che le rende di fatto invisibili a molti sistemi e servizi che diamo per scontati. Senza la documentazione necessaria, queste donne affrontano molti svantaggi, tra cui problemi di accesso all'assistenza sanitaria, all'istruzione, all'occupazione e alle tutele legali.
1 donna su 4 in tutto il mondo non hanno un'identità digitale.
"Senza un documento d'identità, le donne sono spesso intrappolate in un ciclo di povertà e dipendenza", afferma la dott. ssa Amina Sayed, ricercatrice presso la Banca Mondiale. "Non si tratta solo di una carta, ma di libertà, opportunità e dignità".
Ma ecco dove la situazione diventa ancora più allarmante: il Gruppo della Banca Mondiale ha scoperto che nei paesi a basso reddito, 44% di donne non hanno un documento d'identità, rispetto al 28% degli uomini. Si tratta di quasi la metà di tutte le donne in queste nazioni, tagliate fuori dalla piena partecipazione alla società e all'economia.
Nei paesi a basso reddito, 44% di donne non hanno un documento d'identità, rispetto al 28% degli uomini.
In 37 paesi, le donne sposate incontrano più ostacoli degli uomini sposati quando richiedono un passaporto. In diverse nazioni, le donne affrontano anche sfide legali aggiuntive che limitano il loro accesso ai servizi finanziari digitali. Ad esempio, alle donne sposate potrebbe essere richiesto di presentare un certificato di matrimonio, adottare il nome del marito o cercare l'approvazione di un membro maschio della famiglia per ottenere un documento di identità.

Il rapporto 2024 della Banca Mondiale Women, Business and the Law evidenzia che in 14 paesi le donne affrontano restrizioni che impediscono loro di viaggiare liberamente fuori casa. Inoltre, le donne possono incontrare resistenza o mancanza di supporto da parte dei familiari, il che può ostacolare il loro accesso all'identificazione digitale.
Quando l'intelligenza artificiale fa favoritismi: il pregiudizio nella macchina
L'intelligenza artificiale è spesso considerata un equalizzatore, in quanto può eliminare i pregiudizi umani nei processi decisionali. Tuttavia, ciò che sta accadendo è che gli input di dati nei sistemi di riconoscimento facciale AI sono diseguali, il che porta a tassi di errore più elevati per le donne e le persone di colore.
Questi sistemi identificano erroneamente solo gli uomini dalla pelle chiara 0,8% del tempo, il tasso di errore sale alle stelle 34.7% per donne dalla pelle scura.
Mentre questi sistemi identificano erroneamente gli uomini dalla pelle chiara solo nello 0,8% dei casi, il tasso di errore sale alle stelle al 34,7% per le donne dalla pelle scura. Non è un piccolo divario, è un chiaro riflesso della disuguaglianza presente nelle società globali.

"È come se questi sistemi fossero progettato con i paraocchi", nota l'esperta di etica dell'IA Dr. Joy Buolamwini. "Semplicemente non 'vedono' una larga parte della popolazione mondiale in modo accurato". Il pregiudizio del riconoscimento facciale dimostra che le donne sono svantaggiate anche nelle società occidentali, dove la biometria facciale presenta ancora un tasso di errore più elevato per le donne che per gli uomini.
Le donne di colore sono fortemente svantaggiate
Per le donne di colore, questi problemi creano una tempesta perfetta di esclusione. È più probabile che non abbiano ID tradizionali e che vengano identificate erroneamente dai sistemi di intelligenza artificiale quando interagiscono con le piattaforme di ID digitale. A Prova del 2019 dal governo federale degli Stati Uniti ha concluso che la tecnologia funziona meglio su uomini bianchi di mezza età. I tassi di accuratezza non sono stati impressionanti per le persone di colore, le donne, i bambini e gli anziani.
Stiamo assistendo all'amplificazione della tecnologia del XXI secolo Pregiudizi del XX secolo.
"Stiamo assistendo alla tecnologia del XXI secolo che amplifica i pregiudizi del XX secolo", avverte l'avvocato per i diritti civili Maya Johnson. "È un redlining digitale, puro e semplice". La disuguaglianza all'interno della tecnologia di verifica facciale si verifica perché questi sistemi vengono addestrati su set di dati con più volti maschili, in particolare volti maschili bianchi, il che porta a una maggiore accuratezza per questi gruppi. Ciò accade perché molti dei primi set di dati sono stati creati da ricercatori prevalentemente maschi o ricavati da dati con una diversità limitata. Di conseguenza, le donne, in particolare le donne di colore, sono sottorappresentate, il che fa sì che il sistema funzioni male per loro e porti a identificazioni errate o falsi negativi.
Colmare il divario: un invito all'azione
Quindi, cosa si può fare? Gli esperti concordano che è necessario un approccio multiforme:
- Iniziative sociali: Programmi per aiutare le donne a ottenere documenti di identità tradizionali, soprattutto nelle aree rurali e a basso reddito.
- Riforma legale:Sfida alle leggi discriminatorie che rendono più difficile per le donne ottenere un documento d'identità.
- Revisione dell'intelligenza artificiale: Diversificare i team di sviluppo dell'intelligenza artificiale e i dati di addestramento per creare sistemi più inclusivi.
- Responsabilità: Implementare una rigorosa supervisione e verifica dei sistemi di intelligenza artificiale per individuare eventuali pregiudizi.
"Questo è un problema risolvibile," insiste l'imprenditrice tecnologica Aisha Kahn. "Ma richiede di riconoscere il problema e impegnare risorse per risolverlo. Non possiamo permetterci di lasciare indietro metà della popolazione mondiale nell'era digitale".
Poiché il nostro futuro diventa sempre più digitale, è importante che ogni piattaforma che offre tecnologia di riconoscimento facciale faccia la sua parte per garantire l'uso di un'IA etica e imparziale. In ComplyCube, le considerazioni sull'IA etica sono state centrali nel nostro processo di sviluppo. Abbiamo implementato sistemi AI/ML con rilevamento della deriva sensibile ai bias integrato per garantire che i modelli mantengano l'equità tra diversi gruppi demografici. I nostri processi di convalida indipendenti garantiscono prestazioni pressoché uniformi in tutti i gruppi e continuiamo a perfezionare i nostri sistemi per ridurre i bias e migliorare l'accuratezza.
Per maggiori informazioni sulla collaborazione con un partner IDV focalizzato sull'intelligenza artificiale etica, contatta uno dei nostri esperti di conformità.
