Singolare e preoccupante, come alcuni vizi della nostra società riescano a trascendere le epoche, attraversare le generazioni. Si adattano a uno sviluppo che stravolge gli strumenti, rivoluziona le comunicazioni, ma è incapace di sradicare certi “valori” che nulla hanno di moderno. Le diseguaglianze di genere continuano a essere drammaticamente presenti nella nostra società, alimentando le pagine di cronaca con troppo frequenti episodi di violenza contro le donne. Lo Studio conferma ancora una volta il proprio sostegno alla lotta alle disuguaglianze nella Giornata internazionale per l’eliminazione della violenza contro le donne, con un approfondimento sulla violenza di genere perpetrata attraverso le nuove tecnologie.
Sono infatti molteplici gli studi che offrono spunti o hanno individuato relazioni interessanti tra la tecnologia, il suo sviluppo e il possibile impatto sulle discriminazioni di genere.
Indice
La violenza virtuale contro donne e ragazze
Che la violenza di genere abbia trovato un suo spazio anche nel digitale, purtroppo, non stupisce. Il fenomeno è talmente pervasivo che l’Istituto Europeo per l’Uguaglianza di Genere (EIGE) ha proposto una specifica concettualizzazione della cosiddetta “Violenza virtuale contro donne e ragazze”.
Analizzando gli eventi di vita “online”, emerge una particolare disuguaglianza. Gli uomini sembrano essere leggermente più soggetti a forme «lievi» di molestie online (es. insulti, prese in giro). Ma le donne, soprattutto se giovani, sono più facilmente vittime di quei comportamenti discriminatori con le ripercussioni peggiori, in termini di vissuti traumatici.
Quelle appena descritte sono alcune delle forme che la violenza di genere 2.0 può assumere, e in particolare quelle più strettamente collegate alla violenza perpetrata da un partner intimo. La violenza virtuale contro donne e ragazze, infatti, rappresenta un continuum della violenza di genere offline. Segue gli stessi pattern ed è ispirata agli stessi stereotipi di genere. La sola differenza è che il comportamento violento è facilitato dal ricorso alla tecnologia.
Le politiche di prevenzione e contrasto alle discriminazioni nel mondo digitale e nel mondo fisico, condividono quindi un terreno comune, in cui il ruolo dei legislatori è di importanza fondamentale.
[vedi anche Profili penali per violazioni privacy della sfera sessuale: dalla pornografia minorile al revenge porn].
Soprattutto in questo periodo, in cui l’applicazione della Strategia europea per i dati è orientata a una maggiore responsabilizzazione di chi si occupa della progettazione di quella tecnologia con cui le discriminazioni possono essere messe in atto.
[vedi anche Qual è il futuro del “mercato dei dati” europeo?]
Il caso delle Virtual Personal Assistant (VPA)
Alcune tecnologie possono, più o meno direttamente, dare vita a fenomeni di disuguaglianza. Seppur più “sottili” rispetto a quelle degli atti di violenza descritti, le conseguenze possono essere ugualmente rilevanti, ove potenzialmente connesse al protrarsi di concezioni discriminatorie.
Ad esempio, è stato evidenziato come la declinazione al femminile della maggior parte dei Virtual Personal Assistant (VPA) possa rappresentare un danno per le donne e per la società. Al centro dell’osservazione, ovviamente, le più note e diffuse Alexa (Amazon), Cortana (Microsoft) e Siri (Apple).
Va detto che le scelte per la loro progettazione sembrano guidate da un fatto condiviso sia da uomini che da donne. Gli utenti preferiscono una voce femminile, per il ruolo di assistente. Ma il problema non è il solo tono di voce. Le VPA tendono a rappresentare un modello di donna che dev’essere sempre pronta a “obbedire” ai comandi e senza possibilità di rifiutare o dire di no. Perfino di fronte a tentativi di flirt, o offese, che nulla hanno a che fare col ruolo di assistente. Sembrano, anzi, anche in questi casi, programmate per mantenere uno stile arguto e provocante.
Il rischio è che questa scelta progettuale perpetui uno stereotipo discriminatorio e trasmetta il messaggio, soprattutto alle generazioni più giovani, che alle donne vada attribuito un ruolo di subordinazione e incondizionata disponibilità. Creando i presupposti per ulteriore violenza di genere.
La responsabilità, certo, non può essere attribuita solo a progettisti e sviluppatori. Certo, la persistente sotto-rappresentazione delle donne in alcuni ambienti professionali (c.d. STEM – Scienza, Tecnologia, Ingegneria, Matematica – e Industria tecnologica), rappresenta un ostacolo.
Ma è anche ormai risaputo che le tecnologie basate sull’intelligenza artificiale e sui Big Data, corrono intrinsecamente il rischio di riprodurre pregiudizi esistenti nel tessuto sociale. Eppure, proprio perché il fenomeno è conosciuto, occorre fare qualcosa per evitarlo.
Norme per lo sviluppo di tecnologia che non discrimini
2015: il sistema di sicurezza di una palestra di Cambridge impedisce a una donna l’accesso allo spogliatoio, classificandola come uomo. La donna è una pediatra, correttamente registratasi col titolo “Dr.”, che però il sistema di sicurezza, per via di un bug, attribuisce solo ai maschi.
L’impegno a evitare di incappare in bug di questo genere, ponendovi attenzione dalle prime fasi di sviluppo, è un principio normativo già ben delineato.
Nel 2018, il rapporto dell’UE Statement on Artificial Intelligence, Robotics and Autonomous Systems, ad esempio, suggeriva una serie di principi etici che guidassero lo sviluppo dell’Intelligenza Artificiale. Tra questi, in particolare, il principio della “Sicurezza, incolumità, integrità corporea e mentale”, si declina attraverso tre dimensioni. 1) Sicurezza esterna per l’ambiente e gli utenti. 2) Affidabilità e robustezza interna, ad esempio contro l’hacking. 3) Sicurezza emotiva rispetto all’interazione uomo-macchina. Che devono essere prese tutte in considerazione al fine di garantire che l’Intelligenza Artificiale non violi i diritti di integrità fisica e mentale delle persone.
La stessa normativa sulla protezione dei dati sembrerebbe poi deputata a un ruolo speciale nel contrasto agli effetti potenzialmente dannosi delle nuove tecnologie. Il requisito della Data Protection Impact Assessment (DPIA) previsto dal GDPR impone di considerare in modo proattivo gli effetti di una nuova tecnologia sulle persone. E, sebbene sia pratica diffusa considerare la DPIA unicamente sotto il profilo dei rischi strettamente connessi alla “privacy”, la norma pretende che sia inclusa nella valutazione ogni forma di rischio di violazione dei diritti fondamentali. A ribadire come le discipline della tutela delle donne e della tutela dei dati personali possano solo che giovare di un costruttivo dibattito sugli argomenti di reciproco interesse.
[vedi anche Tutela delle donne e privacy: terreni comuni delle politiche per i diritti civili]
Tutto ciò, sposa perfettamente la linea generale della strategia digitale europea, che punta, tra le altre cose, a creare uno spazio digitale sempre più sicuro, in cui i diritti fondamentali degli utenti siano tutelati, al pari di quanto dovrebbe già avvenire nel mondo fisico.
Augurandoci che questa sicurezza si riesca a raggiungere, in ogni realtà che abiteremo.
Art. 21 par.1 Carta dei diritti fondamentali dell’Unione europea
“È vietata qualsiasi forma di discriminazione basata su sesso, razza, colore, origine etnica o sociale, caratteristiche genetiche, lingua, religione o convinzioni personali, opinioni politiche o di altro tipo, appartenenza a una minoranza nazionale, patrimonio, nascita, disabilità, età o orientamento sessuale.”