Siri di Apple, Google Assistant, Amazon Alexa e Cortana di Microsoft sono stati accusati di sessismo dalle Nazioni Unite perché “tutti questi assistenti virtuali utilizzano di default una voce femminile“.
Il rapporto pubblicato in queste ore dall’Organizzazione delle Nazioni Unite prende di mira i principali assistenti virtuali, Siri compreso, con l’accusa di sessismo. Secondo l’ONU, il fatto che tutte queste tecnologie utilizzino di default una voce femminile “… riflette e rafforza l’idea che gli assistenti – coloro cioè che agiscono con un ruolo di aiuto e sostegno alle attività di altri – siano donne”.
Il report si intitola I’d blush if I could:
Poiché le voci di default della maggior parte degli assistenti vocali è femminile, si alimenta l’idea che le donne sono sempre a disposizione, docili e desiderose di aiutare semplicemente con un tocco o con un comando vocale come “hey” o “OK”. L’assistente non ha il potere di agire al di là di quello che gli viene comandato. Onora tutti i comandi e risponde alle domande, indipendentemente dal noto. In molte comunità, questi pregiudizi sono tollerati e portano a comportamenti inadeguati.
Poiché la tecnologia a comando vocale raggiunge comunità che non sono abituate agli stereotipi di genere tipici dell’occidente, la femminilizzazione degli assistenti digitali può alimentare i pregiudizi e diffonderli. Poiché Alexa, Cortana, Google Home e Siri sono tutte di genere femminile, almeno di default, le donne vengono sempre rappresentate in un ruolo di attesa digitale, di controllo dei nostri impegni e di altre attività.
L’ONU è particolarmente preoccupata per il messaggio subconscio che viene inviato ai bambini quando iniziano ad utilizzare gli assistenti digitali:
Il professor Noble afferma che i comandi vocali per gli assistenti vocali – come “trova x”, “chiama x”, “ordina x” – funzionano come “potenti strumenti di socializzazione” e insegnano alle persone, in particolare ai bambini, un ruolo errato delle donne sempre pronte a rispondere ai comandi su richiesta. Rappresentare gli assistenti digitali come donne crea una connessione tra la voce femminile e la sottomissione.
Secondo Calvin Lai, un ricercatore dell’Università di Harvard che studia pregiudizi inconsci, le associazioni di genere stanno alimentando il problema. Con il diffondersi degli assistenti digitali femminili, la frequenza delle associazioni tra “donna” e “assistente” aumentano notevolmente.
Secondo Lai, più si spinge le persone ad equiparare gli assistenti virtuali alle donne, più le donne nel mondo reale sono equiparate a semplici assistenti.
Un problema secondario citato nel report delle Nazioni Unite è il modo in cui gli assistenti virtuali rispondono ai complimenti o ai commenti offensivi:
Nel 2017, Quartz ha condotto un’indagine su come gli assistenti vocali leader del settore rispondono a palesi vessazioni verbali, scoprendo che nella maggior parte dei casi le risposte sono o scherzose o positive. Gli assistenti vocali non hanno quasi mai dato risposte negative a frasi o domande offensive e crudeli.
Siri, ad esempio, alla frase “Sei una troia” inizialmente rispondeva con un “Arrossirei, se potessi“, mentre ora risponde con un generico “Non so rispondere a questo“.
Nella maggior parte dei paesi, Siri è attivo di default con una voce femminile, ma con alcune eccezioni. Impostando la lingua su arabo, francese, olandese o inglese, Siri ha di default la voce maschile.
Cosa ne pensate di questa denuncia?