UNESCO acusa empresas de promoverem estereótipos em assistentes digitais com vozes femininas

“Eu corava, se pudesse” era a resposta da Siri da Apple quando lhe chamavam galdéria. A Alexa do Google, a Cortana da Microsoft, e a Google Assistant também têm respostas pré-preparadas.

Foto
A UNESCO quer empresas a criar máquinas e sistemas de inteligência artificial sem género GIL COHEN MAGEN

As Nações Unidas acreditam que criar assistentes de voz dotadas de inteligência artificial com vozes e personalidades femininas promove estereótipos de género negativos – e sugerem que “se termine a prática”.

A verdade faz-nos mais fortes

Das guerras aos desastres ambientais, da economia às ameaças epidémicas, quando os dias são de incerteza, o jornalismo do Público torna-se o porto de abrigo para os portugueses que querem pensar melhor. Juntos vemos melhor. Dê força à informação responsável que o ajuda entender o mundo, a pensar e decidir.

As Nações Unidas acreditam que criar assistentes de voz dotadas de inteligência artificial com vozes e personalidades femininas promove estereótipos de género negativos – e sugerem que “se termine a prática”.

Em causa estão as respostas dadas por assistentes digitais a insultos, piropos e a comentários sobre a aparência das mulheres. Até há bem pouco, quando um utilizador descrevia a Siri, a assistente digital da Apple, como uma galdéria (“You're a slut!”) ou como uma prostituta, uma das respostas possíveis era: “Eu corava, se pudesse.”

A informação surge num relatório recente publicado pela Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO) que utilizou aquela resposta da Siri como título. O objectivo é atrair atenção para a proliferação de assistentes digitais com um género feminino e os estereótipos que estão a promover. O trabalho resulta de uma colaboração com a Equals, uma parceria global de governos e organizações dedicada a promover a igualdade de género no sector tecnológico, e o Governo alemão.

“Embora o sistema de inteligência artificial da Siri tenha sido actualizado, em Abril de 2019, para responder mais directamente ao insulto (‘Não sei responder a isso’), a atitude submissa da assistente face a situações de abuso de género não mudou desde o lançamento da tecnologia em 2011”, lê-se na introdução do relatório.

O problema é comum a outros sistemas do Google, Amazon e Microsoft, que vêm todos predefinidos com uma voz de mulher. “Talvez uma sesta de um nanossegundo ajude?” pergunta a Cortana, da Microsoft, quando lhe chamam “menina marota”. “Vamos ser só amigos” é a resposta da Alexa, da Amazon, quando o utilizador sugere um encontro romântico. Já o sistema do Google agradece o elogio e pergunta “este plástico é fantástico não é?”, quando a Google Assistant é descrita como bonita.

A conclusão da UNESCO é que as empresas têm “equipas de engenharia predominantemente masculinas” e constroem sistemas de inteligência artificial que “fazem com que as assistentes digitais femininas respondam a abusos verbais com uma atitude divertida de ‘apanha-me se puderes’”.

Em resposta ao PÚBLICO, um porta-voz da Google nota que a empresa não vê as suas assistentes como tendo um género específico e lembra que é possível mudar o género da voz nas definições. Actualmente, quando as pessoas compram uma coluna inteligente Google Home nos EUA, a empresa diz que há 50% de hipóteses de o sistema vir predefinido com uma voz que a empresa descreve como “vermelha” (mais feminina) ou uma voz “laranja” (mais masculina). Há outras cores, com diferentes estilos de voz, à escolha. Desde 2013 que a assistente digital da Apple, a Siri, também pode ser alterada para uma voz mais masculina.

O PÚBLICO também tentou contactar a Apple, Amazon e Microsoft, mas não obteve resposta até à hora de publicação deste relatório.

Numa conversa com o PÚBLICO em 2018, Ying Wang, responsável pelo desenvolvimento da Xiaoice, um programa de inteligência artificial da Microsoft, disse que o género atribuído aos sistemas não era ao acaso. “Experimentámos programas que simulam rapazes de sete anos, ou criaturas imaginárias como Pokémons, mas há dados que mostram que nós [mulheres] transmitimos segurança”, disse Wang na altura.

Uma questão de negócios

Os autores do relatório argumentam, no entanto, que o motivo para os sistemas virem predefinidos com vozes femininas é que assim vendem mais. “As empresas lucram ao atrair e agradar clientes; os clientes querem que seus assistentes digitais soem como mulheres; portanto, assistentes digitais dão mais lucro ao soar como mulheres”, lê-se no relatório. “Está lógica ignora problemas de estereótipos de género.”

Apesar dos argumentos contemporâneos de assistentes de voz femininas mais eficazes, a UNESCO lembra que essa não foi sempre a norma. Um dos primeiros modelos com navegação por voz, um BMW Série 5 do final da década de 90, teve de ser chamado às oficinas na Alemanha porque os condutores se estavam a queixar de receber instruções de “uma mulher”. O relatório também cita estudos que notam que as pessoas preferem uma voz masculina para instruções claras (ordens, por exemplo) e uma voz feminina quando precisam de ajuda como saber as indicações para chegar a um dado local. 

“O mundo tem de prestar muito mais atenção a como, quando e por que razão é atribuído um género a tecnologias de inteligência artificial e, crucialmente, quem é que está a atribuir esse género”, frisou em comunicado Saniye Gulser Corat, director para a igualdade de género na UNESCO.

Para resolver o problema, a organização apela a que as empresas comecem por parar de criar assistentes digitais do género feminino e explorem formas de criar assistentes “sem género identificável” e que testem “o apetite dos consumidores por tecnologias que não tentam copiar humanos ou projectem expressões tradicionais de género.”

A organização também propõe auditorias de algoritmos para mapear e identificar as fontes de estereótipos de género em tecnologias de inteligência artificial, e mais esforços para atrair mulheres para áreas da engenharia.

“Com mais mulheres em posições técnicas e de liderança em empresas de tecnologia, parece pouco provável que as assistentes digitais respondessem de forma brincalhona a assédio sexual ou pedissem desculpa quando são insultadas”, escrevem os autores do relatório. “Máquinas que copiam ideias patriarcais dificultam a promessa da tecnologia para ajudar a alcançar a igualdade de género.”