Como o atual design conferido à maioria das assistentes virtuais reforça a violência de gênero
A violência de gênero está presente em vários âmbitos da sociedade, e muitas mulheres sofrem com isso todos os dias. O serviço de assistente virtual tem escancarado essa realidade.
A violência de gênero está presente em vários âmbitos da sociedade, e muitas mulheres sofrem com isso todos os dias. Infelizmente, nem mesmo as assistentes virtuais conseguem se esquivar de experienciar isso.
Acontece que assistentes como Siri, Alexa, Cortana e Google Assistant costumam responder de forma tolerante a pedidos de favores sexuais, e muitas vezes até agradecem. Por terem vozes femininas – todas elas – estas respostas reforçam um severo estereótipo de gênero. Isso só mostra o quanto ainda as tecnologias precisam caminhar para superar estes estereótipos.
É sobre isso que Beatriz Caetano – UX Writer de chatbots – fala em entrevista: “As ferramentas de inteligência artificial fortalecem a ideia de que as mulheres são prestativas, dóceis, servis e tolerantes a qualquer tratamento”.
O assunto é tão importante que foi tema de um painel na conferência The Developer’s Conference (TDV) Innovation, que aconteceu em Florianópolis – SC e vem levantando alertas na Unesco sobre as mudanças necessárias nesse cenário.
Segundo uma pesquisa da organização, que foi publicada em 2019, quase metade das conversas que as pessoas tinham com bots eram focadas em aparência física. E este tipo de conversa acontece, em sua maioria, com bots femininos. A pesquisa ainda mostrou que 18% destas interações são relacionadas a questões sexuais.
“A apresentação de um bot como uma mulher pode dar às pessoas, especialmente aos homens, a oportunidade de quebrar tabus sexuais e limites sociais sem se preocupar com as consequências”, afirmou Beatriz para justificar a preferência das pessoas por bots com voz ou aparência femininas.
A maioria das grandes empresas que produzem este tipo de tecnologia já conferem à tecnologia uma aparência feminina de fábrica, e nem sequer permite a troca de gênero.
Mas, segundo Beatriz, este tipo de tecnologia ainda está em desenvolvimento, e suas equipes de desenvolvimento devem introduzir códigos de conduta para coibir este tipo de violência no meio tecnológico, afim de modificar também o comportamento no mundo real.
Esta foi uma das medidas que o banco Bradesco tomou após perceber a alta taxa de assédio que sua assistente virtual, Bia, sofreu no período de um ano. O banco resolveu criar uma campanha contra assédio sexual, além de programar respostas contundentes a serem dadas pela assistente nesses casos.
“Podemos fazer isso de várias formas. Primeiro, evitando colocar gênero ou personificar os bots. Também é importante diversificar as equipes, incluindo as mulheres no desenvolvimento desses produtos; promover discussões éticas nas empresas e estimular ferramentas de suporte na identificação de preconceito de gênero no design de chatbots”, explicou Beatriz.
Comentários estão fechados.