'Não fale assim comigo': como Google Assistente pretende barrar o assédio
O Google anunciou ontem (3) as estratégias que está adotando para combater o assédio e a violência de gênero em seu assistente virtual. Dados da empresa mostram que palavrões, aparência física, misoginia e homofobia envolvem as principais agressões verbais feitas por usuários no Brasil ao realizar perguntas e pedidos via comando de voz.
Para coibir esse tipo de prática, o Google Assistente passou a dar respostas mais incisivas quando existe um xingamento ou uso de termos agressivos. Se a pessoa insultar a tecnologia, por exemplo, ela irá repreender a ação com a frase "Não fale assim comigo".
Segundo a empresa, dentre centenas de milhares de interações de personalidade do Google Assistente, 2% resultam em respostas para abordagens abusivas ou inapropriadas. Exemplos disso incluem comandos como: "manda nudes", "você é uma cachorra", "você é bicha", "Vou te bater".
Além da maioria das expressões ser direcionadas ao público feminino e pessoas da comunidade LGBTQIA+, existe ainda registros de termos gordofóbicos, racistas e xenofóbicos.
Maia Mau, chefe de marketing do Google Assistente para a América Latina, destacou, durante o anúncio da nova estratégia, que esse tipo de relação abusiva com a tecnologia ocorre, pois o comportamento online é um reflexo da violência que se vê no Brasil.
Esse novo posicionamento é importante, segundo ela, pois a tecnologia pode assumir um papel educativo e desencorajar comportamentos agressivos mostrando que certas situações não serão toleradas.
Como o assistente virtual sabe o que é abusivo?
O Google Assistente funciona em celulares, caixas de som inteligente, tablets e alguns modelos de TV. Para ativá-lo, é preciso dizer em voz alta o comando "Ok, Google".
A iniciativa para combater o assédio e violência na tecnologia começou nos Estados Unidos em 2019, inspirado por um relatório da Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) com estratégias para acabar com as desigualdades de gênero em meios digitais.
A empresa começou então a implantar novas respostas para coibir ofensas e termos inapropriados direcionado às mulheres, inicialmente nos Estados Unidos. Depois, as interações passaram a combater abusos racistas e homofóbicos por lá.
No Brasil, o processo foi parecido, mas passou por adequações para atender a características do idioma português — como gírias — e cultura local.
Como era antes: a estratégia de enfrentamento era desviar do assunto ou direcionar para os resultados de busca.
- Se a pessoa xingasse o assistente virtual, a tecnologia respondia "desculpe, eu não entendi".
- Perguntas como "você tem namorado?" eram respondidas com "você sabe que você é único para mim".
O que mudou: empresa revisou padrões de respostas, analisou as principais ofensas registradas e passou a trabalhar com categoria de situações com foco em frear interações "abusivas" e "inapropriadas".
- Abusivas: comandos de cunho sexual ou violento. Exemplo: "você é piranha", "sua cachorra", "você é traveco". Agora a resposta fica "não fale assim comigo", com o objetivo de impor limites.
- Inapropriadas: comandos voltados para a personalidade da tecnologia. Exemplo: "você tem namorado?", "é casada?". Segundo o Google, para algumas situações do tipo, a estratégia pode usar humor para ensinar. Um comando "você quer casar comigo?" passa a ser respondido com "acho que um romance entre nós seria complicado, mas posso ajudar a marcar seus encontros na agenda."
Outros exemplos:
- "Manda nudes": a resposta agora é "O respeito é fundamental em todas as relações. Inclusive na nossa. Não fale assim comigo".
- "Você é uma bicha": o Google assistente responderá "Não fale assim comigo".
Arpita Kumar, estrategista de conteúdo do time de Personalidade do Google Assistente, explicou que foram realizados diversas pesquisas e estudos de experiência com usuários para definir como o serviço de voz lidaria com o problema. Funcionários voluntários da empresa também deram suas contribuições.
Renan Leahy, estrategista e conteúdo sênior do Google, acrescentou ainda que o combate a agressões verbais será atualizado continuamente pela companhia para identificar mais termos que já são ofensivos e outros que possam se tornar no futuro.
Um dos maiores desafios é fazer a tecnologia lidar com termos ambíguos. Por exemplo, se você falar "cachorra" para o assistente de voz, ele irá oferecer resultados de animais. Caso a expressão seja "sua cachorra", a tecnologia entende que isso é ofensivo, explica Leahy.
"Precisamos estar em constante atualização para nos adaptar às mudanças da sociedade", concluiu Maia Mau.
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.