Robôs precisaram aprender a responder ao assédio feito por homens
O Bradesco, segundo maior banco privado do Brasil, lançou esta semana uma ação para dar respostas mais assertivas a mensagens de assédio e de preconceito de gênero contra o seu chatbot, a Bia — robozinho dotado de inteligência artificial.
Ao longo do ano passado, mais de 95 mil mensagens desse tipo foram recebidas pela ferramenta, segundo o banco. A robô é mais uma da lista de assistentes virtuais com nome e voz feminina.
Em vídeo que foi ao ar na TV na última segunda-feira (5), mensagens condescendentes, passivas e de subserviência para Bia darão lugar agora a mais assertividade e contundência. Em um exemplo, ela troca a resposta antiga a um assédio —"Não entendi, poderia repetir?"— por "Essas palavras são inadequadas, não devem ser usadas comigo e com mais ninguém".
"A linguagem, por mais que possa parecer isolada, carrega crenças e valores das pessoas", disse a Tilt Glaucimar Peticov, diretora executiva do Bradesco. "O que acontece numa plataforma ocorre no dia a dia das pessoas nas questões de gênero", afirmou.
A iniciativa do banco faz parte de um esforço global, capitaneado pela Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) e chamada "Hey Update My Voice" ("Ei, atualize a minha voz", em tradução livre).
As agressões sofridas pela Bia não são "pessoais" contra ela e nem isoladas. O chamado "assédio cibernético" acontece contra todo tipo de assistente digital dotada ou não de inteligência artificial. Recentemente, a Lu, o chatbot do Magazine Luiza, gravou um vídeo rebatendo pedidos de namoro que recebe, lado mais "gentil" desse tipo de interação: nas redes sociais, a robô recebe pedidos de "nudes" e insultos.
Mensagens assim são a ponta de um iceberg de agressões também contra mulheres reais no mundo virtual: segundo revelado pela Unesco no lançamento do movimento, 73% das mulheres em todo o mundo já sofreram algum tipo de assédio online.
Dados como esse fazem parte do estudo "I'd Blush If I Could" ("Se fosse possível, eu ficaria corada", em tradução livre), que evidencia o assédio moral e sexual sofrido pelas vozes virtuais.
A partir dos resultados do levantamento, que foi conduzido pela organização global em parceria com a EQUALS Skills Coalition, a Unesco apresentou às empresas uma série de ações propositivas, como a de atualizar as respostas das assistentes para combater e educar em situações de violência e de preconceito.
"Com o direcionamento que a Unesco nos deu, unindo todas as frentes (de temas de inclusão e diversidade) que já tínhamos, fomos conhecer como era a interação com a Bia", conta a executiva do Bradesco "Acabamos tendo uma surpresa com o que vimos, com mais de 95 mil referências tóxicas, num teor de assédio à feminilidade".
Ela conta diz ainda o que encontrou nas mensagens — o banco não revela o conteúdo delas — endossa o que a Unesco já havia apontado.
Mas nem todas as empresas que usam robôs de inteligência virtual pensam que as respostas devem ser assertivas. A Amazon é uma que pensa diferente: a Alexa, IA instalada em aparelhos como alto-falantes inteligentes, prefere calar ou não validar perguntas de cunho sexista ou de assédio.
Procurada por Tilt, a Amazon disse acreditar que a IA não deve encorajar o que chamou de "interações inapropriadas". "Por uma decisão intencional de produto, quando alguém fala algo impróprio para a Alexa, ela não se manifesta ou não responde à questão", disse um porta-voz.
Por que assistentes virtuais são "mulheres"?
A escolha de vozes femininas — e de nomes "de mulher" — para dar personalidade às ferramentas de IA não é aleatória. Para chegar à definição, as empresas geralmente fazem pesquisas junto a seus clientes e internamente. Esses estudos mostram uma preferência para vozes femininas, tidas como mais amigáveis e confiáveis. Foi o caso do Bradesco, também, com revelou a diretora executiva do banco.
"A grande maioria (dos assistentes virtuais) tem nomes femininos. No caso da Bia isso foi uma coincidência, mas muitos estudos validam que a voz feminina sempre foi uma tendência em função da modulação, dos agudos", diz. "É uma tendência mercadológica".
Alem da "tendência" revelada por pesquisas, há um fator que carrega as características e valores machistas da sociedade: vozes femininas são relacionadas a serviço.
Em seu livro "Wired for Speech: How Voice Activates and Advances the Human-Computer Relationship" ("Conectado pelo discurso: como a voz ativa e avança a relação humano-computador", em tradução livre), Clifford Nass, professor de comunicação da Universidade Stanford, explica que a voz sintética feminina é percebida como capaz de ajudar a resolver problemas. A voz masculina, por outro lado, tem um peso diferente: representa uma voz de comando, de autoridade, que fornece respostas.
Não é à toa que as raras vozes masculinas de IA estão associadas a campos complexos de conhecimento, em que são percebidas como autoridades no assunto. É o caso do Watson, IA da IBM. Plataformas como Bia ou Alexa, por outro lado, resolvem tarefas domésticas simples, como acender a luz ou colocar uma música para tocar.
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.