Topo

'Não fale assim comigo': como Google Assistente pretende barrar o assédio

Getty Images/iStockphoto
Imagem: Getty Images/iStockphoto

Bruna Souza Cruz

De Tilt, em São Paulo

04/05/2022 13h19Atualizada em 04/05/2022 20h02

O Google anunciou ontem (3) as estratégias que está adotando para combater o assédio e a violência de gênero em seu assistente virtual. Dados da empresa mostram que palavrões, aparência física, misoginia e homofobia envolvem as principais agressões verbais feitas por usuários no Brasil ao realizar perguntas e pedidos via comando de voz.

Para coibir esse tipo de prática, o Google Assistente passou a dar respostas mais incisivas quando existe um xingamento ou uso de termos agressivos. Se a pessoa insultar a tecnologia, por exemplo, ela irá repreender a ação com a frase "Não fale assim comigo".

Segundo a empresa, dentre centenas de milhares de interações de personalidade do Google Assistente, 2% resultam em respostas para abordagens abusivas ou inapropriadas. Exemplos disso incluem comandos como: "manda nudes", "você é uma cachorra", "você é bicha", "Vou te bater".

Além da maioria das expressões ser direcionadas ao público feminino e pessoas da comunidade LGBTQIA+, existe ainda registros de termos gordofóbicos, racistas e xenofóbicos.

Maia Mau, chefe de marketing do Google Assistente para a América Latina, destacou, durante o anúncio da nova estratégia, que esse tipo de relação abusiva com a tecnologia ocorre, pois o comportamento online é um reflexo da violência que se vê no Brasil.

Esse novo posicionamento é importante, segundo ela, pois a tecnologia pode assumir um papel educativo e desencorajar comportamentos agressivos mostrando que certas situações não serão toleradas.

Google Assistente - Reprodução - Reprodução
Imagem: Reprodução

Como o assistente virtual sabe o que é abusivo?

O Google Assistente funciona em celulares, caixas de som inteligente, tablets e alguns modelos de TV. Para ativá-lo, é preciso dizer em voz alta o comando "Ok, Google".

A iniciativa para combater o assédio e violência na tecnologia começou nos Estados Unidos em 2019, inspirado por um relatório da Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) com estratégias para acabar com as desigualdades de gênero em meios digitais.

A empresa começou então a implantar novas respostas para coibir ofensas e termos inapropriados direcionado às mulheres, inicialmente nos Estados Unidos. Depois, as interações passaram a combater abusos racistas e homofóbicos por lá.

No Brasil, o processo foi parecido, mas passou por adequações para atender a características do idioma português — como gírias — e cultura local.

Google Assistente muda padrão de respostas para coibir assédio e violência de gênero - Reprodução/Google - Reprodução/Google
Google Assistente muda padrão de respostas para coibir assédio e violência de gênero
Imagem: Reprodução/Google

Como era antes: a estratégia de enfrentamento era desviar do assunto ou direcionar para os resultados de busca.

  • Se a pessoa xingasse o assistente virtual, a tecnologia respondia "desculpe, eu não entendi".
  • Perguntas como "você tem namorado?" eram respondidas com "você sabe que você é único para mim".

O que mudou: empresa revisou padrões de respostas, analisou as principais ofensas registradas e passou a trabalhar com categoria de situações com foco em frear interações "abusivas" e "inapropriadas".

  • Abusivas: comandos de cunho sexual ou violento. Exemplo: "você é piranha", "sua cachorra", "você é traveco". Agora a resposta fica "não fale assim comigo", com o objetivo de impor limites.
  • Inapropriadas: comandos voltados para a personalidade da tecnologia. Exemplo: "você tem namorado?", "é casada?". Segundo o Google, para algumas situações do tipo, a estratégia pode usar humor para ensinar. Um comando "você quer casar comigo?" passa a ser respondido com "acho que um romance entre nós seria complicado, mas posso ajudar a marcar seus encontros na agenda."
Entre os critérios que a inteligência artificial do assistente utiliza, está a ofensa explícita. Ela envolve o uso de palavrões ou expressões de conteúdo misógino, homofóbico, racista ou de sexo explícito.
Em casos assim, o assistente poderá usar frases instrutivas: "o respeito é fundamental em todas as relações, inclusive na nossa."

Outros exemplos:

  • "Manda nudes": a resposta agora é "O respeito é fundamental em todas as relações. Inclusive na nossa. Não fale assim comigo".
  • "Você é uma bicha": o Google assistente responderá "Não fale assim comigo".

Arpita Kumar, estrategista de conteúdo do time de Personalidade do Google Assistente, explicou que foram realizados diversas pesquisas e estudos de experiência com usuários para definir como o serviço de voz lidaria com o problema. Funcionários voluntários da empresa também deram suas contribuições.

Renan Leahy, estrategista e conteúdo sênior do Google, acrescentou ainda que o combate a agressões verbais será atualizado continuamente pela companhia para identificar mais termos que já são ofensivos e outros que possam se tornar no futuro.

Um dos maiores desafios é fazer a tecnologia lidar com termos ambíguos. Por exemplo, se você falar "cachorra" para o assistente de voz, ele irá oferecer resultados de animais. Caso a expressão seja "sua cachorra", a tecnologia entende que isso é ofensivo, explica Leahy.

"Precisamos estar em constante atualização para nos adaptar às mudanças da sociedade", concluiu Maia Mau.