Um a cada seis insultos são direcionados às mulheres, com expressões de misoginia ou de assédio sexual

O Google atualizou o seu posicionamento e criou novas respostas para lidar com  agressões verbais ao seu assistente de voz virtual e que podem reforçar preconceitos na sociedade. A ação, iniciada nos Estados Unidos, traz respostas mais incisivas para situações com insultos ou emprego de termos relacionados a assédio ou à violência de gênero. No Brasil, são centenas de milhares todos os meses, segundo a plataforma.  

O recurso terá abordagens diferentes, a depender do nível de abuso. Em situações mais explicitas, como palavrões ou expressões de conteúdo misógino, homofóbico, racista ou de sexo explícito, pode responder usando frases como: “O respeito é fundamental em todas as relações, inclusive na nossa” ou mesmo “Não fale assim comigo”. Em outras ocasiões, que podem representar condutas inapropriadas no mundo real, a exemplo de perguntar se o Assistente quer “namorar” ou “casar” com o usuário, a voz tende a dar um “fora” mais ríspido ou demonstrar o incômodo.

Em ocasiões que podem representar condutas inapropriadas no mundo real, a voz tende a dar um “fora” mais ríspido ou demonstrar o incômodo (Divulgação)

A primeira fase do projeto começou a ser implantada no ano passado, nos Estados Unidos, com a criação de respostas para as ofensas e uso de termos inapropriados direcionados às mulheres, que são as mais frequentes. No segundo momento, vieram abusos de cunho racial e homofóbicos.

Ao longo dos testes, percebeu-se o crescimento de 6% em tréplicas positivas. Isto é, os usuários, ao receberem as respostas, passaram a pedir desculpas ou perguntar o motivo, o que pode indicar uma abertura para a criação de diálogos.

“Entendemos que o Google Assistente pode assumir um papel educativo e de responsabilidade social, mostrando às pessoas que condutas abusivas não podem ser toleradas em nenhum ambiente, incluindo o virtual”, afirma Maia Mau, head de marketing do Google Assistente para a América Latina.

Números do Brasil
Atualmente, cerca de 2% das interações com caráter pessoal do Google Assistente no Brasil são de mensagens com termos abusivos ou inapropriados. Um a cada seis insultos são direcionados às mulheres, com expressões de misoginia ou de assédio sexual.

A empresa também analisou o comportamento dos usuários a partir da “voz” dos assistentes. Na “vermelha”, que soa como “feminina”, os comentários ou perguntas sobre a aparência física são quase duas vezes mais comuns do que na voz laranja, que seria uma representante “masculina”. Esse, por sua vez, é atacado com um “grande número” de comentários homofóbicos.

“Não podemos deixar de fazer uma associação entre o que observamos na comunicação com o Assistente e o que acontece no ‘mundo real’. Todos os dias, grupos historicamente discriminados recebem ataques de diversas maneiras no Brasil. E esse tipo de abuso registrado durante o uso do app é sim um reflexo do que muitos ainda consideram normal no tratamento a algumas pessoas”, complementa Maia.