Facebook responde documentário “O Dilema das Redes”

Facebook rebate “O Dilema das Redes” (Reprodução/Youtube)

O Facebook decidiu responder o documentário “O Dilema das Redes”, da Netflix.

Num longo documento divulgado em língua portuguesa esta semana, a rede de Mark Zuckerberg tenta rebater cada ponto levantado no filme.

Segundo a empresa, o longa limita a discussão sobre redes sociais ao sensacionalismo.

“Em vez de oferecer uma visão diferenciada da tecnologia, traz uma visão distorcida de como as plataformas de redes sociais funcionam para criar um bode expiatório conveniente para problemas que são difíceis e complexos”, diz a empresa.

De acordo com o Facebook, os criadores do filme não incluem ideias daqueles que atualmente trabalham nessas empresas ou quaisquer especialistas que tenham uma visão diferente da narrativa do filme.

“Eles também não reconhecem – criticamente ou não – os esforços já realizados pelas empresas para resolver muitas das questões que levantam. Em vez disso, contam com comentários daqueles que não estão dentro dessas empresas há muitos anos. Aqui estão os pontos principais nos quais o filme falhou”, afirma a rede.

A empresa rebate sete polêmicas levantadas pelo filme. Confira abaixo os argumentos da gigante da tecnologia.

Vício em redes sociais

“Nossas equipes de produto do Feed de Notícias não são incentivadas a criar recursos que aumentam o tempo gasto em nossas plataformas. Em vez disso, queremos ter certeza de que vamos oferecer valor às pessoas, não apenas impulsionar seu uso”, argumenta.

Segundoa rede, em 2018, houve uma mudança na classificação para Feed de Notícias para priorizar interações sociais significativas e deixar de priorizar coisas como vídeos virais. “A mudança levou a uma diminuição de 50 milhões de horas diárias de tempo gasto no Facebook. Esse não é o tipo de coisa que você faz se está simplesmente tentando levar as pessoas a usar mais os seus serviços”, alega a rede.

“Nós colaboramos com os principais especialistas em saúde mental, organizações e acadêmicos, e nossas equipes de pesquisa se dedicam a compreender o impacto que as redes sociais podem ter no bem-estar das pessoas”, explica o Facebook.

De acordo com a empresa, o desejo é que as pessoas controlem como usam os produtos. “E é por isso que nós fornecemos ferramentas de gerenciamento de tempo como um painel de atividades, um lembrete diário e maneiras de limitar as notificações. Já começamos a dedicar equipes de produto para se concentrar em outras áreas, como solidão, justiça racial, mentoria, saúde mental e inovação responsável”.

Você não é o produto

“Se é de graça, você é o produto”. Uma das máximas mais famosas utilizada pelos detratores do Facebook e que, inclusive, é repetida no filme, também foi rebatida pela rede no documento.

“Mas mesmo quando as empresas compram anúncios no Facebook, elas não sabem quem você é. Nós fornecemos aos anunciantes relatórios sobre os tipos de pessoas que estão vendo seus anúncios e o desempenho dos mesmos, mas não compartilhamos informações que o identifiquem pessoalmente ou vendemos as suas informações a qualquer pessoa. Você sempre pode ver os ‘interesses’ atribuídos a você em suas preferências de anúncio e, se quiser, pode removê-los”.

Algoritmos

O Facebook diz usar algoritmos “para melhorar a experiência das pessoas que usam nossos aplicativos, como qualquer aplicativo de namoro, da Amazon, Uber e inúmeros outros aplicativos voltados para o consumidor e com os quais as pessoas interagem todos os dias”.

“Isso vale, inclusive, para o próprio Netflix, que usa um algoritmo para determinar quem deve assistir ao filme ‘O Dilema das Redes’ e depois o recomenda às pessoas. Isto acontece com todo conteúdo que aparece nesse serviço”, cutuca a rede.

“Algoritmos e aprendizado de máquina melhoram nossos serviços. Por exemplo, no Facebook, nós os usamos para mostrar conteúdo que é mais relevante dentro daquilo que as pessoas estão interessadas, sejam postagens de amigos ou anúncios. Retratar algoritmos como ‘maus’
pode ser bom para documentários conspiratórios, mas a realidade é muito menos interessante”, afirma.

Dados

Durante o ano passado, o Facebook alega ter feito mudanças significativas como parte do acordo com a Comissão Federal de Comércio dos EUA (Federal Trade Commission – FTC).

“Nós criamos novas salvaguardas de como os dados são usados, fornecendo às pessoas novos controles sobre como gerenciar seus dados, e agora temos milhares de pessoas trabalhando em projetos relacionados à privacidade para que possamos continuar a atender aos nossos compromissos de privacidade e manter as informações das pessoas seguras”, afirma.

“Apesar do que o filme sugere, temos políticas que proíbem empresas de nos enviar dados confidenciais sobre as pessoas, incluindo informações sobre a saúde dos usuários ou números de previdência social, por meio de ferramentas de negócios como o Pixel do Facebook e SDK. Não queremos esses dados e tomamos medidas para evitar que dados potencialmente confidenciais enviados por empresas sejam usados em nossos sistemas.
Convocamos publicamente os reguladores em todo o mundo para se juntar a nós na criação de regras para a Internet e apoiamos regulações que possam orientar a indústria como um todo. Isso é algo que pedimos aos reguladores, não algo do qual fugimos”, esclarece.

Polarização

A rede argumenta que polarização e populismo já existiam muito antes do Facebook e de outras plataformas online serem criadas.

“Nós conscientemente tomamos medidas dentro do produto para gerenciar e minimizar a disseminação deste tipo de conteúdo”, explica a empresa.

“A maioria do conteúdo que as pessoas veem no Facebook não é polarizador ou mesmo político – é o conteúdo do dia a dia dos amigos e família das pessoas. Embora algumas postagens de fontes de notícias mais polarizadas recebam muitas interações, curtidas ou comentários, este conteúdo é uma pequena porcentagem do que a maioria das pessoas vê no Facebook. Notícias desses tipos de Páginas também não representam as notícias mais vistas no Facebook”, diz.

A empresa também diz que reduziu a quantidade de conteúdo que poderia impulsionar a polarização na plataforma, incluindo links para manchetes caça-clique ou desinformação.

“Conduzimos nossas próprias pesquisas – e financiamos diretamente pesquisas de acadêmicos independentes- para entender melhor como nossos produtos podem contribuir à polarização e para que possamos continuar a administrar isso com responsabilidade”.

Eleições

A rede reconhece que cometeu erros em 2016. “No entanto, o filme deixa de informar o que temos feito desde então para construir defesas fortes para impedir que as pessoas usem o Facebook para interferir em eleições”, relata.

Segundo o Facebook, houve uma melhora na segurança e agora eles têm “algumas das equipes e sistemas mais sofisticados no mundo para evitar ataques”.

“Removemos mais de 100 redes em todo o mundo que se engajaram em comportamento inautêntico coordenado nos últimos anos, inclusive antes de outras eleições globais importantes desde 2016. Para tornar os anúncios – em particular os políticos e sociais – mais transparentes, em 2018, criamos uma Biblioteca de Anúncios que faz com que todos os anúncios veiculados no Facebook fiquem visíveis para as pessoas, mesmo que você não tenha visto o anúncio em seu Feed”.

Além disso, segue a empresa, houve rotulagem e arquivamento de qualquer questão social e anúncios eleitorais nessa biblioteca por sete anos.

“Também temos políticas que proíbem a supressão de eleitores e, nos EUA, entre março e maio deste ano, removemos mais de 100.000 conteúdos do Facebook e Instagram por violarem nossas políticas de interferência eleitoral”, argumenta.

A rede também explica que houve outros esforços para garantir a integridade da eleição dos EUA ao encorajar o voto, conectando as pessoas com informações confiáveis sobre as eleições. “Atualizamos nossas políticas para conter as tentativas de um candidato ou de uma campanha em declarar vitória antes da hora ou deslegitimar a eleição ao questionar os resultados oficiais.”

Desinformação

“A ideia de que permitimos que a desinformação se perpetue em nossa plataforma, ou que nós de alguma forma nos beneficiamos deste conteúdo, está errada”, rebate o Facebook.

A empresa diz que é a única grande plataforma de rede social com uma rede global de mais de 70 checadores de fatos parceiros, que revisam o conteúdo em diferentes idiomas no mundo – o português, inclusive.

“O conteúdo identificado como falso por nossos parceiros de checagem de fatos é rotulado e rebaixado no Feed de Notícias. Desinformação que tem potencial para contribuir para a violência iminente, dano físico e supressão eleitoral é removido imediatamente, incluindo desinformação sobre COVID-19”.

“Não queremos discurso de ódio em nossa plataforma e trabalhamos para removê-lo, apesar do que o filme diz. Embora uma postagem já represente muito, nós fizemos grandes melhorias nesta área. Removemos mais de
22 milhões conteúdos de discurso de ódio no segundo trimestre de 2020, mais de 94% deles foram encontrados antes de alguém denunciar – um aumento em relação ao trimestre anterior, quando removemos 9,6 milhões de postagens, mais de 88% das quais encontradas antes de terem sido denunciadas para nós por qualquer pessoa”, defende-se a rede.

“Sabemos que nossos sistemas não são perfeitos e há coisas que precisamos aprimorar. Mas não estamos de braços cruzados e permitindo que desinformação ou discurso de ódio repercutam no Facebook”, finaliza a rede.