O que dizem especialistas sobre a regulamentação das plataformas
R$ 12 milhões é o valor da multa estipulada para as redes, que poderão até ser banidas
As plataformas que se recusarem a extrair perfis que incitem violência serão multadas em R$ 12 milhões. Portaria do Ministério da Justiça e Segurança Pública editada na última quarta-feira (12) ainda prevê a suspensão das atividades, caso a rede ignore pedidos da Polícia Federal para retirar páginas consideradas nocivas.
Um grupo foi criado pelo órgão para abrir investigações e desarticular ameaças iminentes. A decisão ocorre após o assassinato de uma professora por um aluno em sala de aula em São Paulo e a morte de quatro crianças por um homem que invadiu uma creche na cidade de Blumenau (SC).
Nas últimas semanas, os ataques foram tema de publicações que instigaram supostos atentados a escolas postadas nas redes sociais. Ao obrigar as plataformas a moderarem conteúdo, a medida é questionada por quem acredita que se trata de usurpação de poder, e defendida por aqueles que cobram responsabilidade das plataformas.
"Não é questão de censura, e sim de adequação das plataformas à legislação. Está dentro do exercício do Estado, poder regulamentar qualquer tipo de atividade que apresente potencial de dano aos direitos fundamentais", analisa Yasmin Curzi, pesquisadora do Centro de Tecnologia e Sociedade (CTS) da FGV Direito Rio.
Enquanto o Projeto de Lei 2630/20, que institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, conhecida como PL das Fake News, não é aprovada, o governo impõe regulamentação em caráter emergencial, a fim de remover postagens nocivas com mais rapidez.
A escolha legislativa brasileira tem foco na nova versão do governo para o PL das Fake News. Baseado na autorregulamentação, o projeto coloca as plataformas como atores principais na definição de código de conduta, e prevê uma autoridade reguladora estabelecida pelo Executivo.
"Esse modelo de autorregulamentação me preocupa porque, se deixarmos só no âmbito da autorregulamentação, dificilmente, sanções previstas na legislação e fiscalizações mais rigorosas, seriam executadas. Interesses escusos das plataformas podem se sobrepor", alerta Yasmin.
Twitter vira maior alvo
No argumento das plataformas, estão políticas próprias e ferramentas de denúncias disponibilizadas para conter discursos de ódio e violência. Facebook, WhatsApp, Instagram, TikTok, Discord, Telegram, YouTube e Kwai estão na mira do governo, que cobra esforços mais efetivos. Mas o principal alvo de críticas foi o Twitter.
Em reunião realizada no último dia 10 de abril com o governo, Adela Gobena, representante da rede de Elon Musk, disse que “um perfil com foto de assassinos de crianças (perpetradores dos massacres em escolas) não violava os termos de uso da rede e que não se tratava de apologia ao crime”.
Campanha de repúdio com as hashtags Twitter Apoia Massacres e Twitter Support Massacres, que foi censurada por Musk, ganharam repercussão imediata. O movimento tem o apoio de Sleeping Giants Brasil, Felipe Neto, Emicida e Daniela Mercury. Procurado, o Twitter responde com um emoji de fezes.
O imbróglio se arrasta. No dia 15 de fevereiro de 2022, Facebook, Google, YouTube, Instagram, Twitter, TikTok, WhatsApp, Kwai e LinkedIn assinaram um acordo com o Tribunal Superior Eleitoral (TSE) para combater a desinformação nas eleições. Na ocasião, o Telegram foi a única rede ausente. Canais de denúncias, avisos de conteúdo indevido e relatórios de transparência foram alguns dos compromissos assumidos à época.