Em março de 2026, inicia-se a fase de aplicação integral e fiscalização do chamado ECA Digital (Lei nº 15.211/2025). Inaugurar-se-ão novas exigências para plataformas digitais, cujo público direto seja crianças e adolescentes. Com isso, as empresas não poderão alegar boa-fé nem apresentar termos de uso genéricos. Em vez disso, terão de mostrar, com evidências técnicas, que riscos previsíveis foram mapeados e mitigados por meio de governança e controles efetivos.

Por isso, o Roblox se tornou emblemático. Em janeiro, implementaram-se mudanças estruturais. Agora, verifica-se a faixa etária para liberação de funcionalidades; há restrições de chat por idade. Houve críticas e protestos dentro da plataforma. Juridicamente, o movimento revela algo maior: a mudança de um modelo centrado em engajamento e escala para outro orientado por prevenção de riscos e responsabilidade ampliada. Componentes sociais e conteúdo gerado por usuários concentram vetores de risco relevantes. A primeira é a interação, por texto e voz, entre usuários de idades distintas. A dificuldade de supervisão cria um ambiente propício a assédio, humilhação, ameaças, aliciamento e sexualização precoce.

O ECA Digital reforça o dever de prevenção nesses ambientes, deslocando o debate da mera remoção reativa para adoção de medidas estruturais de mitigação. O segundo ponto é o conteúdo massivamente gerado por usuários. A escala dificulta o controle prévio e exige governança, classificação indicativa, filtros automatizados, revisão humana qualificada e canais de denúncia acessíveis. Não se trata de limpar o conteúdo ilícito, mas de demonstrar agilidade na comunicação de respostas a incidentes e na preservação de evidências. A Autoridade Nacional de Proteção de Dados (ANPD) monitora dezenas de empresas com serviços acessíveis a menores, indicando que o enforcement será concreto e documentado.

O terceiro ponto é a monetização por meio de moeda virtual. A distância psicológica entre dinheiro real e créditos digitais estimula gastos não autorizados.  Para os consumeristas e sob o princípio da proteção integral, exige-se transparência reforçada, consentimento adequado, controles parentais e mecanismos para prevenir despesas indevidas. Ou seja,
o design passa a ser também jurídico. Soluções que envolvem biometria facial ou coleta ampliada de dados elevam o padrão de proteção contra acesso indevido. Impõem-se obrigações rigorosas de segurança da informação, base legal e transparência. Perante a própria ANPD, a falta de governança na adoção de tecnologias pode gerar riscos regulatórios.

O ECA Digital consolida a expectativa de que plataformas implementem governança demonstrável. Políticas claras de moderação e resposta a incidentes, relatórios de transparência e documentação técnica devem compor o compliance da empresa, integrando a arquitetura de produto. Essa é uma questão de responsabilidade civil. Nos Estados Unidos, há litígios questionando se controles adotados por plataformas foram suficientes para prevenir exploração envolvendo menores. No Brasil, a discussão tende a articular proteção integral, responsabilidade por falhas de segurança e moderação, e deveres decorrentes da legislação de proteção de dados. A omissão ou a adoção de medidas formais resulta em indenizações, sanções administrativas e danos reputacionais.

É necessário adotar uma abordagem estruturada com diagnóstico de risco e jornada do usuário; revisão de políticas e procedimentos operacionais; capacitação de equipes; gestão de fornecedores; e organização de um pacote de conformidade com indicadores e evidências. Trata-se, no fundo, de internalizar a lógica de proteção integral como premissa de negócio. O caso Roblox evidencia que a era da autorregulação voluntária cede espaço a um ambiente de responsabilidade regulada. O ECA Digital não pretende inviabilizar a inovação ou a interação social online. Exige-se que essas atividades sejam compatíveis com a prioridade absoluta conferida a crianças e adolescentes pela Constituição.

André Fehér Jr. é coordenador jurídico na CCLA Advogados