ANDP proíbe Meta de usar dados para treinar modelos de inteligência artificial

As empresas precisarão garantir uma transparência mais adequada

A Autoridade Nacional de Proteção de Dados (ANPD) anunciou no dia 10 de julho a decisão de manter a medida preventiva que proíbe a Meta de usar dados pessoais dos usuários para treinar inteligência artificial (IA) no Brasil. Divulgada no Diário Oficial da União em 2 de julho, a medida cautelar suspendeu a nova política de privacidade da empresa - dona no Instagram, Facebook e WhatsApp - e prevê multa diária de R$ 50 mil caso a ordem não seja cumprida em até cinco dias úteis.

“Em resposta ao pedido de reconsideração feito pela Meta e diante das alegações de dificuldades técnicas para comprovar o cumprimento da suspensão da operação de tratamento, o Conselho concedeu mais cinco dias para comprovar o cumprimento da decisão”, declara a ANDP em nota.

Segundo a agência fiscalizadora, o relator Joacil Rael postergou a análise dos pedidos de concessão de efeito suspensivo e do pedido de reconsideração integral da decisão. “Acompanhado pelos votos dos demais diretores, ele entendeu pela necessidade de uma análise técnica minuciosa das medidas propostas e pela apresentação de um plano de conformidade acompanhado de cronograma de implementação”, esclarece a ANDP.

O órgão analisa possíveis violações à Lei Geral de Proteção de Dados (LGPD). A preocupação é de que as informações estejam sendo utilizadas “com base em hipótese legal inadequada e falta de transparência”, alega a ANDP. Lançada em 26 de junho, a política de privacidade da Meta autorizava a utilização de conteúdos compartilhados pelos usuários e disponíveis publicamente para o treinamento de IA generativa. Os usuários brasileiros podem optar pelo “opt-out” para barrar o uso de seus dados.

“Estamos desapontados com a decisão da ANPD. Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos. A nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar
as suas dúvidas. Isso é um retrocesso para a inovação e a competitividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil”, rebate a Meta em posicionamento oficial.

Cautela
“Além de uma consequência direta para a Meta, a decisão mostra um posicionamento bastante cauteloso da ANPD em relação ao uso de dados pessoais para treinamento de sistemas de IA. Isso pode ter um impacto no mercado, inclusive em empresas menores que adotam essa prática. Pelo teor da decisão, as empresas precisarão garantir uma transparência mais adequada aos usuários e manter documentação sobre a legalidade do tratamento desses dados, principalmente para o caso de a autoridade solicitar esclarecimentos”, avalia Lucas Maldonado D. Latini, especialista em direito digital da FGV.

Leia a matéria completa na edição do propmark do dia 15 de julho de 2024