Divulgação

Ontem, cheguei para trabalhar e peguei o elevador com um prestador de serviços do banco. Depois do silêncio constrangedor, ele olhou para mim: “É, a vida fica muito mais difícil quando a gente é adulto, né? Quando é criança é tudo tão fácil.”.

A primeira coisa que pensei foi na minha camisa amassada e na correria que tinha sido o começo da manhã. Depois lembrei da nossa triste situação política. E, por último, me culpei mais uma vez por estar atrasado. A única coisa que consegui responder — para dar um pouco de esperança para nós dois — foi: “Mas não precisa ser assim…”.

Quando somos criança, temos nossa vida organizada por adultos: o que vestir, onde dormir, horários de internet, horários de TV, comidas que fazem bem, comidas que fazem mal, pessoas com quem podemos falar, pessoas com quem não podemos… a vida é mediada por outras pessoas.

Se aprendemos a viver dentro de uma sociedade que nos diz constantemente o que fazer — e nos premia quando seguimos (e não questionamos) essas regras — é natural que continuemos repetindo este padrão: seguir ordens sem questionar.

Ao buscarmos essas guias de atuação na vida adulta nos deparamos, hoje, com as “máquinas inteligentes”: computadores que processam, em tempo real, um volume enorme e variado de informações para nos dizer o que fazer.

Você que, provavelmente, já usou (ou usa) o Waze, a Amazon, o Google, o Facebook, o Spotify, o Tinder, ou outro serviço digital está em contato com a análise de Big Data e as tecnologias preditivas — ferramentas que tentam descobrir a melhor “dica” de ação para você.

Olhando as grades dos cursos sobre Big Data fica uma questão: uma ferramenta tão poderosa, ao meu ver, não pode ser ensinada sem um questionamento ético forte e constante.

Se o único pensamento atrelado à Big Data é o de eficiência financeira, cria-se uma nova e poderosíssima arma, vide o caso Facebook e a influência de seus dados na eleição dos EUA.

Um vídeo case da The Mars Agency de 2014 simula as possibilidades de uso do Google Glass em um mercado e isso serve como um ótimo caso para estudo.

Perto do minuto 1:15, o usuário fictício do Google Glass pergunta aos óculos qual é a melhor opção de lanche saudável para uma criança. Aí entramos de cabeça nessa zona ética: quem o aparelho deve escolher? Um produto da base de anunciantes ou o fruto de análise de compostos químicos nos ingredientes? Qual análise de composição devemos usar para dizer se é sadio ou não? Devemos conseguir dizer quais pesquisas são reais e quais são apenas uma propaganda disfarçada de fato científico? Poderemos dizer que nenhuma das opções atende às necessidades nutricionais de seu filho se essa for a “melhor” resposta? Quem deve regulamentar essas respostas e dizer o que é melhor? Qual é o significado de veracidade para uma resposta dessas?

Sim, são muitas perguntas e muitas informações e, exatamente por isso, termos máquinas nos ajudando nos processos de decisão não é algo ruim. Tecnologias não são boas ou ruins, elas são neutras — até que aplicadas. E se estamos treinando pessoas para aplicá-las precisamos falar MAIS sobre ética e papel social.

Dentro do universo da Big Data falam-se de diversos Vs (volume, velocidade, variedade, veracidade, visualização…), mas há um V que não parece estar em discussão de forma completa: valor.

Não apenas na Big Data, mas principalmente nela, — afinal estamos falando de uma ferramenta de utilização massiva e que está conectada diretamente ao comportamento humano, à observação coletiva da sociedade, à tentativa de previsão de ação do indivíduo e às medidas de repressão ou promoção dessas ações — valor não pode ser apenas uma leitura individual, precisa ser um bem coletivo.

Mateus Oazem é publicitário, especialista de inovação em serviços e comunicação para marcas na Gira.