Menno van Dijk/iStock

A inteligência artificial já está inserida na realidade diária dos seres humanos. Seja ao fazer uma busca que se autocompleta no Google ou na hora de receber sugestões de filmes e séries para assistir na Netflix, em alguns momentos o uso dessa tecnologia nem chega a ser percebido por um consumidor leigo. O tema, impulsionado pelas soluções de Internet das Coisas, foi um dos mais comentados durante a feira CES (Consumer Electronics Show) 2018, realizada em Las Vegas.

Um dos braços da inteligência artificial que já está chamando a atenção na área da comunicação é a machine learning. “É um braço da inteligência artificial em que, essencialmente, há construção de algoritmos para automatização de processos. É um aprendizado supervisionado, depende da intervenção humana. O Watson, ou qualquer outra plataforma, é um bebê que acabou de nascer e você precisa ensinar tudo. Cada projeto ensina o Watson do zero, principalmente porque cada empresa quer dar uma personalidade para ele”, conta Diego Figueredo, CEO da Nexo, consultoria de tecnologia e inovação com foco no desenvolvimento de soluções com inteligência artificial. A própria empresa, que antes se chamava i9 cloud, teve nome e logo novos, construídos com Watson, a ferramenta de inteligência artificial da IBM, usada em 80% dos projetos da Nexo.

No entanto, é preciso tomar cuidado para não acreditar que, por se tratar de máquinas, a imparcialidade seja inata às ferramentas e as decisões dos robôs não passem por questões morais. “Existe um viés porque a plataforma aprendeu com o uso das pessoas ou porque alguém a programou. A máquina vai aprender de maneira totalmente diferente, nos Estados Unidos ou no Oriente Médio, por exemplo. A questão é quem está definindo os algoritmos? Quando se desenvolve a plataforma, pessoas passam a treiná-la”, explica Cleber Paradela, VP de estratégia da Sunset, que se dedica a estudar o tema.

“Hoje a maioria dos algoritmos de machine learning pegam dados, processam e geram estatísticas do que pode ser uma resposta aceitável para a questão proposta. Se a gente alimentar um algoritmo com o que as pessoas falam na internet, por exemplo, a princípio, ele vai refletir o que está lendo. Se alimentar com discursos não filtrados, vai ter muito discurso de ódio e esse padrão vai ser relevante. Corre o risco de, na automação, ele simular uma conversa real que tem um viés moral por trás”, avalia Domenico Massareto, CCO da Publicis.

Divulgação

Outro ponto a ser levado em consideração quando se fala em machine learning é que a realidade das empresas de tecnologia não reflete a diversidade da população mundial e, por conta disso, as respostas automáticas podem refletir uma moral e uma ideologia que agridam a minorias. O Google, por exemplo, tem um compromisso assumido de fomentar a diversidade e a inclusão, mas ainda está longe da boa representatividade. “Eles têm uma página na qual mostram a distribuição de sua força de trabalho: são 69% homens, 56% brancos, 35% asiáticos. É uma minoria de mulheres, negros, latinos…”, fala Paradela.

Entre os exemplos das consequências deste cenário citados por Paradela está uma empresa que usou inteligência artificial para automatizar a temperatura do ar-condicionado. “Os aparelhos liam quantas pessoas estavam sentadas, quantas em pé, tinha previsão do tempo, vários dados… Só que, ao implementarem, as mulheres sentiram frio. Quando dissecaram o problema, perceberam que definiram os parâmetros pensando no metabolismo do homem”, conta.
Massareto, por sua vez, afirma que há duas situações em que a questão de como as máquinas estão sendo treinadas pode ser levantada: uma de futuro próximo, com o qual teremos de nos preocupar mais para a frente, como a discussão sobre as decisões dos veículos autônomos, e outro mais prático, que já ocorre com a mídia programática, por exemplo. “Recentemente ouvi uma discussão sobre o impacto moral da escolha de um algoritmo de condução de um carro autônomo. Se, no futuro, o carro precisar tomar uma decisão em um momento de falha, ele escolheria a pessoa A ou a B para atingir? Mas estamos falando em algo em fase de teste. O estado de desenvolvimento para assumir que as decisões dos robôs têm viés moral ainda está distante”, explica.

Para debater o dilema do carro autônomo, o MIT (Massachusetts Institute of Technology) desenvolveu a plataforma Moral Machine (moralmachine.mit.edu), por meio da qual é possível fazer suas escolhas sobre dilemas apresentados em situações hipotéticas em que, por conta de uma falha, o carro autônomo tem de escolher quem matar. Ao final, é possível ver as estatísticas e comparar as respostas.

Como exemplo mais perto da realidade atual, Massareto lembra que existem casos conhecidos de placement programático de mídia em situações embaraçosas. Por exemplo, quando uma reportagem negativa sobre um determinado produto tem um anúncio da categoria posicionado na página. “Esse é um tipo que, embora não seja uma decisão fruto de um algoritmo autônomo avançado, cria um certo problema. A escolha é feita em cima de regras. Ainda não tem sistema de interpretação de linguagem avançado o suficiente para saber que ali o produto era o vilão da história”, explica Massareto.

Uma dessas faltas de acuidade da tecnologia colocou o Google em situação complexa, em 2015, quando foi lançado o Google Fotos. Um usuário negro teve uma pasta com fotos suas classificada como “gorilas”. O que hoje, provavelmente, não ocorreria mais, já que a ferramenta será aperfeiçoada com as informações que ela vai recebendo. “Hoje milhares de pessoas já são contratadas para fazer curadoria e limpar os dados”, diz Massareto.

Para garantir diversidade uma opção é ter profissionais variados que fazem o treinamento das máquinas e a curadoria dos dados que elas aprendem. “O Watson não é um supercomputador. Ele é um conjunto de APIs (application programmig interface). Tem API para criar diálogos entre sistemas e humanos, reconhecer imagens, analisar personalidade da pessoa… Mas só é possível avaliar a personalidade porque foi dado treinamento por psicólogos. A IBM prefere chamar a tecnologia de inteligência cognitiva porque a máquina, por si só, não é inteligente, mas a hora que você coloca a cognição humana aliada à capacidade de compreensão que não é humana, aí tem uma combinação poderosa”, explica Guilherme Novaes, da IBM.

Novaes cita o case da Pinacoteca, em que o Watson foi treinado para responder a 7 mil perguntas sobre certas obras do museu. “Passados oito meses, Watson podia responder a mais de 400 mil perguntas. Aqui que vem a beleza desta tecnologia. A criatividade e a diversidade dos visitantes trouxeram mais perguntas. Foi feita uma curadoria. As sem sentido, foram descartadas; e as outras, usadas no treinamento do Watson. O projeto tomou uma amplitude maior e uma diversidade maior”, conta. 

Outro case citado é o da Via Varejo, que conseguiu aumentar as conversões no e-commerce do Ponto Frio com um assistente online. “Quem treinou o Watson foram os vendedores de lojas, que sabem como este público quer comprar celular. O assistente traz uma forma de engajamento muito mais intuitiva, assertiva e fideliza o cliente. O Watson não vai conseguir substituir viés, moral do humano. A única forma de você ter risco de causar dano ou mal é a pessoa que treinou estar mal-intencionada. A diversidade vem ao exponencializar a capacidade intelectual humana. Imagina somar o conhecimento de 100 vendedores com diferentes experiências para poder personalizar cada vez mais a experiência do cliente”, completa.

Em alguns casos, as plataformas não têm de tomar decisões morais e, por isso, são consideradas praticamente isentas. “No caso do Pangaea, especificadamente, a ferramenta é totalmente isenta de ideologias ou crenças. Ela utiliza informações de cadastro, o comportamento e a avaliação de outros usuários para entender a relevância de cada um no momento da indicação para responder a uma pergunta. Ela não tem como ser tendenciosa ou dar mais valor para alguém com base em seu cargo, salário ou gênero, por exemplo. Afinal, essas informações realmente não importam para esse fim, mas o ser humano deixa suas decisões e escolhas serem influenciadas por opiniões e preconceitos”, afirma Guilherme Gomide, que está à frente do projeto do Pangaea, a solução de inteligência artificial da J. Walter Thompson Company que reúne todo o conhecimento da empresa. “Ele nasceu de um concurso interno em 2015, quando o objetivo era criar coisas que podem tornar a Mirum a agência mais conectada do mundo”, diz.

Alguns especialistas ouvidos pelo PROPMARK concordam que a comunicação ainda está engatinhando nesta tecnologia e há muito espaço para crescer e para discutir o tema.
“Esse mercado ainda está verde. Estão só fazendo chatbot. Eu estimo que 2018 vai ter uma virada de chave grande. Muitas empresas vão deixam de ter soluções só emergenciais e vão olhar para frente”, conta Figueiredo.

“A inteligência artificial fez uma evolução muito grande em detecção de imagem e de entendimento de linguagem falada, mas ainda teve pouco avanço em campo de processamento de linguagem natural. Ele não consegue discernir entre ironia e pragmática”, fala Massareto.
Justamente por estar no início do uso, ainda há muito para ser desenvolvido e discutido sobre o tema. “O mercado de advertising ainda está nos primeiros passos sobre uso de AI, então a discussão ética de treinamento e uso de inteligência artificial é extremamente inicial e não debatida de maneira ampla. Historicamente, o mercado de comunicação utiliza novas tecnologias de forma errônea, sem uma real preocupação moral e de equilíbrio com o ecossistema, e esse triste cenário está sendo repetido com o uso indevido de inteligência artificial, mesmo no estágio inicial“, diz Marcel Jientara, CEO e fundador da Nexus Edge.

Anderson Rocha, integrante do IEEE (Instituto de Engenheiros Eletricistas e Eletrônicos) e professor da Universidade de Campinas, também acha que a inteligência artificial será muito usada nos próximos anos. “Estamos vivendo uma época de ouro para a inteligência artificial. Onde há dados, há potencial para gerarmos conhecimento e vantagens em relação aos competidores. Sem dúvida, informação é o novo ouro da era digital, assim como petróleo foi o do século 20 e o ouro em si o do século 19”, afirma.