País europeu foi o primeiro do Ocidente a parar o desenvolvimento do chatbot

Nas últimas semanas, as mídias foram invadidas por notícias sobre ferramentas de inteligência artificial, como o ChatGPT. Mas, ao invés de falar sobre as funcionalidades, o assunto da vez foram os banimentos e pedidos de pausa nas pesquisas da categoria.

Na última sexta-feira (31), a Itália baniu o uso do ChatGPT, inteligência artificial da empresa de tecnologia OpenAI, no país. A plataforma teve as suas atividades suspensas por lei após se tornar suspeita de divulgar informações pessoais dos usuários da versão premium da ferramenta.

De acordo com a Agência de Proteção de Dados italiana, o chatbot permanecerá proibido até que a plataforma se adeque à lei de proteção de dados vigente na União Europeia.  

Ainda em março, mais de mil acadêmicos e executivos, incluindo o dono da Tesla e do Twitter, Elon Musk, assinaram uma carta pedindo uma pausa de seis meses nas pesquisas e nos desenvolvimentos de novas ferramentas de inteligência artificial.

A carta aberta, divulgada pelo Future of Life Institute, afirma que "sistemas de IA com que competem com a inteligência humana podem representar riscos profundos para a sociedade e a humanidade".

Para Carlos Rafael Gimenes, professor do curso de Sistemas da Informação da ESPM, a carta representou uma "chacoalhada" nas pessoas que ficaram admiradas com as funcionalidades e facilidades apresentadas pelas ferramentas, mas não pensaram nas consequências, tanto a curto quanto médio e longo prazo.

"A carta é um pedido de pausa, um apelo para uma tentativa de dar tempo a nós mesmos. Tempo para que consigamos absorver essa nova realidade e nos adaptar a ela. Principalmente, tempo para que consigamos enxergar, sem a cortina de fumaça, qual é o cenário que realmente existe agora com a presença dessas novas 'superinteligências'", explicou o professor.

O magistrado ainda fez uma comparação entre os estudos realizados entre remédios e vacinas com os necessários para que essas ferramentas fossem implementadas na sociedade.

"Assim como remédios, vacinas e afins, que têm um tempo para teste e análise de seus possíveis efeitos colaterais em diversos organismos diferentes, tecnologias e dessa magnitude também precisam de um tempo para teste e análise de efeitos colaterais. No caso, esse tempo deveria ser proporcional ao tamanho do organismo em questão: uma sociedade de mais de 7 bilhões de pessoas juntamente com todas as suas culturas que já existem há vários milênio", finalizou o Carlos.

Outro ponto de preocupação que caminha lado a lado ao uso das inteligências artificiais é o possível fim de alguns trabalhos que, hoje, são realizados por seres humanos. Segundo José Luiz Bueno, professor do curso de publicidade do centro universitário Faap, a implementação dessas plataformas pode gerar altos níveis de desemprego na sociedade.

"Atividades profissionais que podem vir a ser substituídas muito rapidamente pela tecnologia, com a possibilidade de gerar desemprego em níveis ainda imprevisíveis, disseminação de informações falsas e fraudulentas aumentando o clima de negacionismo, polarização e desinformação. Tudo isso tem gerado muita inquietação em todos que acompanham o desenvolvimento e a disseminação dessa tecnologia", disse o magistrado.

Para ele, as medidas que estão sendo tomadas para tentar frear os avanços dessas novas inteligências não serão o suficiente e, talvez, nem acatadas pelas empresas. "A recente carta aberta publicada pela instituição Future of Life ainda soa um tanto superficial e até mesmo hipócrita, vinda de empresários e executivos de setores que vivem de inovação tecnológica e que não se detiveram quando foram as suas empresas que produziram elementos disruptivos", completou José.

Dois lados
Leandro Furlan, gerente de tech da Adtail, analisa os fatos envolvendo o ChatGPT por dois lados diferentes. Devemos temê-la, de fato, ele foi questionado. 'Sim e não', brincou na resposta. "Sim, se usada de maneira incorreta, como é o caso onde temos a criação de imagens falsas, conteúdos sobre pessoas que são falsos", disse.

Leandro Furlan, gerente de tech da Adtail (Divulgação)

"Mas ao mesmo tempo prefiro pensar que ele veio para aplicarmos melhor nossos conhecimentos, agregando mais valor a tudo que podemos aplicar a nível de mercado, melhorias de processos que podemos ter e visões diferentes em âmbitos que não conseguiríamos enxergar", completou.

Thays Diniz, diretora global de marketing da Cipher, defende que a convivência harmoniosa entre máquina e ser humano requer transparência, responsabilidade, ética, privacidade, colaboração e regulamentação adequadas. "Isso significa que a IA deve ser desenvolvida e usada respeitando os valores e os direitos humanos e as empresas devem se responsabilizar pelo uso que é feito de suas tecnologias, tomando medidas para evitar o uso indevido ou prejudicial da IA".

Do ponto de vista da segurança de dados, ela continuou, é importante implementar 'medidas de segurança robustas', que incluem monitorar vulnerabilidades e ter um serviço de resposta e recuperação automatizados, ágeis e inteligentes. "Conscientizar usuários com a oferta de informações e difusão das melhores práticas no uso de aplicações de AI é outro ponto nevrálgico que precisa ser observado para se extrair o melhor da tecnologia", afirmou.

(Crédito: Rolf van Root na Unsplash)