Itália bane ChatGPT e aquece debate sobre uso da tecnologia: até que ponto devemos temê-la?
País europeu foi o primeiro do Ocidente a parar o desenvolvimento do chatbot
Nas últimas semanas, as mídias foram invadidas por notícias sobre ferramentas de inteligência artificial, como o ChatGPT. Mas, ao invés de falar sobre as funcionalidades, o assunto da vez foram os banimentos e pedidos de pausa nas pesquisas da categoria.
Na última sexta-feira (31), a Itália baniu o uso do ChatGPT, inteligência artificial da empresa de tecnologia OpenAI, no país. A plataforma teve as suas atividades suspensas por lei após se tornar suspeita de divulgar informações pessoais dos usuários da versão premium da ferramenta.
De acordo com a Agência de Proteção de Dados italiana, o chatbot permanecerá proibido até que a plataforma se adeque à lei de proteção de dados vigente na União Europeia.
Ainda em março, mais de mil acadêmicos e executivos, incluindo o dono da Tesla e do Twitter, Elon Musk, assinaram uma carta pedindo uma pausa de seis meses nas pesquisas e nos desenvolvimentos de novas ferramentas de inteligência artificial.
A carta aberta, divulgada pelo Future of Life Institute, afirma que "sistemas de IA com que competem com a inteligência humana podem representar riscos profundos para a sociedade e a humanidade".
Para Carlos Rafael Gimenes, professor do curso de Sistemas da Informação da ESPM, a carta representou uma "chacoalhada" nas pessoas que ficaram admiradas com as funcionalidades e facilidades apresentadas pelas ferramentas, mas não pensaram nas consequências, tanto a curto quanto médio e longo prazo.
"A carta é um pedido de pausa, um apelo para uma tentativa de dar tempo a nós mesmos. Tempo para que consigamos absorver essa nova realidade e nos adaptar a ela. Principalmente, tempo para que consigamos enxergar, sem a cortina de fumaça, qual é o cenário que realmente existe agora com a presença dessas novas 'superinteligências'", explicou o professor.
O magistrado ainda fez uma comparação entre os estudos realizados entre remédios e vacinas com os necessários para que essas ferramentas fossem implementadas na sociedade.
"Assim como remédios, vacinas e afins, que têm um tempo para teste e análise de seus possíveis efeitos colaterais em diversos organismos diferentes, tecnologias e dessa magnitude também precisam de um tempo para teste e análise de efeitos colaterais. No caso, esse tempo deveria ser proporcional ao tamanho do organismo em questão: uma sociedade de mais de 7 bilhões de pessoas juntamente com todas as suas culturas que já existem há vários milênio", finalizou o Carlos.
Outro ponto de preocupação que caminha lado a lado ao uso das inteligências artificiais é o possível fim de alguns trabalhos que, hoje, são realizados por seres humanos. Segundo José Luiz Bueno, professor do curso de publicidade do centro universitário Faap, a implementação dessas plataformas pode gerar altos níveis de desemprego na sociedade.
"Atividades profissionais que podem vir a ser substituídas muito rapidamente pela tecnologia, com a possibilidade de gerar desemprego em níveis ainda imprevisíveis, disseminação de informações falsas e fraudulentas aumentando o clima de negacionismo, polarização e desinformação. Tudo isso tem gerado muita inquietação em todos que acompanham o desenvolvimento e a disseminação dessa tecnologia", disse o magistrado.
Para ele, as medidas que estão sendo tomadas para tentar frear os avanços dessas novas inteligências não serão o suficiente e, talvez, nem acatadas pelas empresas. "A recente carta aberta publicada pela instituição Future of Life ainda soa um tanto superficial e até mesmo hipócrita, vinda de empresários e executivos de setores que vivem de inovação tecnológica e que não se detiveram quando foram as suas empresas que produziram elementos disruptivos", completou José.
Dois lados
Leandro Furlan, gerente de tech da Adtail, analisa os fatos envolvendo o ChatGPT por dois lados diferentes. Devemos temê-la, de fato, ele foi questionado. 'Sim e não', brincou na resposta. "Sim, se usada de maneira incorreta, como é o caso onde temos a criação de imagens falsas, conteúdos sobre pessoas que são falsos", disse.
"Mas ao mesmo tempo prefiro pensar que ele veio para aplicarmos melhor nossos conhecimentos, agregando mais valor a tudo que podemos aplicar a nível de mercado, melhorias de processos que podemos ter e visões diferentes em âmbitos que não conseguiríamos enxergar", completou.
Thays Diniz, diretora global de marketing da Cipher, defende que a convivência harmoniosa entre máquina e ser humano requer transparência, responsabilidade, ética, privacidade, colaboração e regulamentação adequadas. "Isso significa que a IA deve ser desenvolvida e usada respeitando os valores e os direitos humanos e as empresas devem se responsabilizar pelo uso que é feito de suas tecnologias, tomando medidas para evitar o uso indevido ou prejudicial da IA".
Do ponto de vista da segurança de dados, ela continuou, é importante implementar 'medidas de segurança robustas', que incluem monitorar vulnerabilidades e ter um serviço de resposta e recuperação automatizados, ágeis e inteligentes. "Conscientizar usuários com a oferta de informações e difusão das melhores práticas no uso de aplicações de AI é outro ponto nevrálgico que precisa ser observado para se extrair o melhor da tecnologia", afirmou.
(Crédito: Rolf van Root na Unsplash)