Brasil / CotidianoDestaque

TRE-AM aguarda novas regras sobre o uso de Inteligência Artificial

O Tribunal Regional Eleitoral do Amazonas (TRE-AM) aguarda resolução do Tribunal Superior Eleitoral (TSE) sobre propaganda nas eleições para definir estratégias de combate ao mal uso da inteligência artificial (IA) no pleito de 2024. Especialistas em direito eleitoral e cibernético avaliam que ações do judiciário estão aquém da velocidade das inovações tecnológicas.

Atualmente, sem regulamentação sobre o uso de IA no caso específico das eleições, cabe à Polícia Federal a verificação da autenticidade de vídeos ou imagens, com a devida perícia ao material suspeito. As denúncias referentes aos crimes eleitorais passam a ser recebidas a partir do início da campanha eleitoral pelo aplicativo Pardal, antes disso, as denúncias devem ser encaminhadas ao Ministério Público Eleitoral.

Para o doutor em Ciência de Dados egerente na Peers Consulting & Technology, Bruno Horta, boa parte dos avanços da segunda era da IA correspondem a modelos generativos que são capazes de criar conteúdo. Nessa nova forma de IA, a ferramenta mais popular atualmente é sem dúvidas o ChatGPT, um chatbot capaz de criar conteúdo textual de forma que mesmo o leitor mais crítico muitas vezes não consegue discernir que aquele texto foi gerado por um computador. Isso vale também para músicas, vídeos e até código de computador.

 Avanço 

 O grande problema desse avanço tecnológico tão rápido, segundo ele, é que a sociedade e instituições não conseguem se adaptar a essas mudanças na velocidade necessária.

“Ainda estamos tentando entender como os algoritmos da primeira era (ordenação de conteúdo no YouTube, no Facebook, no Twitter e no Google) afetaram o resultado de eleições recentes mundo a fora, culminando inclusive em investigações do FBI e outras instituições policiais, e já estamos entrando em uma nova era da tecnologia cujo potencial construtivo e destrutivo são quase completamente desconhecidos”, enfatiza.

Além disso, ele frisa que a maioria dos usuários de tecnologia e redes sociais ainda estão adaptados aos protocolos básicos de segurança digital e muitos estão sujeitos a golpes não muito sofisticados, por exemplo, pessoas se passando por familiares pedindo depósitos em PIX.

Podemos, então, imaginar o nível de sofisticação que esse tipo de golpe poderá alcançar com o uso de áudio e imagens fakes gerados automaticamente por IA a partir da voz gravada e fotos gravadas por malware no smartphone dessas pessoas.

“Nas mãos de pessoas e entidades bem-intencionadas, esses novos algoritmos de IA estão ajudando na criação de conteúdo, na solução de problemas de negócios e no bem-estar da sociedade. Porém, em mãos erradas, o poder destrutivo dessas ferramentas já tem sido colocado em prática”, destaca o cientista.

Um desses casos é do prefeito de Manaus, David Almeida (Avante), que teve um áudio criado por inteligência artificial distribuído em grupos por aplicativos de mensagens com intuito de promover uma desinformação, e é considerado ataque das eleições municipais com o uso da tecnologia. O caso foi denunciado à Polícia Federal e as investigações devem durar até três meses, mas já possui dois suspeitos identificados.

 Planejamento 

 A OpenAI, criadora do ChatGPT, anunciou medidas para previnir o uso da inteligência artificial, com fim de manipular eleições. Não há países no mundo com regulamentação para inteligência artificial e neste ano, mais de 50 países realização pleitos eleitorais. As medidas que passarão a ser adotadas pela empresa detalham o cenário político norte-americano, mas será válida também para as eleições municipais brasileiras, que ocorrem em outubro.

As iniciativas da OpenAI, conforme reportagem da Folha de São Paulo, pretendem combater abusos, promover transparência com os conteúdos gerados por IA e dar facilidade de acesso a conteúdo de credibilidade sobre os sistemas de votação.  A OpenAI  pretende evitar a produção de deep fakes, proibir a reprodução de imagens de pessoas reais e impedir que os sistemas desrespeitem normas.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *