Eleições

Com eleições à vista, uso de IA amplia risco de desinformação e deepfakes no Brasil

Uso crescente de inteligência artificial favorece circulação de fake news e desafia a confiança do eleitor

O mundo está cada vez mais digital e interligado. A tecnologia avança rápido, simplifica a vida e encurta distâncias, mas também impõe novos desafios. Com as eleições deste ano se aproximando, um alerta se acende: a disseminação de notícias falsas ganha força com o uso da IA (inteligência artificial). Ferramentas capazes de criar vídeos e áudios altamente realistas ampliam o risco de manipulação e dificultam separar o que é fato do que é fabricação.

Esse cenário encontra terreno fértil no Brasil. Pesquisa da Ipsos em parceria com o Google mostrou que, em 2024, 54% dos brasileiros utilizaram ferramentas de IA generativa, percentual acima da média global, de 48%. A tecnologia permite criar textos, imagens e músicas com poucos comandos, o que facilita tanto a produção de conteúdo legítimo quanto a disseminação de material enganoso.

Para o cientista político Gabriel Amaral, a inteligência artificial não muda o conteúdo da política, mas transforma a forma como o eleitor percebe a realidade.

“A decisão política não nasce de informações técnicas completas, mas de atalhos cognitivos e experiências do dia a dia. A IA apenas acelera esse processo, tornando a manipulação mais eficiente, emocional e alinhada às expectativas de quem recebe a mensagem”, afirma.

Segundo ele, o maior perigo dos deepfakes – vídeos realistas com áudios falsos – vai além do engano pontual. “Quando tudo pode ser fabricado com aparência de verdade, o eleitor deixa de perguntar ‘isso é real?’ e passa a questionar apenas se aquilo confirma o que já acredita. O debate sai do campo da verificação e entra no da adesão simbólica”, analisa.

Mesmo quando desmentidos, esses conteúdos já cumpriram seu papel. “O dano não está só na mentira específica, mas na erosão da confiança na informação, nos mediadores e nas instituições democráticas”, completa.

Amaral avalia que a população ainda não está preparada para identificar conteúdos políticos manipulados por IA. “Quando esse material dialoga com preocupações reais, como salário, preços ou insegurança, ele soa plausível e se torna cognitivamente aceitável, ainda que seja artificial”.

O combate à desinformação, segundo o especialista, será decisivo para a legitimidade das eleições de 2026. “Não basta combater: é preciso fazê-lo com transparência e critérios claros. Caso contrário, o enfrentamento pode ser visto como censura e alimentar ainda mais a desconfiança no processo eleitoral”, alerta.

TSE pode atualizar regras estabelecidas para as eleições de 2024

Nas eleições municipais de 2024, o TSE (Tribunal Superior Eleitoral) regulamentou o uso da inteligência artificial na propaganda de partidos, coligações, federações partidárias e candidatos. Contudo, as regras podem ser atualizadas antes do pleito deste ano.

Entre outros pontos, as normas aprovadas em 2024 proibiam deepfakes, exigiam o aviso sobre o uso de IA na propaganda eleitoral, restringiam o emprego de robôs para intermediar contato com o eleitor (a campanha não podia simular diálogo com candidato ou qualquer outra pessoa) e responsabilizavam big techs que não retirassem do ar, imediatamente, conteúdos com desinformação, discurso de ódio, ideologia nazista e fascista, além dos antidemocráticos, racistas e homofóbicos.

Do ponto de vista jurídico, o advogado Daniel Marques, especialista em regulação de novas tecnologias, avalia que o Brasil já dispõe de instrumentos legais para coibir abusos em épocas eleitorais.

“O Código Eleitoral, as resoluções do TSE, o Marco Civil e a LGPD oferecem bases sólidas. O desafio é que essas normas foram pensadas para ações humanas diretas, não para sistemas que operam em escala e velocidade exponencial”, explica.

Para ele, a solução não passa pela proibição da tecnologia, mas pela responsabilização de quem a utiliza.

“É preciso avançar em regras de transparência, identificação de conteúdo sintético e cooperação entre plataformas e autoridades. A tecnologia não impede a responsabilização; o que falta são padrões claros e governança adequada”, conclui.

Mostrar mais

Artigos relacionados

Botão Voltar ao topo