
À medida que redes sociais e plataformas digitais se consolidam como espaços centrais do debate público, a Justiça Eleitoral brasileira tem ampliado sua atuação sobre o ambiente online. A resolução do Tribunal Superior Eleitoral (TSE) que disciplina a propaganda eleitoral nas eleições de 2026 se insere nesse movimento ao incorporar regras sobre inteligência artificial, circulação de conteúdos e funcionamento das plataformas digitais.
Parte dessas disposições representa inovações introduzidas para o próximo ciclo eleitoral. Outra parte consolida regras já adotadas nas eleições municipais de 2024 – embora na prática tenham sido pouco aplicadas – e que agora serão testadas pela primeira vez em um pleito nacional, com alcance potencialmente muito maior.
Nos últimos anos, o avanço de ferramentas de produção e edição de conteúdo – especialmente sistemas de inteligência artificial generativa – ampliou as possibilidades de criação e disseminação de informações políticas. Textos, imagens, áudios e vídeos sintéticos podem ser produzidos com facilidade crescente, muitas vezes simulando situações ou declarações inexistentes.
Diante desse cenário, a Justiça Eleitoral busca adaptar a regulação a um ecossistema comunicacional profundamente transformado e passa a regular a circulação de informação, a inteligência artificial, sistemas de recomendação e práticas de moderação.
Um dos pontos mais discutidos da norma diz respeito à rotulagem de conteúdos sintéticos gerados por IA. A exigência não é nova. Ela foi introduzida em 2024 e busca aumentar a transparência sobre o uso dessas tecnologias. Tornar visível a origem de determinados materiais pode ajudar usuários a interpretar melhor o que circula nas redes.
Na prática, porém, a exigência de remoção imediata de conteúdos sem rotulagem enfrenta desafios. Memes, vídeos e outros materiais frequentemente circulam por republicações, capturas de tela ou versões editadas que eliminam sinais de identificação da publicação original. Nessas situações, podem reaparecer sem metadados essenciais para a verificação automatizada de sua natureza sintética.
A mesma dinâmica também dificulta a aplicação de outra inovação da resolução para 2026: a proibição de circulação de novos conteúdos sintéticos com imagem ou voz de candidatos nas 72 horas anteriores ao pleito e nas 24 horas posteriores à votação. Identificar automaticamente se determinado material foi produzido por inteligência artificial nem sempre é trivial.
Ferramentas de edição audiovisual são amplamente utilizadas por usuários comuns e frequentemente produzem resultados semelhantes aos de sistemas de IA generativa. Além disso, a recirculação nas redes torna difícil distinguir conteúdos realmente novos de reapresentações de materiais antigos que ressurgem em novos formatos.
A resolução também regula o uso de sistemas de inteligência artificial generativa nas plataformas, proibindo que ranqueiem candidatos, recomendem votos ou emitam opiniões eleitorais automatizadas. A regra reflete a rápida expansão de assistentes baseados em IA – como Gemini, ChatGPT ou mesmo o modo IA da ferramenta de busca do Google – que passaram a funcionar como intermediários no acesso a informações disponíveis na internet.
Diferenciar informação política de recomendação eleitoral automatizada, contudo, pode não ser simples. Explicar propostas de governo, organizar informações sobre candidatos ou sintetizar o cenário eleitoral envolve algum grau de seleção e estruturação de dados.
Outro aspecto relevante da regulamentação – também mantido das versões anteriores da norma – envolve a distribuição de conteúdo político nas plataformas. Contas declaradas por candidatos, partidos e coligações não devem ser incluídas em sistemas de recomendação algorítmica, salvo nos casos de impulsionamento pago autorizado pela legislação eleitoral.
A regra busca evitar a amplificação automática de propaganda eleitoral por algoritmos. Ao mesmo tempo, pode alterar a dinâmica de circulação de informação política nas redes, hoje fortemente dependente de mecanismos de descoberta e recomendação. Em plataformas como Kwai e TikTok, por exemplo, o conteúdo exibido não depende sobretudo de quem o usuário segue, mas de recomendações algorítmicas baseadas em seu comportamento na plataforma. Nesses casos, proibir a recomendação é igual a invisibilizar o conteúdo político.
A expansão da regulação eleitoral digital parece inevitável diante das transformações tecnológicas recentes. O desafio está em calibrar essas regras para enfrentar riscos reais de manipulação informacional sem gerar incentivos à remoção excessiva de conteúdos ou estabelecer exigências tecnicamente difíceis de aplicar.
Proteger a integridade das eleições é essencial. Mas essa proteção precisa caminhar junto com a preservação de um ambiente informacional aberto e plural – sem o qual a própria democracia perde uma de suas bases fundamentais.
A notícia Eleições, IA e os limites da regulação digital apareceu antes em ÉTopSaber Notícias.








