
Entre 3 e 5 de fevereiro, o Tribunal Superior Eleitoral (TSE) realizou audiências públicas para aperfeiçoar as normas eleitorais para esse ano. Entre os vários temas, a propaganda eleitoral envolve importantes questões decorrentes das tecnologias digitais.
Por exemplo, nas eleições de 2024 as ferramentas de IA generativa já eram populares. Mas em 2026 as plataformas digitais – principais organizadoras da comunicação digital – devem assumir uma responsabilidade maior para a manutenção de pilares democráticos, conforme tese fixada pelo Supremo Tribunal Federal em relação ao art. 19 do Marco Civil da Internet.
No novo regime de responsabilidades de provedores de aplicações, definido pelo STF, as big techs têm um dever de cuidado proativo sobre conteúdos graves como discurso de ódio, violência contra a mulher e atos antidemocráticos. E para anúncios e impulsionamentos pagos, há “presunção de responsabilidade”.
As novas resoluções eleitorais precisam refletir esse julgamento e buscar mais efetividade, pois muitos dispositivos da regulação foram solenemente ignorados. Quase nenhum provedor de aplicações empresa cumpriu a exigência de apresentar relatórios de impacto e dos resultados das ações para contenção de ilícitos no período pré-campanha. Em tempos de defesa da soberania nacional-digital, o TSE pode se consolidar como protagonista e orientar o uso da internet para nosso aperfeiçoamento democrático; ou capitular frente aos interesses privados e descontrolar a comunicação política online, em prol do monopólio das grandes empresas do setor.
Para harmonização regulatória, é necessário que o poder de polícia eleitoral do TSE alcance situações de falha sistêmica e descumprimento do dever de cuidado, em especial a amplificação artificial de conteúdos ilegais mediante pagamento. Assim, o art. 7º da Resolução 23.610/24 deve permitir que a Justiça responsabilize plataformas digitais por negligências flagrantes à legislação eleitoral.
Além disso, as redes sociais já moderam conteúdo em escala industrial, de modo automatizado e opaco, com potenciais prejuízos à liberdade de expressão por meio da censura imposta pelo setor privado. Logo, deve haver maior transparência sobre como essas plataformas estão reduzindo o poder de comunicação dos usuários.
A exemplo do recém aprovado ECA Digital, a regulação eleitoral precisa incorporar as cinco garantias que traduzem o devido processo na moderação de conteúdo: notificação ao usuário, fundamentação da medida, indicação se houve análise humana ou automatizada, mecanismo acessível para recurso, e definição de prazos. O debate público democrático precisa que o eleitorado possa se defender de eventuais erros e abusos das plataformas.
A resolução de 2024 exigia relatórios de atuação das plataformas. Mas os documentos não revelaram o impacto real daquilo que escapou da identificação como conteúdo ilegal e, pior, viralizou. Um único vídeo com desinformação eleitoral pode alcançar milhões de pessoas e induzir seus votos ao erro. É necessário que o TSE exija dados desagregados específicos para o Brasil. Quantos conteúdos ilícitos foram impulsionados e só depois removidos? Qual o alcance? Quais os motivos das remoções? São respostas essenciais para se fiscalizar o efetivo cumprimento das obrigações pelas plataformas.
Defensores menos informados da liberdade irrefreada das plataformas para atuarem sem parâmetros e regras de responsabilidade podem argumentar que a exigência de dados e relatórios é uma “burocratização excessiva”. Mas no contexto brasileiro, com uma sociedade civil extremamente especializada e uma comunidade científica com pujante produção acadêmica a partir desses dados e relatórios, esse argumento demonstra apenas subserviência ao capital estrangeiro.
Outro ponto necessário a ser abordado pelas resoluções é que as ferramentas de inteligência artificial trazem desafios eleitorais inéditos: deepfakes de candidaturas, chatbots que simulam interlocução real e conteúdos sintéticos que desinformam sobre o sistema eleitoral. Em 2024, reportagens internacionais mostraram a circulação desses perigos até mesmo em plataformas que vedavam o impulsionamento político-eleitoral. Provedores de IA devem rotular conteúdos sintéticos, indicar fontes confiáveis e direcionar para os sites oficiais quando alguém indagar sobre o sistema ou candidatos e agremiações.
Por fim, o processo de construção de resoluções sobre o evento mais importante para a democracia brasileira também precisa ser democrático. Neste ano, a plataforma de consulta pública se mostrou limitada ao receber contribuições sobre poucos pontos; e a escolha de participantes das audiências públicas se mostrou restrita. Seria oportuna uma profunda revisão dos mecanismos do TSE para participação social.
Ainda assim, várias organizações da sociedade civil fizeram sua parte, com propostas técnicas, fundamentadas em pesquisa empírica e alinhadas com as melhores práticas internacionais. Agora cabe à Justiça Eleitoral aprovar regras de proteção efetiva às eleições gerais de 2026 contra os riscos digitais contemporâneos.
O momento impõe escolher entre exigir efetiva transparência e responsabilidade dos atores privados, ou aceitar a prevalência da lógica econômica com que operam as big techs. Sem uma regulação que enfrente a negligência algorítmica, o próximo passo do colapso informacional pode se dar nas eleições.
O post Como proteger as eleições de 2026 da desinformação apareceu primeiro em ÉTopSaber Notícias.






