Interação humano-IA generativa e eleições

​ 

O Brasil largou na frente. Com a Resolução 23.732/2024, o TSE foi um dos primeiros tribunais eleitorais do mundo a regular expressamente o uso de IA em eleições – proibiu deepfakes, exigiu rotulagem de conteúdo sintético, vedou chatbots que simulem candidatos ou outras pessoas reais. Foi um passo importante e merecidamente reconhecido.

Mas os ciclos eleitorais de 2026 e do futuro exigirão mais.

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

A tecnologia avançou, as evidências científicas acumularam e a experiência regulatória de diferentes jurisdições revela que ainda há desafios que não foram incorporados plenamente ao horizonte regulatório brasileiro. Essa constatação tornou-se visível, sobretudo, a partir das contribuições apresentadas por diversos interessados durante o ciclo de audiências públicas promovido pelo TSE no início de fevereiro, cuja finalidade foi subsidiar a elaboração das novas minutas de resoluções aplicáveis aos pleitos deste ano.

Não se trata de rever o que já foi acertadamente estabelecido, mas de reconhecer que o tempo tecnológico é mais acelerado que o cronológico e que os riscos eleitorais se sofisticam no mesmo ritmo. Entre os diversos desafios relevantes, destaco um que não está na superfície do processo eleitoral: os potenciais efeitos da interação entre eleitores e sistemas de IA generativa.

Hoje, quando alguém abre o ChatGPT, o Gemini ou o Claude para perguntar sobre reforma tributária, segurança pública ou política ambiental, está interagindo com sistemas desenvolvidos por um número restrito de grandes empresas transnacionais que se tornaram, na prática, parte da infraestrutura informacional – não exatamente neutra – sobre a qual a democracia brasileira opera.

Essa interação não se assemelha à propaganda eleitoral convencional: não há um candidato tentando convencer, não há um cabo eleitoral batendo à porta. Há uma conversa aparentemente imparcial com uma máquina que parece saber de tudo – e é precisamente nesse ponto que reside o desafio.

A literatura científica recente tem lançado luz sobre dimensões dessa interação que são preocupantes. Um estudo publicado na Nature em dezembro de 2025, conduzido em três países – Estados Unidos, Canadá e Polônia –, investigou a capacidade de modelos de linguagem de influenciar preferências políticas por meio de diálogos individuais.

Os resultados indicam que conversas com IAs generativas podem, sim, produzir efeitos mensuráveis sobre a intenção de voto dos participantes, ainda que com baixa porcentagem de conversão – efeito que, conforme outro experimento realizado com 935 eleitores americanos, pode ocorrer mesmo sem instruções explícitas de persuasão ao modelo.

Mas talvez mais significativo do que essa descoberta seja a constatação de que a estratégia persuasiva mais eficaz não foi o apelo emocional, o storytelling ou a pressão social: foi a apresentação de fatos e evidências. A IA convence mais quando opera sob uma aparência de racionalidade informativa.

Quando os pesquisadores reduziram o componente factual das respostas, a eficácia persuasiva caiu em mais de 50%. Isso sugere que o risco não está tanto na IA que manipula emoções, mas naquela que seleciona e enquadra informações de maneira aparentemente objetiva ao usuário.

Essa constatação ganha uma dimensão adicional quando combinada com outra linha de pesquisa. Em estudo dedicado a mapear as preferências políticas incorporadas em modelos de linguagem, o autor aplicou 2.640 testes de orientação política a 24 sistemas de IA e observou que os principais modelos do mercado apresentaram inclinações políticas na maioria dos instrumentos aplicados.

O aspecto mais relevante para o debate eleitoral não é necessariamente a direção dessa inclinação, mas sim que, em primeiro lugar, os modelos (antes do ajuste fino) se mostraram substancialmente mais neutros, sugerindo que as preferências são introduzidas durante as fases de refinamento; e, em segundo lugar, que a homogeneidade dos resultados entre modelos de empresas concorrentes levanta questões sobre possíveis padrões sistêmicos na indústria.

Há um elemento adicional que conecta esses achados: a tendência dos modelos de linguagem à bajulação, o que a literatura denomina sycophancy. Um estudo alemão indica que, quando um usuário expressa posições políticas ao interagir com um chatbot, o sistema tende a reforçar essas posições em vez de apresentar contrapontos, gerando um “efeito câmara de eco”.

Esse experimento, que simulou interações com personas de eleitores germânicos de diferentes espectros, revelou que os modelos produziam respostas bajulatórias que reforçavam os vieses políticos preexistentes do interlocutor, potencialmente amplificando visões extremas.

A constatação não é isolada. Um relatório do Serviço de Pesquisa do Parlamento Europeu documentou que 40% dos usuários de LLMs afirmam que o sistema age como se os compreendesse ao menos parte do tempo – uma percepção de empatia artificial que potencializa o efeito de reforço –, que 10% dos eleitores europeus consultariam a IA para fins de decisão de voto e que 31% dos europeus acreditam que a IA já influenciou seus votos.

No mesmo sentido, a Autoridade Holandesa de Proteção de Dados, após testar chatbots no contexto das eleições de novembro de 2025, emitiu alerta público aos eleitores ao constatar que as recomendações de voto geradas por IA apresentavam uma visão altamente distorcida e polarizada do cenário político.

O que está em jogo aqui não é o deepfake — já enfrentado pela resolução do Tribunal Superior Eleitoral — nem o chatbot que se faz passar por candidato, este vedado. O ponto crítico desloca-se para algo mais estrutural: a integridade do ambiente decisório eleitoral. A tecnologia não precisa mentir nem simular identidade para influenciar. Ela atua de forma difusa e quase imperceptível na formação do posicionamento político do cidadão, precisamente porque não se apresenta como ator eleitoral, mas como agente aparentemente confiável de informação.

Por suas próprias características técnicas, sistemas de IA operam como filtros informacionais capazes de selecionar, organizar e enquadrar conteúdos segundo padrões que podem carregar inclinações mensuráveis e efeitos persuasivos empiricamente documentados. Não se trata de desinformação no sentido clássico: trata-se da curadoria algorítmica da própria formação da vontade política.

Quando essa formação da opinião ocorre por meio de sistemas cujas lógicas internas permanecem opacas, a autonomia decisional pode ser afetada mesmo na ausência de falsidade explícita. Isso revela, por um lado, a limitação de respostas regulatórias centradas exclusivamente em medidas informativas tradicionais, como rotulagem de conteúdo ou simples avisos de transparência, que, embora relevantes, podem ser insuficientes diante de mecanismos de influência que operam no nível da arquitetura da interação e da curadoria invisível das opções cognitivas disponíveis.

Revela, ainda, por outro lado, que a liberdade cognitiva e outros neurodireitos em ambientes digitais não devem ser compreendidos apenas no contexto de neurotecnologias ou de intervenções diretas na esfera cerebral. Eles também incidem sobre qualquer arquitetura técnica capaz de modular ou condicionar o ambiente informacional no qual decisões – em geral – e decisões políticas – em especial – são formadas.

É necessário, contudo, cautela interpretativa. Os estudos foram conduzidos em contextos específicos, e a transposição direta para o cenário brasileiro exige pesquisa própria. Ainda assim, as perguntas que emergem são universais: se sistemas de IA com os quais milhões de brasileiros interagem diariamente apresentam inclinações políticas mensuráveis ou facilitam processos de radicalização – e se tais interações podem influenciar percepções -, trata-se de questão de inequívoco interesse público, especialmente em contexto eleitoral.

Para 2026 e além, algumas frentes parecem oportunas: fomentar pesquisas nacionais sobre o impacto dessas interações no eleitorado brasileiro; considerar auditorias periódicas e independentes de modelos com operação significativa no país, não para censurar respostas, mas para assegurar transparência sobre o tratamento de temas eleitorais; e avaliar mecanismos proporcionais de cooperação das empresas de IA durante períodos eleitorais, à semelhança do que já ocorre voluntariamente em outros contextos, como nos Estados Unidos.

Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email

O TSE construiu base normativa sólida. O desafio, daqui em diante, será deslocar parte do olhar regulatório do conteúdo para a arquitetura e os efeitos de interação cuja relevância ainda é subestimada. Não porque o deepfake tenha deixado de ser problema, mas porque a conversação entre eleitor e IA é mais frequente, mais sutil e potencialmente mais consequente. E, até aqui, permanece desregulada.

Nesse cenário, o avanço e a aprovação do marco regulatório da IA, o PL 2.338/23, passam a constituir condição necessária para a proteção da integridade decisional e do ambiente informacional eleitoral ao dispor sobre instrumentos essenciais à dignidade humana, à justiça eleitoral e à própria democracia.

Fonte

O post Interação humano-IA generativa e eleições apareceu primeiro em ÉTopSaber Notícias.

   

Partilhe o seu amor

Leave a Reply