
Ao final de 2025, a Comissão Europeia publicou o primeiro rascunho do Código de Conduta sobre Transparência de Conteúdo Gerado por Inteligência Artificial, com o objetivo de operacionalizar o artigo 50 do EU AI Act. O dispositivo trata da obrigação de informar pessoas quando interagem com sistemas de IA ou são expostas a conteúdos gerados ou manipulados artificialmente, com atenção especial a deepfakes e a textos sobre temas de interesse público.
Embora concebido como um instrumento de adesão voluntária, o Código foi expressamente previsto pelo EU AI Act como referência para a aplicação do artigo 50, o que tende a conferir relevância prática às soluções técnicas e organizacionais ali propostas, especialmente em contextos de fiscalização e prestação de contas.
O Código parte do diagnóstico de que avanços recentes em sistemas generativos ampliaram significativamente o realismo e o potencial persuasivo de conteúdos artificiais, intensificando riscos de engano, manipulação e erosão da confiança pública. A resposta regulatória proposta não se limita a reiterar um dever abstrato de transparência, mas busca traduzi-lo em mecanismos concretos, combinando soluções técnicas, organizacionais e de interface.
Para estruturar essas obrigações, o documento distingue dois grupos de atores ao longo da cadeia de valor da IA. Aos fornecedores (“providers”), responsáveis por desenvolver e colocar no mercado sistemas ou modelos de IA, o Código atribui deveres relacionados à capacidade de identificar, por meios técnicos verificáveis, que determinado output foi gerado ou manipulado por IA.
A expectativa é que conteúdos gerados ou manipulados por IA possam ser reconhecidos mesmo após circulação, edição ou degradação, por meio da combinação de metadados assinados, marcas d’água imperceptíveis e técnicas forenses independentes de marcação ativa.
Trata-se de uma ambição compreensível do ponto de vista normativo, mas que ainda repousa sobre soluções técnicas com níveis desiguais de maturidade, especialmente em contextos nos quais modelos são reutilizados, adaptados e redistribuídos por diferentes atores, o que reduz a capacidade de manter, de forma consistente, mecanismos de marcação e rastreabilidade ao longo do tempo.
O próprio Código reconhece que nenhuma dessas técnicas, isoladamente, atende plenamente aos critérios de eficácia, robustez e interoperabilidade, e, por isso, adota uma abordagem cumulativa alinhada ao estado da arte, ainda que marcada por incertezas operacionais relevantes.
Já aos responsáveis pela implantação (“deployers”), que utilizam sistemas de IA e expõem seus resultados ao público, cabe garantir que a transparência seja perceptível ao usuário final. Nesse ponto, o Código aposta fortemente na padronização visual como instrumento regulatório.
O texto introduz uma taxonomia comum que diferencia conteúdos totalmente gerados por IA de conteúdos assistidos por IA, inclusive quando intervenções aparentemente menores alteram significado, contexto ou aparência de autenticidade. Essa distinção deve ser comunicada por meio de um ícone exibido de forma clara, consistente e já no primeiro contato com o conteúdo. Sempre que tecnicamente viável, esse ícone deve funcionar como porta de entrada para informações adicionais, permitindo acesso a dados de proveniência e explicações sobre o uso da IA.
Essa escolha evidencia uma aposta clara na transparência como mecanismo de sinalização. Ao privilegiar ícones, marcas visuais e divulgações progressivas, o Código pressupõe que a percepção do usuário será um vetor central de mitigação de riscos informacionais. Embora esse modelo facilite a padronização e a comunicação imediata, ele também desloca para a interface e para a atenção do usuário uma parcela significativa da responsabilidade regulatória, em um contexto marcado por sobrecarga informacional e por dinâmicas de consumo rápido de conteúdo.
O Código estabelece ainda regras específicas conforme o tipo de conteúdo. Deepfakes recebem tratamento detalhado, com exigências distintas para vídeos em tempo real, vídeos gravados, imagens, áudios e conteúdos multimodais. A lógica central é a de que a divulgação seja clara, distinguível e tempestiva, preferencialmente no momento da primeira exposição.
Obras artísticas, criativas, satíricas ou ficcionais não são excluídas dessas obrigações, mas recebem um tratamento proporcional, pensado para não comprometer a fruição da obra, sem afastar salvaguardas para direitos de terceiros. Ainda assim, permanece a tensão entre transparência e viabilidade operacional, sobretudo em contextos nos quais o conteúdo é constantemente reeditado, remixado ou redistribuído.
No caso de textos sobre temas de interesse público, o Código traz uma distinção particularmente sensível. Quando não houver revisão humana substancial nem assunção de responsabilidade editorial por pessoa natural ou jurídica, a divulgação de que o texto foi gerado ou manipulado por IA é obrigatória.
Por outro lado, o regime admite uma exceção relevante quando há revisão humana significativa e responsabilidade editorial assumida, desde que esse processo seja minimamente documentado. A opção levanta questionamentos sobre o limiar efetivo entre supervisão humana substantiva e intervenções meramente formais capazes de afastar o dever de transparência.
Além das obrigações materiais, o Código enfatiza aspectos de governança, exigindo documentação de conformidade, testes periódicos, cooperação com autoridades e atenção à acessibilidade das divulgações. No conjunto, o documento explicita uma visão regulatória clara: a União Europeia aposta na transparência visível, padronizada e progressiva como instrumento central para lidar com os riscos informacionais da IA.
O desafio, contudo, reside em evitar que essa transparência se esgote em sinais formais de conformidade, sem assegurar mecanismos que permitam compreender, de forma contextualizada, como determinado conteúdo foi gerado, modificado e utilizado ao longo do tempo.
Esses limites tornam-se visíveis à luz de episódios recentes envolvendo a circulação transnacional de deepfakes gerados por modelos generativos. Controvérsias associadas ao uso do Grok, sistema de IA integrado à plataforma X, levaram autoridades de diferentes países, incluindo Reino Unido, França, Indonésia, Malásia e Brasil, a adotar medidas de investigação, restrição ou questionamento regulatório diante da disseminação de imagens sexualizadas falsas.
Esses movimentos indicam que, em contextos de dano concreto, a atenção regulatória tende a deslocar-se da mera identificação da origem artificial do conteúdo para a capacidade de compreender falhas sistêmicas, atribuir responsabilidades e reconstruir, posteriormente, os fluxos de geração e disseminação do material.
A efetividade do Código dependerá, portanto, da integração entre os mecanismos de transparência propostos, a capacidade técnica de identificação dos conteúdos e as estruturas de governança associadas à sua implementação. O rascunho publicado em dezembro de 2025 deixa claro o caminho escolhido pela União Europeia, mas também evidencia que a fronteira entre transparência formal e proteção substantiva ainda está em construção — e será decisiva para o futuro do artigo 50 na prática.
A esse quadro soma-se um fator temporal relevante. O artigo 50 do EU AI Act passa a ser aplicável a partir de agosto de 2025, enquanto o Código, ainda em versão preliminar, mantém em aberto questões centrais sobre padrões técnicos, interoperabilidade e critérios de avaliação da conformidade.
Nesse intervalo, fornecedores e responsáveis pela implantação são levados a tomar decisões técnicas e organizacionais com efeitos duradouros, mesmo sem clareza plena sobre os parâmetros definitivos. Essa assimetria temporal reforça o risco de consolidação de soluções formais de transparência antes que seus impactos regulatórios sejam plenamente compreendidos.
A notícia Os limites da transparência na regulação da IA na Europa apareceu antes em ÉTopSaber Notícias.








