Quando a tela mente: IA, vídeos sintéticos e o voto em 2026
Roan Weigert, brasileiro, cineasta, desenvolvedor e especialista em inteligência artificial aplicada à produção audiovisual no Vale do Silício, nos EUA
Créditos: Divulgação
Com o avanço de modelos generativos de vídeo como Sora 2, da OpenAI, Veo 3, do Google, e Kling AI, já ficou difícil para o olho humano distinguir uma gravação real de um conteúdo sintético. Até pouco tempo atrás, detalhes aleatórios, falhas de iluminação e expressões faciais artificiais ainda permitiam identificar sinais de manipulação. A rápida evolução das ferramentas de Inteligência Artificial nos ilude com certa facilidade.
Pesquisas da Universidade da Califórnia, em Berkeley, lideradas pelo professor Hany Farid, indicam que imagens e áudios gerados por IA estão cada vez mais próximos de se tornarem imperceptíveis. Em um dos estudos, os participantes conseguiram identificar corretamente clones de voz criados por IA em apenas 60% dos casos. Embora o índice ainda esteja acima do puro acaso, ele mostra que o áudio sintético já consegue enganar o ouvido humano de forma consistente.
No caso do vídeo, o cenário é ainda mais delicado. Aplicativos como o FakeCatcher, da Intel, e o TruthScan analisam sinais fisiológicos e outros padrões para detectar vídeos manipulados, com índices de precisão superiores a 96%. Ainda assim, a disputa entre geradores e detectores de conteúdo falso é desigual: a cada avanço na detecção, surgem modelos mais sofisticados para driblar esses sistemas.
Nesse contexto, o padrão C2PA, apoiado por empresas como Adobe, Microsoft e Google, surge como uma tentativa promissora de resposta. A proposta é embutir no próprio arquivo credenciais criptografadas de procedência, funcionando como uma espécie de “certidão de nascimento digital” do conteúdo. Vale destacar que essa adoção ocorreu de forma voluntária pela indústria, impulsionada por pressão reputacional e concorrencial, e não por imposição legal. Na prática, usuários podem ver ícones ou selos em plataformas compatíveis com o C2PA, indicando a origem e a autenticidade do material. O problema é que a conscientização pública ainda é baixa, e verificar isso de forma independente continua pouco acessível para o cidadão comum.
Nos Estados Unidos, o debate é intenso, mas o avanço regulatório federal continua fragmentado. Até março de 2026, o Congresso ainda não havia aprovado uma lei específica sobre ‘deepfakes eleitorais’. A Comissão Eleitoral Federal (FEC) decidiu não criar novas regras, sob o argumento de que a legislação já existente sobre fraude e falsa representação seria suficiente. Em outra frente, o governo de Donald Trump sancionou, em maio de 2025, o ‘Take it Down Act’, primeira lei federal ligada a imagens falsas, mas restrita à remoção de conteúdo íntimo não consensual, inclusive as geradas por IA. Houve também a tentativa de aprovar uma moratória de dez anos sobre leis estaduais de IA, vista por críticos como uma concessão às chamadas ‘Big Techs’, mas a proposta foi derrubada no Senado.
Os pesquisadores da Universidade da Califórnia e organizações como a Public Citizen têm liderado críticas ao uso irrestrito de Inteligência Artificial em campanhas eleitorais no contexto norte-americano. No setor privado, o movimento tem sido igualmente forte. Segundo dados do OpenSecrets, o número de empresas fazendo lobby sobre IA no governo federal saltou de 458 em 2023 para 648 em 2024, alta de 141% em um ano, com as gigantes de tecnologia à frente desse processo. Essas empresas passaram a dominar a pauta, adotando um discurso cooperativo que, na prática, também ajuda a evitar regulações mais duras. A adesão ao C2PA pelas mesmas companhias segue essa lógica: sinaliza responsabilidade, mas preserva margem de autonomia.
Diante da ausência de uma diretriz federal mais ampla, os estados avançaram por conta própria. Vinte e seis regiões já haviam aprovado normas para exigir transparência ou restringir ‘deepfakes’ no contexto eleitoral. Formou-se, assim, um mosaico regulatório que contrasta diretamente com a abordagem centralizada e vinculante adotada pelo Tribunal Superior Eleitoral no Brasil. O contraste é marcante.
O TSE definiu regras obrigatórias e mais duras para 2026. A nova resolução representa um marco. Entre as medidas estão o chamado “apagão de IA”, a proibição da circulação de novos conteúdos sintéticos nas 72 horas anteriores e nas 24 horas posteriores ao pleito, a responsabilização solidária das plataformas e a proibição de sistemas de IA recomendarem candidaturas. Com isso, o Brasil passa a figurar entre os países com regras eleitorais mais avançadas no enfrentamento à desinformação gerada por inteligência artificial, enquanto o debate americano ainda busca uma direção mais clara.
Mas regulação, sozinha, não basta. Na produção audiovisual com IA, a transparência precisa ser a regra. Todo conteúdo gerado ou alterado por inteligência artificial deveria ser claramente rotulado, e os profissionais do audiovisual têm papel central nessa responsabilidade. Em um ano eleitoral, a pergunta não pode ser apenas “esse vídeo é real?”. Precisamos também perguntar: quem criou esse conteúdo, com qual intenção e sob quais regras? Mas, pensar em senso crítico em um ambiente tão emocional como em eleições polarizadas, nos parece inocente. De qualquer forma, o que acontecer nessas eleições brasileiras será um referencial para o futuro, em que o uso de IA será rotina.
Texto: Roan Weigert - cineasta, desenvolvedor e especialista em inteligência artificial aplicada à produção audiovisual no Vale do Silício
Foto: Divulgação
