É nesse cenário que surgem as deepfakes, conteúdos gerados sinteticamente que desafiam a nossa percepção do que é real, transformando a identidade biométrica em um conjunto de vetores matemáticos manipuláveis. 

No âmbito jurídico, essa capacidade de despersonificação e recriação traz riscos severos. A identidade sintética é frequentemente produzida por criminosos cibernéticos para a prática de estelionatos, golpes de engenharia social e até a manipulação de mercados financeiros.

Além disso, o uso político de deepfakes para desinformação em massa tornou-se uma preocupação central para os Tribunais Eleitorais, exigindo uma resposta rápida do Direito para proteger a integridade do processo democrático e a honra objetiva dos cidadãos. 

A proteção contra essas ameaças exige uma interpretação ampliada do Código Civil1 e da Lei Geral de Proteção de Dados (LGPD)2. Uma vez que o rosto e a voz são considerados dados, sua captura para treinamento de redes neurais sem consentimento explícito configura uma infração grave

No campo da responsabilidade civil, o desafio reside em identificar a cadeia de custódia do dado: quem produziu, quem forneceu a ferramenta e quem lucrou com a veiculação da imagem falsa. 

Para indivíduos e empresas, a segurança jurídica depende agora de uma postura preventiva. Isso inclui a implementação de protocolos de autenticação que vão além da biometria simples, bem como auditorias constantes de presença digital. 

Apesar dos avanços expressivos das redes neurais e dos autocodificadores em 2026, a produção sintética ainda não é absolutamente impecável, sempre restam pequenos indícios de artificialidade. Reconhecer esses vestígios é fundamental como ponto de partida para a adequada tutela jurídica.

Mesmo com tecnologias extremamente avançadas, ainda é possível notar certos detalhes que demonstram a artificialidade de um conteúdo:

  1. Olhar artificial: sistemas de IA frequentemente não conseguem reproduzir com total fidelidade o brilho natural dos olhos nem o padrão espontâneo das piscadas, que, em pessoas reais, ocorre em intervalos variados e naturais;
  2. Falta de sincronia labial: observe se os movimentos da boca acompanham perfeitamente o áudio. Pequenos atrasos ou desalinhamentos entre fala e imagem podem indicar manipulação;
  3. Sombras e contornos irregulares: em cenas com movimentos mais rápidos de cabeça, podem surgir bordas imprecisas, sombras deslocadas ou leves distorções ao redor do rosto;
  4. Textura de pele: uma aparência muito lisa, sem poros, marcas ou variações naturais na pele, podem revelar a aplicação de técnicas de geração ou edição por inteligência artificial.

A prevenção jurídica começa com práticas simples, mas estratégicas, de verificação e análise de contexto:

  1. Analise o contexto: desconfie de solicitações que fogem ao padrão habitual de comunicação da pessoa ou empresa, especialmente aquelas que impõem um senso de urgência injustificada ou pressão emocional;
  2. Confirmação por canal alternativo: ao receber uma solicitação urgente por vídeo, especialmente envolvendo valores, contratos ou dados sensíveis, confirme a informação por outro meio independente, como uma ligação para um número já conhecido ou uma mensagem criptografada;
  3. Teste de interação imediata: em caso de dúvida durante uma videochamada, peça que a pessoa realize um movimento inesperado, como virar o rosto de lado, mostrar um objeto específico ou posicionar a mão diante da câmera. Conteúdos manipulados em tempo real costumam apresentar falhas visuais ou distorções nesses momentos;
  4. Autenticação multifatores reforçada: não confie apenas em reconhecimento facial ou de voz para proteger acessos sensíveis. Sempre associe estes recursos a um segundo fator de segurança, como token físico, aplicativo autenticador ou código PIN.

As deepfakes são frequentemente utilizadas em golpes de engenharia social onde o criminoso simula uma crise (financeira, jurídica ou técnica) para impedir que a vítima reflita criticamente. Observe se a linguagem utilizada é coerente com quem se apresenta no vídeo e se o pedido envolve a quebra de protocolos de segurança ou sigilo, o que é um forte indicativo de fraude.

Se você descobrir que sua imagem ou sua voz foram manipuladas para fins ilícitos, é importante saber que o Direito brasileiro já dispõe de mecanismos de proteção. A Constituição Federal3 assegura a inviolabilidade da honra, da imagem, da intimidade e da vida privada, e o Código Civil reforça essa tutela ao tratar dos chamados direitos da personalidade.

O Marco Civil da Internet4 prevê mecanismos para responsabilização e remoção de conteúdo, especialmente quando há violação de direitos. Em situações que envolvem intimidade ou nudez sem consentimento, há hipóteses específicas de remoção mais célere, buscando impedir que o dano à reputação se amplie e prejudique a vítima ainda mais. 

Veja as principais medidas possíveis: 

  1. Produção de provas: para que haja responsabilização, é fundamental preservar a prova. Um dos instrumentos mais utilizados é a ata notarial, lavrada em cartório, que certifica a existência do conteúdo digital em determinada data. Também podem ser usados registros técnicos de preservação de evidências digitais e perícia especializada. Em todos os casos, é sempre recomendável realizar capturas ou gravações de tela que comprovem a existência do deepfake, bem como que demonstrem onde está publicado. O objetivo aqui é impedir que o autor apague o material e alegue inexistência do fato.
  2. Remoção rápida do conteúdo: na internet, cada minuto conta. Por isso, é possível pedir ao Judiciário uma tutela de urgência (arts. 294 a 300 do Código de Processo Civil5), para que o juiz determine a retirada imediata do conteúdo antes do fim do processo. 
  3. Indenização por danos morais: o Código Civil autoriza a proibição do uso da imagem quando houver ofensa à honra, à reputação ou utilização indevida, assegurando também o direito à indenização. No caso de deepfakes, a criação e divulgação de conteúdo falso com a imagem de alguém pode configurar violação aos direitos da personalidade, sendo possível o reconhecimento do dano moral. 
  4. Consequências criminais: dependendo do objetivo da manipulação, o responsável pode responder, inclusive, criminalmente. Entre as hipóteses possíveis estão: crimes contra a honra (calúnia, difamação ou injúria)6; invasão de dispositivo informático, tipificada pela Lei Carolina Dieckmann7, quando houver obtenção indevida de imagens ou dados8; divulgação de cena de nudez ou ato sexual sem consentimento9, aplicável em casos de pornografia não consensual, inclusive quando gerada por manipulação tecnológica.

Diante da sofisticação das fraudes digitais, a agilidade na resposta é o fator que mais minimiza os danos à reputação e ao patrimônio. Se você suspeita que está sendo alvo de uma manipulação ou se já foi vítima de um golpe envolvendo sua imagem, é busque orientação especializada imediatamente para interromper a propagação do conteúdo e identificar os responsáveis.

A proteção dos seus direitos no ambiente virtual não pode esperar. Se você passou por essa situação ou precisa de auxílio para reagir a um crime digital, entre em contato conosco para entender as medidas urgentes cabíveis para o seu caso.

  1. BRASIL. Código Civil (2002). Lei nº 10.406, de 10 de janeiro de 2002. Institui o Código Civil. Brasília, DF: Presidência da República, [2026]. Disponível em: http://www.planalto.gov.br/ccivil_03/leis/2002/l10406compilada.htm. Acesso em: 27/02/2026. ↩︎
  2. BRASIL. Lei Geral de Proteção de Dados Pessoais (2018). Lei nº 13.709, de 14 de agosto de 2018. Dispõe sobre a proteção de dados pessoais e altera a Lei nº 12.965, de 23 de abril de 2014 (Marco Civil da Internet). Brasília, DF: Presidência da República, [2026]. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 27/02/2026. ↩︎
  3. BRASIL. Constituição (1988). Constituição da República Federativa do Brasil de 1988. Brasília, DF: Presidência da República, [2026]. Disponível em: http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm. Acesso em 27/02/2026. ↩︎
  4. BRASIL. Marco Civil da Internet (2014). Lei nº 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Brasília, DF: Presidência da República, [2026]. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso em 27/02/2026. ↩︎
  5. BRASIL. Código de Processo Civil (2015). Lei nº 13.105, de 16 de março de 2015. Código de Processo Civil. Brasília, DF: Presidência da República, [2026]. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2015/lei/l13105.htm. Acesso em 27/02/2026. ↩︎
  6. No Código Penal, os crimes contra a honra estão tipificados nos seguintes artigos: Calúnia (Art. 138), que consiste em imputar falsamente a alguém fato definido como crime; Difamação (Art. 139), que é a imputação de fato ofensivo à reputação; e Injúria (Art. 140), que ocorre quando se profere ofensa à dignidade ou ao decoro da pessoa. No contexto das deepfakes, a pena pode ser agravada se o crime é cometido ou divulgado em redes sociais ou comunidades virtuais (Art. 141, §2º). BRASIL. Código Penal (1940). Decreto-Lei nº 2.848, de 7 de dezembro de 1940. Código Penal. Brasília, DF: Presidência da República, [2026]. Disponível em: http://www.planalto.gov.br/ccivil_03/decreto-lei/del2848compilado.htm. Acesso em 27/02/2026. ↩︎
  7. BRASIL. Lei nº 12.737, de 30 de novembro de 2012. Altera o Decreto-Lei nº 2.848, de 7 de dezembro de 1940 – Código Penal, para dispor sobre a tipificação criminal de delitos informáticos; e dá outras providências. Brasília, DF: Presidência da República, [2026]. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2012/lei/l12737.htm. Acesso em 27/02/2026. ↩︎
  8. A Lei Carolina Dieckmann (Lei nº 12.737/2012) alterou o Código Penal para incluir o crime de Invasão de Dispositivo Informático (Art. 154-A). O delito configura-se ao invadir dispositivo alheio (computador, smartphone, servidores) com o fim de obter, adulterar ou destruir dados ou informações sem autorização do titular e a pena é aumentada se a invasão resulta na obtenção de conteúdo de comunicações eletrônicas privadas, segredos comerciais ou industriais, e informações sigilosas. No caso de deepfakes, este artigo é fundamental quando a imagem ou voz usada na manipulação foi obtida através de um ataque hacker ou acesso indevido a arquivos privados. ↩︎
  9. O crime de Divulgação de Cena de Nudez ou Ato Sexual sem Consentimento (art. 218-C do Código Penal) foi incluído pela Lei nº 13.718/2018. Ele pune a conduta de oferecer, trocar, disponibilizar, transmitir, vender, publicar ou divulgar, por qualquer meio, fotografia, vídeo ou outro registro que contenha cena de nudez ou de ato sexual ou libidinoso sem o consentimento da vítima. É importante destacar que a lei é aplicável mesmo quando a imagem é gerada por manipulação tecnológica (deepfakes), e a pena é aumentada de 1/3 a 2/3 se o crime é praticado por agente que mantém ou tenha mantido relação íntima de afeto com a vítima ou com o fim de vingança ou humilhação (pornografia de vingança). ↩︎


Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *