Por Débora Quaiato e Raphaela Nogueira
O avanço da Inteligência Artificial consolidou uma nova era para a computação: a do aprendizado profundo ou Deep Learning.
Deep Learning é um método que simula camadas de redes neurais humanas, permitindo que máquinas processem dados brutos e não estruturados, como as nuances de um rosto ou o timbre de uma voz, para extrair padrões de altíssima fidelidade.
É nesse cenário que surgem as deepfakes, conteúdos gerados sinteticamente que desafiam a nossa percepção do que é real, transformando a identidade biométrica em um conjunto de vetores matemáticos manipuláveis.
A criação dessas mídias envolve sistemas sofisticados conhecidos como Redes Adversárias Generativas (GANs). O processo é uma espécie de “competição” algorítmica: enquanto uma rede se dedica a criar imagens falsas, a outra atua como um crítico severo, tentando detectar falhas. Dessa disputa constante, o resultado é um conteúdo cada vez mais convincente, capaz de replicar não apenas a estética visual, mas também a sintetização de vozes.
Além das GANs, os autocodificadores desempenham um papel importante ao “limpar” ruídos visuais e sombras, focando apenas nos traços fundamentais da face, o que torna as transformações digitais versáteis e aplicáveis a qualquer contexto.
No âmbito jurídico, essa capacidade de despersonificação e recriação traz riscos severos. A identidade sintética é frequentemente produzida por criminosos cibernéticos para a prática de estelionatos, golpes de engenharia social e até a manipulação de mercados financeiros.
Além disso, o uso político de deepfakes para desinformação em massa tornou-se uma preocupação central para os Tribunais Eleitorais, exigindo uma resposta rápida do Direito para proteger a integridade do processo democrático e a honra objetiva dos cidadãos.
A proteção contra essas ameaças exige uma interpretação ampliada do Código Civil1 e da Lei Geral de Proteção de Dados (LGPD)2. Uma vez que o rosto e a voz são considerados dados, sua captura para treinamento de redes neurais sem consentimento explícito configura uma infração grave.
No campo da responsabilidade civil, o desafio reside em identificar a cadeia de custódia do dado: quem produziu, quem forneceu a ferramenta e quem lucrou com a veiculação da imagem falsa.
Para indivíduos e empresas, a segurança jurídica depende agora de uma postura preventiva. Isso inclui a implementação de protocolos de autenticação que vão além da biometria simples, bem como auditorias constantes de presença digital.
O Direito Digital não busca proibir a inovação tecnológica, mas garantir que a essência humana, convertida em código pelos autocodificadores, não seja utilizada como arma para fraudes. Em um mundo onde o digital e o físico se fundem, a proteção da imagem deixou de ser apenas uma questão estética para se tornar uma prioridade estratégica de conformidade e integridade.
Como identificar e reagir a Deepfakes
Apesar dos avanços expressivos das redes neurais e dos autocodificadores em 2026, a produção sintética ainda não é absolutamente impecável, sempre restam pequenos indícios de artificialidade. Reconhecer esses vestígios é fundamental como ponto de partida para a adequada tutela jurídica.
1. Como identificar a fraude a “olho nu”:
Mesmo com tecnologias extremamente avançadas, ainda é possível notar certos detalhes que demonstram a artificialidade de um conteúdo:
- Olhar artificial: sistemas de IA frequentemente não conseguem reproduzir com total fidelidade o brilho natural dos olhos nem o padrão espontâneo das piscadas, que, em pessoas reais, ocorre em intervalos variados e naturais;
- Falta de sincronia labial: observe se os movimentos da boca acompanham perfeitamente o áudio. Pequenos atrasos ou desalinhamentos entre fala e imagem podem indicar manipulação;
- Sombras e contornos irregulares: em cenas com movimentos mais rápidos de cabeça, podem surgir bordas imprecisas, sombras deslocadas ou leves distorções ao redor do rosto;
- Textura de pele: uma aparência muito lisa, sem poros, marcas ou variações naturais na pele, podem revelar a aplicação de técnicas de geração ou edição por inteligência artificial.
2. Medidas de proteção:
A prevenção jurídica começa com práticas simples, mas estratégicas, de verificação e análise de contexto:
- Analise o contexto: desconfie de solicitações que fogem ao padrão habitual de comunicação da pessoa ou empresa, especialmente aquelas que impõem um senso de urgência injustificada ou pressão emocional;
- Confirmação por canal alternativo: ao receber uma solicitação urgente por vídeo, especialmente envolvendo valores, contratos ou dados sensíveis, confirme a informação por outro meio independente, como uma ligação para um número já conhecido ou uma mensagem criptografada;
- Teste de interação imediata: em caso de dúvida durante uma videochamada, peça que a pessoa realize um movimento inesperado, como virar o rosto de lado, mostrar um objeto específico ou posicionar a mão diante da câmera. Conteúdos manipulados em tempo real costumam apresentar falhas visuais ou distorções nesses momentos;
- Autenticação multifatores reforçada: não confie apenas em reconhecimento facial ou de voz para proteger acessos sensíveis. Sempre associe estes recursos a um segundo fator de segurança, como token físico, aplicativo autenticador ou código PIN.
As deepfakes são frequentemente utilizadas em golpes de engenharia social onde o criminoso simula uma crise (financeira, jurídica ou técnica) para impedir que a vítima reflita criticamente. Observe se a linguagem utilizada é coerente com quem se apresenta no vídeo e se o pedido envolve a quebra de protocolos de segurança ou sigilo, o que é um forte indicativo de fraude.
3. Como agir perante a lei diante de uma Deepfake?
Se você descobrir que sua imagem ou sua voz foram manipuladas para fins ilícitos, é importante saber que o Direito brasileiro já dispõe de mecanismos de proteção. A Constituição Federal3 assegura a inviolabilidade da honra, da imagem, da intimidade e da vida privada, e o Código Civil reforça essa tutela ao tratar dos chamados direitos da personalidade.
O Marco Civil da Internet4 prevê mecanismos para responsabilização e remoção de conteúdo, especialmente quando há violação de direitos. Em situações que envolvem intimidade ou nudez sem consentimento, há hipóteses específicas de remoção mais célere, buscando impedir que o dano à reputação se amplie e prejudique a vítima ainda mais.
Veja as principais medidas possíveis:
- Produção de provas: para que haja responsabilização, é fundamental preservar a prova. Um dos instrumentos mais utilizados é a ata notarial, lavrada em cartório, que certifica a existência do conteúdo digital em determinada data. Também podem ser usados registros técnicos de preservação de evidências digitais e perícia especializada. Em todos os casos, é sempre recomendável realizar capturas ou gravações de tela que comprovem a existência do deepfake, bem como que demonstrem onde está publicado. O objetivo aqui é impedir que o autor apague o material e alegue inexistência do fato.
- Remoção rápida do conteúdo: na internet, cada minuto conta. Por isso, é possível pedir ao Judiciário uma tutela de urgência (arts. 294 a 300 do Código de Processo Civil5), para que o juiz determine a retirada imediata do conteúdo antes do fim do processo.
- Indenização por danos morais: o Código Civil autoriza a proibição do uso da imagem quando houver ofensa à honra, à reputação ou utilização indevida, assegurando também o direito à indenização. No caso de deepfakes, a criação e divulgação de conteúdo falso com a imagem de alguém pode configurar violação aos direitos da personalidade, sendo possível o reconhecimento do dano moral.
- Consequências criminais: dependendo do objetivo da manipulação, o responsável pode responder, inclusive, criminalmente. Entre as hipóteses possíveis estão: crimes contra a honra (calúnia, difamação ou injúria)6; invasão de dispositivo informático, tipificada pela Lei Carolina Dieckmann7, quando houver obtenção indevida de imagens ou dados8; divulgação de cena de nudez ou ato sexual sem consentimento9, aplicável em casos de pornografia não consensual, inclusive quando gerada por manipulação tecnológica.
Diante da sofisticação das fraudes digitais, a agilidade na resposta é o fator que mais minimiza os danos à reputação e ao patrimônio. Se você suspeita que está sendo alvo de uma manipulação ou se já foi vítima de um golpe envolvendo sua imagem, é busque orientação especializada imediatamente para interromper a propagação do conteúdo e identificar os responsáveis.
A proteção dos seus direitos no ambiente virtual não pode esperar. Se você passou por essa situação ou precisa de auxílio para reagir a um crime digital, entre em contato conosco para entender as medidas urgentes cabíveis para o seu caso.
—
- BRASIL. Código Civil (2002). Lei nº 10.406, de 10 de janeiro de 2002. Institui o Código Civil. Brasília, DF: Presidência da República, [2026]. Disponível em: http://www.planalto.gov.br/ccivil_03/leis/2002/l10406compilada.htm. Acesso em: 27/02/2026. ↩︎
- BRASIL. Lei Geral de Proteção de Dados Pessoais (2018). Lei nº 13.709, de 14 de agosto de 2018. Dispõe sobre a proteção de dados pessoais e altera a Lei nº 12.965, de 23 de abril de 2014 (Marco Civil da Internet). Brasília, DF: Presidência da República, [2026]. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 27/02/2026. ↩︎
- BRASIL. Constituição (1988). Constituição da República Federativa do Brasil de 1988. Brasília, DF: Presidência da República, [2026]. Disponível em: http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm. Acesso em 27/02/2026. ↩︎
- BRASIL. Marco Civil da Internet (2014). Lei nº 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Brasília, DF: Presidência da República, [2026]. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso em 27/02/2026. ↩︎
- BRASIL. Código de Processo Civil (2015). Lei nº 13.105, de 16 de março de 2015. Código de Processo Civil. Brasília, DF: Presidência da República, [2026]. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2015/lei/l13105.htm. Acesso em 27/02/2026. ↩︎
- No Código Penal, os crimes contra a honra estão tipificados nos seguintes artigos: Calúnia (Art. 138), que consiste em imputar falsamente a alguém fato definido como crime; Difamação (Art. 139), que é a imputação de fato ofensivo à reputação; e Injúria (Art. 140), que ocorre quando se profere ofensa à dignidade ou ao decoro da pessoa. No contexto das deepfakes, a pena pode ser agravada se o crime é cometido ou divulgado em redes sociais ou comunidades virtuais (Art. 141, §2º). BRASIL. Código Penal (1940). Decreto-Lei nº 2.848, de 7 de dezembro de 1940. Código Penal. Brasília, DF: Presidência da República, [2026]. Disponível em: http://www.planalto.gov.br/ccivil_03/decreto-lei/del2848compilado.htm. Acesso em 27/02/2026. ↩︎
- BRASIL. Lei nº 12.737, de 30 de novembro de 2012. Altera o Decreto-Lei nº 2.848, de 7 de dezembro de 1940 – Código Penal, para dispor sobre a tipificação criminal de delitos informáticos; e dá outras providências. Brasília, DF: Presidência da República, [2026]. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2012/lei/l12737.htm. Acesso em 27/02/2026. ↩︎
- A Lei Carolina Dieckmann (Lei nº 12.737/2012) alterou o Código Penal para incluir o crime de Invasão de Dispositivo Informático (Art. 154-A). O delito configura-se ao invadir dispositivo alheio (computador, smartphone, servidores) com o fim de obter, adulterar ou destruir dados ou informações sem autorização do titular e a pena é aumentada se a invasão resulta na obtenção de conteúdo de comunicações eletrônicas privadas, segredos comerciais ou industriais, e informações sigilosas. No caso de deepfakes, este artigo é fundamental quando a imagem ou voz usada na manipulação foi obtida através de um ataque hacker ou acesso indevido a arquivos privados. ↩︎
- O crime de Divulgação de Cena de Nudez ou Ato Sexual sem Consentimento (art. 218-C do Código Penal) foi incluído pela Lei nº 13.718/2018. Ele pune a conduta de oferecer, trocar, disponibilizar, transmitir, vender, publicar ou divulgar, por qualquer meio, fotografia, vídeo ou outro registro que contenha cena de nudez ou de ato sexual ou libidinoso sem o consentimento da vítima. É importante destacar que a lei é aplicável mesmo quando a imagem é gerada por manipulação tecnológica (deepfakes), e a pena é aumentada de 1/3 a 2/3 se o crime é praticado por agente que mantém ou tenha mantido relação íntima de afeto com a vítima ou com o fim de vingança ou humilhação (pornografia de vingança). ↩︎


Deixe um comentário