Oitocentos e trinta por cento. Esse foi o aumento de golpes usando deepfake no Brasil em apenas um ano, segundo levantamento da Sumsub, plataforma de verificação de identidade. O número assusta, mas a realidade preocupa ainda mais: milhões de brasileiros estão expostos diariamente a vídeos e áudios falsos criados por inteligência artificial, muitos deles tão convincentes que até especialistas demoram para identificar a fraude.
O caso mais recente envolveu o ministro da Fazenda, Fernando Haddad. Em março de 2025, criminosos manipularam um discurso antigo do ministro para criar um vídeo falso sobre o resgate de "valores esquecidos no CPF". A gravação original era de 2022, quando Haddad era candidato ao governo de São Paulo. Com técnicas de inteligência artificial, os golpistas alteraram completamente o contexto, inserindo um falso prazo final para resgate e direcionando vítimas para um site fraudulento que roubava dados pessoais e cobrava R$ 59,90 via Pix.
A Defensoria Pública do Ceará registrou casos semelhantes envolvendo até mesmo a própria instituição. Golpistas clonaram fotos, vídeos e nomes de defensores públicos para solicitar pagamentos falsos de assistidos, prometendo liberação de valores inexistentes. "O maior risco é o colapso da confiança coletiva. Ninguém acredita em mais nada. Esse cinismo, o 'tanto faz, todos mentem', é o veneno mais potente contra qualquer democracia", alertou Janiel Marinho, especialista em direito digital entrevistado pela Defensoria.

A tecnologia por trás da ameaça
Deepfakes são conteúdos digitais criados com algoritmos de aprendizado profundo que replicam rostos, vozes e movimentos com realismo impressionante. A técnica usa redes neurais generativas adversárias — dois sistemas de inteligência artificial que competem entre si: um cria a falsificação e outro tenta detectá-la. O processo se repete milhares de vezes até que o conteúdo falso fique indistinguível do real.
O que antes exigia conhecimento técnico avançado hoje está disponível em aplicativos gratuitos para smartphones. Segundo Brian Long, diretor-executivo da empresa de segurança cibernética Adaptive Security, em entrevista ao Wall Street Journal, a situação mudou drasticamente: "Há um ano, talvez um em cada dez executivos de segurança que conversei tivesse visto um deepfake. Agora, esse número está perto de cinco em cada dez".
O Brasil concentrou 47% dos ataques de deepfake e ransomware na América Latina em 2024, superando México e Colômbia. Entre abril de 2024 e março de 2025, fraudes usando clonagem de voz e vídeos falsos aumentaram 148% globalmente, segundo dados do Identity Theft Resource Center. A BioCatch, empresa especializada em segurança digital, aponta que metade dos brasileiros sofreu algum tipo de golpe digital em 2024.
Sinais visuais que entregam a farsa
Mesmo com os avanços tecnológicos, deepfakes ainda deixam rastros que podem ser detectados com atenção aos detalhes. Gabriel Gomes de Oliveira, membro do Instituto de Engenheiros Elétricos e Eletrônicos, compartilhou seis recomendações práticas para identificar vídeos manipulados.
Os olhos são o ponto fraco mais evidente. Em vídeos falsos, o olhar costuma parecer vítreo ou desfocado, sem o brilho natural característico. A pessoa pode manter uma postura fixa, sem os micromovimentos naturais que os olhos reais fazem constantemente. Além disso, a frequência de piscadas geralmente é anormal: ou piscam menos que o normal, ou fazem o movimento de forma estranha e mecânica.
A sincronização labial também revela manipulações. Embora a tecnologia tenha evoluído, ainda é comum encontrar vídeos deepfake com movimentos de boca que não coincidem perfeitamente com o áudio, especialmente em palavras que exigem movimentos labiais mais pronunciados. Frases curtas ou pausas abruptas também são sinais de alerta.
Expressões faciais desconectadas denunciam a artificialidade. Quando uma pessoa sorri, não é apenas a boca que se move: as bochechas se erguem, os olhos se enrugam, todo o rosto participa. Deepfakes têm dificuldade com essa complexidade. Se alguém parecer alegre ao dar más notícias, ou robótico ao contar uma história pessoal, desconfie.
Detalhes técnicos que passam despercebidos
A iluminação inconsistente é outro indicador. Produção de vídeo profissional mantém iluminação uniforme em toda a gravação. Deepfakes frequentemente apresentam sombras faciais que não correspondem à direção da luz ambiente ou reflexos incorretos nos olhos. Se os reflexos nos olhos não batem com as fontes de luz da cena, há grande chance de manipulação.
Bordas borradas ao redor do rosto, principalmente perto da linha do cabelo, do pescoço ou das orelhas, indicam sobreposição mal feita. O cabelo é particularmente difícil para algoritmos reproduzirem: fios individuais podem parecer pintados ou não se movimentam naturalmente com o movimento da cabeça.
Especialistas da Acronis, empresa de segurança digital, alertam para diferenças de tonalidade entre rosto e corpo. A inteligência artificial ainda tem dificuldades em manter coloração consistente, resultando em partes da pele que parecem mais claras ou escuras sem razão aparente. Texturas de pele "plastificadas" ou com brilho artificial também são comuns.
A qualidade deliberadamente baixa do vídeo merece atenção especial. Golpistas reduzem propositalmente a resolução para esconder sinais de manipulação, dificultando a percepção de dessincronização labial, erros em expressões faciais e distorções visuais. Se um suposto comunicado oficial de autoridade está em baixa resolução, desconfie.
Áudio que não convence completamente
Padrões de respiração não naturais são grandes sinais de alerta em áudios clonados. A fala sintética ainda não domina completamente as nuances do tom humano, criando flutuações de voz inconsistentes ou ritmo truncado mesmo quando a reprodução parece real.
Margaret Cunningham, diretora de segurança da empresa Darktrace, explica em entrevista ao Wall Street Journal: "Os golpistas criam deepfakes que imitam a voz, tom, padrões de fala e até o sotaque do funcionário real em quase tempo real. Esses ataques funcionam porque visam a forma como os humanos operam. Uma vez que a confiança é estabelecida, mesmo que brevemente, os invasores podem assumir um papel interno e solicitar ações que pareçam legítimas".
Movimentos corporais mecânicos ou fora do ritmo natural também denunciam falsificações. Transições abruptas ou gestos que não fluem organicamente acontecem porque a IA ainda não replica perfeitamente todos os aspectos do movimento humano.
O que fazer ao suspeitar de deepfake
Fabrício Carraro, especialista em inteligência artificial da Alura, recomenda: "Deepfakes podem ter pequenas falhas que são detectadas com uma observação minuciosa. Fique atento desde as expressões faciais e movimentos corporais das pessoas dos vídeos até contextos do cenário".
O primeiro passo é pausar o vídeo e analisá-lo fotograma a fotograma. No celular, arraste lentamente a barra de progresso e amplie a imagem para examinar olhos, pescoço e lábios. Pequenos detalhes, como um movimento estranho ou luzes incoerentes, podem denunciar a falsificação.
Confirme sempre informações urgentes por outro canal. Se receber pedido de transferência bancária por vídeo ou áudio, entre em contato diretamente com a pessoa através de número conhecido ou canal oficial. Nunca aja imediatamente em situações que exigem urgência extrema — essa é justamente a tática dos golpistas.
Ferramentas especializadas como TrueMedia, Deepware e DeepFake-o-Meter analisam vídeos e calculam a probabilidade de manipulação. Não são infalíveis, mas ajudam a confirmar suspeitas antes de compartilhar conteúdo ou tomar decisões baseadas em vídeos duvidosos.
Verifique a origem da informação consultando fontes reconhecidas. Compare o conteúdo suspeito em mais de um canal confiável. O Banco Central, por exemplo, mantém apenas um site oficial para consulta de valores a receber: valoresareceber.bcb.gov.br. Qualquer outro endereço solicitando dados pessoais ou pagamentos é fraude.
Proteção começa na prevenção
Limitar o compartilhamento de dados pessoais nas redes sociais dificulta o trabalho dos criminosos. Quanto menos fotos, vídeos e informações estiverem disponíveis publicamente, mais difícil será criar deepfakes convincentes. Configure perfis como privados e revise regularmente as definições de privacidade.
Estabelecer códigos de verificação com familiares e amigos ajuda a confirmar solicitações urgentes. Uma palavra-chave combinada previamente serve para validar identidade em situações suspeitas, especialmente quando envolvem pedidos de dinheiro.
A empresa de engenharia Arup, do Reino Unido, perdeu US$ 25 milhões em 2024 após videoconferência com executivos gerados por inteligência artificial. No Brasil, fraudes digitais já atingem 24% da população, segundo pesquisa do DataSenado, com tendência de crescimento conforme a tecnologia avança.
Se cair em golpe envolvendo deepfake, documente todas as evidências: salve vídeos, capturas de tela, comentários e anote data, hora e plataforma. Registre boletim de ocorrência imediatamente — a Polícia Civil investiga e prende quadrilhas especializadas através desses registros. No caso de Pix, solicite ao banco o mecanismo especial de devolução. Para cartão, peça bloqueio e tente estorno.
A literacia digital é o escudo mais eficaz contra deepfakes. Converse com familiares sobre o tema, compartilhe informações sobre golpes recentes e incentive todos a fazer perguntas simples antes de acreditar: quem enviou, o que está sendo pedido, quando isso aconteceu, onde verificar e por quê agora. A pressa é inimiga da percepção — diminua a velocidade, observe com calma e deixe o cérebro fazer aquilo que a inteligência artificial ainda não domina completamente: reparar nos detalhes humanos.

Comentários (0) Postar um Comentário