Golpes com inteligência artificial ficam mais sofisticados a cada dia. Como se proteger?
De montagens em vídeo extremamente realistas a chamadas de vídeo em que o rosto e a voz de alguém são manipulados em tempo real, uma nova geração de golpes digitais está se apoiando na inteligência artificial (IA) para enganar vítimas com um nível de verossimilhança que, até pouco tempo atrás, parecia coisa de cinema.
Em questão de segundos, é possível criar um vídeo em que um empresário conhecido recomenda um investimento “infalível”. Uma figura pública aparece pedindo doações emergenciais para uma causa nobre. Um suposto chefe surge em uma reunião online exigindo que um pagamento seja realizado imediatamente. Na prática, nada daquilo aconteceu – mas, aos olhos de quem assiste, tudo parece autêntico.
A IA levou o estelionato digital a um novo patamar. Se antes os golpes se limitavam a e‑mails mal escritos ou mensagens com erros gritantes, hoje eles chegam em formato de vídeos bem produzidos, áudios com vozes clonadas e perfis falsos que reproduzem, com precisão, o jeito de falar e se comportar de pessoas reais. Diferenciar o que é verdadeiro do que é fabricado exige atenção redobrada e algum grau de conhecimento sobre como essas tecnologias funcionam.
Os números mostram que não se trata de um problema localizado, mas de um fenômeno global já consolidado. No Brasil, fraudes com deepfakes e identidades sintéticas aumentaram 126% entre 2024 e 2025, de acordo com o relatório Identity Fraud Report 2025-2026. O país concentra quase 39% de todos os deepfakes detectados na América Latina, o que evidencia o tamanho do desafio para consumidores, empresas e autoridades.
Além da sofisticação, há um fator de escala. Um levantamento de uma empresa de cibersegurança apontou 309 milhões de tentativas de phishing bloqueadas em apenas um ano no Brasil – o que corresponde, em média, a 588 ataques por minuto. São milhões de iscas sendo lançadas diariamente, combinando técnicas tradicionais com recursos de IA para aumentar as chances de sucesso dos criminosos.
O impacto financeiro dessa onda de golpes é expressivo. Dados do DataSenado indicam que 24% dos brasileiros adultos foram vítimas de alguma forma de fraude digital nos últimos 12 meses. As perdas acumuladas chegaram a cerca de R$ 10,1 bilhões em 2024, conforme estimativas do setor bancário. Por trás de cada número há negócios prejudicados, economias de uma vida desaparecendo e traumas que nem sempre aparecem nas estatísticas.
Para quem acompanha de perto a evolução do audiovisual e das ferramentas de IA, o cenário é cristalino: a mesma tecnologia que permite criar filmes, conteúdos e campanhas publicitárias de forma mais rápida também foi incorporada ao arsenal dos golpistas. Como resume o diretor criativo e estrategista de comunicação digital Náthan Ximenes, fundador da NTX Group, hoje qualquer pessoa com um computador e acesso às ferramentas certas pode gerar imagens, vídeos e vozes extremamente convincentes. Não é mais algo restrito a grandes estúdios ou centros de pesquisa. Isso democratiza a criação, mas também abre a porta para fraudes em larga escala.
No coração de muitos desses golpes estão os deepfakes – conteúdos em que imagem, áudio ou ambos são manipulados para simular alguém dizendo ou fazendo algo que nunca ocorreu. Em inúmeros casos, criminosos utilizam o rosto de celebridades, políticos, executivos ou influenciadores para emprestar credibilidade instantânea às suas propostas. A apresentação é tão polida que, para quem vê rapidamente em uma rede social ou status de aplicativo de mensagens, parece apenas “mais um vídeo” como tantos outros.
O avanço é vertiginoso. Um estudo do Observatório Lupa identificou um crescimento de 308% na circulação de conteúdos falsos gerados com IA no Brasil entre 2024 e 2025. A maior parte desse material se espalha por redes sociais e aplicativos de mensagens, muitas vezes impulsionado por anúncios pagos ou embalado como vídeos virais de “oportunidade imperdível” ou “alerta urgente”.
Segundo Náthan Ximenes, a qualidade técnica dessas produções já é suficiente para confundir até usuários experientes. Para o público em geral, detectar que algo está errado apenas com uma olhada rápida se torna quase impossível. Ainda existem pistas – como certos padrões estranhos na movimentação do rosto, detalhes repetidos no fundo do vídeo, sombras incoerentes ou microexpressões que não acompanham a fala -, mas essas falhas estão ficando cada vez mais discretas conforme os modelos de IA evoluem.
Outro ponto que mudou foi a estratégia dos criminosos. No passado, predominavam ataques em massa, baseados em mensagens padronizadas enviadas para o maior número possível de pessoas. Agora, cresce o modelo de golpes personalizados, que exploram dados públicos e informações coletadas nas redes para criar narrativas sob medida para cada vítima ou empresa. Em vez de arriscar disparos genéricos, os golpistas preferem poucos alvos, mas com altíssimo potencial de prejuízo.
Entre os golpes mais comuns impulsionados por IA estão:
– Vídeos falsos de celebridades ou especialistas promovendo investimentos, plataformas financeiras ou criptomoedas com supostos lucros garantidos.
– Clonagem de voz para simular familiares em situação de emergência ou executivos pedindo transações urgentes.
– Depoimentos de “clientes satisfeitos” em anúncios de emprego, renda extra ou cursos milagrosos, totalmente fabricados com IA.
– Perfis falsos que replicam com precisão o visual, a escrita e o comportamento de influenciadores, líderes empresariais ou personalidades políticas.
– Reuniões virtuais em que a imagem e a voz de um gestor são falsificadas via deepfake para autorizar pagamentos, mudanças de contrato ou transferências de alto valor.
Apesar da crescente sofisticação, ainda é possível reduzir significativamente o risco de cair em golpes com IA adotando alguns cuidados e criando uma espécie de “higiene digital” diária. A seguir, alguns princípios e práticas que ajudam na prevenção.
1. Desconfiar do excesso de urgência e emoção
Golpistas sabem que, quando uma pessoa está assustada, animada demais ou sob forte pressão de tempo, tende a pensar menos e decidir mais rápido. Por isso, quase todos os golpes digitais – com ou sem IA – se baseiam em gatilhos emocionais.
Desconfie se a mensagem:
– Impõe um prazo irreal (“últimas vagas só hoje”, “transferir em 10 minutos ou a oportunidade acaba”);
– Apela para medo, culpa ou desespero (“se você não ajudar agora, algo terrível vai acontecer”);
– Oferece ganhos muito acima do que o mercado normalmente pratica, sem riscos claros.
Em qualquer dessas situações, faça uma pausa, respire, e verifique por outros canais se aquela demanda é legítima.
2. Verificar por meio de um segundo canal
Recebeu um vídeo do “seu chefe” pedindo uma transferência urgente? Um áudio do “seu filho” pedindo dinheiro por estar em perigo? Um contato da “gerente do banco” pedindo senhas ou códigos?
Nunca se baseie apenas naquele canal inicial. Confirme sempre por outro meio:
– Ligue diretamente para o número oficial da pessoa ou instituição, usando um contato que você já tinha salvo;
– Envie uma mensagem para o número antigo de quem supostamente fez o pedido e confirme;
– Em ambiente corporativo, valide solicitações financeiras com mais de uma pessoa ou por processos internos formais.
Se for um deepfake, os golpistas quase sempre vão inventar desculpas para impedir essa checagem. Isso, por si só, é um sinal de alerta.
3. Observar detalhes visuais e sonoros
Mesmo os melhores deepfakes ainda apresentam pequenas inconsistências. Alguns pontos que vale prestar atenção:
– Boca e voz: os lábios acompanham fielmente a fala? Há atraso, descompasso ou movimentos estranhos?
– Olhos: piscam de maneira natural? Olham para o lugar certo? Ficam “fixos” demais?
– Iluminação: sombras no rosto e no ambiente parecem coerentes com a luz do local?
– Fundo: há elementos duplicados, deformados ou com bordas borradas?
– Áudio: ruídos, cortes bruscos ou entonação “mecânica” podem indicar manipulação.
Nada disso é garantia absoluta, mas a soma de pequenos indícios ajuda a formar um julgamento mais crítico.
4. Proteger sua própria identidade digital
Quanto mais material seu existe na internet – fotos, vídeos, áudios, lives – mais matéria‑prima um criminoso tem para criar um deepfake crível. Não se trata de nunca mais aparecer na rede, mas de reduzir a exposição desnecessária:
– Evite publicar documentos, dados pessoais ou informações sensíveis (endereço, rotina, locais que frequenta diariamente);
– Seja criterioso ao deixar perfis e postagens em modo público;
– Pense duas vezes antes de participar de “brincadeiras” que pedem gravação de frases específicas ou áudios longos;
– Revise permissões concedidas a aplicativos que coletam voz e imagem.
Empresas também devem rever políticas de exposição de executivos, principalmente quando envolvem declarações públicas sobre finanças, investimentos ou decisões estratégicas.
5. Reforçar a educação digital em casa e no trabalho
Tecnologia sozinha não resolve; é preciso conhecimento. Incluir conversas sobre golpes digitais e o papel da IA nas fraudes no dia a dia é essencial:
– Em casa, explique a familiares mais velhos e adolescentes como funcionam os deepfakes e por que não se deve compartilhar códigos, senhas ou dados financeiros;
– Nas empresas, ofereça treinamentos regulares sobre engenharia social, phishing avançado e golpes com IA, com exemplos práticos;
– Estabeleça regras claras para autorizações financeiras, assinaturas de contratos e envio de documentos sensíveis.
Quanto mais natural for falar sobre o tema, menor a chance de alguém sentir vergonha de pedir ajuda ou confirmar uma suspeita.
6. Usar camadas de segurança tecnológica
Embora o fator humano seja decisivo, soluções tecnológicas bem configuradas ajudam a filtrar ameaças:
– Ferramentas de detecção de phishing e de malware atualizadas;
– Sistemas de verificação em duas etapas (MFA) em bancos, e‑mails, redes sociais e sistemas corporativos;
– Monitoramento de acessos suspeitos e alertas em tempo real;
– Políticas de bloqueio de dispositivos e contas após tentativas de acesso indevidas.
No caso das empresas, vale investir em soluções específicas de detecção de deepfakes e em ferramentas de monitoramento de menções à marca em ambientes digitais, para identificar rapidamente perfis falsos ou campanhas fraudulentas usando o nome da organização.
7. Adotar processos robustos para transações financeiras
Nas fraudes mais sofisticadas, o objetivo final quase sempre é o mesmo: movimentar dinheiro. Criar barreiras processuais, e não apenas tecnológicas, é uma das defesas mais eficientes:
– Exigir dupla aprovação para transferências acima de determinado valor;
– Padronizar canais oficiais para pedidos de pagamento (por exemplo, nunca autorizar por mensagem instantânea);
– Registrar por escrito, em sistema interno, qualquer autorização excepcional, deixando trilhas de auditoria;
– Revisar periodicamente essas regras, adaptando‑as a novos tipos de golpe identificados.
Isso dificulta que uma simples chamada de vídeo ou um áudio convincente seja suficiente para liberar grandes quantias.
8. Entender que qualquer pessoa pode ser alvo
Muitos ainda acreditam que só “quem é ingênuo” cai em golpes digitais. Essa visão, além de injusta, é perigosa. O nível atual das fraudes com IA é tão alto que até profissionais experientes em tecnologia podem ser enganados, sobretudo em situações de pressão.
Aceitar que todos são potenciais vítimas ajuda a criar um ambiente mais acolhedor para que incidentes sejam reportados rapidamente. Quanto mais cedo um golpe é identificado, maiores as chances de bloquear transações, avisar contatos e reduzir danos.
9. Acompanhar a evolução das leis e das políticas públicas
A resposta a esse novo cenário também passa pela regulação. Diversos países debatem regras específicas para o uso de IA, incluindo obrigações de transparência em conteúdos gerados artificialmente, limites para uso de imagem e voz de terceiros e punições mais duras para quem utiliza essas ferramentas em fraudes.
Mesmo que o cidadão comum não acompanhe cada detalhe jurídico, é importante saber que:
– A legislação de proteção de dados e do consumidor já pode ser acionada em muitos casos de golpes digitais;
– Instituições financeiras e empresas de tecnologia tendem a aprimorar processos de segurança conforme novas normas entram em vigor;
– Denunciar é um passo fundamental para que órgãos de investigação mapeiem tendências e atuem de forma mais eficaz.
10. Construir uma postura permanente de ceticismo saudável
No fim das contas, a melhor defesa em um mundo de imagens e vozes fabricáveis é desenvolver um “ceticismo saudável”: não acreditar automaticamente em tudo o que se vê e ouve na tela, por mais convincente que pareça.
Isso não significa viver em paranoia, mas adotar algumas perguntas padrão sempre que se deparar com conteúdos impactantes:
– Quem está se beneficiando se eu acreditar nisso?
– Esse pedido ou oferta faz sentido com a realidade daquela pessoa ou instituição?
– Eu já vi esse tipo de abordagem vinda dessa fonte em outras ocasiões?
– Posso confirmar essa informação em outro lugar, por outro canal?
A inteligência artificial veio para ficar e trará muitos benefícios em diferentes áreas. Porém, o mesmo poder de criação pode ser usado para enganar. Nesse cenário, combinar tecnologia, processos, educação e senso crítico se torna essencial. Quanto mais informada e preparada estiver a sociedade, menor será o espaço para golpes que se apoiam na surpresa e na desinformação.