Ia que ataca: como modelos generativos viraram arma central dos ciberataques

A IA que ataca: quando a máquina deixa de defender e passa a invadir em tempo real

O ataque ao governo mexicano entre dezembro de 2025 e fevereiro de 2026 marcou um ponto de ruptura na história da cibersegurança. Pela primeira vez, em larga escala e com documentação consistente, cibercriminosos usaram modelos de linguagem comerciais – os mesmos disponíveis para qualquer empresa ou usuário – como cérebro operacional de uma campanha de invasão em tempo quase real.

Em menos de 40 minutos, os invasores conseguiram transformar um modelo de IA genérico em um “assistente de hacking” totalmente funcional. A chave foi o uso de técnicas de jailbreak, em que o sistema é persuadido a ignorar suas próprias barreiras de segurança por meio de instruções cuidadosamente elaboradas. Sob o pretexto de conduzir um teste ético e acadêmico de segurança, os criminosos convenceram a IA a se comportar como um “especialista em cibersegurança de elite”.

A partir daí, a máquina assumiu o volante. O modelo mapeou arquiteturas de rede, sugeriu caminhos de movimentação lateral, identificou 20 vulnerabilidades críticas, gerou scripts de exploração customizados e ajudou a coordenar a exfiltração de dados de 25 instituições governamentais mexicanas. O saldo: 150 GB de informações sensíveis ligadas a dados fiscais, eleitorais e de identidade civil, comprometendo cerca de 195 milhões de registros.

Ao contrário dos ataques “clássicos”, que exigiam meses de reconhecimento manual, planejamento e testes, essa operação foi conduzida em cadeias automatizadas. Quando uma instância de IA chegava ao seu limite ético e se recusava a prosseguir, os invasores simplesmente migravam a conversa para outro modelo, com outras regras e políticas. A inteligência artificial não foi apenas uma ferramenta auxiliar; ela atuou como estrategista, consultora técnica e operadora de parte do ataque.

Esse não é um episódio isolado. É o símbolo mais visível de uma virada que vinha sendo anunciada há algum tempo por especialistas em segurança: a IA definitivamente cruzou a fronteira e passou a compor o arsenal ofensivo do crime digital.

Do apoio à invasão: a nova fronteira da IA ofensiva

Até pouco tempo, a IA era vista sobretudo como aliada dos defensores: detecção de anomalias, análise automática de logs, classificação de ameaças, correlação de alertas. Hoje, ela atua dos dois lados da trincheira.

Modelos generativos são capazes de:

– Redigir e-mails de phishing altamente convincentes, adaptados a contextos culturais e linguagens específicas.
– Criar malwares mais difíceis de identificar, com mutações constantes de código.
– Automatizar testes de credenciais, combinações de senhas e exploração de fragilidades conhecidas.
– Orquestrar o ciclo completo de ataque, da varredura inicial à extração final de dados, com mínima intervenção humana.

Essa evolução inaugura o que especialistas têm chamado de “IA Agente”: sistemas que não apenas respondem a perguntas, mas planejam, executam e ajustam ações de forma autônoma, inclusive na esfera criminosa.

Risco digital como tema de governança, não só de TI

Para José de Souza Júnior, diretor do Grupo RG Eventos, especialista em inteligência artificial e segurança cibernética e responsável pela proteção de eventos institucionais internacionais como a COP30, o impacto dessa mudança ainda é subestimado por muitos dirigentes.

“O risco digital deixou de ser apenas uma preocupação de tecnologia e passou a ser, ao mesmo tempo, um tema de governança, continuidade operacional, reputação e confiança institucional”, afirma.

Em outras palavras, discutir IA e cibersegurança já não é tarefa apenas do time de TI. Envolve conselhos de administração, áreas jurídica, comunicação, compliance e, sobretudo, a alta liderança, que passa a responder não só pela prevenção, mas também pela forma como reage a incidentes inevitáveis.

A aceleração dos ataques no mundo e na América Latina

O Fórum Econômico Mundial aponta a IA como o principal vetor de transformação da cibersegurança em 2026 – tanto pelo lado da defesa quanto pelo da ofensiva. E os números confirmam que a balança está longe de estar equilibrada.

Levantamento da Check Point Research indica que, no segundo trimestre de 2025, cada organização enfrentou, em média, 1.984 ataques cibernéticos por semana no mundo. Na América Latina, o cenário foi ainda mais grave: 2.803 ataques semanais por organização, um crescimento de 5% em relação ao ano anterior, com o Brasil concentrando parcela expressiva desses incidentes.

Essa escalada não é um acidente estatístico. É o efeito direto da IA incorporada a todo o ciclo de ataque: descoberta de alvos, estudo de vulnerabilidades, criação de iscas personalizadas, invasão e exfiltração. Tudo isso de forma adaptativa – a IA aprende com falhas, ajusta estratégias e propõe novos caminhos, com uma velocidade inalcançável por um operador humano atuando sozinho.

“Por um lado, ela amplia de maneira extraordinária nossa capacidade de detectar ameaças, automatizar respostas e acelerar análise e correções. Por outro, a mesma tecnologia viabiliza ataques altamente precisos, escaláveis e customizados, como manipulações sofisticadas e mega vazamentos. A IA Agente, capaz de gerenciar ciclos inteiros de invasão sem supervisão humana, é o melhor exemplo desse paradoxo”, alerta José de Souza Júnior.

Brasil: um campo de prova crítico para ataques com IA

No Brasil, o quadro ganha camadas adicionais de complexidade. Em 2025, o governo federal registrou 4,8 mil ataques cibernéticos à administração pública, o que representa uma média de 26 incidentes por dia, de acordo com dados do painel CTIR Gov do Gabinete de Segurança Institucional. Desse total, cerca de 3 mil ocorrências envolveram vazamento de dados.

O episódio mais emblemático foi o ataque à C&M Software, empresa intermediária do sistema Pix. Criminosos compraram credenciais de um funcionário terceirizado, acessaram os sistemas de forma não autorizada e exfiltraram 392 GB de informações. O prejuízo estimado ultrapassa R$ 1 bilhão, somando impacto financeiro, retrabalho operacional, danos à confiança no sistema de pagamentos instantâneos e risco para milhões de usuários.

No setor público, municípios se tornaram alvos preferenciais. A fatia de ataques contra prefeituras praticamente dobrou: de 14% dos incidentes em 2024 para 26% em 2025. Muitos desses órgãos ainda contam com infraestrutura defasada, equipes enxutas, baixa maturidade em gestão de risco e grande volume de dados sensíveis – combinação perfeita para ameaças apoiadas por IA.

Reforma tributária e explosão da superfície de ataque

Com a entrada em vigor, a partir de 2026, das obrigações acessórias da reforma tributária, a exposição digital de empresas e entes públicos tende a crescer de forma significativa. Mais integrações entre sistemas, maior volume de informações fiscais circulando eletronicamente, novas plataformas, APIs e painéis em nuvem ampliam a chamada superfície de ataque.

Para invasores que já utilizam IA para varrer redes em busca de pontos fracos, cada novo sistema, interface ou base de dados é uma oportunidade adicional. A automação permite testar, em larga escala, configurações inseguras, credenciais reaproveitadas, erros de integração e falhas de atualização em ambientes que, muitas vezes, foram implementados às pressas para cumprir prazos regulatórios.

Nesse contexto, a pergunta deixou de ser “se” haverá tentativas de exploração e passou a ser “quando” e “com que impacto”.

A assimetria entre defesa e ataque

Organizações costumam apostar em camadas tradicionais de proteção – firewalls, antivírus, VPNs – e, muitas vezes, consideram o trabalho concluído ao implementar uma solução de segurança. Porém, quando o atacante conta com IA, o jogo se torna estruturalmente assimétrico.

Enquanto o defensor precisa proteger toda a superfície, 24 horas por dia, o invasor só precisa encontrar um ponto de falha. E, com sistemas inteligentes automatizando essa busca, o custo do ataque cai e a taxa de sucesso sobe.

Pior: ferramentas defensivas baseadas em IA muitas vezes são mal configuradas, subutilizadas ou tratadas como “caixas-pretas”, sem governança clara. Isso gera uma falsa sensação de segurança, enquanto os criminosos testam sistematicamente esses mesmos mecanismos para entender como contorná-los.

O que muda na prática para empresas e órgãos públicos

Diante desse cenário, proteção cibernética deixou de ser um projeto pontual para se tornar uma disciplina contínua de gestão de risco. Alguns movimentos são inevitáveis:

1. Governança de IA e segurança
Conselhos e diretoria precisam incluir risco cibernético e uso de IA em sua agenda permanente. Não se trata apenas de aprovar compras de ferramentas, mas de estabelecer políticas, papéis, responsabilidades e métricas de desempenho em segurança.

2. Revisão de terceiros e cadeias de fornecimento
O caso C&M demonstrou: o elo fraco, frequentemente, é o parceiro. Credenciais de terceiros, integrações pouco supervisionadas e falta de requisitos mínimos de segurança em contratos ampliam o risco. A gestão de fornecedores torna-se tema central.

3. Segmentação de redes e princípio do menor privilégio
IA ofensiva explora movimentação lateral: invade um ponto e usa-o como trampolim. Redes segmentadas, acessos estritamente necessários e monitoramento constante dificultam esse avanço silencioso.

4. Monitoramento contínuo e resposta automatizada
Se o ataque opera em minutos, a defesa não pode depender de análises manuais em horas. Plataformas capazes de detectar anomalias, correlacionar eventos e aplicar respostas iniciais automáticas são cada vez mais essenciais.

5. Treinamento realista e simulações com IA
Simulações de ataque (red teaming), testes de phishing e exercícios de resposta a incidentes podem – e devem – usar IA para replicar táticas modernas de adversários. Treinar contra ataques “antigos” não prepara equipes para o cenário atual.

IA defensiva: a mesma arma em mãos diferentes

Se por um lado a IA “que ataca” ganhou protagonismo, a IA “que defende” também se sofisticou. Organizações que conseguem estruturar dados, integrar fontes de logs, aplicar modelos de detecção avançados e, principalmente, interpretar os alertas de forma inteligente, criam uma barreira importante contra incidentes massivos.

Entre as aplicações defensivas, destacam-se:

– Correlação avançada de eventos para identificar padrões de ataque em desenvolvimento.
– Priorizar vulnerabilidades com base em contexto real de exploração, evitando sobrecarga de equipes.
– Geração de relatórios executivos em linguagem de negócio, facilitando decisão rápida por parte da liderança.
– Auxílio na triagem de incidentes, reduzindo o tempo entre detecção e contenção.

A diferença entre ser vítima de um grande vazamento ou contê-lo em estágio inicial, muitas vezes, está em minutos. E esse tempo passa a ser disputado por máquinas de ambos os lados.

Ética, regulação e responsabilidade

A ampliação do uso de IA ofensiva reacende um debate que extrapola a tecnologia: onde termina a responsabilidade dos desenvolvedores dessas plataformas? Como garantir que modelos amplamente acessíveis não se tornem, na prática, consultores de crimes cibernéticos?

Algumas respostas passam por:

– Políticas de uso mais rígidas e transparentes por parte de provedores de IA.
– Mecanismos de auditoria, rastreabilidade e detecção de abusos.
– Cooperação entre governos, órgãos reguladores e o setor privado para estabelecer limites claros, sem sufocar a inovação.

Enquanto isso não se consolida, cabe às organizações assumir que o uso malicioso da IA já é uma realidade e integrar esse fator aos seus planos de continuidade de negócios, privacidade e conformidade regulatória.

De ferramenta a arma: a nova normalidade

A principal mudança dos últimos anos não é apenas tecnológica, mas conceitual. Inteligência artificial não é mais vista exclusivamente como “ferramenta de produtividade” ou aliada da inovação. Ela se tornou, também, arma de ataque em tempo real, capaz de elevar o patamar dos cibercriminosos, reduzir barreiras técnicas e permitir que grupos menores executem operações antes restritas a grandes organizações criminosas ou a estruturas estatais.

Ignorar essa realidade é, em si, um risco. Em um ambiente em que a IA já atacou – e continuará atacando -, a pergunta central que empresas, governos e instituições precisam fazer é simples e incômoda: se hoje eu fosse alvo de uma campanha conduzida por inteligência artificial, quanto tempo levaria para perceber? E o que, de fato, estou preparado para fazer a partir desse momento?

As respostas a essas questões não cabem em uma planilha. Elas exigem investimentos, revisão de processos, mudanças culturais e, sobretudo, a compreensão de que segurança digital, na era da IA, não é mais uma área de suporte: é um tema estratégico de sobrevivência institucional.