IA impulsiona ataques cibernéticos e reduz barreiras para criminosos, alerta Microsoft
De acordo com um relatório recente da Microsoft Threat Intelligence, criminosos digitais estão incorporando inteligência artificial (IA) de forma acelerada em suas operações, tornando ataques mais rápidos, sofisticados e difíceis de detectar. A tecnologia vem funcionando como um verdadeiro “multiplicador de força”, permitindo que grupos mal-intencionados executem ações complexas com menos esforço técnico e em menos tempo, em todas as etapas de uma incursão: da coleta inicial de informações à exploração pós-comprometimento.
O estudo aponta que, no cenário atual, o uso malicioso da IA está concentrado principalmente em modelos de linguagem capazes de gerar texto, código e conteúdos multimídia. Esses sistemas são explorados por cibercriminosos para criar mensagens de phishing muito mais convincentes, traduzir materiais para diferentes idiomas com naturalidade, sintetizar grandes volumes de dados roubados e escrever ou depurar códigos maliciosos. Em outras palavras, a IA não substitui o atacante humano, mas oferece a ele uma espécie de “turbo”, ampliando sua capacidade de ação.
Segundo a Microsoft, a IA atua hoje sobretudo como uma ferramenta de apoio, não como cérebro autônomo dos ataques. Os operadores continuam definindo os objetivos estratégicos, escolhendo alvos, priorizando ações e tomando as decisões críticas. A IA entra como assistente incansável: produz textos sob demanda, automatiza tarefas repetitivas, ajuda na programação de malware e aprimora a engenharia social que abre a porta para a invasão.
Um dos pontos de maior preocupação é a profissionalização crescente dos golpes. O relatório destaca o uso de IA por grupos de ameaça associados à Coreia do Norte, identificados pela Microsoft como Jasper Sleet (Storm-0287) e Coral Sleet (Storm-1877). Esses atores vêm usando plataformas de IA generativa para montar operações de espionagem e fraude com aparência legítima, reduzindo o tempo necessário para criar identidades falsas, sites e toda a “fachada” usada para enganar vítimas.
No caso do Jasper Sleet, a Microsoft observa que a IA é empregada para criar personagens fictícios altamente críveis. A tecnologia é usada para gerar listas de nomes plausíveis em diferentes culturas, endereços de e-mail coerentes com a região-alvo e perfis profissionais que simulam candidatos a vagas de TI em empresas ocidentais. Esses perfis são então utilizados para se infiltrar em processos seletivos, estabelecer contato com recrutadores e, potencialmente, ganhar acesso a sistemas internos ou informações sensíveis.
O Coral Sleet, por sua vez, explora a IA para agilizar a criação de infraestrutura maliciosa. De acordo com a análise, o grupo utiliza modelos generativos para desenvolver rapidamente sites falsos, páginas de login clonadas e outros componentes de campanhas de engenharia social. Além disso, a IA auxilia na configuração de servidores, na elaboração de textos de campanhas fraudulentas e na adaptação de linguagem para diferentes públicos, tornando o golpe mais convincente para cada alvo.
Outro aspecto grave destacado pela Microsoft é o uso de técnicas de “jailbreak” para contornar as proteções embutidas nas plataformas de IA. Esses artifícios consistem em instruções cuidadosamente formuladas para fazer com que modelos, originalmente configurados para bloquear respostas maliciosas, passem a fornecer códigos de malware, scripts de ataque, orientações para exploração de vulnerabilidades ou conteúdos que violam políticas de segurança. Assim, mesmo sistemas que foram projetados com salvaguardas podem acabar sendo explorados se o atacante souber “driblar” as restrições.
Embora já existam experiências com IA “agêntica” – ou seja, capaz de executar cadeias de ações de forma mais autônoma -, a Microsoft avalia que, no momento, o uso predominante ainda é como assistente avançado para a tomada de decisão humana. A IA ajuda a comparar cenários, avaliar probabilidades de sucesso, otimizar rotas de ataque e distribuir melhor os recursos dos grupos criminosos. Porém, a coordenação geral e a definição de metas continuam nas mãos de operadores humanos.
Um ponto-chave do relatório é a ênfase na exploração de acessos legítimos. Muitos desses ataques não começam com uma invasão barulhenta, e sim com o abuso de credenciais válidas, obtidas por phishing, vazamentos ou compra em mercados clandestinos. Quando criminosos, munidos de ferramentas de IA, passam a utilizar contas reais de funcionários ou prestadores, o comportamento malicioso se camufla em meio ao tráfego comum da empresa. Isso torna muito mais difícil identificar o ataque apenas com controles tradicionais de perímetro.
Por essa razão, a Microsoft recomenda que organizações passem a tratar esse tipo de campanha como risco interno, mesmo quando o agente é externo. Na prática, isso significa reforçar monitoramento e políticas como se a ameaça estivesse “de dentro para fora”, e não apenas vinda da internet. O foco deve estar em detectar padrões anômalos de uso de credenciais, movimentos laterais suspeitos dentro da rede e tentativas de acessar dados que não fazem parte da rotina daquele usuário.
Entre as principais recomendações estão o fortalecimento dos sistemas de identidade contra phishing, com o uso de autenticação multifator robusta, chaves de segurança físicas, políticas de acesso condicional e revisão constante de privilégios. A ideia é reduzir o impacto do roubo de credenciais: mesmo que username e senha sejam comprometidos, o atacante enfrenta camadas adicionais de proteção. A Microsoft também sugere que as empresas invistam fortemente em mecanismos de detecção comportamental, capazes de identificar quando uma conta, supostamente legítima, passa a agir de forma fora do padrão.
Outra orientação importante é a proteção das próprias soluções de IA utilizadas pelas organizações. Sistemas internos de análise de dados, chatbots corporativos, assistentes de produtividade e modelos personalizados podem se tornar alvos, tanto para roubo de dados quanto para manipulação de respostas. Se um atacante conseguir direcionar ou “envenenar” um modelo de IA interno, pode distorcer decisões de negócio, induzir erros operacionais ou obter informações sigilosas. Por isso, a governança de IA e a segurança desses ambientes precisam ser tratadas como parte integral da estratégia de cibersegurança.
Para as equipes de segurança, a adoção responsável de IA defensiva também ganha relevância. As mesmas capacidades que permitem a um criminoso automatizar tarefas podem ser usadas para o bem: priorizar alertas, correlacionar eventos de diferentes fontes, identificar padrões de ataque e sugerir respostas rápidas. Ferramentas de detecção e resposta baseadas em IA podem reduzir significativamente o tempo entre o comprometimento inicial e a contenção do incidente, o que é crucial em ataques que evoluem em alta velocidade.
A conscientização dos usuários permanece como um pilar fundamental, mas os treinamentos precisam evoluir para considerar o novo patamar de sofisticação dos golpes. E-mails de phishing gerados por IA tendem a ter menos erros gramaticais, um tom mais convincente e personalização com base em informações públicas da vítima. Isso exige que funcionários sejam educados não apenas a “desconfiar de erros de português”, mas a reconhecer sinais mais sutis, como urgência exagerada, pedidos de quebra de procedimento e uso indevido de autoridade.
Outro desafio é a combinação de IA com engenharia social avançada em outros canais, como aplicativos de mensagens e redes profissionais. Criminosos podem usar IA para simular estilos de escrita, responder em tempo real como se fossem um executivo da empresa ou um fornecedor confiável e conduzir longas conversas até conquistar a confiança da vítima. Isso amplia as possibilidades de fraudes financeiras, roubo de dados e obtenção de acessos privilegiados.
Do ponto de vista estratégico, o relatório da Microsoft reforça que a corrida entre atacantes e defensores entrou em uma nova fase. Quem conseguir usar IA de forma mais eficaz – seja para atacar, seja para se defender – terá uma vantagem considerável. Empresas que demorarem a incorporar capacidades de automação, análise avançada e resposta inteligente tendem a ficar em desvantagem frente a adversários que já operam em “velocidade de máquina”.
Ao mesmo tempo, a proliferação de ferramentas de IA acessíveis diminui a barreira de entrada para o cibercrime. Indivíduos com pouco conhecimento técnico podem recorrer a modelos generativos para produzir scripts, montar campanhas de spam, criar páginas falsas e até aprender, passo a passo, como explorar vulnerabilidades conhecidas. Isso amplia o número potencial de atacantes e o volume geral de ameaças, pressionando ainda mais as equipes de TI e segurança.
Por fim, a mensagem central do alerta da Microsoft é que a IA, por si só, não é boa nem má – o risco está em como é usada. Enquanto grupos de ameaça se aproveitam da tecnologia para escalar seus ataques, organizações precisam responder com maturidade, combinando investimentos em ferramentas inteligentes, fortalecimento da identidade digital, revisão de processos internos e capacitação contínua de pessoas. Em um cenário em que o crime digital opera com auxílio de máquinas cada vez mais poderosas, depender apenas de controles manuais ou reativos deixa de ser uma opção viável.