Ia agêntica expõe limites das defesas tradicionais, alerta a elytron cybersecurity

Defesas tradicionais já não são suficientes para conter ataques conduzidos por IA agêntica – sistemas de inteligência artificial capazes de agir de forma autônoma, tomar decisões, executar tarefas complexas e até criar subagentes sem intervenção humana. O alerta vem da Elytron Cybersecurity, empresa especializada em segurança ofensiva e defensiva, que afirma: a maioria das organizações ainda não está pronta para enfrentar essa nova geração de ameaças.

Mariana Ortiz, diretora de Strategic Investigations & Intelligence da Elytron, resume o cenário com clareza: não falta tecnologia no mercado. O que falta é capacidade de entender, em tempo real, o que está sendo executado dentro dos ambientes corporativos e de que forma um adversário poderia explorar essas brechas com o auxílio de IA agêntica. Em outras palavras, o problema não é ausência de ferramentas, mas de inteligência, contexto e governança.

Segundo a Elytron, o tema dominou as discussões da maior conferência de cibersegurança do mundo (RSAC 2026) e já aparece no roadmap de 100% das empresas participantes de uma pesquisa realizada pela Kiteworks em 2026. Isso mostra que o assunto deixou de ser tendência e passou a ser urgência estratégica: todas falam sobre IA, mas poucas sabem, de fato, como protegê-la – e como se proteger dela.

Governança de IA e segurança: um abismo preocupante

Dados do relatório 2025 Cost of a Data Breach Report, da IBM, citados pela Elytron, escancaram a discrepância entre iniciativas de governança de IA e controles efetivos de segurança. De acordo com o estudo, 63% das organizações não conseguem impor limitações claras de propósito aos seus agentes de IA. Ou seja, não há garantias de que esses sistemas só atuarão dentro do escopo definido originalmente.

Além disso, 60% das empresas não têm mecanismos eficientes para desligar rapidamente um agente que apresente comportamento anômalo ou suspeito. Em um contexto em que um agente autônomo pode tomar centenas ou milhares de decisões em poucos minutos, a incapacidade de interromper sua operação é um risco crítico.

Outro dado alarmante: 55% das organizações não conseguem isolar adequadamente seus sistemas de IA de redes mais amplas. Isso significa que, se um agente for comprometido, há grande chance de movimentação lateral dentro do ambiente corporativo, abrindo caminho para exposição de dados sensíveis, sabotagem de processos e ataques em cadeia.

Para a Elytron, o caminho para reduzir esse risco passa menos pela compra de novas plataformas e mais pela orquestração inteligente dos resultados que as ferramentas já entregam. Sem conectar sinais, correlacionar eventos e entender a jornada completa de um possível ataque mediado por IA, os times de segurança continuam “cegos” diante de ameaças cada vez mais rápidas e sofisticadas.

Shadow AI: o uso invisível e descontrolado da inteligência artificial

Outro ponto crítico revelado pelos estudos citados pela Elytron é a presença massiva de shadow AI – o uso de inteligência artificial fora de qualquer processo formalizado de governança, política ou aprovação de segurança. De acordo com o relatório The State of AI Risk Management 2026, da ArmorCode, 59% das organizações admitem ter IA não governada rodando em seus ambientes.

A contradição fica ainda mais evidente quando se observa que 90% dessas empresas afirmam ter visibilidade sobre o seu “footprint” de IA. Na prática, isso significa que muitas organizações acreditam saber onde e como a IA está sendo usada, mas, na realidade, não conseguem rastrear todas as ferramentas, integrações, APIs, agentes externos e automações criadas por times de negócio, desenvolvimento ou até por fornecedores.

A shadow AI amplia de forma significativa a superfície de ataque. Um agente autônomo criado sem supervisão pode estar conectado a dados sensíveis, sistemas de produção ou ambientes de teste mal protegidos. Um invasor que comprometa esse agente pode utilizá-lo como ponte para chegar a recursos mais críticos, executar comandos, alterar configurações ou criar outros agentes maliciosos.

Ataques em velocidade de máquina

O relatório M-Trends 2026, da Mandiant, também citado pela Elytron, revela outro dado que muda o jogo: o intervalo entre o acesso inicial de um atacante ao ambiente e a execução de ransomware caiu para apenas 22 segundos. Esse tempo de “handoff” praticamente elimina qualquer margem de reação baseada apenas em processos manuais.

Quando se combina esse ritmo com o uso de IA agêntica, o panorama se torna ainda mais preocupante. Um agente malicioso pode, em segundos, mapear a rede, identificar credenciais fracas, localizar dados críticos, escalar privilégios, desativar logs, distribuir payloads e iniciar a criptografia. Defesas baseadas exclusivamente em alertas tradicionais ou respostas humanas já não acompanham esse nível de automação ofensiva.

Isso reforça a tese da Elytron de que o diferencial competitivo na defesa passa a ser a capacidade de interpretar rapidamente o que está acontecendo – não só identificar que algo está errado, mas entender o contexto, prever os próximos passos do atacante e responder de forma coordenada.

O papel da Elytron: menos plataforma, mais perspectiva

Em seu posicionamento, a Elytron deixa claro que não pretende ser “mais uma plataforma” em um mercado abarrotado de soluções que prometem detectar tudo, o tempo todo. A proposta da empresa é atuar como a camada de interpretação, usando segurança ofensiva para simular, com o máximo de realismo, como um atacante exploraria IA agêntica contra uma organização específica.

Na prática, isso significa testar processos, modelos de IA, integrações, fluxos de automação e superfícies expostas por meio da mesma ótica que um invasor adotaria. Em vez de apenas rodar scanners ou depender de assinaturas, a Elytron procura entender como diferentes tecnologias se combinam para formar cenários de risco reais.

Mariana Ortiz resume essa abordagem ao afirmar que, enquanto os grandes fornecedores correm para construir plataformas robustas, a Elytron se dedica a construir perspectiva. Em um ambiente onde os casos mais rápidos de breakout – a transição de um ponto de acesso inicial para o comprometimento de ativos críticos – são medidos em segundos, é essa perspectiva que define quem reage a tempo e quem descobre o ataque tarde demais.

Por que as defesas atuais falham diante da IA agêntica

Grande parte das defesas implementadas hoje foi desenhada para um mundo em que o atacante era humano em todas as etapas. As ferramentas procuram padrões de comportamento manual, campanhas conhecidas, assinaturas de malware ou movimentações que levam minutos, horas ou dias para acontecer.

A IA agêntica muda esse paradigma. Em vez de um invasor humano analisando passo a passo, um conjunto de agentes pode dividir tarefas, trabalhar em paralelo e adaptar estratégias com base nos resultados obtidos em tempo quase real. Sistemas tradicionais de detecção, que dependem de regras estáticas, não conseguem acompanhar esse nível de iteração e criatividade automatizada.

Outro ponto é que muitos controles foram pensados para proteger aplicações e usuários, não agentes autônomos capazes de criar outros agentes, consumir APIs internas, interagir com sistemas legados e fazer engenharia social assistida por IA. Sem políticas específicas para agentes, monitoramento de suas ações e limites claros de escopo e privilegiamento, as organizações abrem espaço para usos indevidos difíceis de rastrear.

Medidas práticas para se proteger de ataques com IA agêntica

Diante desse cenário, a pergunta inevitável é: o que as empresas podem fazer agora, de forma concreta, para reduzir sua exposição? Alguns eixos de ação se destacam:

1. Inventário de IA e mapeamento de agentes
Criar um inventário detalhado de todas as iniciativas de IA, incluindo modelos, agentes, automações, integrações e APIs usadas. Sem saber o que existe, não há como proteger ou governar.

2. Políticas claras de uso e desenvolvimento de IA
Estabelecer regras para quem pode criar, treinar, integrar ou consumir agentes de IA, quais dados podem ser acessados, como logs devem ser mantidos e quais revisões de segurança são obrigatórias.

3. Mecanismos de “kill switch” para agentes
Desenvolver a capacidade de interromper rapidamente a execução de agentes suspeitos, revogar chaves de acesso, cortar integrações e isolar ambientes de forma automatizada.

4. Segmentação e isolamento de ambientes de IA
Evitar que agentes tenham acesso direto e irrestrito a redes corporativas amplas. Implementar segmentação de rede, ambientes de teste separados e controles de acesso rigorosos.

5. Monitoramento comportamental específico para IA
Não basta monitorar apenas usuários e endpoints tradicionais. É necessário acompanhar o que os agentes fazem: quais comandos executam, que dados acessam, como interagem com outros sistemas.

6. Testes ofensivos orientados a IA agêntica
Simular ataques que usem agentes autônomos para identificar brechas em fluxos de trabalho, automações, integrações e processos de aprovação.

A importância da cultura e da educação interna

Um aspecto frequentemente subestimado é o impacto da cultura organizacional na proliferação de shadow AI e no uso inseguro de agentes. Quando áreas de negócio são pressionadas por produtividade e inovação, mas não encontram processos ágeis de aprovação de soluções de IA, tendem a buscar atalhos: contratar ferramentas por conta própria, integrar assistentes em seus fluxos diários, compartilhar dados sensíveis com modelos externos.

Para mitigar isso, é crucial que as equipes de segurança e governança abandonem a postura puramente proibitiva e passem a atuar como facilitadoras. Em vez de apenas dizer “não use IA”, é mais efetivo oferecer caminhos seguros: catálogos de ferramentas aprovadas, guidelines claros, canais rápidos para avaliação de riscos e suporte na implementação.

Treinar colaboradores para reconhecer riscos específicos de IA – como exposição de dados em prompts, geração de código inseguro, uso de agentes externos para tarefas críticas – passa a ser tão importante quanto ensiná-los a identificar phishing ou senhas fracas.

IA defensiva versus IA ofensiva: uma corrida assimétrica

Empresas também precisam entender que a corrida entre IA defensiva e IA ofensiva é assimétrica. Atacantes podem experimentar novas táticas com menos amarras regulatórias, menor preocupação com privacidade e ética, e podem descartar modelos que falharem sem prestar contas a ninguém.

Já as organizações precisam equilibrar eficácia com conformidade, proteção de dados, requisitos legais e impacto reputacional. Isso torna ainda mais vital o uso de abordagens de segurança ofensiva controlada – como as realizadas por empresas especializadas – para testar, na prática, até onde a IA pode ser explorada contra aquele ambiente específico, sem aguardar que um cibercriminoso faça esse trabalho.

Preparando-se para o próximo ciclo de ataques

Os dados apresentados pela Elytron indicam que o ciclo de maturidade da IA em segurança está apenas começando. O que hoje aparece como “shadow AI” e experimentos isolados tende a se consolidar em processos de negócio centrais. Com isso, o impacto potencial de uma falha, de uma configuração equivocada ou de um agente comprometido só tende a crescer.

Empresas que olharem para esse cenário apenas sob a ótica de compliance ou inovação tecnológica correm o risco de construir estruturas frágeis em cima de bases pouco protegidas. Já aquelas que investirem desde cedo em governança, visibilidade, testes ofensivos, mecanismos de contenção rápida e, principalmente, em perspectiva – a capacidade de conectar pontos e entender cenários – estarão em vantagem.

No fim, o recado da Elytron é direto: plataformas, por si só, não vão segurar ataques baseados em IA agêntica. O que fará diferença será a combinação de inteligência humana, visão ofensiva, orquestração de sinais e decisões rápidas. Em uma era em que ataques podem evoluir em segundos, quem entender o que está realmente acontecendo antes do adversário é quem permanece de pé.