Projeto da Anthropic une gigantes de tecnologia para nova era da defesa cibernética com IA
A Anthropic apresentou o Project Glasswing, um movimento estratégico que aproxima alguns dos maiores nomes da tecnologia em torno de um objetivo comum: usar inteligência artificial avançada para reforçar a defesa cibernética global. Participam da iniciativa Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, NVIDIA e Palo Alto Networks, todas com acesso ao modelo Claude Mythos2 Preview para tarefas de segurança defensiva.
A proposta central do projeto é simples na forma, mas ambiciosa no impacto: colocar um modelo de IA extremamente especializado para trabalhar lado a lado com equipes de segurança, automatizando e acelerando a detecção de vulnerabilidades em larga escala, especialmente em softwares e infraestruturas críticas.
Capacidades do Claude Mythos2 Preview
Segundo a Anthropic, o Mythos Preview já demonstrou capacidade de encontrar “milhares de vulnerabilidades de alta gravidade” em diferentes camadas do ecossistema digital, incluindo todos os principais sistemas operacionais e navegadores. Entre os achados mais contundentes estão:
– Uma falha de segurança de 27 anos no OpenBSD, sistema amplamente utilizado em firewalls e infraestruturas críticas.
– Uma vulnerabilidade de 16 anos no FFmpeg, biblioteca de vídeo extremamente popular, que havia resistido a cerca de cinco milhões de testes automatizados anteriores.
– Diversas vulnerabilidades no kernel do Linux que permitem escalonamento de privilégios, uma das categorias de falha mais sensíveis para ambientes corporativos e governamentais.
A Anthropic argumenta que os modelos de IA chegaram a um nível de competência em programação que lhes permite, em muitos casos, superar todos, exceto os especialistas humanos mais qualificados, no processo de identificar e até explorar falhas de software. Com isso, o custo, o tempo e o nível de conhecimento antes necessários para localizar e explorar vulnerabilidades caem de forma drástica.
O lado sombrio: quando a mesma IA pode atacar
Esse ganho de eficiência esconde um paradoxo. A mesma capacidade que torna a IA um aliado poderoso na proteção de sistemas também pode transformá-la em uma arma nas mãos de atacantes. Se modelos como o Mythos2 conseguem automatizar a descoberta de falhas complexas, o risco é que agentes mal-intencionados tentem usar ferramentas semelhantes para escalar ataques, produzir exploits customizados e, potencialmente, industrializar o cibercrime.
Essa dualidade – IA como escudo e como espada – está no centro das preocupações de reguladores, investidores e CISOs. Não se trata apenas de descobrir mais vulnerabilidades, mas de quem detém esse poder, em que condições o utiliza e quais controles existem para evitar abuso.
Temores do mercado: disrupção na indústria de cibersegurança
O impacto desse anúncio foi imediato no setor financeiro. De acordo com reportagem do Wall Street Journal, a apresentação pública das capacidades do Mythos2, em 24 de fevereiro, desencadeou receios entre investidores de que parte do trabalho que a indústria de cibersegurança levou anos para consolidar pudesse ser rapidamente “comoditizado” pela IA.
Nos dias seguintes, ações de companhias importantes de segurança, como CrowdStrike, Datadog e Zscaler, registraram quedas entre 10% e 11%. A percepção era de que, se modelos de IA forem capazes de fazer varreduras de código, identificar falhas e até sugerir correções com grande eficiência, empresas que construíram seu negócio essencialmente sobre esses serviços poderiam ver seu diferencial diminuir.
Sanjay Poonen, CEO da Cohesity, resumiu a preocupação ao afirmar que não se pode ignorar o potencial “altamente disruptivo” dessa tecnologia. Na mesma linha, Sanjay Beri, CEO da Netskope, apontou que companhias concentradas exclusivamente em nichos como varredura de código terão de se reinventar à medida que essas capacidades forem incorporadas por modelos de IA e se tornarem cada vez mais baratas e acessíveis.
Recuperação parcial e mudança de narrativa
Passado o choque inicial, o mercado começou a recalibrar a leitura sobre o tema. As ações de cibersegurança se recuperaram em boa medida, embora ainda negociadas abaixo dos picos de 2025. A formação do Project Glasswing, reunindo ao mesmo tempo grandes provedores de nuvem, fabricantes de hardware, bancos e gigantes de segurança, ajudou a reposicionar a IA menos como uma ameaça isolada e mais como um componente inevitável das plataformas existentes.
Para muitas casas de análise, a mensagem é clara: a IA não substitui, no curto prazo, o ecossistema de soluções de segurança, mas tende a ser incorporada a ele. Tecnologias consolidadas, como as plataformas da CrowdStrike ou da Palo Alto Networks, ainda oferecem integração, telemetria, governança e resposta a incidentes em larga escala – dimensões que um modelo de IA, sozinho, não resolve.
O analista Shaul Eyal, do TD Cowen, ironizou o exagero de alguns temores ao dizer que é difícil imaginar um diretor de TI simplesmente abandonando uma plataforma madura de segurança em troca apenas do “código de segurança do Claude”. A visão predominante hoje é que a IA será um reforço às soluções, e não um substituto direto, pelo menos nos próximos anos.
Como o Project Glasswing muda a dinâmica da defesa
No plano prático, o Project Glasswing funciona como um consórcio que compartilha acesso a um modelo avançado de IA e, ao mesmo tempo, fortalece o ecossistema de código aberto em torno da segurança. Ao reunir empresas que operam em diferentes camadas – nuvem, hardware, software, banco, fundações de código aberto – a iniciativa tende a acelerar a correção de vulnerabilidades críticas, encurtando o tempo entre descoberta e mitigação.
Para as empresas participantes, isso significa a possibilidade de:
– Automatizar auditorias de código em larga escala.
– Priorizar correções com base em risco real e impacto potencial.
– Descobrir falhas em componentes esquecidos ou legados, muitas vezes fora do radar das equipes internas.
– Integrar insights da IA diretamente às suas plataformas de segurança e fluxos de resposta a incidentes.
Já para o mercado em geral, a iniciativa sinaliza um movimento em direção a uma espécie de “infraestrutura básica” de segurança suportada por IA, que poderá ser utilizada por diferentes soluções e fabricantes, em vez de ficar concentrada em um único fornecedor fechado.
Compromissos financeiros e apoio ao código aberto
Para viabilizar essa visão, a Anthropic se comprometeu com até 100 milhões de dólares em créditos de uso do Mythos Preview, destinados aos participantes do projeto e iniciativas ligadas a segurança defensiva. Além disso, anunciou 4 milhões de dólares em doações diretas a organizações dedicadas à segurança de código aberto:
– 2,5 milhões de dólares para Alpha-Omega e OpenSSF.
– 1,5 milhão de dólares para a Apache Software Foundation.
Esses investimentos têm um papel estratégico. Grande parte da infraestrutura digital moderna – de bibliotecas de vídeo a servidores web – se apoia em projetos de código aberto, muitas vezes mantidos por equipes pequenas e com poucos recursos. Ao direcionar financiamento e capacidade de IA para esse ecossistema, a Anthropic busca reduzir o risco sistêmico associado a falhas silenciosas em componentes amplamente utilizados.
Acesso ao modelo e custos de uso
O Claude Mythos2 Preview será disponibilizado por diferentes canais, o que facilita sua incorporação em ambientes corporativos já consolidados. O modelo poderá ser acessado via:
– API da Anthropic.
– Amazon Bedrock.
– Google Cloud Vertex AI.
– Microsoft Foundry.
Os preços divulgados são de 25 dólares por milhão de tokens de entrada e 125 dólares por milhão de tokens de saída. Embora isso pareça elevado à primeira vista, o custo tende a ser competitivo quando comparado ao que empresas já gastam com consultorias, ferramentas especializadas e horas de trabalho de equipes internas em processos manuais de análise de código e caça a vulnerabilidades.
O que muda para CISOs e equipes de TI
Para diretores de segurança (CISOs) e gestores de TI, o recado por trás do Project Glasswing é duplo. Por um lado, torna-se praticamente inevitável incorporar IA generativa e especializada na estratégia de defesa cibernética. Por outro, não se trata apenas de “comprar um modelo” ou “plugar uma API”: é preciso repensar processos, políticas e controles.
Alguns pontos que tendem a aparecer na agenda dos próximos anos:
– Definir políticas claras de uso de IA em segurança, incluindo limites, auditoria e registro de decisões automatizadas.
– Treinar equipes para interpretar e validar achados gerados pela IA, evitando dependência cega de recomendações automáticas.
– Integrar os resultados da IA aos fluxos já existentes de gestão de vulnerabilidades, DevSecOps e resposta a incidentes.
– Considerar riscos de privacidade e confidencialidade ao enviar códigos e dados sensíveis para análise por modelos externos.
IA não substitui fundamentos de segurança
Mesmo com modelos extremamente avançados, os fundamentos da segurança da informação continuam válidos: gestão de acesso, segmentação de rede, backup, atualização contínua, monitoramento, resposta a incidentes e cultura de segurança entre colaboradores.
A IA tende a tornar mais eficiente a identificação de falhas técnicas, mas não corrige por si só problemas de arquitetura, má configuração ou falta de governança. Além disso, muitas violações de dados ainda decorrem de golpes de engenharia social, senhas fracas e erros operacionais – áreas em que a tecnologia ajuda, mas não resolve sem políticas internas robustas.
O futuro próximo: cooperação, regulação e novas ameaças
O Project Glasswing também antecipa um movimento mais amplo: o de cooperação entre grandes empresas de tecnologia em torno de padrões mínimos de segurança impulsionados por IA. À medida que governos pressionam por maior responsabilidade das big techs na proteção de infraestruturas críticas e dados pessoais, iniciativas desse tipo podem servir como argumento de que o setor privado está se autorregulando e investindo em defesa coletiva.
Ao mesmo tempo, é razoável esperar que modelos de IA ofensivos – ou mal utilizados – se tornem parte do arsenal de grupos criminosos e até de atores estatais. Isso exigirá que defesas baseadas em IA evoluam constantemente e sejam combinadas com inteligência humana, análises de contexto e cooperação entre empresas, governos e organizações independentes.
Conclusão: uma virada de chave na segurança, não o fim da indústria
O Project Glasswing sinaliza uma virada de chave na forma como a cibersegurança é construída. A detecção de vulnerabilidades tende a se tornar mais rápida, profunda e abrangente, impulsionada por modelos como o Claude Mythos2. Isso pressiona empresas de segurança a inovarem e reposicionarem seus produtos, mas não significa o fim do setor – e sim sua transformação.
Plataformas consolidadas continuarão relevantes pela capacidade de integrar dados, automatizar respostas, oferecer visibilidade em tempo real e garantir governança. A IA entra como um “turbo” nessa engrenagem, não como uma peça isolada que substitui o todo. Para organizações de todos os portes, o desafio será aproveitar esse novo poder de análise sem perder de vista princípios básicos de segurança, responsabilidade e controle sobre seus próprios dados e infraestruturas.
Meta descrição:
Entenda como o Project Glasswing da Anthropic reúne gigantes de tecnologia em torno do modelo Claude Mythos2 para fortalecer a defesa cibernética com IA, quais riscos de disrupção isso traz para o setor de segurança e como o mercado começa a reagir a essa nova fase da proteção digital.