Ia e bots drenam tráfego e receita: nova corrida de sobrevivência dos publishers

IA cresce 300% e impõe nova corrida de sobrevivência aos publishers em tráfego e receita

Ferramentas de inteligência artificial estão redesenhando, em ritmo acelerado, a forma como o público consome informação – e essa mudança já está pressionando de maneira direta o modelo de negócios de veículos de mídia e demais publishers.

O relatório mais recente State of the Internet (SOTI), da Akamai, indica que soluções baseadas em IA vêm drenando tráfego de sites, comprimindo receitas de publicidade, assinaturas e paywalls, ao mesmo tempo em que aumentam custos de infraestrutura. O motivo: o avanço maciço de bots automatizados que acessam, copiam e reutilizam conteúdo em grande escala.

Segundo o estudo, o comportamento do usuário migra rapidamente para assistentes de IA, que entregam respostas prontas, dispensando o clique para o site original. Dados da TollBit mostram que chatbots de IA geram cerca de 96% menos tráfego de referência do que mecanismos de busca tradicionais, como o Google. E, mesmo quando as fontes são citadas, apenas em torno de 1% dos usuários efetivamente acessam esses links.

“Estamos diante de uma mudança profunda na forma como as pessoas chegam à informação – e isso já está sendo sentido pelos publishers”, resume Patrick Sullivan, chief technology officer de estratégia de segurança da Akamai. De acordo com ele, bots de IA corroem pilares clássicos de receita, como anúncios e modelos de assinatura, ao mesmo tempo em que exigem mais recursos de infraestrutura e reduzem a exposição das marcas ao público.

Explosão dos bots de IA e impacto na mídia

O relatório destaca um salto expressivo na atividade de bots de IA: em um intervalo recente, o tráfego associado a essas ferramentas cresceu cerca de 300%. O segmento de mídia, que engloba veículos jornalísticos, revistas digitais, portais de conteúdo e outros publishers, aparece como o segundo mais afetado em todo o mundo, concentrando aproximadamente 13% desse volume global. Dentro desse grupo, organizações de publicação respondem por algo em torno de 40% da atividade.

Grandes empresas de tecnologia, como a OpenAI, despontam entre as principais fontes desse tráfego, acompanhadas de outras big techs que desenvolvem ou integram grandes modelos de linguagem (LLMs) em buscadores, assistentes virtuais e plataformas de produtividade. O denominador comum é o uso intensivo de dados de terceiros para alimentar e aprimorar esses sistemas.

Grande parte dessa movimentação se apoia em técnicas de scraping – a coleta automatizada de conteúdo publicado na web. Frequentemente esse processo ocorre sem autorização explícita ou compensação financeira aos autores originais. Na prática, o conteúdo de sites de notícias e outros publishers é copiado, reprocessado e redistribuído dentro das respostas de IA, reduzindo a necessidade de o usuário visitar o endereço de origem. Isso afeta não apenas a receita, mas também visibilidade de marca, relacionamento com a audiência e a própria percepção de valor da produção editorial.

Crawlers de treinamento e fetchers em tempo real

O estudo da Akamai diferencia dois grandes grupos de bots que atuam sobre o conteúdo de mídia. De um lado estão os AI training crawlers, responsáveis por coletar dados em larga escala para treinar modelos de IA. Esses robôs respondem por cerca de 63% do tráfego de bots direcionado ao setor de mídia, sendo que 37% desse volume se concentra especificamente em publishers.

Embora o usuário comum quase nunca perceba a presença desses crawlers, eles são fundamentais na extração massiva de textos, imagens, vídeos e metadados. Esse fluxo alimenta modelos cada vez mais poderosos, mas levanta questões sérias sobre uso não autorizado, direitos autorais e erosão progressiva do valor do conteúdo original – que passa a ser reproduzido de forma difusa, diluindo a origem e a autoria.

Em outra frente, os chamados AI fetchers representam cerca de 24% da atividade. Diferentemente dos crawlers de treinamento, esses bots coletam conteúdo em tempo quase real para responder a perguntas nos próprios assistentes de IA. Apesar de menos numerosos, seu impacto é mais imediato: quando uma notícia, análise ou atualização sensível ao tempo é capturada e sintetizada diretamente em uma interface de IA, o usuário tende a não visitar o site, reduzindo pageviews, impressões de anúncios e conversões em assinaturas.

O resultado é um cenário de transformação estrutural: queda de engajamento direto, enfraquecimento da relação entre veículos e público, perda de dados de primeira parte (first-party data) e maior pressão sobre modelos de monetização construídos ao longo de décadas, principalmente em torno de publicidade display, programática e paywalls.

Nem todo bot é igual – e nem todo impacto é negativo

Apesar do quadro preocupante, o relatório ressalta que nem todos os bots de IA têm o mesmo peso ou produzem os mesmos efeitos para os publishers. Alguns podem até oferecer benefícios indiretos, como melhor indexação, descoberta de conteúdo em novos canais e aumento de visibilidade em ferramentas que ainda geram algum tráfego de retorno.

Há bots de verificação, auditoria ou monitoramento que contribuem para segurança, medição de desempenho e análise de audiência. Outros, ligados a motores de busca tradicionais que passaram a incorporar IA, ainda preservam algum modelo de referência ao conteúdo original. O desafio está em diferenciar o que agrega valor do que apenas extrai dados, consome recursos e reduz potencial de monetização.

Essa distinção é essencial para definir políticas de acesso, regras em arquivos como o robots.txt, barreiras de autenticação, limites de requisições por IP e eventuais acordos comerciais. Tratar todos os bots como inimigos pode significar abrir mão de exposição orgânica importante; liberá-los indiscriminadamente, por outro lado, acelera a transferência de valor para as plataformas de IA.

Aumento de custos operacionais e pressão sobre infraestrutura

À medida que o volume de bots de IA dispara, a infraestrutura dos publishers é obrigada a absorver um tráfego que não gera retorno proporcional. Servidores, CDNs, banco de dados, sistemas de cache e ferramentas de segurança precisam ser dimensionados para lidar com picos de requisições oriundas de robôs, que muitas vezes fazem leituras repetitivas de grandes quantidades de páginas.

Isso implica maior consumo de largura de banda, processamento e armazenamento de logs, além da necessidade de soluções mais avançadas de mitigação, como firewalls de aplicação (WAF), proteção contra DDoS e ferramentas de detecção de bots sofisticados. O custo desse reforço, em um ambiente em que as receitas já estão sob pressão, cria um descompasso difícil de equilibrar.

Em alguns casos, esse tráfego automatizado interfere até na experiência do usuário humano, degradando tempo de resposta, aumentando latência e levando a quedas de desempenho em momentos de alta demanda noticiosa. Para quem depende de velocidade, como redações que cobrem grandes eventos ao vivo, qualquer milissegundo a mais pode significar perda de competitividade.

Estratégias emergentes: de bloqueio a licenciamento

Diante desse quadro, publishers começam a testar diferentes caminhos para reequilibrar a relação com plataformas de IA. Uma das primeiras reações é técnica: ajustar configurações de arquivos de controle de robôs, bloquear determinados agentes de user-agent, limitar frequência de acesso e, em casos mais extremos, implementar paywalls ou muros de login que restringem o conteúdo a usuários autenticados.

Outra vertente é jurídica e comercial. Cresce o interesse em modelos de licenciamento formal de conteúdo para empresas de IA, em que a utilização de textos, imagens e dados é autorizada em troca de compensação financeira ou outras contrapartidas, como maior destaque de marca, links mais visíveis ou relatórios detalhados de uso. Esse tipo de acordo começa a ser discutido por grandes grupos de mídia, mas ainda enfrenta incertezas regulatórias e assimetrias de poder de negociação.

Há, ainda, esforços coletivos para pressionar por novas regulações que definam limites mais claros para coleta de dados, uso de material protegido por direitos autorais e transparência sobre quais fontes alimentam os modelos. A discussão inclui temas como direito de exclusão de dados, obrigação de remuneração pelo uso de conteúdo e garantias de atribuição adequada.

Reinvenção do modelo de valor do conteúdo

Mais do que uma disputa técnica com bots, o avanço da IA força os publishers a revisitar uma pergunta antiga: pelo que exatamente o público está disposto a pagar – ou a dedicar atenção – quando qualquer resumo de informação parece estar a um prompt de distância?

Se respostas factuais básicas passam a ser facilmente obtidas via IA, cresce a importância de atributos que a tecnologia ainda não reproduz com a mesma qualidade, como profundidade analítica, investigação exclusiva, curadoria editorial confiável, contexto local e interpretação qualificada de eventos complexos. Conteúdos autorais, análises, colunas especializadas e produtos premium tendem a ganhar relevância na lógica de diferenciação.

Além disso, surgem oportunidades em serviços complementares: newsletters altamente segmentadas, eventos presenciais ou online, comunidades de assinantes, cursos e produtos digitais associados à marca editorial. A fidelização deixa de ocorrer apenas na homepage e passa a se espalhar por múltiplos pontos de contato, independentes do tráfego gerado por buscadores ou assistentes de IA.

Dados de audiência e relacionamento direto com o leitor

Outro movimento estratégico é a valorização de dados de primeira parte. Com a intermediação crescente da IA entre conteúdo e usuário, publishers passam a depender ainda mais de canais em que conseguem identificar, entender e se relacionar diretamente com sua audiência.

Registros de assinantes, bases de newsletter, aplicativos próprios, login social e programas de fidelidade tornam-se vitais para reduzir a dependência de plataformas externas. A capacidade de conhecer o leitor – seus temas de interesse, hábitos de consumo, preferências de formato – se converte em ativo central para personalizar produtos, ajustar ofertas de assinatura e aumentar o lifetime value de cada usuário.

Nesse contexto, métricas tradicionais como pageviews e sessões perdem parte do protagonismo, dando lugar a indicadores de engajamento qualificado: tempo médio de leitura, recorrência, interações com produtos pagos, respostas a pesquisas, participação em eventos e conversões em campanhas específicas.

Colaboração com a própria IA como ferramenta interna

Paralelamente à tensão com bots externos, muitos publishers começam a explorar a IA como aliada na própria operação. Ferramentas baseadas em modelos de linguagem podem apoiar redações em tarefas como transcrição, organização de dados, geração de rascunhos, checagem inicial de informações e otimização de títulos, descrições e metadados para SEO.

Quando bem implementadas, essas soluções liberam tempo de jornalistas e editores para atividades de maior valor agregado, como apuração, análise e construção de narrativas mais complexas. Do lado comercial, algoritmos podem auxiliar na segmentação de audiência, precificação dinâmica de inventário publicitário e personalização de ofertas.

O desafio é encontrar o equilíbrio entre eficiência operacional e preservação da qualidade editorial, evitando a tentação de substituir integralmente o trabalho humano por automatismos que tendem a homogeneizar conteúdo e reduzir diferenciais competitivos.

O que esperar dos próximos anos

O crescimento de 300% na atividade de bots de IA é um indicador de que a disputa por dados e atenção só tende a se intensificar. Para os publishers, o período que se abre é de transição: ao mesmo tempo em que precisam proteger seu acervo, pressionam por regras mais justas de uso de conteúdo e buscam novos modelos de receita.

Aqueles que conseguirem combinar proteção técnica, estratégia jurídica, inovação em produtos e uso inteligente da própria IA a seu favor terão mais chances de atravessar essa fase de ruptura com relevância e sustentabilidade. Os demais correm o risco de ver seu conteúdo diluído em respostas genéricas, perdendo espaço, receita e relação direta com o público que ajudaram a construir.

Em síntese, a explosão da IA não é apenas uma questão tecnológica: é uma reconfiguração completa da economia da atenção e do valor da informação. Adaptar-se a esse novo ambiente, sem abrir mão de princípios editoriais e sustentabilidade financeira, será um dos maiores desafios da história recente do setor de mídia.