Ia cresce 300% e derruba tráfego e receita dos publishers digitais

IA cresce 300% e pressiona publishers com queda de tráfego e receita

Ferramentas de inteligência artificial estão redesenhando, em alta velocidade, o modo como as pessoas consomem informação. Essa mudança de comportamento, impulsionada por assistentes de IA e grandes modelos de linguagem, vem abalando diretamente o modelo de negócios de veículos de mídia e publishers digitais, ao mesmo tempo em que aumenta de forma significativa seus custos operacionais.

De acordo com o relatório mais recente State of the Internet (SOTI), da Akamai, a explosão no uso de bots de IA está reduzindo o tráfego orgânico que antes chegava aos sites, acelerando a queda de receitas de publicidade, assinaturas e paywalls. Em paralelo, cresce a conta de infraestrutura: servidores passam a lidar com um volume muito maior de acessos automatizados, em grande medida originados de robôs que apenas coletam dados, sem gerar retorno financeiro algum.

O estudo mostra que o comportamento do usuário está se deslocando do clique para a resposta pronta. Em vez de digitar termos em um buscador, checar links e navegar por múltiplos sites, um número crescente de pessoas prefere perguntar diretamente a um assistente de IA e receber o conteúdo já resumido, contextualizado e formatado. Com isso, a etapa de visita ao site original frequentemente deixa de existir.

Dados da TollBit apontam que os chatbots de IA encaminham cerca de 96% menos tráfego de referência do que os mecanismos de busca tradicionais. Ou seja, para cada 100 visitas que um buscador clássico poderia gerar ao citar uma página, um assistente de IA gera, em média, apenas quatro. Ainda mais preocupante para os publishers é o fato de que apenas em torno de 1% dos usuários clica nas fontes mencionadas nas respostas produzidas por IA, mesmo quando as referências aparecem de forma explícita.

Segundo Patrick Sullivan, chief technology officer de estratégia de segurança da Akamai, a mudança é profunda e estrutural. Ele ressalta que os bots de IA estão corroendo pilares históricos de receita – como anúncios baseados em pageviews e assinaturas digitais – ao mesmo tempo em que elevam os custos de infraestrutura, reduzem a exposição das marcas e enfraquecem a conexão direta entre veículos e leitores.

Outro ponto crítico do relatório é o avanço vertiginoso da atividade de bots de IA. Até 2025, esse tipo de tráfego registrou um crescimento da ordem de 300%. Dentro desse cenário, o setor de mídia aparece como um dos mais impactados globalmente, ocupando a segunda posição em volume de acessos automatizados e respondendo por cerca de 13% de toda a atividade de bots de IA. Desse total, as organizações de publicação – sites de notícia, revistas digitais, portais especializados – concentram aproximadamente 40%.

Empresas de tecnologia que desenvolvem grandes modelos de linguagem, como a OpenAI e outras big techs, figuram entre as principais responsáveis por esse aumento. O movimento acompanha a popularização acelerada de chatbots, assistentes conversacionais embutidos em navegadores e sistemas operacionais e ferramentas corporativas que se apoiam em IA generativa para pesquisa, resumo de conteúdo, geração de relatórios e apoio à tomada de decisão.

Grande parte desse tráfego está relacionada ao chamado scraping: a coleta automatizada de grandes volumes de conteúdo, muitas vezes realizada sem autorização explícita, sem compensação financeira e sem transparência sobre o uso posterior dos dados. Esses robôs varrem páginas, copiam textos, títulos, imagens e metadados, e abastecem bancos de treinamento ou mecanismos de resposta em tempo real das plataformas de IA.

Ao reaproveitar os conteúdos para entregar respostas diretas aos usuários, essas plataformas diminuem a necessidade de o público visitar os sites de origem. O impacto vai além da queda imediata em pageviews: afeta a visibilidade das marcas, reduz o reconhecimento de autoridade dos veículos e coloca em risco a própria propriedade intelectual, já que o valor do conteúdo tende a se diluir quando reproduzido em massa e sem contexto.

O relatório da Akamai detalha dois grandes grupos de bots de IA que atuam sobre o setor de mídia. O primeiro são os AI training crawlers, responsáveis por coletar dados usados no treinamento e aperfeiçoamento dos modelos. Eles respondem por cerca de 63% da atividade de bots direcionados ao segmento de mídia, sendo que aproximadamente 37% desse volume está concentrado especificamente em publishers. Esses robôs operam de forma contínua, muitas vezes de maneira silenciosa, e são peça central na extração massiva de artigos, reportagens, análises e outros formatos editoriais.

Embora o usuário final raramente perceba a ação desses crawlers, o efeito cumulativo é relevante. Com o tempo, parte expressiva do catálogo editorial de um veículo pode ser absorvida por modelos de IA que passam a replicar, para milhões de usuários, conteúdos baseados em informações originalmente publicadas por aquele publisher – sem que haja, na mesma proporção, tráfego de retorno, receita ou reconhecimento de marca.

O segundo grupo citado no estudo são os AI fetchers, que respondem por aproximadamente 24% da atividade de bots no setor. Diferentemente dos crawlers focados em treinamento, esses agentes buscam conteúdo em tempo quase real para montar respostas em assistentes de IA. Mesmo com volume inferior, seu impacto tende a ser mais imediato sobre audiência e monetização, sobretudo em conteúdos sensíveis ao tempo, como notícias de última hora, cobertura de eventos ao vivo, análises de mercado e atualizações regulatórias.

Nesses casos, o risco para os publishers é duplo: perdem a vantagem de tempo – um dos ativos mais importantes no jornalismo digital – e ainda deixam de capitalizar o tráfego que esse conteúdo poderia gerar. Em vez de buscar a notícia diretamente no site, o usuário recebe, no próprio assistente de IA, um resumo da situação, muitas vezes com trechos muito próximos ao texto original.

O conjunto desses fatores leva a uma transformação estrutural no ecossistema de mídia digital. A relação direta entre veículo e audiência, construída ao longo de décadas com base em hábitos de navegação e fidelidade de marca, tende a enfraquecer quando a IA passa a ocupar o papel de intermediária dominante entre o público e a informação. Ao mesmo tempo, modelos de monetização antes considerados maduros – como publicidade venda por impressões, assinaturas digitais e paywalls de múltiplas camadas – passam a sofrer pressão intensa.

Diante desse cenário, publishers têm sido forçados a repensar seu posicionamento e buscar novas estratégias para se adaptar à economia da IA. Uma frente em crescimento é a negociação de modelos de licenciamento de conteúdo com empresas de tecnologia. Em vez de simplesmente bloquear ou liberar o acesso, alguns veículos começam a discutir acordos formais que preveem remuneração pelo uso de seu acervo em treinamentos de modelos de linguagem ou em produtos baseados em IA generativa.

Outra resposta tem sido o endurecimento de políticas técnicas de proteção. Muitos sites passaram a revisar arquivos de configuração, implementar barreiras de rate limiting, usar ferramentas de detecção de bots avançados e adotar soluções de segurança focadas em diferenciar tráfego humano de automatizado. Embora essas medidas reduzam parte da exploração indevida de conteúdo, elas não resolvem o dilema central: como capturar valor em um ambiente onde o usuário se acostuma a receber as respostas sem sair da interface de IA.

Uma alternativa em análise por diversos grupos de mídia é a criação de produtos editoriais que agreguem mais do que informação bruta – por exemplo, comunidades de nicho, experiências personalizadas, ferramentas interativas e serviços que combinem dados proprietários, análise especializada e atendimento humano. Conteúdos com forte componente opinativo, investigativo ou de bastidores, que exigem apuração própria e relacionamento com fontes, tendem a manter maior relevância mesmo em um cenário dominado por resumos automatizados.

Estratégias de branding também ganham importância. Se o usuário não chega mais ao site com a mesma frequência, torna-se crucial fazer com que ele reconheça e valorize a marca do veículo onde quer que consuma a informação – seja em newsletters, aplicativos próprios, eventos presenciais, podcasts ou vídeos. A diferenciação passa a depender menos do acesso à notícia e mais da credibilidade, da profundidade da cobertura e da capacidade de oferecer ângulos exclusivos.

No campo tecnológico, surgem ainda oportunidades para que os próprios publishers incorporem IA em seus produtos e processos. Ferramentas de automação podem ser usadas para otimizar títulos, aprimorar SEO, personalizar recomendações de leitura, traduzir conteúdos, gerar resumos complementares e apoiar jornalismo de dados, sem abrir mão da curadoria editorial humana. A adoção de IA interna, contudo, exige governança robusta para evitar que o veículo se torne dependente de modelos treinados com o próprio conteúdo, sem contrapartida clara.

Do ponto de vista jurídico e regulatório, cresce o debate sobre direitos autorais, uso justo de conteúdo e transparência no treinamento de modelos. Publishers pressionam por regras que obriguem as plataformas de IA a informar de onde vêm os dados utilizados e a estabelecer mecanismos de compensação quando houver exploração comercial baseada em acervos jornalísticos. Algumas propostas envolvem tarifas por uso de conteúdo, selos de licenciamento e padrões mínimos de crédito às fontes.

Outra linha de adaptação passa pela diversificação de receitas para reduzir a dependência de publicidade baseada em tráfego. Eventos pagos, cursos, conteúdos premium altamente segmentados, soluções B2B de análise de dados setoriais e consultoria embasada em inteligência editorial são caminhos explorados por organizações que buscam construir modelos menos vulneráveis à intermediação da IA.

A disputa, em última instância, não é apenas por cliques, mas pelo controle da relação com o público e pelo valor econômico gerado em torno da informação confiável. Em um ambiente em que assistentes de IA sintetizam o conhecimento disponível e entregam respostas instantâneas, publishers que não se reposicionarem correm o risco de se tornar fornecedores invisíveis de matéria-prima intelectual para plataformas que concentram visibilidade e receita.

Ao mesmo tempo, há espaço para uma agenda de cooperação. Plataformas de IA precisam de dados atualizados, confiáveis e de alta qualidade, especialmente em temas sensíveis como política, saúde, economia e segurança. Veículos de mídia são, historicamente, grandes produtores desse tipo de conteúdo. Modelos de parceria que combinem transparência, remuneração justa e preservação da identidade editorial podem criar um ecossistema mais equilibrado.

O desafio para os publishers, portanto, é duplo: proteger seu acervo e seu modelo de negócios de uma exploração assimétrica por bots de IA, enquanto aproveitam as mesmas tecnologias para inovar em formatos, produtos e processos internos. A inteligência artificial já é parte central da cadeia de informação – a questão agora é como o setor de mídia vai se reposicionar para não perder relevância, sustentabilidade econômica e, sobretudo, sua função social em um cenário cada vez mais mediado por algoritmos.