Chatgpt e shadow Ai: por que só proibir não protege seus dados sigilosos

Funcionários seguem abastecendo o ChatGPT com dados sigilosos – e a simples proibição não dá conta do problema.

O cenário atual nas empresas deixa pouco espaço para dúvidas: uma organização média registra, por mês, 223 incidentes de violação de políticas de dados relacionados ao uso de inteligência artificial generativa. O número vem do Cloud and Threat Report da Netskope, publicado em janeiro deste ano, com base na telemetria de milhões de usuários corporativos no mundo todo. Mais alarmante do que o volume é a curva de crescimento: em apenas um ano, esses incidentes mais do que dobraram.

No Brasil, onde a adoção de soluções de IA nas empresas saltou de 20% para 51% em um intervalo de doze meses, esse uso fora de controle já tem nome e contornos próprios: shadow AI – o uso de ferramentas de inteligência artificial sem conhecimento, supervisão ou aprovação da área de TI e de segurança.

O mecanismo por trás disso é simples, cotidiano e quase sempre bem-intencionado. Um colaborador precisa concluir uma atividade urgente: elaborar um relatório extenso, revisar uma minuta de contrato, depurar um trecho de código, resumir notas de uma reunião com o cliente. As ferramentas internas, muitas vezes, são lentas, pouco intuitivas, com interfaces antiquadas e sem recursos de automação. No mesmo computador em que sofre com esses sistemas, o funcionário dá dois cliques, abre o ChatGPT ou outro assistente generativo, e em poucos segundos recebe um texto coerente, um código funcional ou um resumo bem organizado.

A tentação é grande – e o risco, silencioso. Em vez de reescrever tudo manualmente, o profissional simplesmente copia o conteúdo corporativo, cola no prompt, envia o documento ou transcreve dados sensíveis na janela de chat. Aos olhos dele, é só um atalho produtivo. Para a empresa, porém, trata-se de um incidente de segurança: dados internos saem do perímetro controlado, muitas vezes sem qualquer registro, monitoramento ou consciência do que isso representa.

Uma pesquisa divulgada pela Harmonic Security em janeiro detalha com mais precisão que tipo de informação está sendo despejada nesses prompts. Entre os dados inseridos pelos usuários em ferramentas de IA generativa, aparecem:

– Dados jurídicos e financeiros: 30,8% dos casos;
– Informações de clientes: 27,8%;
– Dados pessoais de titulares: 14,9%;
– Registros de funcionários: 14,3%;
– Código-fonte sensível: 10,1%.

Do total, 79% desse volume vai parar especificamente no ChatGPT – e, dentro desse percentual, 21% é inserido na versão gratuita, em que os prompts podem ser retidos e utilizados para treinamento do modelo. Em termos práticos, isso significa que dados potencialmente sigilosos podem alimentar um sistema sobre o qual a organização não tem qualquer ingerência, nem garantias contratuais de uso, retenção ou descarte.

Esse movimento não é restrito a uma minoria rebelde das empresas. O Microsoft/LinkedIn Work Trend Index, que ouviu mais de 31 mil profissionais do conhecimento em 31 países, incluindo o Brasil, mostrou que 75% desses trabalhadores já utilizam IA generativa no seu dia a dia profissional. Ainda mais revelador: 78% deles recorrem a ferramentas próprias, sem qualquer tipo de aprovação, cadastro ou avaliação prévia da área de TI. Tudo isso em um contexto em que 68% dos entrevistados afirmam sentir-se sobrecarregados pelo volume de trabalho.

Sob a perspectiva do executivo brasileiro, essa combinação de pressão por produtividade, acesso fácil a IA e ausência de governança não é apenas um problema técnico: é um risco regulatório direto. Quando um funcionário insere dados pessoais de clientes ou colaboradores em uma ferramenta pública de IA, a organização passa a incorrer, simultaneamente, em:

– Transferência de dados pessoais a um terceiro;
– Possível transferência internacional de dados;
– Violação do princípio de segurança previsto no Art. 46 da Lei Geral de Proteção de Dados (LGPD).

Pela LGPD, a responsabilidade recai, nos termos do Art. 42, sobre o controlador – no caso, a própria empresa. Não importa se a inserção dos dados ocorreu por iniciativa individual, sem ordem direta da gestão. Do ponto de vista jurídico, o empregado está atuando em nome da organização, e é ela que terá de responder por eventuais danos.

O novo peso institucional da ANPD (Autoridade Nacional de Proteção de Dados) acentua essa preocupação. Em 2025, a autoridade foi elevada ao status de autarquia especial, com poderes ampliados de fiscalização e sanção. Na prática, isso se traduz em maior capacidade de abrir investigações, exigir ajustes, aplicar sanções e fiscalizar o uso de dados em larga escala. A ANPD já mostrou disposição de atuar em casos que envolvem inteligência artificial: determinou, de forma preventiva, o bloqueio do uso de dados pessoais para treinamento de IA por uma das maiores plataformas sociais do planeta e analisa, no país, a responsabilidade de uma grande empresa global por um vazamento de dados de usuários de ferramenta de IA.

As possíveis punições administrativas previstas na LGPD são expressivas: as multas podem chegar a 2% do faturamento de uma empresa no Brasil, limitadas a R$ 50 milhões por infração, por incidente. Em um ambiente em que incidentes relacionados a shadow AI disparam, o risco financeiro de cada decisão individual de um colaborador que “só queria agilizar o trabalho” fica longe de ser abstrato.

O impacto econômico também aparece com clareza em outro indicador relevante. O IBM Cost of Data Breach Report 2025, que analisou 600 organizações globais, concluiu que violações de dados originadas em shadow AI custam, na média, US$ 670 mil a mais do que outros tipos de incidentes. Enquanto o custo médio global de uma violação tradicional ficou em US$ 3,96 milhões, os casos com origem em uso não governado de IA atingiram US$ 4,63 milhões. Em 97% das organizações que sofreram violações envolvendo modelos ou aplicações de IA, verificou-se ausência de controles de acesso adequados. Ou seja, na imensa maioria das situações, não havia sequer barreiras básicas para limitar quem podia usar, treinar ou integrar essas ferramentas com dados sensíveis.

Diante desse quadro, a reação instintiva de muitos departamentos de TI e segurança é recorrer ao remédio clássico: proibir. Bloqueiam-se domínios, endurecem-se políticas de uso aceitável, criam-se listas de ferramentas vetadas e, em alguns casos, aplicam-se punições disciplinares exemplares a quem for pego utilizando IA pública. Aparentemente, é uma reposta firme. Na prática, porém, os dados indicam que esse tipo de bloqueio puro e simples não resolve o problema – e, por vezes, agrava o quadro de shadow AI.

Um estudo da Cisco, o 2024 Data Privacy Benchmark Study, realizado com 2.600 profissionais de segurança e privacidade em 12 países, mostrou que 27% das empresas decidiram banir totalmente o uso de ferramentas de IA generativa. Esse percentual, porém, não se traduz automaticamente em segurança. Em muitos desses ambientes, o uso não desaparece; apenas se desloca para dispositivos pessoais, contas privadas e conexões fora do controle corporativo. O risco, então, deixa de ser visível e mensurável, tornando-se ainda mais difícil de mitigar.

Por que a proibição falha como estratégia principal

Proibir sem oferecer alternativas cria um descompasso inevitável entre a realidade do trabalho e as políticas corporativas. O funcionário sente a pressão por produtividade, vê colegas em outras empresas utilizando IA para ganhar velocidade e qualidade, e percebe que a proibição interna o coloca em desvantagem. A tendência, nesse cenário, é buscar caminhos paralelos: usar o celular pessoal, enviar documentos para o e-mail privado e colar trechos de texto em ferramentas de IA logadas com contas pessoais.

Além disso, a proibição total costuma ignorar a multiplicidade de casos de uso legítimos e de baixo risco. Há atividades em que é possível usufruir dos ganhos de produtividade da IA sem exposição de dados sensíveis, como geração de rascunhos genéricos, ideias para apresentações, revisão de texto sem conteúdo confidencial ou apoio em pesquisas conceituais. Ao vetar tudo, a organização perde a chance de diferenciar o que é aceitável do que é crítico, empurrando todos os usos para a clandestinidade.

Outro fator é cultural. Políticas que soam desconectadas da realidade diária tendem a ser vistas como obstáculos burocráticos, não como salvaguardas essenciais. Isso corrói a confiança entre equipes e área de segurança, e dificulta que incidentes sejam reportados com transparência. Em um ambiente em que qualquer uso de IA é automaticamente criminalizado, o colaborador que percebe ter exposto dados por engano terá um forte incentivo para esconder o ocorrido.

O que funciona no lugar da proibição cega

Enfrentar o shadow AI exige uma combinação de tecnologia, governança, educação e, principalmente, pragmatismo. Algumas linhas de ação já se mostram mais eficazes do que o banimento genérico:

1. Oferecer alternativas corporativas de IA
Em vez de apenas dizer “não usem ChatGPT”, organizações podem disponibilizar modelos de IA aprovados, com contratos específicos de proteção de dados, logs de auditoria e controles de acesso. Isso pode incluir instâncias corporativas de grandes modelos, soluções oferecidas por parceiros de nuvem com cláusulas de não treinamento em dados do cliente ou até modelos em ambiente on-premises para usos altamente sensíveis.

2. Definir claramente o que pode e o que não pode
Políticas de uso aceitável precisam ir além de frases vagas como “não inserir informações confidenciais”. É necessário listar, com exemplos concretos, os tipos de dados absolutamente proibidos (como dados pessoais sensíveis, segredos industriais, credenciais, chaves de API, código proprietário crítico) e aqueles que podem ser utilizados em contextos controlados. Guias práticos, com prints e cenários do dia a dia, ajudam muito mais do que documentos jurídicos abstratos.

3. Classificar e rotular dados de forma efetiva
Sem saber o que é sensível, o funcionário dificilmente tomará boas decisões. Investir em classificação de informações – combinando rótulos automáticos e manuais – permite que o próprio colaborador enxergue, no momento do uso, o nível de criticidade daquele conteúdo. Integrar essa classificação com ferramentas de prevenção a perda de dados (DLP) ajuda a bloquear automaticamente a saída de informações rotuladas como confidenciais para domínios de IA não autorizados.

4. Monitorar, em vez de apenas bloquear
Ferramentas de segurança em nuvem (CASB, SSE, SASE) permitem identificar o acesso a serviços de IA, mapear quais departamentos mais utilizam, quais tipos de dados parecem ser movimentados e, a partir disso, calibrar políticas. Em vez de um corte brusco, é possível exercer um controle progressivo, combinando alertas, bloqueios seletivos e campanhas de conscientização onde o risco é maior.

5. Treinar com foco em dilemas reais
Programas de conscientização em segurança costumam falhar quando se limitam a apresentações genéricas anuais. No caso da IA, é mais efetivo trabalhar com dilemas concretos: “Você precisa revisar um contrato. O que pode ou não pode ser colocado no ChatGPT?”, “Você está depurando um código. Até que ponto é seguro compartilhar um trecho?”, “Como remover ou anonimizar dados antes de usar a ferramenta?”. Treinamentos baseados em situações práticas geram memórias mais fortes e mudança de comportamento.

6. Criar canais seguros de dúvida e reporte
Se o colaborador não tiver onde perguntar, vai decidir por conta própria. Estabelecer um canal simples para tirar dúvidas sobre uso de IA e outro para reportar, de forma não punitiva, incidentes e erros ajuda a trazer os problemas para a superfície rapidamente. Quanto antes a empresa souber que dados foram expostos, maior a chance de mitigar o impacto e demonstrar boa-fé perante a autoridade reguladora.

A responsabilidade do topo: governança de IA como tema estratégico

A gestão de riscos de IA não pode ficar restrita ao time de TI ou ao DPO. Com a ANPD mais atuante e as cifras de violações crescentes, conselhos de administração, diretores financeiros e jurídicos precisam enxergar a governança de IA como um tema estratégico. Isso inclui:

– Inserir o uso de IA generativa no mapa corporativo de riscos;
– Avaliar regularmente o portfólio de ferramentas em uso, formais e informais;
– Incluir cláusulas específicas sobre IA e proteção de dados em contratos com fornecedores;
– Garantir que projetos de IA passem por avaliações de impacto em proteção de dados (DPIA) quando necessário;
– Acompanhar a evolução regulatória no Brasil e em outros países onde a empresa atua.

Empresas que adotam esse olhar estruturado tendem não apenas a reduzir a exposição, mas também a explorar de forma mais madura os benefícios da IA, evitando paralisação por medo ou, no extremo oposto, adoção desordenada.

Como transformar shadow AI em vantagem competitiva

O lado pouco discutido do fenômeno é que o shadow AI revela um apetite genuíno por inovação dentro da força de trabalho. Funcionários recorrem à IA porque percebem ganhos concretos de eficiência e qualidade. Em vez de enxergar esse movimento apenas como ameaça, organizações podem canalizar essa energia a seu favor.

Alguns caminhos práticos:

Mapear bons casos de uso já emergentes: ouvir equipes e identificar onde a IA já vem ajudando, ainda que informalmente, para então formalizar, testar riscos e, se for seguro, institucionalizar essas práticas.
Criar comunidades internas de prática em IA: grupos multidisciplinares que trocam experiências, testam ferramentas aprovadas e produzem guias internos adaptados à realidade da empresa.
Reconhecer e recompensar uso responsável: valorizar publicamente times que conseguem ganhos mensuráveis com IA dentro das regras, reforçando a mensagem de que o problema não é a tecnologia em si, mas o uso desgovernado.

Quando as pessoas percebem que podem usar IA de forma segura, com apoio da liderança, a tendência é abandonar atalhos arriscados e migrar para caminhos oficiais.

Ajustando expectativas: risco zero não existe, mas risco cego é escolha

Nenhum controle será capaz de eliminar completamente a possibilidade de um funcionário, por descuido ou desconhecimento, expor dados em uma ferramenta de IA pública. Buscar risco zero é ilusório. O que diferencia organizações resilientes é a capacidade de:

– Reduzir drasticamente as chances de incidentes graves;
– Detectar rapidamente o que aconteceu;
– Reagir de forma coordenada, técnica e juridicamente;
– Demonstrar, perante reguladores e clientes, que adotam práticas responsáveis e proporcionais.

Ignorar o problema ou restringir tudo sem critério, por outro lado, é uma escolha consciente por operar no escuro – e, como mostram os números, pagar mais caro depois.

No fim das contas, funcionários vão continuar usando IA para trabalhar melhor. O desafio não é impedir que isso aconteça, mas criar condições para que essa utilização ocorra dentro de limites claros, com ferramentas adequadas e sob uma governança que respeite a LGPD, a segurança da informação e a própria sustentabilidade do negócio. Proibir pode parecer uma solução rápida; enfrentar a realidade com estratégia é o que, de fato, reduz riscos – e permite que a IA seja aliada, não ameaça.