Segurança de dados na Ia: 56% dos líderes temem riscos na adoção, diz relatório

56% dos líderes temem pela segurança de dados ao adotar IA, aponta relatório global

A expansão do uso de inteligência artificial nas empresas está vindo acompanhada de um movimento inverso na percepção de segurança. De acordo com o Relatório Global sobre o Estado da Infraestrutura de Dados 2025, da Hitachi Vantara, a proteção das informações se consolidou como o maior obstáculo para a adoção de IA: 56% dos executivos ouvidos indicam a segurança de dados como principal desafio, um salto de 19 pontos percentuais em comparação com 2024.

O estudo ouviu mais de 1.200 executivos de nível C e líderes de TI de grandes organizações, todas com mais de mil colaboradores. O resultado é um retrato de um momento paradoxal: enquanto os investimentos em IA devem acelerar de forma significativa nos próximos dois anos, cresce também a sensação de vulnerabilidade em relação a riscos cibernéticos, governança e confiabilidade dos modelos.

As preocupações não se limitam ao vazamento de dados em si. O relatório mostra que a ansiedade em relação à violação interna de sistemas de IA aumentou de 31% para 41%. Ou seja, cresce o receio de que funcionários, fornecedores ou parceiros com acesso autorizado possam explorar brechas, usar informações de forma indevida ou manipular modelos. Ao mesmo tempo, o medo de ataques externos apoiados por IA avançou de 41% para 43%, evidenciando que criminosos também estão se sofisticando com o uso de algoritmos para automatizar invasões, criar phishing mais convincente e testar vulnerabilidades em escala.

Outra frente que ganhou destaque foi a conformidade regulatória. A fatia de líderes que considera a aderência a leis e normas de proteção de dados como um dos grandes desafios da IA subiu de 31% para 37%. Em um cenário de normas rígidas – como GDPR na Europa e LGPD no Brasil -, qualquer falha na proteção, armazenamento ou uso de dados pessoais em modelos de IA pode resultar em multas, sanções, danos reputacionais e perda de confiança de clientes e parceiros.

O estudo também revela um dado incômodo para quem esperava apenas histórias de sucesso com IA: a percepção de eficácia dos modelos vem caindo. Ferramentas de IA generativa, como assistentes de texto e copilotos de produtividade, tiveram seu índice de “sucesso percebido” reduzido de 95% para 81%. Isso não significa necessariamente que a tecnologia deixou de funcionar, mas indica que, na prática, empresas estão encontrando mais limites, custos ocultos, dificuldades de integração e riscos do que imaginavam em um primeiro momento.

Como resposta, crescem os investimentos em governança de dados e qualidade das informações usadas para treinar modelos. A proporção de empresas que estão melhorando ativamente os dados de treinamento subiu de 39% para 49%. Paralelamente, a adoção de frameworks mais robustos de governança de dados avançou de 32% para 45%. A prática de realizar auditorias regulares de desempenho dos modelos também ganhou espaço, passando de 36% para 44%. Esses movimentos mostram que o foco está deixando de ser apenas “rodar modelos” para se concentrar em como eles são geridos, monitorados e explicados.

Um dos avanços mais significativos está na chamada “explicabilidade” da IA. O percentual de organizações que ainda não adotam qualquer estratégia de explicação dos modelos – ou seja, que não se preocupam em tornar claras as razões por trás das decisões automatizadas – caiu de 42% para 24%. Esse é um ponto crítico para segurança, ética e conformidade: quanto mais opaco o modelo, maior o risco de vieses, decisões incorretas ou uso inadequado de dados passarem despercebidos.

Por outro lado, a confiança dos próprios funcionários em relação ao uso seguro da IA vem se deteriorando. O índice de colaboradores que afirmam utilizar essas ferramentas de forma segura e exclusivamente para fins de negócio caiu de 77% para 65%. Esse dado acende um alerta sobre a necessidade de programas mais consistentes de treinamento, políticas claras de uso e monitoramento contínuo, uma vez que grande parte dos incidentes de segurança está ligada ao comportamento humano, seja por erro, desconhecimento ou má-fé.

Para Octavian Tanase, Chief Product Officer da Hitachi Vantara, a inteligência artificial está pressionando as empresas a repensarem a forma como tratam seus dados. Segundo ele, à medida que a IA se torna parte estruturante das operações, governança, visibilidade e controle deixam de ser temas acessórios e passam a ser tão importantes quanto desempenho e inovação. Organizações que já vinham investindo em automação e na modernização da infraestrutura de dados avançam com mais segurança, enquanto as demais sentem a complexidade crescer e a distância aumentar.

Na América Latina, e especialmente no Brasil, o desafio ganha contornos ainda mais delicados. A região vive uma fase intensa de digitalização, muitas vezes baseada em ambientes legados, infraestruturas heterogêneas e sistemas que não foram originalmente pensados para suportar cargas de IA de forma segura e integrada. Isso cria o risco de construir projetos de inteligência artificial em cima de bases frágeis, com silos de informação, baixa padronização e dificuldades de governança.

Pedro Diógenes, Senior Manager Pre Sales Consultant da Hitachi Vantara no Brasil, destaca que o entusiasmo com IA na região não é acompanhado, na mesma velocidade, pela maturidade em dados e infraestrutura. Muitas empresas avançam em pilotos e provas de conceito sem antes endereçar questões estruturais, como classificação de dados, segmentação de ambientes, criptografia, backup e recuperação, controle de acesso e monitoramento de uso. Quando a IA passa a sustentar processos críticos, fica claro que arquiteturas convencionais já não dão conta da escala, da resiliência e da disponibilidade exigidas.

Nesse contexto, infraestruturas High End, projetadas para alto desempenho, alta disponibilidade e continuidade operacional, assumem um papel central. Não se trata apenas de mais poder computacional, mas de arquiteturas desenhadas para lidar com grandes volumes de dados, garantir baixa latência, reduzir pontos únicos de falha e permitir uma visão unificada do ambiente. Sem essa base robusta, as iniciativas de IA tendem a gerar aumento de custos, crescimento do risco operacional e frustração dos usuários, em vez de ganhos concretos de eficiência e receita.

Para a CEO da Hitachi Vantara, Sheila Rohra, a mensagem do relatório é que IA, sozinha, não corrige problemas históricos de processos e dados – pelo contrário, tende a ampliá-los. Sem uma infraestrutura resiliente, automatizada e com governança consistente, a tecnologia deixa de ser um motor de inovação e passa a expor, de forma ainda mais visível, ineficiências, gargalos e vulnerabilidades que já existiam, mas não estavam tão evidentes.

Rohra ressalta que a IA só entrega valor sustentável quando se apoia em dados confiáveis, bem organizados, protegidos e resilientes. O papel dos fornecedores de tecnologia, nesse cenário, é apoiar as organizações na simplificação da gestão de ambientes complexos, na criação de estratégias de dados de longo prazo e na construção de políticas que permitam escalar a IA sem perder o controle sobre o que é feito com as informações sensíveis.

Impactos para empresas brasileiras e relação com a LGPD

No Brasil, o avanço da inteligência artificial se cruza diretamente com a aplicação da Lei Geral de Proteção de Dados (LGPD). Empresas que treinam modelos com dados pessoais – sejam de clientes, funcionários ou parceiros – precisam garantir base legal adequada, transparência na finalidade do uso e medidas técnicas e organizacionais robustas para proteger essas informações. Falhas nesse processo podem levar não apenas a incidentes de segurança, mas também a autuações e multas por parte das autoridades regulatórias.

Um ponto sensível é o uso de dados históricos para treinar modelos preditivos ou generativos. Sem uma governança clara, é comum que bases antigas, com dados obsoletos, redundantes ou coletados sem o devido consentimento, sejam reaproveitadas em projetos de IA. Isso aumenta o risco de exposição de informações que deveriam ter sido eliminadas e dificulta a resposta a direitos dos titulares, como acesso, correção ou exclusão.

Por isso, cresce a importância de práticas como catalogação de dados, definição de políticas de retenção, anonimização e pseudonimização, além de segmentação entre ambientes de teste, desenvolvimento e produção. Empresas que conseguem mapear onde estão seus dados sensíveis, quem acessa essas informações e para quais finalidades têm muito mais condições de implantar IA de forma segura e em conformidade com a lei.

Medidas práticas para reduzir riscos na adoção de IA

O cenário descrito pelo relatório indica que segurança e governança não podem ser enxergadas como um “pós-projeto”, algo a ser resolvido depois que a IA já estiver em produção. Entre as medidas fundamentais estão:

– Inserir segurança e privacidade desde a concepção do projeto (privacy by design e security by design).
– Definir claramente quais dados podem ou não ser usados para treinar modelos, com base em classificações de sensibilidade.
– Implementar criptografia em repouso e em trânsito, controle de acesso granular e registros detalhados de auditoria.
– Estabelecer processos recorrentes de avaliação de risco e testes de segurança específicos para modelos de IA.
– Criar políticas internas de uso responsável da IA, com orientação clara aos funcionários sobre o que é permitido, o que é proibido e quais cuidados adotar ao interagir com assistentes e ferramentas generativas.

Além da camada técnica, a capacitação das equipes é decisiva. Treinar colaboradores para reconhecer riscos, evitar o compartilhamento indevido de informações confidenciais com ferramentas de IA e seguir boas práticas de segurança contribui diretamente para reduzir incidentes causados por erro humano.

IA, confiança e vantagem competitiva

O aumento das preocupações com segurança de dados não significa um freio definitivo na adoção de IA, mas indica que a forma de implementar a tecnologia está mudando. Empresas que conseguirem combinar inovação com controle, transparência e proteção de dados tendem a construir uma vantagem competitiva sustentável, ao mesmo tempo em que preservam a confiança de clientes, parceiros, reguladores e colaboradores.

Por outro lado, organizações que tratam a segurança como um item secundário, ou que correm para implantar IA sem rever sua infraestrutura de dados, podem até conseguir ganhos rápidos em produtividade, mas ficarão mais expostas a vazamentos, indisponibilidades e sanções regulatórias. Nesse cenário, a pergunta deixa de ser “se” a empresa terá problemas, e passa a ser “quando” e com qual impacto.

O relatório da Hitachi Vantara reforça essa mudança de mentalidade: IA não é apenas um projeto de tecnologia, é um projeto de dados, segurança, governança e cultura organizacional. À medida que a porcentagem de líderes preocupados com a segurança cresce, torna-se claro que o sucesso da IA no médio e longo prazo dependerá menos do brilho das ferramentas e mais da solidez da base sobre a qual elas são construídas.