8 de Maio, 2026
Um analista de marketing tem uma reunião ao meio-dia. Faltando pouco tempo, ele pega a apresentação da empresa com dados financeiros, estratégias de produto e informações confidenciais, e coloca tudo no ChatGPT para melhorar os slides antes da reunião.
Parece inofensivo. Mas naquele momento, ele expôs dados sensíveis da empresa a um modelo público de inteligência artificial, sem que ninguém na TI soubesse ou autorizasse.
Isso tem nome: Shadow IA. E provavelmente já está acontecendo dentro da sua empresa.
O uso de inteligência artificial no ambiente corporativo brasileiro cresceu de forma expressiva. Segundo levantamento do Google Workspace, 82% dos profissionais brasileiros já têm familiaridade com IA no trabalho, o maior índice da América Latina, onde a média é de 67%.
Mais revelador: 74% já utilizam assistentes de IA pessoais diretamente em suas atividades profissionais. Não porque a empresa orientou. Mas porque é o que eles têm à disposição.
O problema fica claro quando se olha para o outro lado desse dado:
No webinar de Segurança em IA promovido pela BluePex®, uma pesquisa ao vivo com os participantes revelou que 77% das empresas representadas não têm mapeamento do uso de IA, políticas formalizadas nem equipe treinada para lidar com esse risco.
Shadow IA é quando colaboradores usam ferramentas de inteligência artificial no trabalho sem a empresa saber, aprovar ou controlar. O conceito vem do antigo Shadow IT, só que com implicações mais graves.
Na TI tradicional, dados em sistemas não autorizados ainda podiam ser rastreados, isolados ou removidos. Na inteligência artificial pública, uma vez que a informação entra no modelo, o controle sobre ela é perdido. Não existe desfazer.
Quando um colaborador processa um documento em uma IA pública, os dados são absorvidos como parte do aprendizado do modelo. Mesmo que ele apague o histórico da conversa, a informação já foi processada pelo algoritmo. E agentes de IA podem aprender com conteúdos processados por outros usuários, disseminando informações sem que ninguém perceba.
Os casos mais comuns de Shadow IA não envolvem má intenção. O colaborador quer apenas ser mais produtivo:
Todos esses cenários parecem inofensivos. Todos representam potenciais violações da LGPD.
Além do comportamento humano, a arquitetura das IAs públicas cria pontos de exposição específicos:
As defesas tradicionais de rede não foram projetadas para conter esses vetores. É preciso uma camada específica de controle para o uso de IA.
O uso de IA sem governança não é apenas um risco técnico. Em muitos casos, configura violação direta da legislação brasileira.
Já abordamos em detalhes os aspectos legais do uso de IA e a relação com a LGPD, incluindo uma análise de conformidade das principais ferramentas disponíveis no mercado. Vale a leitura para entender o que cada plataforma faz com os dados inseridos.
O ponto central que precisa ficar claro aqui é que a LGPD cria três exigências que entram em conflito direto com a realidade das IAs públicas:
A realidade das PMEs brasileiras ainda está longe do ideal. A maioria das pequenas e médias empresas não atingiu conformidade total com a LGPD, e boa parte sequer iniciou um processo estruturado de adequação. Esse cenário fica ainda mais crítico quando se adiciona o uso descontrolado de IA ao ambiente corporativo.
As penalidades previstas na própria legislação para quem não se adequar são concretas:
A responsabilidade legal recai sobre a empresa usuária, não sobre o desenvolvedor da ferramenta.
Quer entender como sua empresa está posicionada em relação à LGPD e ao uso de IA?
Faça o BluePex® Assessment gratuitamente e descubra o nível de maturidade da sua operação de TI.
Tentar bloquear o uso de IA por completo não é uma estratégia viável. A adoção já aconteceu. A questão agora é torná-la segura e rastreável.
A resposta está em três frentes que precisam funcionar juntas.
O ponto de partida é formalizar o que pode e o que não pode. Na prática, isso significa:
Vale destacar: mesmo versões corporativas pagas como ChatGPT Enterprise, Microsoft Copilot ou Google Gemini reduzem o risco de forma significativa, mas não o eliminam sozinhas. A governança precisa existir independentemente da ferramenta utilizada.
Política sem controle técnico é apenas um documento. A camada de tecnologia precisa garantir que as regras sejam aplicadas de fato:
É possível ter a melhor infraestrutura de segurança do mercado. Mas se as pessoas não souberem como usar a IA com responsabilidade, essa infraestrutura pode ser comprometida em questão de minutos.
Por isso, a conscientização é chamada de 8ª camada da segurança: a mais sensível de todas, e frequentemente a mais negligenciada.
Três práticas que precisam fazer parte da cultura da equipe:
Uma das percepções mais comuns entre gestores e equipes de TI é que assinar uma versão corporativa ou paga de uma ferramenta de IA resolve o problema de segurança. Não resolve.
O que muda nas versões pagas é o modelo de cobrança, não necessariamente o tratamento dos dados. Algumas plataformas cobram por mensalidade fixa, outras por volume de tokens processados. Em ambos os casos, os dados inseridos continuam sendo processados pelo modelo, e as garantias de privacidade variam significativamente entre os fornecedores.
Mesmo versões corporativas como ChatGPT Enterprise, Microsoft Copilot ou Google Gemini reduzem o risco de forma considerável, mas não o eliminam por si sós. A proteção de dados melhora, a rastreabilidade aumenta, o ambiente fica mais controlado. Mas sem uma política de uso, sem monitoramento de rede e sem conscientização das equipes, o risco de exposição continua presente.
A única forma de garantir privacidade total é o uso de APIs privadas dentro de um ambiente controlado, onde os dados processados não saem do perímetro da empresa e não alimentam nenhum modelo externo. Para a maioria das organizações, isso exige uma camada adicional de governança que vai além da simples assinatura de uma ferramenta.
Outro ponto que a versão paga não resolve sozinha: o comportamento das pessoas. Um colaborador com acesso ao ChatGPT Enterprise pode inserir dados sensíveis da mesma forma que faria na versão gratuita, se não houver política clara sobre o que pode e o que não pode ser compartilhado. A ferramenta muda. O risco humano permanece.
A plataforma Cyber Domo foi desenvolvida para integrar controle técnico, governança e conscientização em um único painel, sem necessidade de múltiplas soluções de diferentes fornecedores.
Se você quer aprofundar o tema da 8ª camada e entender como construir uma primeira linha de defesa a partir das pessoas, o próximo webinar da BluePex® aborda exatamente isso: Gestão estratégica de TI na camada 8. Inscreva-se grátis clicando aqui.
Todo esse conjunto opera com suporte especializado 24/7 em português, com atendimento proativo em até três minutos, sem necessidade de abertura de ticket.
O ambiente regulatório global está se movendo. Empresas que não se prepararem agora vão lidar com exigências crescentes nos próximos anos:
O ponto comum entre todos eles é claro: quem não tiver governança de IA vai ter inovação descontrolada e risco invisível.
A inteligência artificial já faz parte do cotidiano corporativo no Brasil. Ignorar esse fato não protege a empresa. Apenas garante que o uso aconteça sem controle, sem rastreabilidade e sem conformidade.
O caminho não é proibir. É governar com estratégia, controle e cultura: homologar as ferramentas certas, implementar os controles técnicos adequados, treinar as pessoas e ter visibilidade contínua sobre o que acontece no ambiente.
Essa estrutura já existe. E não precisa ser construída do zero.
Quer entender como sua empresa está exposta ao risco de Shadow IA?
Fale com um especialista BluePex® e descubra como o Cyber Domo pode dar à sua equipe de TI o controle e a visibilidade necessários para inovar com segurança.
01
DIA(S)
00
HORA(S)
22
MINUTOS
08
SEGUNDOS
Tire suas dúvidas ao vivo com um Especialista em Cibersegurança