O que abordamos:
1. Principais riscos do uso da IA nas empresas
2. Aspectos legais e regulatórios no uso da IA
3. Governança de IA
5. Como utilizar a IA de maneira segura no trabalho
5. Protegendo sua Infraestrutura na era de IA
6. Como as soluções BluePex® utilizam a IA para fortalecer a segurança corporativa nas empresas.
As ferramentas de Inteligência Artificial (IA) experimentaram um crescimento explosivo nos últimos anos, transformando radicalmente a forma como trabalhamos e interagimos com a tecnologia. Do ChatGPT ao Google Gemini, passando pelo Microsoft Copilot, entre outras, essas ferramentas se tornaram aliadas poderosas para aumentar a produtividade no ambiente de trabalho.
No entanto, essas ferramentas também trazem consigo desafios críticos e riscos especialmente relacionados à segurança de dados: vazamentos de dados confidenciais, violações de conformidade regulatória, exposição de informações sensíveis de clientes e funcionários, e até mesmo problemas legais, são apenas alguns dos perigos associados ao uso descuidado da IA.
Em 2024, a Autoridade Nacional de Proteção de Dados (ANPD) determinou que a Meta suspendesse o uso de dados pessoais para treinamento de IA, estabelecendo multa diária de R$ 50 mil por descumprimento, demonstrando que as autoridades reguladoras estão atentas aos riscos.
Essa situação pressiona empresas e profissionais a adotar medidas de prevenção que permitam minimizar esses riscos e aproveitar melhor as oportunidades oferecidas pela tecnologia. Para compreender melhor essas medidas, é fundamental primeiro entender os principais riscos envolvidos.
A IA pode expor dados sensíveis da empresa quando funcionários compartilham informações confidenciais com sistemas externos. Há também vulnerabilidades relacionadas a vazamentos de dados, ataques cibernéticos direcionados a sistemas de IA e possível acesso não autorizado a informações proprietárias.
Com o surgimento de novas regulamentações sobre IA (como o AI Act da União Europeia), as empresas enfrentam desafios para manter conformidade. Isso inclui questões sobre uso de dados pessoais, transparência algorítmica e responsabilidade por decisões automatizadas.
A resposta curta é sim. Em suas políticas, as principais empresas desenvolvedoras de ferramentas de IA expressam claramente como utilizam os dados dos usuários para aprimorar seus sistemas, e por isso compreender essas diretrizes é fundamental para o uso consciente da tecnologia.
A OpenAI, criadora do ChatGPT, especifica em sua política de privacidade que as conversações com o chatbot são armazenadas e podem ser utilizadas para múltiplas finalidades. Primeiramente, para identificar e resolver problemas técnicos, bem como para detectar violações dos termos de serviço. Nesses casos, as conversas podem até mesmo ser analisadas por revisores humanos. Adicionalmente, esses dados servem para treinar versões futuras do GPT e implementar outras melhorias no produto.
Praticamente todos os outros modelos de linguagem amplamente utilizados seguem diretrizes semelhantes. O Gemini do Google, o Claude da Anthropic, e as soluções Bing e Copilot da Microsoft também mantêm registros completos das interações dos usuários.
Já ocorreram situações onde falhas técnicas resultaram na exposição acidental de conversas, fazendo com que usuários vissem diálogos de outras pessoas em vez dos próprios. O uso desses dados para treinamento também apresenta riscos potenciais: um assistente de IA poderia inadvertidamente fornecer informações de um usuário a outro, caso considere esses dados relevantes para uma resposta.
Portanto, é indispensável saber que tudo o que seja enviado num chatbot pode ser utilizado, e por isso tomar medidas ao interagir com as ferramentas é essencial.
Não há conformidade integral com a LGPD. Uma pesquisa conduzida pelo Centro de Tecnologia e Sociedade da FGV Direito Rio investigou o grau de conformidade das principais plataformas de IA generativa com a legislação brasileira de proteção de dados.
O estudo examinou sete plataformas populares (ChatGPT, Gemini, Claude, Copilot, Grok, DeepSeek e Meta AI) utilizando 14 critérios fundamentais baseados nas diretrizes da ANPD.
Os resultados revelaram que nenhuma das ferramentas analisadas demonstrou conformidade integral com os requisitos básicos da LGPD. A análise mostrou variações significativas no grau de adequação entre as diferentes plataformas.
De acordo com a LGPD, cabe às empresas disponibilizar informações de forma clara, objetiva e acessível para que o tratamento de dados pessoais seja considerado adequado perante a lei.
Diante dessa realidade, torna-se ainda mais crítica a adoção de medidas e práticas específicas para evitar vazamentos de informações e assegurar a privacidade dos dados.
As empresas precisam implementar controles internos rigorosos e assumir uma postura proativa nesse sentido. Mas quais são as consequências legais do uso inadequado dessas ferramentas?
Embora o Brasil ainda não possua uma legislação específica dedicada exclusivamente à IA, práticas abusivas ou ilegais podem ser enquadradas em normas já existentes, como:
As penalizações podem incluir:
Plataformas não são necessariamente responsáveis por conteúdos de terceiros, mas devem agir prontamente após notificações, conforme determina o Marco Civil
Isso significa que, embora as empresas desenvolvedoras de IA tenham suas responsabilidades, as organizações que utilizam essas ferramentas também precisam assumir sua parte na proteção de dados.
Diante desse cenário regulatório complexo e em constante evolução, a implementação de uma governança adequada de IA torna-se não apenas uma boa prática, mas uma necessidade estratégica para qualquer organização que deseje utilizar essas tecnologias de forma responsável e segura.
Com o uso massivo da IA no mundo, os riscos à privacidade e o aumento de casos de uso indevido fazem da governança uma prioridade global.
Atualmente, já existem diferentes referências internacionais que buscam orientar o uso ético e seguro da inteligência artificial no ambiente corporativo. Entre as principais, destacam-se:
No Brasil, a regulamentação caminha para garantir o uso responsável e seguro da IA, com o Projeto de Lei n.º 2.338/2023, que busca estabelecer marcos regulatórios específicos para inteligência artificial. Esse projeto visa criar um ambiente mais seguro e previsível para o desenvolvimento e uso de IA no país.
Elas indicam exatamente como os dados são tratados.
Nunca insira dados pessoais sensíveis em ferramentas de IA, isso inclui dados como CPF, RG, números de cartão de crédito, senhas, endereços residenciais completos ou qualquer informação que possa identificar você ou terceiros de forma única. Além disso evite compartilhar informações pessoais de colegas, clientes ou parceiros comerciais. Essa prática apresenta dois riscos principais:
Exemplo: Em vez de perguntar para IA "Meu CPF é 123.456.789-00, como declaro imposto de renda?", pergunte "Como uma pessoa física declara imposto de renda no Brasil?".
Antes de fazer upload de documentos e planilhas, verifique se não contêm informações confidenciais em metadados, comentários ocultos ou propriedades do arquivo. Remova dados sensíveis e considere criar versões sanitizadas com apenas as informações essenciais, ou substituindo informações sensíveis por códigos genéricos.
Exemplo: Para um contrato, remova nomes reais, valores específicos e dados de contato, substituindo por "Empresa X", "Valor Y" e "[email protected]" antes do upload.
É relativamente seguro quando você remove informações sensíveis como strings de conexão, chaves de API, URLs internas e comentários que revelem lógica de negócio.
Exemplo:
ANTES (NÃO ENVIAR):
conn = "server=empresa.com;user=admin;password=123456"
api_key = "sk-proj-abc123xyz"
DEPOIS (SEGURO):
conn = "server=exemplo.com;user=usuario;password=senha_exemplo"
api_key = "sua_api_key_aqui"
Complementos de terceiros podem ter acesso aos seus dados e não seguir os mesmos padrões de segurança da ferramenta principal. Além da própria IA já armazenar seus prompts e conversas, esses complementos adicionam uma segunda camada de coleta e processamentos de dados, muitas vezes sem transparência adequada sobre como essas informações são utilizadas.
Esses complementos podem extrair e armazenar seus prompts sem que você tenha conhecimento, criando oportunidades para uso indevido das informações, incluindo aplicação em golpes direcionados ou comercialização não autorizada de dados pessoais e empresariais.
Antes de instalar qualquer complemento, verifique a reputação do desenvolvedor, leia atentamente as políticas de privacidade, analise as permissões solicitadas e considere se os benefícios justificam realmente a exposição adicional de dados.
As configurações padrão das ferramentas de IA geralmente priorizam a coleta de dados para melhoramento dos seus modelos. Por isso, é fundamental ajustar manualmente as configurações de privacidade para aumentar a segurança dos seus dados e reduzir o uso dos seus conteúdos nos treinamentos dos modelos de IA.
Por que fazer essas configurações?
Importante: mesmo aplicando essas configurações, os provedores ainda podem armazenar logs temporários para garantir funcionamento, segurança e detecção de abusos. Nenhuma ferramenta garante “zero coleta”. A prática mais segura continua sendo: não insira dados sensíveis ou identificáveis nas interações.
Estabeleça políticas abrangentes que definam quais tipos de dados podem ser compartilhados com ferramentas de IA, quais ferramentas são aprovadas para uso empresarial e procedimentos para avaliação de novas ferramentas. As políticas devem incluir exemplos práticos, diferentes níveis de restrição por departamento e protocolos para resposta a incidentes
Realize avaliação completa antes de aprovar ferramentas de IA incluindo análise da política de privacidade, segurança da infraestrutura, conformidade com regulamentações (LGPD, GDPR) e histórico de segurança do fornecedor.
Implemente sistemas de monitoramento de rede, proxies corporativos para filtrar tráfego para ferramentas de IA, sistemas de prevenção contra vazamentos de dados (DLP) e ferramentas de gestão de identidade.
Desenvolva programas de treinamento que eduquem funcionários sobre riscos e benefícios da IA, incluindo sessões práticas, simulações de cenários de risco e atualizações regulares sobre novas ameaças.
No mercado já existem versões empresariais das principais ferramentas de IA que a diferença das versões publicas, oferecem regulações contratuais que proporcionam diferenciais significativos em termos de controle e segurança dos dados. Um exemplo é o ChatGPT na versão Entreprise que menciona no seu site “Por padrão, não usamos dados empresariais do ChatGPT Enterprise, incluindo entradas e resultados, para treinar ou melhorar nossos modelos”.
Além dos cuidados no uso de plataformas de IA generativa, é fundamental que as organizações mantenham uma postura proativa na identificação e correção de vulnerabilidades em sua infraestrutura de TI.
A IA não se limita apenas aos chatbots e assistentes virtuais. Tecnologias avançadas de IA estão mudando a forma como detectamos e respondemos a ameaças de segurança, oferecendo capacidades de análise comportamental e identificação de padrões suspeitos que superam métodos tradicionais de proteção.
Para organizações que buscam uma proteção abrangente contra vulnerabilidades, a implementação de soluções que combinam IA com análise contínua de segurança representa um diferencial estratégico na proteção de dados e sistemas críticos.
As soluções BluePex® já incorporam esse diferencial tecnológico, aproveitando as vantagens da IA para elevar a proteção das organizações.
Através da IA heurística, nossos produtos detectam comportamentos suspeitos e vulnerabilidades em tempo real, bloqueando-os antes que se materializem em ataques efetivos.
Esta abordagem preventiva permite às empresas adotar uma postura proativa frente às ameaças, mantendo a segurança da infraestrutura enquanto preserva a continuidade dos negócios.
01
DIA(S)
00
HORA(S)
22
MINUTOS
08
SEGUNDOS
Tire suas dúvidas ao vivo com um Especialista em Cibersegurança