
ChatGPT e os Dados da Sua Empresa: o Que Acontece com Eles
Todo mundo usa ChatGPT. Poucos sabem o que acontece com os dados digitados. Entenda o risco real de LGPD, dependência operacional e o que nunca deve entrar no chat.

O Brasil está entre os países com maior crescimento de uso de ChatGPT no mundo. Empresários digitam propostas, contratos, estratégias, dados de clientes, fichas de funcionários. A ferramenta responde bem. O problema começa quando ninguém se pergunta: o que acontece com isso tudo depois que a conversa termina?
Não se trata de paranoia. A OpenAI é uma empresa privada, com política de privacidade própria, interesses comerciais reais e sede nos Estados Unidos, o que torna a fiscalização muito mais difícil em caso de incidente. Usar ChatGPT com dados sensíveis do negócio sem entender essa relação é como terceirizar sua contabilidade para alguém que você nunca conheceu e cujo contrato você nunca leu.
Este artigo não é contra usar IA. É a favor de usar com critério, conhecendo os riscos e com um plano para mitigá-los.
O QUE O CHATGPT FAZ COM O QUE VOCÊ DIGITA
A política da OpenAI para uso de dados muda conforme o plano contratado. O ponto central: no plano gratuito e no Plus padrão, as conversas podem, por padrão, ser utilizadas para melhorar os modelos. O usuário pode desativar essa opção nas configurações de privacidade da conta, mas poucos sabem que ela existe e menos ainda verificam se está ativa.
Plano gratuito e Plus padrão
Conversas podem ser usadas para treinamento de modelos (opção ativa por padrão). É possível desativar em Configurações, opção "Melhorar o modelo para todos". Histórico pode ser acessado pela OpenAI para revisão humana em casos de moderação.
ChatGPT Team e Plus com histórico desativado
Com histórico de chat desativado, as conversas não são usadas para treinamento. Mas os dados ainda trafegam pelos servidores da OpenAI e ficam retidos por 30 dias para fins de segurança e abuso.
ChatGPT Enterprise e API
Não usam dados de conversas para treinamento por padrão. Oferecem acordo de processamento de dados (DPA) compatível com regulações de privacidade. É o nível de proteção adequado para dados empresariais sensíveis, mas tem custo significativamente maior.
O que você nunca deve colocar no ChatGPT (plano básico)
- Dados pessoais de clientes: nome, CPF, CNPJ, e-mail, telefone, endereço, histórico de compras
- Dados de funcionários: holerite, ficha cadastral, dados de saúde, situação trabalhista, avaliações de desempenho
- Dados financeiros: extrato bancário, planilhas de fluxo de caixa com valores reais, contratos com preços específicos
- Estratégia confidencial: planos de expansão, listas de fornecedores com condições negociadas, precificação proprietária
- Credenciais e acessos: senhas, tokens, links internos de sistemas, dados de acesso a qualquer plataforma
O RISCO DE LGPD QUE NINGUÉM FALA ABERTAMENTE
A LGPD (Lei 13.709/2018) define que toda vez que você compartilha dados pessoais de clientes ou funcionários com um terceiro, esse terceiro passa a ser um "operador de dados". O operador precisa de um contrato formal, precisa garantir o mesmo nível de proteção que você garante e precisa tratar os dados apenas para a finalidade contratada.
Quando você cola a ficha de um funcionário no ChatGPT gratuito, a OpenAI vira operadora dos dados daquele funcionário. Sem contrato. Sem DPA. Sem controle do que acontece com esses dados. Isso é uma violação de LGPD em potencial. Não é teoria: é o que a lei diz.
Como usar IA com dados reais sem infringir a LGPD
A DEPENDÊNCIA QUE NÃO É EMOCIONAL
Reportagens recentes de veículos internacionais documentaram um padrão preocupante: pessoas físicas desenvolvendo dependência psicológica de ferramentas de IA como o ChatGPT, especialmente quando as usam como substitutos de relacionamento ou aconselhamento. Para pessoas físicas, o risco é emocional.
Para empresas, o risco é diferente e mais silencioso. Chama-se dependência operacional. Ela acontece quando o processo da empresa passa a existir apenas dentro de conversas com o ChatGPT: o critério de aprovação que está num chat que só o dono acessa, o modelo de proposta que existe como prompt e em nenhum outro lugar, a lógica de precificação que a IA calcula toda vez porque nunca foi documentada.
O dia que a OpenAI mudar a política, subir o preço, for comprada ou simplesmente sair do ar por algumas horas, essa empresa perde seu "conhecimento". A ferramenta não precisa ser ruim para criar um problema sério. Ela precisa ser indispensável de um jeito errado.
“Big Tech não é filantropia. Quando a ferramenta é gratuita, o produto pode ser o que você digitou nela.”
Roberto Machado
Consultor empresarial, 25+ anos
Tenho 25 anos de experiência acompanhando empresas adotando tecnologia. Vi o mesmo padrão com sistemas ERP, com planilhas compartilhadas, com aplicativos de gestão. Empresa que organiza seus processos dentro de uma ferramenta que não controla não organizou nada: terceirizou a bagunça. O ChatGPT é mais poderoso que qualquer ferramenta anterior, e exatamente por isso o risco de dependência é proporcional.
COMO USAR COM SEGURANÇA (SEM PARAR DE USAR)
A solução não é abandonar o ChatGPT. É usar com critério. Existe uma divisão prática entre o que pode entrar e o que deve ficar fora:
Pode entrar sem problema
- Tarefas criativas (textos, posts, e-mails modelo)
- Cenários anonimizados ("uma empresa do varejo")
- Pesquisa de mercado com dados públicos
- Estruturação de ideias e brainstorming
- Revisão de texto que você já escreveu
- Criação de templates e modelos genéricos
Não entra sem proteção
- Dados pessoais identificáveis de clientes
- Dados de funcionários (qualquer tipo)
- Valores financeiros reais da empresa
- Contratos com partes identificadas
- Estratégia competitiva proprietária
- Qualquer dado que, vazado, geraria dano real
Para dados que precisam de mais proteção, a alternativa prática é o plano Enterprise da OpenAI ou usar modelos de IA via API com contrato de processamento de dados. Para a maioria das pequenas empresas, a regra simples funciona: anonimize sempre antes de enviar.
O dado que fica com você vale mais do que a ferramenta
VERSÕES COM MAIS PROTEÇÃO PARA EMPRESAS
Se o volume de uso justificar o investimento, existem alternativas com proteção mais robusta para dados empresariais:
ChatGPT Enterprise (OpenAI)
Conversas não são usadas para treinamento. Inclui DPA (Data Processing Agreement). Acesso a modelos avançados com limites expandidos. Custo por usuário, cotação mediante contato com a OpenAI.
Microsoft Copilot (com M365)
Integrado ao Office 365 com proteção de dados corporativa. Os dados ficam dentro do tenant da empresa no ambiente Microsoft. Mais indicado para quem já usa Teams, SharePoint e Word no dia a dia.
Modelos locais ou via API com DPA
Para casos com dados muito sensíveis, existe a opção de rodar modelos de linguagem localmente (no servidor da empresa) ou usar provedores de API que oferecem contrato de processamento de dados compatível com LGPD. Exige suporte técnico especializado.
Para a maioria das pequenas empresas, a solução mais prática é mais simples: desativar o treinamento nas configurações do ChatGPT gratuito, nunca inserir dados pessoais identificáveis e usar anonimização antes de qualquer dado real. Isso já resolve 90% do risco sem custo adicional. Para complementar a proteção de dados do negócio, veja o guia completo de segurança de dados para pequenas empresas.
PERGUNTAS FREQUENTES
Perguntas Frequentes
Q:O ChatGPT usa o que eu digito para treinar os modelos?
Depende do plano e das configurações. No plano gratuito e no Plus com histórico ativado, as conversas podem ser usadas para melhorar os modelos por padrão. Você pode desativar essa opção em Configurações da conta, na seção de privacidade.
No ChatGPT Enterprise e em planos com DPA ativo, as conversas não são usadas para treinamento. A API da OpenAI também não usa dados de conversas para treinamento por padrão.
Q:Colocar dados de clientes no ChatGPT infringe a LGPD?
Potencialmente sim. A LGPD exige que, ao compartilhar dados pessoais com terceiros, haja contrato de processamento de dados garantindo as mesmas proteções que você oferece. No plano básico, a OpenAI não oferece esse contrato automaticamente.
A prática segura é anonimizar os dados antes de enviar: remova nomes, CPFs, e-mails e qualquer informação que identifique a pessoa real. A IA resolve o problema sem precisar dos dados pessoais.
Q:Como desativar o uso das minhas conversas para treinamento?
Na versão web do ChatGPT: acesse seu perfil (canto inferior esquerdo), clique em Configurações, depois em Controles de dados. Desative a opção "Melhorar o modelo para todos". Com isso, as novas conversas não serão usadas para treinamento.
Você também pode desativar o histórico de chat completamente, o que impede a retenção das conversas nos servidores além de 30 dias. Ambas as opções juntas oferecem maior proteção no plano gratuito.
Q:Qual versão do ChatGPT é adequada para dados empresariais sensíveis?
Para dados realmente sensíveis (dados pessoais de clientes, estratégia competitiva, dados financeiros), a recomendação é o ChatGPT Enterprise ou o uso via API com contrato de processamento de dados (DPA) formalizado.
Para a maioria das pequenas empresas, a combinação de: histórico desativado, treinamento desativado e política de anonimização antes de enviar já resolve a maior parte dos riscos sem custo adicional.
Para saber como usar o ChatGPT de forma produtiva na empresa, além dos cuidados com privacidade, veja o guia como usar ChatGPT para empresas com resultado. Para uma visão mais ampla de segurança digital no negócio, veja segurança de dados para pequenas empresas. E para entender o panorama completo de tecnologia para PMEs, acesse a área de Tecnologia do EmpresaPro.
Produzido por Roberto Machado com assistência de IA e revisão editorial.
Compartilhe este conteúdo
Conteúdo que pode te interessar

ChatGPT para Empresas: Como Usar com Resultado (e Não Só Experimentar)
ChatGPT não resolve empresa desorganizada: ele multiplica o que você já tem. Veja como usar com resultado real, com prompts práticos e sem virar refém da ferramenta.
Ler artigo
Segurança de Dados para Pequenas Empresas: o Mínimo que Você Precisa Fazer
Pequenas empresas são as mais visadas por ataques digitais, e as menos preparadas. Veja o que fazer hoje para proteger seus dados sem gastar fortunas.
Ler artigo