Uso de IA Pessoal no Trabalho Gera Multa Alta e Riscos Legais à Empresa

A crescente integração da Inteligência Artificial (IA) no ambiente de trabalho, impulsionada por ferramentas generativas como ChatGPT, Copilot e Gemini, levanta uma bandeira vermelha para empresas no Brasil. O uso de contas pessoais de IA por funcionários para fins corporativos expõe as organizações a sérios riscos de segurança de dados, violação de propriedade intelectual e, principalmente, a multas significativas sob a Lei Geral de Proteção de Dados (LGPD). Especialistas alertam que essa prática, muitas vezes motivada pela busca por produtividade, é um dos elementos de risco mais subestimados no cenário tecnológico atual.
A responsabilidade legal pelo tratamento adequado dos dados pessoais recai sobre a empresa, não sobre o fornecedor da IA, o que significa que falhas no uso dessas ferramentas podem resultar em sanções severas. A Autoridade Nacional de Proteção de Dados (ANPD) tem poder fiscalizador e pode aplicar penalidades que variam de advertências a multas de até 2% do faturamento bruto anual da empresa, limitadas a R$ 50 milhões por infração, além de sanções administrativas como o bloqueio e a eliminação de dados.
Riscos de Segurança e Vazamento de Dados
O uso de plataformas de IA generativa com contas pessoais no ambiente corporativo abre diversas portas para vulnerabilidades de segurança e vazamento de informações confidenciais. Os riscos podem ser categorizados em:
- Contaminação de Modelo: Funcionários, ao inserirem dados sigilosos (como informações de clientes, contratos, estratégias de precificação, código-fonte ou propriedade intelectual) em ferramentas de IA públicas, podem inadvertidamente permitir que esses dados sejam utilizados para treinar os modelos. Isso expõe as informações a terceiros e compromete a confidencialidade da empresa.
- Persistência dos Dados: O histórico de interações e os dados inseridos em contas pessoais de IA permanecem acessíveis ao funcionário, mesmo após sua saída da empresa. Isso representa um risco contínuo de acesso indevido a informações corporativas sensíveis.
- Falhas de Servidor e Vazamentos Acidentais: Incidentes de segurança nas próprias plataformas de IA, como vazamentos de títulos de conversas ou indexação de conteúdos por mecanismos de busca, já ocorreram. Tais falhas podem expor conversas privadas e dados sensíveis inseridos por colaboradores.
- Vulnerabilidades de Segurança: A integração de aplicativos de IA não autorizados pode introduzir brechas nos sistemas corporativos, gerando prejuízos de diversas ordens.
- Violação de Propriedade Intelectual: O uso de ferramentas externas sem a devida autorização pode infringir direitos autorais ou de propriedade intelectual da empresa ou de terceiros, especialmente se trechos de código ou documentos proprietários forem inseridos.
Um estudo do Centro de Tecnologia e Sociedade da FGV Direito Rio, publicado em 2025, analisou sete plataformas de IA generativa populares no Brasil (ChatGPT, Copilot, Gemini, Claude, Grok, DeepSeek e Meta AI) e concluiu que nenhuma delas atende integralmente aos 14 critérios mínimos exigidos pela LGPD. As deficiências incluem a ausência de políticas de privacidade em português e a omissão sobre os direitos dos titulares de dados. Desabilitar a opção de uso dos dados para treinamento do modelo, embora seja uma medida útil, resolve apenas parte do risco de contaminação, mantendo outros riscos “muito sólidos”, conforme especialistas.
Veja também:
Implicações Legais e a LGPD
A Lei Geral de Proteção de Dados (LGPD) é o principal marco legal no Brasil que rege o tratamento de dados pessoais e, consequentemente, o uso de IA. A lei exige que as empresas sejam transparentes sobre como e por que coletam informações, além de garantir a segurança desses dados. A falta de transparência sobre quais dados pessoais são coletados, como são processados para treinamento de modelos, por quanto tempo são armazenados e com quem são compartilhados pelas plataformas de IA, é uma preocupação central em relação à LGPD.
As multas da LGPD podem ser aplicadas em casos de descumprimento de suas diretrizes, e os impactos financeiros podem ser substanciais. Além das multas, a ANPD pode determinar a suspensão do tratamento de dados pessoais, a publicização da infração e até a eliminação dos dados envolvidos. Para investidores, a maturidade em governança de dados e compliance regulatório tornou-se um fator decisivo na avaliação de risco das empresas.
Consequências para o Funcionário
Para o funcionário, o uso não autorizado de ferramentas de IA pode ter sérias consequências trabalhistas. O advogado Maury Jorge Sequinel destaca que o uso da IA no ambiente de trabalho é um desafio jurídico significativo e novo. Dependendo da conduta, a inserção de dados corporativos em plataformas externas, o compartilhamento de documentos internos sem autorização ou o uso indevido para relatórios confidenciais podem ser enquadrados como indisciplina, mau procedimento ou violação de segredo da empresa, hipóteses previstas no artigo 482 da CLT que autorizam a dispensa por justa causa.
É importante ressaltar que o empregador não pode acessar a conta pessoal do trabalhador em plataformas de IA sem consentimento. No entanto, em caso de litígio, a empresa pode solicitar a preservação e exibição de registros de chats relevantes.
Recomendações para Empresas
Diante dos riscos, a adoção de uma postura proativa e de governança robusta é fundamental. Especialistas e advogados recomendam as seguintes medidas:
- Criação de Políticas Claras de Uso de IA: As empresas devem desenvolver políticas internas claras e transparentes que definam quando e como a IA pode ser utilizada, quais ferramentas são aprovadas, e os procedimentos para o tratamento de dados. Essas políticas devem ser comunicadas a todos os colaboradores.
- Treinamento e Conscientização: Educar os funcionários sobre os riscos associados ao uso de IA com contas pessoais, os princípios da LGPD e a diferença entre dados públicos, internos e confidenciais é crucial. A maior parte dos incidentes ocorre por desconhecimento.
- Adoção de Soluções Corporativas: Priorizar e fornecer plataformas de IA com planos corporativos que ofereçam certificações e mecanismos de conformidade com regulamentações de saúde e proteção de dados. Isso ajuda a garantir maior controle e segurança.
- Governança de Dados e IA: Implementar um framework de governança de IA que inclua mapeamento de dados, avaliação de impacto, gestão de fornecedores e monitoramento contínuo. Normas internacionais como a ISO/IEC 42001 e ISO 27090 podem orientar na criação de um sistema de gestão específico para IA.
- Classificação e Anonimização de Dados: Estabelecer diretrizes para a classificação de dados (públicos, internos, confidenciais) e a anonimização de informações sensíveis antes de qualquer interação com ferramentas de IA, mesmo as aprovadas.
- Limites de Monitoramento: Definir claramente os propósitos e a extensão do monitoramento do uso de IA, garantindo que seja proporcional, não discriminatório e em conformidade com os direitos de privacidade dos trabalhadores.
Desdobramentos e Perspectivas Futuras
O cenário legal em torno da utilização de IA no ambiente de trabalho está em constante evolução. A ANPD intensifica sua fiscalização, e a discussão sobre o uso responsável da IA generativa no ambiente corporativo se tornará mais intensa. A tendência é que a governança de IA deixe de ser apenas uma questão de ESG corporativo e se torne uma questão crítica de risco de negócio, influenciando diretamente a reputação, as finanças e a continuidade das operações de uma empresa.
A inovação com IA é inegável, mas deve ser acompanhada de planejamento, documentação e responsabilidade desde as etapas iniciais do projeto. Investir em assessoria jurídica especializada para a criação e revisão dessas políticas é fundamental para que os avanços tecnológicos não se convertam em passivos jurídicos e multas caras.
