As empresas estão sempre procurando maneiras de ganhar eficiência e produtividade e, para muitas, mergulhar no uso de modelos de linguagem ampla (LLMs) baseados em IA, como ChatGPT, para gerar conteúdo, conversar com clientes e até mesmo construir software parece promissor. Mas, ao contrário disto, muitas grandes empresas descobriram que são forçadas a recuar e impedir que os funcionários utilizem estas tecnologias. A questão é se outras empresas em seus setores seguirão o exemplo.
Por que banir a IA? A razão: os serviços de IA generativa utilizam entradas de dados para treinamento contínuo, revelando, em muitos casos, os dados a terceiros posteriormente. Para organizações que possuem ou processam dados confidenciais, mantêm propriedade intelectual proprietária, trabalham em setores altamente regulamentados ou produzem software de código fechado, os resultados desse tipo de vazamento de dados podem ser desastrosos.
Mas essas ferramentas também oferecem enormes benefícios. Então, como os CISOs podem determinar se devem permitir ou proibir o ChatGPT e similares? Especialmente considerando que tal proibição pode sufocar a produtividade dos funcionários, é difícil de aplicar e é propícia à subversão?
Como os funcionários podem perceber que o ChatGPT e outros LLMs facilitam o seu trabalho e tornam os processos mais eficientes, eles podem usá-los de maneiras, sem o seu conhecimento, que resultam em vazamento de dados.
Como todos os modelos de IA, o ChatGPT foi projetado para produzir melhores resultados à medida que é alimentado com mais dados. O vazamento de dados não intencional que pode resultar não é necessariamente uma falha, pois essas ferramentas não foram projetadas para serem cofres de dados seguros. Da mesma forma que a publicação de informações confidenciais em plataformas de mídia social como LinkedIn ou Instagram seria insegura, esses aplicativos não foram desenvolvidos para proteger dados privados.
Um estudo descobriu que funcionários colavam informações confidenciais regulamentadas ou propriedade intelectual nessas ferramentas. Em outro caso, os engenheiros da Samsung vazaram acidentalmente dados confidenciais após fazer o upload deles no ChatGPT, resultando na restrição do uso do ChatGPT pelos funcionários pela Samsung.
Como acontece com qualquer software, os LLMs geralmente contêm bugs, alguns dos quais podem resultar em vazamento de dados. Em março de 2023, a OpenAI revelou que um bug fazia com que partes das conversas dos usuários com o ChatGPT fossem mostradas a outros usuários.
Finalmente, existem preocupações regulatórias e de conformidade associadas a essas ferramentas. Não há garantias sobre a forma como os dados são tratados, e o compartilhamento de dados pode colocar uma empresa fora de conformidade com os regulamentos de segurança de dados. Tal como acontece com qualquer aplicativo externo, vazamentos ou falta de visibilidade de como os dados são processados podem resultar numa violação do GDPR ou de outros estruturas regulamentares. Passar dados para um LLM também quebra a trilha de auditoria de dados necessária para conformidade.
Dados os riscos, várias grandes empresas tomaram medidas para impedir que os seus funcionários utilizassem os LLMs.
A Amazon implementou a proibição do ChatGPT depois de descobrir respostas do ChatGPT que pareciam se assemelhar a dados internos da Amazon. A Apple implementou sua própria proibição do uso interno do ChatGPT e do Copilot, uma ferramenta de codificação automatizada do GitHub, devido a preocupações de que as ferramentas pudessem vazar informações confidenciais.
O setor financeiro tem sido particularmente proativo em interromper o uso de LLMs. O JPMorgan Chase impôs severas restrições ao uso interno do ChatGPT, preocupado com o possível vazamento de informações financeiras protegidas, o que poderia levar a violações das regulamentações de dados nacionais e do setor. Grandes provedores financeiros como Bank of America, Citigroup e Deutsche Bank seguiram o exemplo.
Finalmente, a Samsung também baniu o ChatGPT durante um longo período, conforme mencionado acima. Eles removeram e reintroduziram sua proibição várias vezes.
Com base nestes e em outros exemplos, as empresas que proíbem ou restringem o uso de IA generativa pelos funcionários parecem fazê-lo pelas seguintes razões principais:
Vazamento direto de dados internos.
Preocupações sobre como os LLMs armazenam, processam e aproveitam entradas de dados para melhorar seus algoritmos e respostas, o que pode imitar dados internos privados e levar à distribuição acidental de informações competitivas.
Preocupações em torno da falta de registro de como os LLMs processam dados regulamentados.
Mesmo que uma organização decida proibir ou restringir o uso de LLMs, poderá descobrir que a aplicação disto é quase impossível.
Definir um padrão de segurança não significa que os usuários internos vão seguir esse padrão, ou mesmo estar cientes da regra. As organizações já têm dificuldade em bloquear a utilização de dispositivos pessoais não seguros para trabalho remoto ou impedir a utilização de aplicativos SaaS não autorizadas graças à computação em nuvem. Enquanto o uso de aplicativos não aprovados é chamado de "TI invisível", pode-se chamar a possível situação sob uma proibição de LLM de "IA invisível".
A segurança pode proibir certos aplicativos bloqueando os endereços de IP ou URLs dessas ferramentas, mas é claro que essas restrições não são perfeitamente eficazes. Os dispositivos pessoais podem não ter os clientes de segurança corretos instalados; os equipamentos da empresa podem ser usados em redes que não sejam da empresa. Alguns usuários podem até usar uma VPN para contornar regras de firewall e acessar ferramentas proibidas.
Uma coisa que pode ser dita com certeza sobre o ChatGPT e serviços semelhantes é que essas ferramentas são imensamente populares. Uma proibição pode ajudar a reduzir o uso e o vazamento de dados associado. Mas os CISOs podem presumir que seus funcionários estão usando essas ferramentas, seja em um dispositivo corporativo ou pessoal. Assim, devem considerar fortemente a aplicação de uma solução de prevenção de perda de dados (DLP).
As soluções DLP usam uma variedade de táticas para detectar dados confidenciais e evitar que saiam de um ambiente protegido. Esses métodos incluem correspondência de padrões, correspondência de palavras-chave, correspondência de hash de arquivo e impressão digital de dados, mas os mais relevantes para evitar o vazamento de dados de ferramentas de IA são a capacidade de restringir copiar e colar, fazer uploads e entradas de teclado.
As soluções DLP (quando combinadas com o isolamento do navegador) devem ser capazes de impedir a cópia e colagem pelos funcionários, impedindo-os de inserir dados confidenciais em qualquer aplicativo web, incluindo LLMs. O DLP também pode bloquear uploads de dados, interromper determinadas entradas do teclado e detectar dados confidenciais em solicitações HTTP de saída.
As organizações podem ou não querer proibir o uso da IA generativa. Aquelas que o fizerem podem não conseguir parar completamente o seu uso. Mas para organizações em qualquer situação, o DLP oferece uma alternativa tanto ao uso irrestrito de IA quanto às proibições de IA.
É claro que o DLP não garante que os dados não serão carregados. No geral, os CISOs terão que pesar os prós e os contras de permitir o uso do ChatGPT e de outros LLMs, e suas conclusões serão diferentes de acordo com o setor. Em setores altamente regulamentados, como o bancário, o upload de conteúdo para LLMs pode ser um fracasso. Em outros setores, os CISOs podem avaliar o uso de IA caso a caso, ou simplesmente permiti-lo livremente.
Mas toda empresa tem dados confidenciais para proteger, e o DLP pode ajudar a manter esses dados fora dos bancos de dados de LLMs. Devido à importância da proteção de dados no ambiente atual, a Cloudflare oferece DLP para ajudar a reduzir o risco de exposição de dados e códigos, mesmo com o uso crescente de ferramentas de IA generativa no local de trabalho.
Este artigo é parte de uma série sobre as tendências e os assuntos mais recentes que influenciam os tomadores de decisões de tecnologia hoje em dia.
Obtenha o artigo técnico Simplifying the way we protect SaaS applications para saber como a Cloudflare ajuda as organizações a proteger seus aplicativos e dados com uma abordagem Zero Trust.
Após ler este artigo, você entenderá:
Por que os modelos de linguagem ampla (LLMs) colocam os dados em risco
Várias empresas globais proibiram o uso interno do ChatGPT e outras ferramentas de IA generativa
Como a prevenção contra perda de dados (DLP) pode permitir o uso da IA com segurança