Para os líderes de TI e segurança, a governança de IA tornou-se uma alta prioridade. À medida que criamos mais modelos de IA e usamos mais soluções de IA, precisamos implementar governança e políticas de tamanho certo que possam minimizar o risco e manter nossas empresas seguras.
Não há dúvida de que a governança de IA é fundamental. Mas como a IA depende de dados, a governança da IA deve começar com a governança de dados. Precisamos de integridade de dados, proteção de dados e recursos de controle de acesso para os dados e modelos de IA, bem como estratégias para o cumprimento das obrigações de privacidade e localização de dados.
A governança de dados aprimorada não apenas reduz os riscos associados à IA, também nos ajuda a maximizar o impacto da IA em nossas empresas. Se a sua organização está investindo em IA, o fortalecimento da governança de dados não pode esperar.
________________________________________________________________________________
Por que é tão difícil governar os dados usados para IA? Na maioria das vezes, as organizações enfrentam os mesmos desafios de governança de dados que enfrentam há anos. Mas o uso de dados para construir modelos de IA cria alguma complexidade adicional, como por exemplo:
Preservar a integridade dos dados
Para que os modelos de IA forneçam as respostas certas, eles precisam de dados completos, precisos e consistentes. Agregar esses dados e manter sua integridade ao longo de seu ciclo de vida, no entanto, pode ser difícil.
Para manter a integridade dos dados, as organizações devem empregar uma abordagem multifacetada que proteja contra corrupção, perda, violações de dados e outros riscos. Essa abordagem deve controlar rigorosamente o acesso a dados e modelos para evitar corrupção acidental ou deliberada. Enquanto isso, para evitar o desvio de modelo, também é essencial que os dados usados para treinamento permaneçam consistentes com os dados usados durante a implantação do modelo.
Manter a privacidade e a confidencialidade dos dados
A base para uma estratégia sólida de governança de dados começa com a compreens ão de onde estão os dados. Manter a privacidade e a confidencialidade dos dados é mais desafiador quando os dados saem da organização. E se você contribuir com seus dados para o treinamento de grandes modelos de IA, seus dados quase certamente estarão saindo de sua organização.
Imagine que as 20 principais empresas de segurança decidem compartilhar os dados do seu centro de operações de segurança (SOC) para treinar um modelo externo. Este modelo, hospedado em uma nuvem pública, poderia gerar insights altamente precisos e poderosos. No entanto, os dados de todas essas empresas seriam misturados, tornando incrivelmente desafiador garantir que as informações confidenciais de qualquer empresa isolada permanecessem totalmente protegidas.
Controlar o acesso interno a modelos internos de IA
A criação de modelos internos é muito menos arriscada do que contribuir com dados para modelos externos. Com modelos internos, você pode evitar de uma forma melhor que indivíduos ou empresas externas acessem seus dados. Mas você ainda precisa controlar o acesso interno aos seus modelos.
Você pode decidir criar um modelo interno de IA para RH, por exemplo. A equipe de RH pode querer usar um chatbot de IA para responder a perguntas de funcionários ou usar a IA para simplificar a folha de pagamento ou tarefas administrativas. Como os dados de RH incluem informações muito confidenciais dos funcionários, como o valor da remuneração de cada funcionário, você teria que ter muito cuidado para controlar o acesso interno a esses dados e aos modelos que estão sendo treinados.
Cumprir as obrigações de localização e soberania de dados
As leis de localização e soberania de dados adicionam outro desafio à IA e à governança de dados. Grandes modelos de IA geralmente são treinados em nuvens públicas, que possuem os recursos de computação e armazenamento necessários para o treinamento. Mas os data centers de nuvens públicas nem sempre estão disponíveis nos países ou regiões onde os dados deveriam residir. Como resultado, as organizações precisam de maneiras de treinar e executar modelos dentro de jurisdições específicas.
A implementação de uma governança de dados eficaz tem sido um objetivo central para as equipes de TI e de segurança há pelo menos 20 anos. A ascensão da IA reforça a necessidade de uma forte estratégia de governança de dados que abranja todas as etapas do ciclo de vida dos dados. Essa estratégia deve aproveitar os recursos projetados para manter a integridade dos dados, evitar a perda de dados, controlar o acesso a dados e modelos e cumprir os regulamentos de localização de dados.
Manter a integridade dos dados
Como reduzir o risco de que os dados sejam alterados de forma a afetar os modelos? Criptografar dados e empregar um modelo Zero Trust podem ajudar a evitar alterações não autorizadas que colocam em risco a integridade dos dados. Os logs de auditoria podem rastrear por onde os dados viajam, quem os toca e que alterações foram feitas.
Evitar a exfiltração de dados
Os recursos de prevenção contra perda de dados (DLP) são essenciais para identificar e impedir que os dados saiam de sua organização e evitar que sejam usados como entrada para um modelo não sancionado de IA.
As organizações também precisam de ferramentas que possam evitar que os aplicativos SaaS coletem e usem dados internos para treinar os modelos externos dos fornecedores de aplicativos. Em uma das empresas da qual eu era CISO, um fornecedor de aplicativos criou uma política que dizia que tudo o que os usuários inseriam no aplicativo poderia ser incorporado ao modelo de linguagem grande (LLM) do fornecedor. Eu entendi por que o fornecedor queria fazer isso: não há dúvida de que poderia ajudá-los a melhorar seu produto. Por exemplo, se estivéssemos usando IA para responder aos nossos tickets de suporte internos, gostaríamos de coletar dados sobre as principais solicitações em nossa empresa.
Ainda assim, não queremos que informações possivelmente confidenciais saiam de nossa organização por meio de aplicativos de outro fornecedor. O uso de um agente de segurança de acesso à nuvem (CASB) combinado a um firewall de IA pode ajudar a evitar esse tipo de perda de dados.
Controlar o acesso
Recursos de controle de acesso granulares podem ajudar a garantir a integridade dos dados e proteger informações confidenciais usadas para modelos internos. Ao contrário das VPNs tradicionais, os recursos Zero Trust podem ajudar a garantir que apenas as pessoas certas possam acessar dados específicos.
Por que o acesso granular é tão importante? Vamos voltar ao uso da IA para RH: talvez sua empresa esteja usando a IA para agilizar as análises de desempenho e fazer recomendações de remuneração. Talvez você queira permitir que um gerente veja suas próprias informações de remuneração e as informações de remuneração de seus subordinados diretos, mas não as de outra pessoa. Os recursos Zero Trust certos podem fornecer esse nível de controle.
Cumprir as regras de localização de dados
Com os controles de localização corretos, você pode decidir onde os dados são inspecionados e garantir que dados e metadados não saiam de uma região específica. Por exemplo, você pode ter metadados de log que contêm endereços de IP de usuários, que são considerados dados pessoais na UE. Esses metadados precisam permanecer na UE. Os controles corretos de localização de dados garantiriam que eles não fossem usados para treinar um modelo nos EUA.
Estamos em um momento crítico na evolução da IA, à medida que as organizações criam e executam modelos que podem remodelar nosso mundo nos próximos 20 a 30 anos. Para garantir que podemos continuar treinando e executando modelos de IA com segurança, sem expor dados, reduzir a precisão dos modelos ou comprometer a conformidade, temos que começar a fortalecer a governança de dados agora.
Para muitas organizações, uma nuvem de conectividade pode fornecer o melhor caminho para aprimorar a governança de dados, permitindo que recuperem o controle sobre os dados durante todo o seu ciclo de vida. Com uma plataforma unificada de serviços nativos de nuvem, as organizações podem aplicar os recursos de proteção, segurança e localização de dados de que precisam, evitando a complexidade de gerenciar várias ferramentas distintas.
Um melhor controle dos dados nos permitirá criar modelos e aplicativos de IA mais poderosos. Podemos garantir que estamos fornecendo resultados precisos e minimizando os riscos, hoje e no futuro.
Este artigo é parte de uma série sobre as tendências e os assuntos mais recentes que influenciam os tomadores de decisões de tecnologia hoje em dia.
Saiba mais sobre como apoiar o uso de IA na empresa e manter a segurança no guia Garantir práticas seguras de IA: um guia para CISOs sobre como criar uma estratégia de IA escalável.
Grant Bourzikas — @grantbourzikas
Diretor de segurança, Cloudflare
Após ler este artigo, você entenderá:
Por que a governança de IA bem-sucedida depende da governança de dados forte
Quatro desafios principais para governar os dados usados pela IA
Estratégias para fortalecer a governança de dados