theNet by CLOUDFLARE

Proteger LLMs

Entender os riscos dos LLMs incorporados no aplicativo


Embora os modelos de linguagem ampla de inteligência artificial (IA) aprimorem a forma como os usuários interagem com o seus aplicativos, eles também introduzem riscos aos seus ativos digitais.

Os modelos de linguagem ampla, como os fornecidos pela OpenAI (ChatGPT), Google (Bard) e Meta (LlaMA), aceleram o processamento de grandes quantidades de dados de texto e são treinados para aprender a melhorar continuamente seus resultados. Mas, como o uso da IA explodiu, esses modelos LLM também são o principal alvo dos criminosos cibernéticos. Por exemplo, os pesquisadores da Darktrace descobriram um aumento de 135% em novos ataques de engenharia social de janeiro a fevereiro de 2023, o que corresponde à adoção generalizada do ChatGPT.


Os LLMs de IA superaram os protocolos de segurança

As empresas que desejam aproveitar a IA estão integrando rapidamente a tecnologia em suas operações internas e serviços voltados para o cliente. No entanto, o ritmo acelerado em que a IA está sendo adotada pode deixar os aplicativos vulneráveis se os protocolos de segurança não forem atualizados.

Os modelos de linguagem ampla são como qualquer outro componente da cadeia de suprimentos de seu aplicativo. Eles estão sujeitos a ataques cibernéticos que podem explorar sua infraestrutura de TI para comprometer e manipular dados confidenciais.

Isso não é nenhuma surpresa, pois os aplicativos que aceitam entradas do usuário há muito tempo são vulneráveis a ataques como injeção de SQL e links maliciosos em conteúdo gerado pelo usuário. Como a IA aceita entradas do usuário, como comandos e consultas, os invasores que obtêm acesso podem manipular o modelo.


Dez tipos de ataques a LLMs e o risco que eles apresentam

Os ataques a modelos de linguagem ampla de IA ocorrem de várias formas e introduzem riscos de várias maneiras, por exemplo:

  1. O texto invisível que insere prompts pode induzir os modelos a produzir e-mails de phishing, extrair dados de treinamento que revelam informações confidenciais ou usar backdoors para incorporar códigos maliciosos.

  2. A manipulação de um modelo para produzir resultados enganosos pode levar a conclusões falsas para outros usuários.

  3. A cópia do sistema de arquivos de um modelo pode levar ao roubo de propriedade intelectual que pode ser vendida a um concorrente, resultando em perdas econômicas ou comprometendo uma vantagem de mercado.

  4. O uso de linguagem natural facilita enganar os usuários e explorar o modelo.

  5. Informações deliberadamente elaboradas podem ser colocadas em documentos consumidos, o que pode fazer com que um invasor assuma o controle de uma sessão de usuário.

  6. A injeção de prompts manipula modelos com injeções diretas que substituem prompts do sistema ou injeções indiretas que manipulam entradas do usuário.

  7. O tratamento inseguro da saída expõe os sistemas de back-end da web a códigos maliciosos que são inseridos nos aplicativos de front-end com a esperança de enganar os usuários finais para que cliquem no código.

  8. Operações com muitos recursos em modelos de IA podem levar à degradação do serviço e a altos custos de computação.

  9. As cadeias de suprimentos de software também são uma ameaça se você depender de componentes de modelos LLM de terceiros, o que pode comprometer um aplicativo com a introdução de conjuntos de dados e plug-ins de modelos adicionais.

  10. Modelos que induzem os usuários finais a revelar dados confidenciais quando enviam uma resposta.

Para permitir que seu aplicativo continue aumentando o valor que oferece aos usuários finais por meio da aplicação de IA, é fundamental implementar as estratégias de segurança corretas para manter esses aplicativos seguros. Para ajudar os CISOs a avaliar o risco das vulnerabilidades de LLMs, o Open Worldwide Application Security Project (OWASP) publicou um Top 10 para orientação sobre LLMs..

A defesa contra esses riscos é uma área amplamente não testada. Embora muitas empresas se apressem em incorporar a IA generativa com LLMs em seus aplicativos, algumas, como a Samsung e a Apple, proibiram totalmente os modelos, pelo menos temporariamente.


Proteger LLMs

Para proteger sua organização contra ataques aos modelos de linguagem ampla usados pelas ferramentas de IA, aplique uma estratégia de segurança que proteja contra componentes de aplicativos inseguros. Como ponto de partida, aqui estão algumas táticas para prevenir violações de aplicativos que poderiam resultar em vazamentos de dados que comprometem a segurança da sua organização:

  • Analisar o tráfego de rede em busca de padrões de ataque que indiquem uma violação do LLM que possa comprometer os aplicativos e as contas de usuários.

  • Estabelecer visibilidade em tempo real dos padrões de tráfego da camada de transporte para visualizar os pacotes e os dados que interagem com os LLMs no nível de bits.

  • Aplicar técnicas de prevenção de perda de dados para proteger dados confidenciais em trânsito.

  • Verificar, filtrar e isolar o tráfego para proteger usuários, dispositivos e aplicativos de LLMs comprometidos.

  • Isolar os navegadores de usuários remotos executando código na borda para isolá-los de um LLM com código malicioso injetado.

  • Usar conjuntos de regras gerenciados por WAF (como as regras principais do OWASP e as regras de fornecedores) em seu firewall de aplicativos web para bloquear ataques a LLMs baseados em injeção de SQL, cross-site scripting e outros vetores de ataque da web, evitando também alertas falsos positivos.

Ao aplicar essas estratégias, considere seus usuários finais. Embora seja fundamental mitigar as vulnerabilidades, as interfaces dos aplicativos ainda devem ser fáceis de navegar e não forçar os usuários a passar por muitas etapas para acessar os aplicativos. Além disso, teste seus esforços de mitigação para verificar se eles consomem largura de banda preciosa.

Também é importante integrar sua abordagem em uma estratégia geral de Zero Trust. Por padrão, nunca confie e sempre valide usuários e dispositivos, mesmo que estejam conectados a uma rede corporativa e mesmo que tenham sido verificados anteriormente. Com o Zero Trust, você pode criar uma camada de agregação para acesso a todos os seus aplicativos auto-hospedados, SaaS e não web para reduzir sua superfície de ataque, concedendo acesso baseado em contexto e com o mínimo de privilégios por recurso, em vez de acesso em nível de rede.


Proteção sem comprometer a experiência do usuário

A Cloudflare pode ajudar as organizações a experimentar a IA com segurança, seguindo as práticas recomendadas e sem comprometer a experiência do usuário. Com o Data Protection, as organizações podem proteger os dados em qualquer lugar, na web, em SaaS e em aplicativos privados. O AI Gateway ajuda as organizações a obter insights sobre como as pessoas estão usando os aplicativos de IA e a controlar como o aplicativo escala com recursos como fazer armazenamento em cache e limitação de taxa.

Aproximadamente 20% de todo o tráfego da internet transita pela rede da Cloudflare, o que faz com que a Cloudflare bloqueie uma média de 209 bilhões de ameaças cibernéticas por dia. A análise desse enorme conjunto de inteligência dá à Cloudflare uma visão inigualável do cenário de ameaças de IA.

Este artigo é parte de uma série sobre as tendências e os assuntos mais recentes que influenciam os tomadores de decisões de tecnologia hoje em dia.


Saiba mais sobre esse assunto

Saiba mais sobre essa abordagem no e-book How Cloudflare strengthens security everywhere you do business .



Principais conclusões

Após ler este artigo, você entenderá:

  • Por que os modelos de linguagem ampla (LLMs) usados pela IA são suscetíveisa ataques cibernéticos

  • Dez tipos de ataques a LLM e o risco que eles apresentam

  • Como proteger LLMs


Recursos relacionados


Receba um resumo mensal das informações mais populares da internet.