Aunque los modelos lingüísticos de gran tamaño (LLM) de la inteligencia artificial (IA) mejoran la interacción de los usuarios con tus aplicaciones, también suponen un riesgo para tus recursos digitales.
Los modelos lingüísticos de gran tamaño (como los que proporcionan OpenAI (ChatGPT), Google (Bard) y Meta (LlaMA)) aceleran el procesamiento de grandes cantidades de datos de texto y se entrenan para aprender a mejorar continuamente sus resultados. Pero como el uso de la IA se ha disparado, estos modelos LLM también son uno de los objetivos principales de los ciberdelincuentes. Por ejemplo, los investigadores de Darktrace descubrieron un aumento del 135 % de los nuevos ataques de ingeniería social de enero a febrero de 2023, lo que se corresponde con el periodo de la adopción generalizada de ChatGPT.
Las empresas que desean aprovechar la IA están integrando rápidamente la tecnología en sus operaciones internas y en sus servicios orientados a los clientes. Sin embargo, a menos que se actualice el protocolo de seguridad, el ritmo acelerado al que se está adoptando la IA puede dejar a las aplicaciones desprotegidas.
Los modelos lingüísticos de gran tamaño son como cualquier otro componente de tu cadena de suministro de aplicaciones. Están expuestos a ciberataques que podrían aprovechar tu infraestructura informática para poner en riesgo y manipular tus datos confidenciales.
Esto no supone ninguna sorpresa, ya que las aplicaciones que aceptan entradas de los usuarios han sido vulnerables desde hace tiempo a ataques como la inyección de código SQL y a los enlaces maliciosos en contenido generado por el usuario. Dado que la IA acepta entradas del usuario, como órdenes y consultas, los atacantes que consigan acceder podrán manipular el modelo.
Los ataques a los modelos de lenguaje de gran tamaño de IA se presentan de muchas formas y suponen diversos riesgos, por ejemplo:
El texto invisible que inyecta solicitudes puede inducir a los modelos a generar correos electrónicos de phishing, extraer datos de entrenamiento que revelen información confidencial o utilizar puertas traseras para insertar código malicioso.
Manipular un modelo para que genere resultados engañosos puede llevar a conclusiones falsas para otros usuarios.
Copiar el sistema de archivos de un modelo puede dar lugar al robo de propiedad intelectual que podría venderse a un competidor, lo que podría causar pérdidas económicas o poner en riesgo una ventaja en el mercado.
Utilizar el lenguaje natural hace más fácil poder engañar a los usuarios y aprovecharse del modelo.
Se puede colocar información elaborada deliberadamente en los documentos consumidos, lo que podría dar lugar a que un atacante se hiciera con el control de una sesión de usuario.
La inyección de solicitudes manipula los modelos con inyecciones directas que sobrescriben las solicitudes del sistema o con inyecciones indirectas que manipulan las entradas del usuario.
La gestión no segura de la salida expone los sistemas web backend a código malicioso que se inserta en la aplicación front-end con la esperanza de engañar a los usuarios finales para que hagan clic en el código.
Las operaciones que se realizan en los modelos de IA y que consumen muchos recursos pueden provocar la degradación del servicio y elevados costes de proceso.
Las cadenas de suministro de software también son una amenaza si dependes de componentes de modelos LLM de terceros, que pueden poner en riesgo una aplicación al introducir conjuntos de datos de modelos y complementos adicionales.
Modelos que engañan a los usuarios finales para que estos revelen datos confidenciales al enviar una respuesta.
Para que tus aplicaciones puedan seguir aumentando el valor que ofrecen a los usuarios finales gracias a la aplicación de la IA, es fundamental aplicar las estrategias de seguridad adecuadas para garantizar la seguridad de las aplicaciones. Para ayudar a los directores de seguridad de la información a evaluar el riesgo de las vulnerabilidades de los LLM, OWASP (Open Web Application Security Project) publicó un aviso sobre las 10 principales vulnerabilidades para los LLM.
La protección contra estos riesgos es un campo en gran medida aún no probado. Mientras muchas empresas se apresuran a incorporar la IA generativa con LLM en sus aplicaciones, algunas, como Samsung y Apple, han prohibido los modelos por completo, al menos temporalmente.
Para proteger a tu organización contra los ataques a los modelos lingüísticos de gran tamaño que utilizan las herramientas de IA, aplica una estrategia de seguridad que proteja contra los componentes no seguros de las aplicaciones. Como punto de partida, aquí te mostramos algunas tácticas para evitar vulneraciones en las aplicaciones que podrían llevar a fugas de datos y a riesgos potenciales para tu organización:
Analiza el tráfico de red en busca de patrones de ataque que indiquen la vulneración de un LLM que pudiera poner en riesgo las aplicaciones y las cuentas de usuario.
Establece una visibilidad en tiempo real de los patrones de tráfico de la capa de transporte para visualizar los paquetes y los datos que interactúan con los LLM a nivel de bits.
Aplica técnicas de prevención de pérdida de datos para proteger los datos confidenciales en tránsito.
Verifica, filtra y aísla el tráfico para proteger a tus usuarios, tus dispositivos y tus aplicaciones de los LLM en riesgo.
Aísla los navegadores de los usuarios remotos ejecutando código en el perímetro para aislarlos de un LLM en el que se ha inyectado código malicioso.
Utiliza conjuntos de reglas gestionados por WAF (como las reglas básicas de OWASP y las reglas de proveedores) en tu firewall de aplicaciones web para bloquear los ataques dirigidos a los LLM y basados en inyección de código SQL, cross-site scripting y otros vectores de ataque web, al tiempo que evitas las alertas de falsos positivos.
Cuando apliques estas estrategias, ten en cuenta a tus usuarios finales. Aunque es fundamental mitigar las vulnerabilidades, la navegación por las interfaces de las aplicaciones debe seguir siendo fácil y no obligar a los usuarios a realizar demasiados pasos para acceder a ellas. Además, prueba tus esfuerzos de mitigación para ver si utilizan un ancho de banda valioso.
También es importante integrar tu enfoque en una estrategia Zero Trust global. Por defecto, no confíes nunca en ningún usuario ni en ningún dispositivo. Valida siempre todos los usuarios y los dispositivos, aunque estén conectados a una red corporativa y se hayan verificado previamente. Con Zero Trust, puedes crear una capa de agregación para el acceso a todas tus aplicaciones autoalojadas, SaaS y no web a fin de reducir tu superficie de ataque, otorgando un acceso por recurso basado en el contexto y con el privilegio mínimo, en lugar de un acceso a nivel de red.
Cloudflare puede ayudar a las organizaciones a experimentar de forma segura con la IA siguiendo las prácticas recomendadas y sin comprometer la experiencia del usuario. Con la protección de datos, las organizaciones pueden proteger los datos en todas las ubicaciones: en las aplicaciones web, las aplicaciones SaaS y las aplicaciones privadas. AI Gateway ayuda a las organizaciones a recopilar información sobre cómo se usan las aplicaciones de IA y a controlar cómo se escala la aplicación con funciones como el almacenamiento en caché y la limitación de velocidad.
Aproximadamente el 20 % de todo el tráfico de Internet transita por la red de Cloudflare, lo que hace que Cloudflare bloquee una media de ~165 mil millones de ciberamenazas al día. El análisis de este ingente corpus de información proporciona a Cloudflare una visión sin precedentes del panorama de amenazas basadas en la IA.
Este artículo forma parte de un conjunto de publicaciones sobre las últimas tendencias y temas que afectan a los responsables de la toma de decisiones sobre tecnología en la actualidad.
Más información sobre este enfoque en el libro electrónico "Descubre cómo Cloudflare refuerza la seguridad dondequiera que hagas negocios".
Después de leer este artículo podrás entender:
Por qué los modelos lingüísticos de gran tamaño (LLM) utilizados por la IA son susceptiblesde sufrir un ciberataque
10 tipos de ataques a los LLM y el riesgo que presentan
Cómo proteger los LLM