Las empresas siempre están buscando formas de ganar eficiencia y productividad, y para muchos, sumergirse en el uso de Modelos lingüísticos de gran tamaño (LLM) basados en inteligencia artificial como ChatGPT para generar contenido, chatear con clientes e incluso construir software parece prometedor. Sin embargo, por el contrario, muchas grandes empresas han descubierto que se ven obligadas a hacer que sus empleados dejen de usar estas tecnologías. La pregunta es si otras empresas en esa industria seguirán el mismo camino.
¿Por qué prohibir la IA? La razón: los servicios de IA generativa utilizan la entrada de datos para su entrenamiento posterior, lo que en muchos casos implica revelar los datos a partes externas posteriormente. Para el caso de organizaciones que poseen o procesan datos confidenciales, mantienen propiedad intelectual patentada, operan en industrias altamente reguladas o producen software de código cerrado — los resultados de este tipo de fuga de datos podrían ser desastrosos.
Sin embargo, estas herramientas también ofrecen enormes beneficios. Entonces, ¿cómo pueden los CISO determinar si deberían permitir o prohibir ChatGPT y herramientas similares? Considerando, en especial, que tal prohibición podría restringir la productividad de los empleados, ¿es difícil su implementación y se presta a la subversión?
Porque los empleados podrían percibir que ChatGPT y otros LLM facilitan sus trabajos y hacen que los procesos sean más eficientes, podrían utilizarlo de maneras, sin saberlo, que resulten en la fuga de datos.
Como todos los modelos de IA, ChatGPT está diseñado para producir mejores resultados a medida que se le proporciona más datos. La fuga de datos involuntaria que puede ocurrir no es necesariamente un defecto, ya que estas herramientas no fueron diseñadas para ser bóvedas seguras de datos. De manera similar a cómo publicar información confidencial en plataformas de redes sociales como LinkedIn o Instagram sería inseguro — estas aplicaciones no fueron creadas para proteger datos privados.
Un estudio encontró que los empleados pegan información confidencial regulada o propiedad intelectual en estas herramientas. En otro caso, ingenieros de Samsung filtraron accidentalmente datos confidenciales después de cargarlos en ChatGPT, lo que llevó a Samsung a restringir el uso de ChatGPT entre sus empleados.
Como ocurre con cualquier software, los LLM a menudo contienen errores, algunos de los cuales pueden provocar fugas de datos. En marzo de 2023, OpenAI reveló que un error había causado que partes de las conversaciones de los usuarios con ChatGPT se mostraran a otros usuarios.
Finalmente, existen preocupaciones relacionadas con el cumplimiento y regulación asociadas con estas herramientas. No existen garantías sobre cómo se manejan los datos y compartir información podría hacer que una empresa incumpla con las regulaciones de seguridad de los datos. Al igual que con cualquier aplicación externa, las filtraciones o la falta de visibilidad sobre cómo se procesan los datos pueden dar lugar a una violación del RGPD u otros marcos regulatorios. Enviar datos a un LLM también interrumpe el rastro de auditoría de datos necesario para el cumplimiento normativo.
Dado los riesgos, varias empresas grandes han decidido prohibir el uso de LLM por completo entre sus empleados.
Amazon implementó una prohibición de ChatGPT después de descubrir respuestas de ChatGPT que parecían asemejarse a datos internos de Amazon. Apple implementó su propia prohibición para el uso interno de ChatGPT y Copilot, una herramienta de codificación automática de GitHub, debido a preocupaciones de que estas herramientas pudieran filtrar información confidencial.
La industria financiera ha sido particularmente proactiva en detener el uso de LLM. JPMorgan Chase impuso restricciones severas en el uso interno de ChatGPT, preocupado por la posible filtración de información financiera protegida, lo que podría provocar violaciones de regulaciones nacionales e industriales sobre datos. Grandes proveedores financieros como Bank of America, Citigroup y Deutsche Bank siguieron su ejemplo.
Finalmente, Samsung también ha prohibido el uso de ChatGPT durante períodos prolongados de tiempo, como se mencionó anteriormente. Han eliminado y reintroducido su prohibición en varias ocasiones.
Basándose en estos y otros ejemplos, las empresas que prohíben o restringen el uso de la IA generativa por parte de los empleados parecen hacerlo por estas razones principales:
Fugas directas de datos internos
Preocupaciones sobre cómo los LLM almacenan, procesan y utilizan las entradas de datos para mejorar sus algoritmos y respuestas, lo que puede imitar datos internos privados y llevar a la distribución accidental de información competitiva
Preocupaciones sobre la falta de registro de cómo los LLM procesan datos regulados
Incluso si una organización decide prohibir o restringir el uso de LLM, podría darse cuenta de que hacer que se cumpla es casi imposible.
Establecer un estándar de seguridad no garantiza que los usuarios internos sigan ese estándar o incluso que estén al tanto de la regla. Las organizaciones ya encuentran difícil bloquear el uso de dispositivos personales no seguros para el trabajo remoto o detener el uso de aplicaciones SaaS no autorizadas gracias a la informática en la nube. Aunque el uso de aplicaciones no aprobadas se denomina "Shadow IT", se podría llamar a la posible situación bajo una prohibición de LLM "Shadow IA".
La seguridad puede prohibir ciertas aplicaciones al bloquear las direcciones IP o URL de estas herramientas, pero, por supuesto, estas restricciones no son completamente efectivas. Los dispositivos personales pueden no tener instalados los clientes de seguridad adecuados; el equipo de la empresa puede utilizarse en redes que no pertenecen a la empresa. Usuarios decididos podrían incluso utilizar una VPN para eludir las reglas del firewall y acceder a herramientas prohibidas.
Algo que se puede afirmar con certeza sobre ChatGPT y servicios similares es que estas herramientas son inmensamente populares. Una prohibición puede ayudar a frenar el uso y la fuga de datos asociada. Sin embargo, los CISO pueden querer asumir que sus empleados lo están utilizando, ya sea en un dispositivo corporativo o personal. Para ello, deberían considerar seriamente aplicar una solución de prevención de Data Loss Prevention (DLP).
Las soluciones de de DLP utilizan una variedad de tácticas para detectar datos confidenciales y evitar que salgan de un entorno protegido. Estos métodos incluyen la coincidencia de patrones, la coincidencia de palabras clave, la coincidencia de hash de archivos y la huella digital de datos. Sin embargo, lo más relevante para prevenir la fuga de datos de las herramientas de IA es la capacidad para restringir la copia y pegado, las cargas, y las entradas del teclado.
Las soluciones de DLP (cuando se combinan con el aislamiento de navegador), deberían ser capaces de evitar el copiado y pegado por parte de los empleados, impidiéndoles ingresar datos confidenciales en cualquier aplicación web, incluyendo los LLM. Los DLP también pueden bloquear las cargas de datos, detener ciertas entradas del teclado y detectar datos confidenciales en las solicitudes HTTP salientes.
Las organizaciones pueden querer o no prohibir el uso de la inteligencia artificial generativa. Aquellas que lo hagan pueden no ser capaces de detener completamente su uso. Sin embargo, para las organizaciones en cualquiera de estas situaciones, la DLP ofrece una alternativa tanto al uso descontrolado de la IA como a la prohibición de su uso.
Por supuesto, la DLP no garantiza que los datos no sean cargados. En general, los CISO tendrán que sopesar los pros y contras de permitir el uso de ChatGPT y otros LLM, y sus conclusiones variarán según la industria. En industrias altamente reguladas como la banca, cargar contenido a los LLM podría ser inaceptable desde el principio. En otras industrias, los CISO pueden evaluar el uso de IA caso por caso — o simplemente permitirlo libremente.
Sin embargo, cada empresa tiene datos confidenciales que proteger, y la DLP puede ayudar a evitar que esos datos lleguen a las bases de datos de los LLM. Debido a la importancia de la protección de datos en el entorno actual, Cloudflare ofrece DLP para ayudar a reducir el riesgo de exposición de datos y códigos, incluso con el aumento del uso de herramientas de IA generativa en el lugar de trabajo.
Este artículo forma parte de un conjunto de publicaciones sobre las últimas tendencias y temas que afectan a los responsables de la toma de decisiones sobre tecnología en la actualidad.
Descarga el documento técnico "Simplificamos la protección de las aplicaciones SaaS", para descubrir cómo Cloudflare ayuda a las organizaciones a proteger sus aplicaciones y datos con un enfoque Zero Trust.
Después de leer este artículo podrás entender:
Por qué los modelos lingüísticos de gran tamaño (LLM) ponen los datos en riesgo
Varias empresas globales han prohibido el uso interno de ChatGPT y otras herramientas de inteligencia artificial generativa
Cómo Data Loss Prevention (DLP) puede permitir de forma segura el uso de la IA