AI 규제와 관련 법안이 증가하고 있습니다. 2024년, 미국 백악관 예산관리국은 정부의 AI 활용에 대해 모든 연방 기관과 부서에 메모랜덤 24-10을 발표했습니다. 이 메모랜덤의 세 가지 주요 초점은 다음과 같습니다.
AI 거버넌스 강화
책임 있는 AI 혁신 촉진
AI 사용으로 인한 위험 관리
주 정부 차원에서도 AI 사용 및 오용에 대한 우려를 다루기 위한 유사한 노력이 이어졌습니다. 2023년에는 25개 주에서 AI의 일부 측면에 관한 법안을 제출했습니다. 그 결과, 18개 주와 푸에르토리코에서 성공적으로 법률이 제정되었습니다. 일부 법안은 AI 사용에 대한 초기 연구 또는 평가에 초점을 맞추는 반면, 다른 법안은 AI를 사용하는 직원에 대한 규제나 악의적 사용 또는 의도하지 않은 결과를 완화하기 위한 통제를 시행하려는 목표를 가지고 있습니다.
최근 입법은 정부 내 AI 사용의 위험성을 강조하며, 정부 기관과 기타 공공 부문 조직에 몇 가지 도전 과제를 제시하고 있습니다. 이러한 조직은 공공 자산을 위협으로부터 보호하고 AI를 적절히 활용할 수 있도록 제어 장치를 마련해야 할 필요가 있습니다.
AI 기반 크롤러는 정부 기관 및 기타 공공 부문 조직에 합법적이고 유익한 용도로 사용될 수 있습니다. 경우에 따라, 책임감 있는 크롤러와 인덱서는 공개 데이터에 접근하여 시민들이 관련 온라인 서비스와 정보를 더 쉽게 찾을 수 있도록 지원할 수 있습니다.
반면, 제대로 개발되지 않았거나 악의적인 AI 크롤러는 콘텐츠의 프라이버시를 고려하지 않고 콘텐츠를 스크래핑하여 공개 AI 플랫폼의 학습 데이터로 활용할 수 있습니다. 이 데이터가 모델 학습에 사용된다면 수많은 지적 재산권 및 개인정보 보호 문제가 발생할 수 있습니다. 또한 이러한 봇을 방치하면, 모든 사용자의 정상적인 상호작용으로부터 나오는 리소스를 과도하게 소모하여 공개 웹 사이트의 성능에 악영향을 미칠 수 있습니다.
기관은 서버 또는 애플리케이션 측에서 몇 가지 보호 조치를 시행하여 봇이 서버와 상호작용하는 방식을 제어할 수 있습니다. 예를 들어 robots.txt 파일을 배포할 수 있습니다. 이 파일은 크롤러 트래픽이 사이트 및 데이터의 다양한 섹션과 상호작용하는 방식을 알리고 정의하는 역할을 합니다. 이 파일은 사이트의 루트에 배포되고 사이트를 크롤링할 수 있는 에이전트(봇)와 액세스할 수 있는 리소스를 정의합니다.
하지만, 이 접근 방식에는 몇 가지 문제가 있습니다. 첫째, 크롤러가 robots.txt 파일을 존중해야 합니다. 이는 ‘존중받는’ 봇에 대한 일반적인 모범 사례이지만, 모든 봇이 규칙을 따르는 것은 아닙니다. 악의적이지 않은 봇이라 하더라도 구문을 잘못 해석하여 기관이 숨기고자 하는 요소와 상호작용할 가능성이 있습니다.
결론적으로, robots.txt 또는 유사한 .htaccess(Apache) 전략을 활용하는 것은 완벽한 보호책이 아닙니다. 하지만 이는 합법적인 봇이 애플리케이션 콘텐츠와 상호작용하는 방식을 관리하기 위한 전체적인 접근 방식의 일부가 될 수 있습니다.
웹 애플리케이션 방화벽(WAF)과 봇 완화 솔루션은 오늘날 공개 웹 애플리케이션을 보호하는 데 필수적입니다. 이러한 제어 기능을 통해 조직은 분산 서비스 거부(DDoS) 위협, 섀도우, 안전하지 않은 API, 기타 다양한 봇 관련 위협으로부터 공개 디지털 자산을 보호할 수 있습니다.
현대의 모든 봇 완화 솔루션은 AI 데이터 학습을 목적으로 콘텐츠를 스크래핑하는 봇을 프로그래밍 방식으로 식별하고 분류할 수 있는 기능을 포함해야 합니다. 이 분류 메커니즘은 매우 중요한 기능입니다. 이를 통해 합법적이고 검증된 AI 크롤러를 허용하거나, 기관이 해당 봇의 웹사 이트와 상호작용하도록 허용하는 방식을 결정할 때까지 완전히 차단할 수도 있습니다.
확장 가능한 솔루션을 선택하는 것도 핵심입니다. 2023년, UN 사무총장 António Guterres는 인쇄된 책이 유럽 전역에 보급되기까지 50년 이상이 걸렸지만, “ChatGPT는 단 2개월 만에 1억 명의 사용자를 달성했다”고 말했습니다. AI 플랫폼의 규모와 전례 없는 성장은 공개적으로 노출된 데이터 세트를 학습 목적으로 검색하는 AI 봇의 수가 증가하는 것과 직결됩니다. 이러한 플랫폼의 아키텍처는 분산된 글로벌 환경에서 확장할 수 있어야 합니다.
공개 AI 플랫폼을 통해 사용자는 메모 작성부터 복잡한 코드 생성에 이르기까지 작업의 속도를 높일 수 있습니다. 정부, 주 및 연방 기관은 AI를 활용하여 의료 문제, 시민 서비스 접근성, 식수 및 식품 안전과 같은 복잡한 사회적 문제를 해결할 가능성에 주목하고 있습니다. 그러나 거버넌스가 부재한 상태에서 조직은 규제된 데이터 세트를 안전하지 않은 공공 언어 모델 학습 데이터로 유출하는 데 연루될 가능성이 있습니다.
조직에서 도구를 활용하여 승인되지 않은 클라우드 애플리케이션(“섀도우 IT”)의 사용을 조절했던 것과 마 찬가지로, 이제는 조직 내에서 섀도우 AI를 사용하는 범위를 이해해야 합니다. 섀도우 AI의 증가가 화제가 되고 있습니다. 전 세계 직원 11,500명을 대상으로 실시한 3Gem 연구에 따르면, 직원의 57%가 적어도 일주일에 한 번 사무실에서 공개 생성형 AI 도구를 사용한 것으로 나타났습니다. 같은 연구에서 응답자의 39%는 이러한 상호작용으로 인해 중요한 데이터가 유출될 위험이 있다는 데 동의했습니다.
이러한 중요한 데이터는 AI 모델 간에 의도치 않게 공유될 수도 있습니다. AI 모델은 점점 더 기존의 데이터 출처 대신 다른 모델이 생성한 데이터를 기반으로 학습되는 경향을 보이고 있습니다.
섀도우 AI에 포괄적으로 접근하기 위해, 조직은 우선 공개 AI 모델의 허용 가능한 사용 방식을 정의해야 합니다. 또한, 어떤 역할이 이러한 모델에 접근할 수 있는지 결정해야 합니다. 이러한 보호 장치를 설정하는 것은 중요한 첫 단계입니다. 정부 및 공공 부문에서 AI와 관련된 새로운 법률은 기관 내 AI의 적절한 사용을 검토하고, 허용 가능한 모델을 결정하는 것의 중요성을 강조하는 경우가 많습니다.
적절한 사용 여부가 결정된 후 기관은 해당 정책을 시행하기 위한 제어 기능을 개발해야 합니다. Zero Trust 네트워크 액세스(ZTNA) 원칙을 이용하면 승인되지 않은 액세스를 제한할 수 있는 이러한 정책을 개발하고 시행할 수 있습니다.
예를 들어, 특정 행정 그룹의 승인된 사용자만 공개 AI 모델에 접근하도록 허용할 수 있습니다. 이러한 모델에 접근을 허용하기 전에, ZTNA 솔루션이 기업 장치의 최신 보안 패치 적용 여부나 정부 승인 엔드포인트 관리 에이전트 실행 여부 등을 추가로 점검할 수 있습니다. ZTNA를 통해 기관은 정부 자산을 운영하면서 이러한 공개 AI 모델에 접근할 수 있는 사람을 제어하고 제한할 수 있습니다.
허용 가능한 사용 범위는 AI 플랫폼에 접근할 수 있는 사용자를 정의하는 것에 그치지 않습니다. 기관은 또한 AI 플랫폼에 게시되거나 제출되는 데이터를 이해하고 제어해야 합니다. 부서 메모와 같은 무해한 것처럼 보이는 자료조차 비공개 또는 중요한 데이터를 포함할 수 있습니다. 이러한 데이터 포인트가 대규모 언어 모델(LLM)에 제출되면, 해당 데이터가 노출될 위험이 존재합니다.
데이터 손실 방지(DLP) 제어는 중요한 데이터의 부적절한 사용을 방지하는 데 도움이 될 수 있습니다. 적절한 제어를 통해 중요한 애플리케이션 코드나 시민 데이터와 같은 독점 정보를 안전하지 않은 AI 플랫폼의 학습 데이터 세트에 포함되지 않도록 할 수 있습니다.
공개 및 비공개(사내) AI 플랫폼 모두와 상호작용해야 하는 AI 개발자 그룹의 예를 들어보겠습니다. 기관은 공개(예: ChatGPT) 및 비공개(예: AWS BedRock) AI 플랫폼 모두를 사용하는 것을 허용할 수 있습니다. AI 개발 그룹에 승인된 사용자만 이러한 플랫폼에 접근할 수 있습니다. 일반 사용자는 두 플랫폼 모두에 접근이 차단됩니다.
승인된 AI 개발 사용자 그룹이 있는 경우에도 DLP 규칙을 구현하는 것이 유용할 수 있습니다. DLP 규칙은 AI 플랫폼에 제출된 데이터를 검사하여 중요한 비공개 데이터를 내부 비공개 AI 플랫폼에만 게시되도록 보장할 수 있습니다.
거버넌스는 기술이 아니라 정책이나 사명에서 시작해야 합니다. AI의 이점과 위험을 평가하기 위해 기관의 리더는 AI와 기관의 사명이 만날 수 있는 잠재적 교차점을 평가할 수 있는 전담 팀을 구성해야 합니다.
공공이 기술을 통해 정부와의 교류를 늘려감에 따라, AI 모델을 학습시키는 데 사용할 수 있는 데이터 세트는 더 크고 풍부해질 것입니다. 예를 들면, 공공 부문 조직은 이러한 상호작용을 허용했을 때의 영향을 이해할 때까지 모든 AI 크롤러를 차단하는 보수적인 접근 방식을 선택할 수도 있습니다. 공공 자산을 합법적으로 크롤링하는 일을 통해 잠재적인 이점을 기대하 는 조직의 경우, 팀원들은 검증된 AI 크롤러의 접근을 제어하고 악의적인 행동을 방어할 수 있어야 합니다.
또한 AI 규제의 증가에 대비하기 위해, 팀은 AI 플랫폼 접근이 필요한 역할과 작업을 명확히 해야 합니다. 누가 언제 접근할 수 있는지 결정하고 AI 모델에 게시되는 데이터의 종류를 제어하면, 이 기술의 실질적인 이점을 희생하지 않고도 섀도우 AI를 해결할 수 있습니다.
봇 관리와 Zero Trust 보안 기능은 정부 기관이 AI 사용의 확산으로 인한 위험을 줄이는 데 핵심적인 역할을 합니다. 완화 전략을 개발할 때는 공공 웹 자산을 보호하고 AI를 책임감 있게 소비하는 것을 최우선으로 고려해야 합니다.
AI는 많은 복잡한 사회 문제를 해결하는 데 있어 엄청난 가능성을 지니고 있습니다. 그러나 정부와 공공 부문에서 AI를 사용하는 데는 몇 가지 잠재적인 단점이 있습니다. 정부 기관과 기타 공공 부문 조직의 경우, 이러한 새로운 기술을 탐색할 때는 항상 자신들의 구성원을 보호하는 것이 최우선이 되어야 합니다.
이 글은 오늘날의 기술 의사 결정자에 영향을 주는 최신 동향 및 주제에 대한 시리즈 중 일부입니다.
'Zero Trust 아키텍처에 대한 로드맵' 전체 가이드에서 AI 사용이 급증할 때 Zero Trust로 위험을 줄이는 방법을 자세히 알아보세요.
Scottie Ray — @H20nly
Cloudflare 수석 솔루션 아키텍트
이 글을 읽고 나면 다음을 이해할 수 있습니다.
AI에 중점을 둔 법률의 등장
AI가 제시하는 2가지 주요 과제
기관에서 규제 준수를 달성하는 데 도움이 되는 제어 기능
시작하기
리소스
솔루션
커뮤니티
지원
회사