백악관 관리 예산실에서는 모든 연방 기관과 부서에서 인공 지능을 사용하는 데 사용할 거버넌스, 혁신, 위험 관리에 대한 메모랜덤 24-10을 발표했습니다. 세 부분으로 구성된 이 메모랜덤에는 다음과 같은 내용이 담겨 있습니다.
AI 거버넌스 강화
책임 있는 AI 혁신 촉진
AI 사용으로 인한 위험 관리
작년에 25개 주 에서 AI의 일부 측면에 초점을 맞춘 법안 을 발의했습니다. 18개 주와 푸에르토리코에서는 AI와 관련된 법을 제정했습니다. 이러한 법률 관련 조치는 AI 사용에 대한 초기 연구 및 평가부터 직원의 AI 사용에 대한 거버넌스, AI의 악의적이거나 의도하지 않은 결과를 완화하기 위해 필요한 제어에 이르기까지 다양합니다.
대체로, 이 새로운 법안은 정부 및 기타 공공 부문 조직에 규제 준수, 소비, 제어에 대한 새로운 규정을 마련한 것입니다.
이 글에서는 공개 자산의 보호는 물론 AI 모델 사용을 위한 거버넌스를 식별하고 구축하는 측면에서 조직에서 직면하는 몇 가지 과제를 검토합니다.
크롤러의 영향은 기관 입장에서는 당연하면서도 문제가 될 수 있습니다. 일부 상황에서는 책임감 있는 크롤러와 인덱서가 공개적으로 액세스할 수 있는 데이터를 사용하여 시민들이 관련 온라인 서비스와 정보를 더 쉽게 찾을 수 있습니다.
반면에 제대로 개발되지 않았거나 악의적인 AI 크롤러는 콘텐츠의 개인정보 보호에 대한 고려 없이 콘텐츠를 스크래핑하여 공개 AI 플랫폼을 학습시킬 수 있습니다.
이 데 이터가 공개 AI 플랫폼을 지원하는 학습 모델로 사용되면 수많은 지적 재산 및 개인정보 보호 문제가 발생할 수 있습니다. 이들 봇을 제지하지 않으면 합법적인 상호 작용을 통해 리소스를 소비하여 모든 사용자에 대한 공개 웹 사이트의 성능이 저해될 수도 있습니다.
몇 가지 서버 측 보호 기능이 있으며, 이들을 실행하면 봇이 서버와 상호 작용하는 방식을 제어하는 데 도움이 될 수 있습니다. 그 한 가지 예는 robots.txt 파일의 배포입니다. 간단히 말해서 이 파일은 크롤러 트래픽이 사이트의 다양한 섹션 및 그 데이터와 상호 작용하는 방식을 알려주고 정의할 수 있습니다. 이 파일은 사이트의 루트에 배포되고 사이트를 크롤링할 수 있는 에이전트(봇)와 액세스할 수 있는 리소스를 정의합니다.
이 접근 방식에는 몇 가지 문제가 있습니다. 첫 번째이자 가장 분명한 문제는 크롤러가 robots.txt 파일을 준수해야 한다는 점입니다. 이는 '존중할 만한' 봇에 대한 일반적인 모범 사례이지만, 모든 사람이 이 규칙을 준수하지는 않습니다. 구문을 잘못 해석하여 기관에서 숨기려는 요소와 상호 작용할 수 있는 비악의적 봇도 있습니다.
요약하자면, robots.txt 또는 유사한 .htaccess (Apache) 전략을 활용하는 것은 일반적인 접근 방식이기는 하지만, 실패할 염려가 없는 보호 방식은 아닙니다. 하지만, 이는 합법적인 봇이 애플리케이션 콘텐츠와 상호 작용하는 방법을 관리하는 총체적 접근 방식의 일부입니다.
웹 애플리케이션 방화벽(WAF) 및 봇 완화 솔루션은 오늘날 공개 웹 애플리케이션의 핵심 요소입니다. 이러한 제어를 통해 조직에서는 봇 기술의 형태로 제공되는 다양한 기타 위협과 함께 DDoS 위협 벡터, 섀도우 API, 안전하지 않은 API로부터 공개 디지털 자산을 보호할 수 있습니다.
오늘날의 봇 완화 전략에는 AI 데이터 교육 서비스에서 스크래핑 콘텐츠에 해당하는 봇을 프로그래밍 방식으로 식별하고 분류하는 기능이 포함되어야 합니다. 이 분류 메커니즘은 매우 중요한 기능입니다. 이 메커니즘에서는 합법적이고 확인된 AI 크롤러만 제한 또는 허용할지, 아니면 이러한 봇이 정부 웹 사이트와 상호 작용하도록 허용할지가 결정될 때까지 완전히 차단할지가 정의됩니다. Cloudflare WAF는 크롤러를 식별할 뿐만 아니라 업계 모범 사례에 따라 개발되었는지 여부도 식별합니다.
지난 여름 António Guterres UN 사무총장은 AI가 인쇄기에 비유되었다면서, 인쇄된 책이 유럽 전역에 널리 보급되는 데 50년 이상이 걸렸지만, “ChatGPT 는 2개월 만에 사용자 수가 1억 명에 도달했습니다"라고 언급했습니다. AI 플랫폼의 규모와 전례 없는 성장은 교육을 위해 공개적으로 노출된 학습용 데이터 세트를 검색하는 AI 봇의 수가 증가하는 것과 직접적으로 연관됩니다.
이러한 WAF 및 봇 관리 제어를 구현할 때 두 번째로 중요한 고려 사항은 이것입니다. 이러한 플랫폼의 아키텍처는 분산된 글로벌 환경에서 확장할 수 있어야 합니다. Cloudflare의 네트워크 아키텍처는 120여 개국 330개 도시에 배포되고 중앙에서 관리되며 전 세계에 걸쳐 분산된 봇 완화 기능을 제공합니다. 296 Tbps 에지 용량을 갖춘 인터넷 최대 네트워크 중 하나의 지원을 받는 Cloudflare 클라우드 연결성은 원본에 가까운 것이 아니라 공격 출처에 가장 가까운 곳에서 진정한 글로벌 규모로 위협을 흡수, 차단, 필터링, 레이트 리미팅 할 수 있습니다.
현실을 직시하자면, 공개 AI 플랫폼을 통해 사용자는 메모 작성부터 복잡한 코드 작성에 이르기까지 모든 작업을 가속화할 수 있습니다. 주 및 연방 기관에서는 AI를 의료, 시민 서비스에 대한 액세스, 식품, 식수 안전 등의 복잡한 사회 문제를 해결하는 데 매우 중요하다고 보고 있습니다. 하지만 거버넌스가 없으면 조직에서는 규제 대상 데이터 세트를 안전하지 않은 공개 언어 모델 학습 데이터로 유출하는 데 연루될 수 있습니다.
조직에서 도구를 활용하여 승인되지 않은 클라우드 애플리케이션(섀도우 IT)의 사용을 조절했던 것과 마찬가지로, 이제는 조직 내에서 섀도우 AI를 사용하는 범위를 이해해야 합니다.
'섀도우 AI'의 증가가 헤드라인에 오르고 있습니다. 전 세계 직원 11,500명을 대상으로 실시한 3Gem 연구에 따르면, 직원의 57%가 적어도 일주일에 한 번 사무실에서 공개 생성형 AI 도구를 사용한 것으로 나타났습니다. 응답자의 39%가 이러한 상호작용으로 중요한 데이터가 유출될 위험이 있다는 데 동의했습니다.
기존의 소싱된 콘텐츠가 아닌 다른 모델에서 생성한 데이터를 기반으로 AI 모델을 학습시키는 사례가 늘어나는 점을 고려하면, 이 정보는 때때로 AI 모델 간에 모르는 사이에 공유되고 있습니다.
포괄적인 접근 방식에는 모두 공개 AI 모델의 허용 가능한 사용, 더 구체적으로 어떤 역할을 하는 사람이 해당 모델에 액세스해야 하는지를 결정하는 것이 포함되어야 합니다. 이러한 보호 장치를 설정하는 것이 중요한 첫 단계입니다. 실제로, 정부 내에서 새롭게 떠오르는 AI 관련 법안에서는 기관 내에서의 적절한 AI 사용과 허용되어야 하는 모델을 검토하고 있습니다.
이러한 결정이 내려지면 기관에서는 해당 정책을 시행하기 위한 제어 기능을 개발해야 합니다. Zero Trust 네트워크 액세스(ZTNA) 원칙을 이용하면 승인되지 않은 액세스를 제한할 수 있는 이러한 정책을 개발하고 시행할 수 있습니다.
예를 들어, 특정 관리 그룹의 승인된 사용자만 공개 AI 모델에 액세스하도록 허용할 수 있습니다. 승인된 사용자라도 ZTNA를 이용하면 기업 장치에 패치를 적용한 최신 상태를 유지하거나 장치에 액세스를 허용하기 전에 정부에서 승인한 엔드포인트 관리 에이전트가 실행되고 있는지 확인하는 등의 추가 상태 검사를 할 수 있습니다.
이러한 방식으로 정부에서는 정부 자산으로 작업하는 동안 이러한 공개 AI 모델에 액세스할 수 있는 사람을 지정하고 제한할 수 있습니다.
허용 가능한 사용은 어떤 사용자가 AI 플랫폼에 액세스할 수 있는지를 정의하는 것만은 아닙니다. 정부에서는 AI 플랫폼에 게시되거나 제출되는 데이터도 파악해야 합니다.
부서 메모와 같이 무해한 글에도 비공개 대상이거나 중 요한 데이터 포인트가 있을 수 있습니다. 이러한 데이터 포인트가 LLM에 제출되면 해당 데이터가 노출될 위험이 있습니다.
중요한 애플리케이션 코드, 시민 데이터 등 독점 정보가 AI 플랫폼의 보호되지 않은 학습 데이터 세트의 일부가 되지 않도록 통합 데이터 손실 방지(DLP) 제어 방법을 마련해야 합니다.
공공 및 민간 또는 사내 AI 플랫폼 모두와 상호 작용해야 하는 'AI 개발자 그룹'의 예를 들어 보겠습니다.
기관에서는 양쪽 모두의 이용을 허용할 수 있습니다(예: ChatGPT 및 비공개(예: AWS BedRock) AI 플랫폼 'AI 개발 그룹'에서는 승인된 사용자만 이러한 플랫폼에 액세스할 수 있습니다. 일반 사용자는 두 플랫폼에서 모두 차단됩니다.
하지만 승인된 'AI 개발 그룹' 사용자의 경우라도, 이러한 플랫폼에 게시되는 데이터를 검사하는 DLP 규칙의 구현은 비공개의 중요한 데이터가 내부 프라이빗 AI 플랫폼에만 게시될 수 있도록 보장하기 위해 검토됩니다.
거버넌스는 기술적인 관점이 아닌 정책이나 사명의 관점에서 시작되어야 합니다. 이익과 위험 관점 모두에서 정부 프로그램에서 AI의 역할을 이해하려면 경영진에서 AI 플랫폼과 기관의 임무가 교차할 가능성이 있는 지 점을 평가할 수 있는 집중 팀을 의도적으로 임명해야 합니다.
기술을 이용하여 대중의 참여가 늘어나면 AI 플랫폼이 모델을 학습시키는 데 사용할 수 있는 풍부한 데이터가 마련됩니다. 조직에서는 상호 작용을 허용하면 어떤 영향이 미치는지 파악할 때까지 모든 AI 크롤러를 차단하는 더 보수적인 접근 방식을 선택할 수 있습니다. 공공 자산의 합법적인 크롤링으로 이점을 얻는 주체의 경우, 검증된 AI 크롤러를 통해 합법적이고 통제된 액세스를 허용하면서, 악의적인 공격으로부터 보호하는 능력이 오늘날의 환경에서는 아주 중요합니다.
강화된 규제를 극복하기 위해서는 조직 내에서 AI 플랫폼에 액세스하는 데 필요한 역할과 작업을 설정하는 것이 중요한 초기 조치입니다. 이러한 요구를 누가 언제 액세스할 수 있는지를 결정하는 일련의 제어에 매핑하고 이러한 모델에 게시되는 데이터의 종류를 제어할 수 있을 경우, 궁극적으로 이러한 기술이 제공하는 실질적인 이점을 희생하지 않고도 섀도우 AI를 제거할 수 있습니다.
Cloudflare 봇 관리 와 Zero Trust는 정부 기관에서 AI 사용이 급증하는 상황에서 위험을 줄이도록 지원하는 핵심입니다. 공공 웹 자산을 보호하고 이러한 기술의 책임감 있는 사용을 위한 제어 메커니즘을 제공하는 것은 완화 전략을 개발할 때 최우선으로 염두에 두어야 하는 중요한 제어 수단입니다.
AI로 가능해질 사항 덕분에 복잡한 여러 사회 문제가 해결될 수 있고 어떤 면에서는 이미 해결되고 있습니다. 그러나 정부에서는 이러한 새로운 기술을 도입하는 동안 국민을 보호해야 합니다.
이 글은 오늘날의 기술 의사 결정자에 영향을 주는 최신 동향 및 주제에 대한 시리즈 중 일부입니다.
'Zero Trust 아키텍처에 대한 로드맵' 전체 가이드에서 AI 사용이 급증할 때 Zero Trust로 위험을 줄이는 방법을 자세히 알아보세요.
Scottie Ray — @H20nly
Cloudflare 수석 솔루션 아키텍트
이 글을 읽고 나면 다음을 이해할 수 있습니다.
AI에 중점을 둔 법률의 등장
AI가 제시하는 2가지 주요 과제
기관에서 규제 준수를 달성하는 데 도움이 되는 제어 기능
시작하기
리소스
솔루션
커뮤니티