다음을 통해 공유


AI(인공 지능) 공유 책임 모델

AI 지원 통합을 고려하고 평가할 때는 공유 책임 모델과 AI 플랫폼 또는 애플리케이션 공급자가 처리하는 작업 및 사용자가 처리하는 작업을 이해하는 것이 중요합니다. 워크로드 책임은 AI 통합이 SaaS(Software as a Service), PaaS(Platform as a Service) 또는 IaaS(Infrastructure as a Service) 중 무엇을 기반으로 하는지에 따라 달라집니다.

책임 분담

클라우드 서비스와 마찬가지로 조직에 대한 AI 기능을 구현할 때 제공되는 옵션이 있습니다. 사용자는 선택한 옵션에 따라 AI를 안전하게 사용하는 데 필요한 다양한 작업 및 정책의 여러 부분에 대해 책임을 져야 합니다.

다음 다이어그램에서는 배포 유형에 따라 사용자와 Microsoft 간의 책임 영역을 보여 줍니다.

AI 책임 영역을 보여 주는 다이어그램

AI 레이어 개요

AI 지원 애플리케이션은 사용자 또는 AI 공급자가 수행하는 작업을 함께 그룹화하는 세 가지 기능 레이어로 구성됩니다. 일반적으로 작업을 수행하는 사용자가 누구든 보안 책임이 있지만 AI 공급자는 보안 또는 기타 컨트롤을 구성 옵션으로 사용자에게 적절하게 노출하도록 선택할 수 있습니다. 이러한 세 가지 레이어는 다음과 같습니다.

AI 플랫폼

AI 플랫폼 레이어는 애플리케이션에 AI 기능을 제공합니다. 플랫폼 레이어에서는 AI 모델, 학습 데이터 및 모델의 동작을 변경하는 특정 구성(예: 가중치 및 편향)을 실행하는 인프라를 구축하고 보호해야 합니다. 이 레이어는 처리를 위해 Metaprompt로 알려진 텍스트를 AI 모델에 전달한 다음, 프롬프트-응답으로 알려진 생성된 결과를 반환하는 API를 통해 기능에 대한 액세스를 제공합니다.

AI 플랫폼 보안 고려 사항 - 악의적인 입력으로부터 AI 플랫폼을 보호하려면 AI 모델(입력)에 전송된 잠재적으로 유해한 지시를 필터링하기 위해 보안 시스템을 구축해야 합니다. AI 모델이 생성형이기 때문에 일부 유해한 콘텐츠가 생성되어 사용자에게 반환(출력)될 수도 있습니다. 모든 보안 시스템은 먼저 증오, 탈옥 등을 포함한 많은 분류의 잠재적으로 유해한 입력 및 출력으로부터 보호되어야 합니다. 이러한 분류는 모델 지식, 로캘 및 업계에 따라 시간이 지나면서 진화할 가능성이 높습니다.

Microsoft에는 PaaS 및 SaaS 제품 모두에 대한 기본 제공 보안 시스템이 있습니다.

AI 애플리케이션

AI 애플리케이션은 AI 기능에 액세스하고 사용자가 사용하는 서비스 또는 인터페이스를 제공합니다. 이 레이어의 구성 요소는 애플리케이션에 따라 비교적 간단한 구성 요소부터 매우 복잡한 구성 요소까지 다양할 수 있습니다. 가장 간단한 독립 실행형 AI 애플리케이션은 텍스트 기반 사용자 프롬프트를 사용하고 응답을 위해 해당 데이터를 모델에 전달하는 일련의 API에 대한 인터페이스 역할을 합니다. 더 복잡한 AI 애플리케이션에는 더 많은 데이터 원본에 액세스할 수 있도록 지속성 레이어, 의미 체계 인덱스 또는 플러그 인을 통해 추가 컨텍스트를 사용하여 사용자 프롬프트에 정보를 제공하는 기능이 포함됩니다. 또한 고급 AI 애플리케이션은 기존 애플리케이션 및 시스템과도 상호 작용할 수 있습니다. 기존 애플리케이션과 시스템은 텍스트, 오디오 및 이미지에서 작동하여 다양한 유형의 콘텐츠를 생성할 수 있습니다.

AI 애플리케이션 보안 고려 사항 - 악의적인 활동으로부터 AI 애플리케이션을 보호하기 위해 애플리케이션 보안 시스템을 구축해야 합니다. 보안 시스템은 AI 모델로 전송되는 Metaprompt에서 사용되는 콘텐츠에 대한 자세한 검사를 제공합니다. 보안 시스템은 플러그 인, 데이터 커넥터 및 기타 AI 애플리케이션(AI 오케스트레이션이라고도 함)과의 상호 작용도 검사합니다. 이를 고유한 IaaS/PaaS 기반 AI 애플리케이션에 통합할 수 있는 한 가지 방법은 Azure AI 콘텐츠 보안 서비스를 사용하는 것입니다. 다른 기능은 필요에 따라 사용할 수 있습니다.

AI 사용

AI 사용 레이어는 AI 기능을 궁극적으로 사용하고 소비하는 방법을 설명합니다. 생성 AI는 API, 명령 프롬프트 및 GUI(그래픽 사용자 인터페이스)와 같은 다른 컴퓨터 인터페이스와 근본적으로 다른 새로운 유형의 사용자/컴퓨터 인터페이스를 제공합니다. 생성 AI 인터페이스는 대화형 및 동적 인터페이스로, 컴퓨터 기능이 사용자와 해당 의도에 맞게 조정되도록 합니다. 생성 AI 인터페이스는 주로 사용자가 시스템 디자인 및 기능을 학습하고 조정하도록 강제하는 이전 인터페이스와 대조됩니다. 이러한 대화형 작업을 통해 애플리케이션 디자이너 대신 사용자 입력이 시스템 출력에 높은 수준의 영향을 줄 수 있으므로 사람, 데이터 및 비즈니스 자산을 보호하기 위한 안전 보호책이 중요해집니다.

AI 사용 보안 고려 사항 - AI 사용 보호는 ID 및 액세스 제어, 디바이스 보호 및 모니터링, 데이터 보호 및 거버넌스, 관리 컨트롤 및 기타 컨트롤에 대한 보안 보증에 의존하므로 컴퓨터 시스템과 유사합니다.

사용자가 시스템 출력에 미치는 영향 증가로 인해 사용자 동작 및 책임에 더 중점을 두어야 합니다. 허용되는 사용 정책을 업데이트하고 표준 IT 애플리케이션과 AI 지원 애플리케이션의 차이점을 사용자에게 교육하는 것이 중요합니다. 여기에는 보안, 프라이버시 및 윤리와 관련된 AI 관련 고려 사항이 포함되어야 합니다. 또한 사용자는 가짜 텍스트, 음성, 비디오 등을 설득력 있게 속이는 데 사용할 수 있는 AI 기반 공격에 대해 교육을 받아야 합니다.

AI 관련 공격 유형은 다음에서 정의됩니다.

보안 수명 주기

다른 유형의 기능에 대한 보안과 마찬가지로 완전한 접근 방식을 계획해야 합니다. 완전한 접근 방식에는 식별, 보호, 감지, 대응, 복구 및 관리와 같은 전체 보안 수명 주기의 사람, 프로세스 및 기술이 포함됩니다. 이 수명 주기의 격차 또는 약점은 다음과 같습니다.

  • 중요한 자산 보호 실패
  • 쉽게 예방할 수 있는 공격 경험
  • 공격을 처리할 수 없음
  • 중요 비즈니스용 서비스를 신속하게 복원할 수 없음
  • 일관성 없는 컨트롤 적용

AI 위협 테스트의 고유한 특성에 대해 자세히 알아보려면 Microsoft AI Red Team이 안전한 AI의 미래를 구축하는 방법을 참조하세요.

사용자 지정 전에 구성

Microsoft는 조직이 초기 AI 도입 및 모든 후속 AI 워크로드에 대해 Copilot 모델과 같은 SaaS 기반 접근 방식으로 시작하는 것을 권장합니다. 이렇게 하면 조직에서 이러한 매우 복잡한 기능을 설계, 운영 및 보호하기 위해 제공해야 하는 전문 지식 및 책임의 수준을 최소화할 수 있습니다.

현재 "규격" 기능이 워크로드에 대한 특정 요구 사항을 충족하지 않는 경우, 이러한 특정 요구 사항을 충족하기 위해 Azure OpenAI Service와 같은 AI 서비스를 사용하여 PaaS 모델을 채택할 수 있습니다.

사용자 지정 모델 구축은 데이터 과학에 대한 깊은 전문 지식과 AI의 보안, 프라이버시 및 윤리적 고려 사항을 갖춘 조직에서만 채택해야 합니다.

Microsoft는 AI를 전 세계에 제공하기 위해 Bing 및 Windows에서 GitHub 및 Office 365에 이르는 각 주요 생산성 솔루션에 대한 Copilot 솔루션을 개발하고 있습니다. Microsoft는 모든 유형의 생산성 시나리오에 대한 전체 스택 솔루션을 개발 중입니다. 이러한 솔루션은 SaaS 솔루션으로 제공됩니다. 제품의 사용자 인터페이스에 기본 제공되는 이 솔루션은 사용자가 생산성을 높이기 위해 특정 작업을 수행할 수 있도록 조정됩니다.

Microsoft는 모든 Copilot 솔루션이 AI 거버넌스에 대한 강력한 원칙에 따라 엔지니어링되도록 합니다.

다음 단계

Microsoft Responsible AI 표준에서 책임 있는 AI에 대한 Microsoft의 제품 개발 요구 사항에 대해 알아봅니다.

클라우드 컴퓨팅에 대한 공유 책임에 대해 알아봅니다.