AI 관리 – AI를 제어하는 프로세스
이 문서에서는 AI를 관리하기 위한 조직 프로세스를 간략하게 설명합니다. NIST AI RMF(인공 지능 위험 관리 프레임워크) 및 NIST AI RMF 플레이북을 따릅니다. 또한 CAF Govern의 프레임워크와 일치합니다.
이 지침은 AI 위험 관리를 보다 광범위한 위험 관리 전략에 통합하는 데 도움이 되는 것을 목표로 합니다. 이러한 통합은 통합된 거버넌스 접근 방식을 위해 AI, 사이버 보안 및 개인 정보 보호 위험을 보다 응집력 있는 처리로 제공합니다.
AI 조직 위험 평가
AI 위험 평가는 AI 기술에서 도입된 잠재적 위험을 식별하고 해결합니다. 이 프로세스는 AI 시스템에 대한 신뢰를 구축하고 의도하지 않은 결과를 줄입니다. 조직의 위험을 해결하면 AI 배포가 조직의 가치, 위험 허용 범위 및 운영 목표에 맞게 조정됩니다.
AI 워크로드를 이해합니다. AI 위험을 완화하려면 AI 워크로드를 이해해야 합니다. 각 AI 워크로드의 범위와 목적을 명확히 하여 관련 위험을 매핑할 수 있습니다. 이 설명에는 AI 워크로드와 관련된 모든 가정 및 제한 사항이 포함되어야 합니다.
책임 있는 AI 원칙을 사용하여 위험을 식별합니다. 이러한 원칙은 AI 위험을 평가하기 위한 프레임워크를 제공합니다. 다음 표를 사용하여 AI 원칙의 구조적 평가를 통해 위험을 식별하고 완화합니다.
책임 있는 AI 원칙 정의 위험 평가 질문 AI 개인 정보 보호 및 보안 AI 워크로드는 개인 정보를 존중하고 보안을 유지해야 합니다. AI 워크로드는 어떻게 중요한 데이터를 처리하거나 보안 위반에 취약해질 수 있나요? 안정성 및 안전성 AI 워크로드는 안전하고 안정적으로 수행해야 합니다. AI 워크로드가 안전하게 작동하지 않거나 신뢰할 수 없는 결과를 생성할 수 있는 상황은 무엇인가요? 공정성 AI 워크로드는 사람을 공평하게 처리해야 합니다. AI 워크로드가 어떻게 의사 결정에서 불평등한 대우 또는 의도하지 않은 편견으로 이어질 수 있을까요? 포용성 AI 워크로드는 포용적이고 역량을 강화해야 합니다. AI 워크로드의 디자인 또는 배포에서 특정 그룹을 어떻게 배제하거나 불이익을 받을 수 있나요? 투명성 AI 워크로드를 이해할 수 있어야 합니다. 사용자가 이해하거나 설명하기 어려울 수 있는 AI 의사 결정의 측면은 무엇인가요? 책임 사람들은 AI 워크로드에 대한 책임을 져야 합니다. AI의 개발 또는 사용에서 책임을 확립하기가 불분명하거나 어려울 수 있는 곳은 어디인가요? AI 위험을 식별합니다. 먼저 잠재적인 데이터 위반, 무단 액세스 또는 오용을 포함하여 AI 워크로드의 보안 위험을 평가합니다. 이해 관계자와 상의하여 눈에 잘 띄지 않는 위험을 파악하고 평판 위험을 포함한 정성적 및 양적 영향을 모두 평가하여 조직의 위험 허용 범위를 확인합니다.
외부 종속성에서 위험을 식별합니다. 타사 데이터 원본, 소프트웨어 및 통합과 관련된 위험을 평가합니다. 조직의 개인 정보 보호 및 규정 준수 표준에 부합하는 정책을 설정하여 보안 취약성, 편견 및 지적 재산권 위험과 같은 문제를 해결합니다.
통합 위험을 평가합니다. AI 워크로드를 평가하면 기존 워크로드 및 프로세스와 통합됩니다. 다른 워크로드에 대한 종속성, 복잡성 증가 또는 기능에 영향을 줄 수 있는 비호환성과 같은 잠재적 위험을 문서화합니다.
AI 거버넌스 정책 문서화
AI 거버넌스 정책은 책임 있는 AI 사용을 위한 구조화된 프레임워크를 제공합니다. 이러한 정책은 AI 활동을 윤리적 표준, 규정 요구 사항 및 비즈니스 목표에 맞춥니다. 정책을 문서화하면 AI 모델, 데이터 및 작업을 관리하기 위한 명확한 지침이 보장됩니다.
AI 거버넌스 정책 영역 | AI 거버넌스 정책 권장 사항 |
---|---|
모델 선택 및 온보딩에 대한 정책 정의 | ▪ AI 모델을 선택하기 위한 정책을 설정합니다. 정책은 조직 값, 기능 및 비용 제약 조건을 충족하는 모델을 선택하기 위한 기준을 간략하게 설명해야 합니다. 잠재적인 모델에서 위험 허용 범위 및 의도한 작업 요구 사항과 일치하는지 검토합니다. ▪ 구조화된 정책을 사용하여 새 모델을 온보딩합니다. 모델 온보딩에 대한 공식적인 프로세스는 모델 근거, 유효성 검사 및 승인에서 일관성을 유지합니다. 초기 실험에 샌드박스 환경을 사용한 다음, 중복을 방지하기 위해 프로덕션 카탈로그에서 모델의 유효성을 검사하고 검토합니다. |
타사 도구 및 데이터 사용에 대한 정책 정의 | ▪ 타사 도구에 대한 컨트롤을 설정합니다. 타사 도구에 대한 심사 프로세스는 보안, 규정 준수 및 맞춤 위험으로부터 보호합니다. 정책에는 외부 데이터 세트를 사용하는 경우 데이터 개인 정보 보호, 보안 및 윤리적 표준에 대한 지침이 포함되어야 합니다. ▪ 데이터 민감도 표준을 정의합니다. 중요한 데이터와 공용 데이터를 별도로 유지하는 것은 AI 위험을 완화하는 데 필수적입니다. 데이터 처리 및 분리에 관한 정책을 만듭니다. ▪ 데이터 품질 표준을 정의합니다. "골든 데이터 세트"는 AI 모델 테스트 및 평가를 위한 신뢰할 수 있는 벤치마크를 제공합니다. 고성능 및 신뢰할 수 있는 출력을 보장하기 위해 데이터 일관성 및 품질에 대한 명확한 정책을 수립합니다. |
모델 유지 관리 및 모니터링에 대한 정책 정의 | ▪ 사용 사례별로 재학습 빈도를 지정합니다. 빈번한 재학습은 고위험 AI 워크로드에 대한 정확도를 지원합니다. 각 모델의 사용 사례 및 위험 수준, 특히 의료 및 재무와 같은 부문을 고려하는 지침을 정의합니다. ▪ 성능 저하를 모니터링합니다. 시간에 따른 모델 성능을 모니터링하면 결과에 영향을 미치기 전에 문제를 감지하는 데 도움이 됩니다. 벤치마크를 문서화하고 모델의 성능이 저하되는 경우 재학습 또는 검토 프로세스를 시작합니다. |
규정 준수에 대한 정책 정의 | ▪ 지역 법률 요구 사항을 준수합니다. 지역 법률을 이해하면 AI 운영이 여러 위치에서 준수 상태를 유지할 수 있습니다. 데이터 개인 정보 보호법, 윤리적 표준 및 산업 규정과 같은 각 배포 영역에 대한 적용 가능한 규정을 조사합니다. ▪ 지역별 정책을 개발합니다. 지역 고려 사항에 맞게 AI 정책을 조정하면 로컬 표준 준수를 지원합니다. 정책에는 언어 지원, 데이터 스토리지 프로토콜 및 문화권 적응이 포함될 수 있습니다. ▪ 지역적 가변성을 위해 AI를 조정합니다. AI 워크로드의 유연성을 통해 위치별 기능을 조정할 수 있습니다. 전역 작업의 경우 지역화된 학습 데이터 및 기능 제한과 같은 지역별 적응을 문서화합니다. |
사용자 행동에 대한 정책 정의 | ▪ 오용에 대한 위험 완화 전략을 정의합니다. 오용 방지 정책은 의도적이거나 의도하지 않은 피해로부터 보호하는 데 도움이 됩니다. 가능한 오용 시나리오를 간략하게 설명하고 제한된 기능 또는 오용 검색 기능과 같은 컨트롤을 통합합니다. ▪ 사용자 행동 지침을 설정합니다. 사용자 계약은 AI 워크로드와 상호 작용할 때 허용되는 동작을 명확히 하여 오용 위험을 줄입니다. 표준을 전달하고 책임 있는 AI 상호 작용을 지원하기 위한 명확한 사용 약관 초안을 작성합니다. |
AI 통합 및 교체에 대한 정책 정의 | ▪ 통합 정책을 간략하게 설명합니다. 통합 지침은 워크로드가 상호 작용하는 동안 AI 워크로드가 데이터 무결성 및 보안을 유지하도록 보장합니다. 기술 요구 사항, 데이터 공유 프로토콜 및 보안 조치를 지정합니다. ▪ 전환 및 교체를 계획합니다. 전환 정책은 이전 프로세스를 AI 워크로드로 대체할 때 구조를 제공합니다. 변경 내용 전체에서 레거시 프로세스, 교육 직원 및 모니터링 성능을 단계적으로 수행하기 위한 단계를 간략하게 설명합니다. |
AI 거버넌스 정책 적용
AI 거버넌스 정책을 적용하면 조직 내에서 일관되고 윤리적인 AI 사례가 보장됩니다. 자동화된 도구 및 수동 개입은 배포에서 정책 준수를 지원합니다. 적절한 적용은 규정 준수를 유지하고 사용자 오류를 최소화하는 데 도움이 됩니다.
가능한 경우 Azure Policy 및 Microsoft Purview와 같은 플랫폼을 사용하여 AI 배포에서 정책을 자동으로 적용하여 사용자 오류를 줄이는 정책 적용을 자동화합니다. 자동화가 정책 준수를 향상시킬 수 있는 영역을 정기적으로 평가합니다.
AI 정책을 수동으로 적용합니다. 직원들이 AI 거버넌스에서 자신의 역할을 이해할 수 있도록 AI 위험 및 규정 준수 교육을 제공합니다. 정기적인 워크샵은 AI 정책에 대한 직원을 업데이트하고, 주기적인 감사를 통해 준수를 모니터링하고 개선 영역을 식별할 수 있습니다.
워크로드별 거버넌스 지침을 사용합니다. 자세한 보안 지침은 Azure PaaS(플랫폼 서비스) 및 Azure IaaS(인프라)의 AI 워크로드에 사용할 수 있습니다. 이 지침을 사용하여 이러한 워크로드 유형 내에서 AI 모델, 리소스 및 데이터를 제어합니다.
AI 조직 위험 모니터링
AI 위험을 모니터링하면 조직에서 새로운 위험을 식별하고 신속하게 해결할 수 있습니다. 정기적으로 평가하면 AI 워크로드가 의도한 대로 작동합니다. 일관된 모니터링을 통해 조직은 진화하는 조건에 적응하고 AI 시스템의 부정적인 영향을 방지할 수 있습니다.
지속적인 위험 평가를 위한 절차를 수립합니다. AI의 광범위한 영향을 평가하기 위해 이해 관계자를 참여시켜 새로운 위험을 식별하도록 정기적인 검토를 설정합니다. 위험 재평가 및 필요한 조정을 허용하기 위해 발생하는 문제에 대한 응답 계획을 개발합니다.
측정 계획을 개발합니다. 명확한 측정 계획은 일관된 데이터 수집 및 분석을 보장합니다. 운영 메트릭에 대한 자동화된 로깅 및 정성적 피드백에 대한 설문 조사와 같은 데이터 수집 방법을 정의합니다. 측정 빈도 및 범위를 설정하고, 위험 수준이 높은 영역에 초점을 맞추고, 이해 관계자의 입력에 따라 위험 평가를 구체화하는 피드백 루프를 만듭니다.
AI 위험을 수량화하고 한정합니다. 워크로드의 목적에 맞는 정량적 메트릭(오류율, 정확도) 및 질적 지표(사용자 피드백, 윤리적 문제)를 선택합니다. 업계 표준에 대한 성능을 벤치마킹하여 AI의 영향, 신뢰성 및 성능을 추적합니다.
측정 결과를 문서화하고 보고합니다. 일반 설명서 및 보고서는 투명성과 책임을 향상시킵니다. 의사 결정을 안내하는 메트릭, 결과 및 변칙을 요약하는 표준화된 보고서를 만듭니다. 관련자와 이러한 인사이트를 공유하여 위험 완화 전략을 구체화하고 향후 배포를 개선합니다.
독립적인 검토 프로세스를 설정합니다. 정기적인 독립 검토는 외부 또는 미공개 내부 검토자를 사용하여 AI 위험 및 규정 준수에 대한 객관적인 평가를 제공합니다. 결과를 사용하여 위험 평가를 강화하고 거버넌스 정책을 구체화합니다.
다음 단계
AI 위험 완화 예제
다음 표에서는 몇 가지 일반적인 AI 위험을 나열하고 각 위험에 대한 완화 전략 및 샘플 정책을 제공합니다. 테이블에는 전체 위험 집합이 나열되지 않습니다.
위험 ID | AI 위험 | 완화 방법 | 정책 |
---|---|---|---|
R001 | 데이터 보호법 비준수 | Microsoft Purview 준수 관리자를 사용하여 데이터 준수를 평가합니다. | 모든 AI 개발 및 배포가 데이터 보호 법을 준수하도록 보안 개발 수명 주기를 구현해야 합니다. |
R005 | AI 의사 결정의 투명성 부족 | 표준화된 프레임워크 및 언어를 적용하여 AI 프로세스 및 의사 결정의 투명성을 향상시킵니다. | NIST AI Risk Management Framework를 채택해야 하며 모든 AI 모델의 투명성을 유지하기 위해 모든 AI 모델을 철저히 문서화해야 합니다. |
R006 | 부정확한 예측 | Azure API Management를 사용하여 AI 모델 메트릭을 추적하여 정확도와 안정성을 보장합니다. | AI 모델 예측이 정확한지 확인하려면 지속적인 성능 모니터링 및 사용자 피드백을 사용해야 합니다. |
R007 | 악의적 공격 | PyRIT를 사용하여 AI 워크로드에서 취약성을 테스트하고 방어를 강화합니다. | 보안 개발 수명 주기 및 AI 레드 팀 테스트는 악의적인 공격에 대한 AI 워크로드를 보호하는 데 사용해야 합니다. |
R008 | 내부자 위협 | Microsoft Entra ID를 사용하여 역할 및 그룹 멤버 자격을 기반으로 하는 엄격한 액세스 제어를 적용하여 중요한 데이터에 대한 내부자 액세스를 제한합니다. | 엄격한 ID 및 액세스 관리 및 지속적인 모니터링을 사용하여 내부자 위협을 완화해야 합니다. |
R009 | 예기치 않은 비용 | Microsoft Cost Management를 사용하여 CPU, GPU, 메모리 및 스토리지 사용량을 추적하여 효율적인 리소스 사용률을 보장하고 비용 급증을 방지합니다. | 리소스 사용량의 모니터링 및 최적화 및 비용 초과의 자동 검색을 사용하여 예기치 않은 비용을 관리해야 합니다. |
R010 | AI 리소스 사용 미달 | 요청 속도 및 응답 시간과 같은 AI 서비스 메트릭을 모니터링하여 사용량을 최적화합니다. | AI 리소스 사용률을 최적화하려면 성능 메트릭과 자동화된 확장성을 사용해야 합니다. |