識別負責任 AI 的指導準則

已完成

在上一個單元中,我們討論了 AI 的一些社會意涵。 我們談及了企業、政府、NGO 及學術研究人員者對於預測並減輕 AI 技術非預期後果的責任。 隨著組織開始考慮這些責任,越來越多組織建立了內部原則和做法來引導其 AI 作業。

在 Microsoft,我們已找出六個我們相信應該引導 AI 開發及使用的準則:公平性、可靠性和安全性、隱私權與安全性、包容性、透明度,以及權責。 對我們而言,這些原則是負責且值得信賴的 AI 方法的基石,尤其當我們每天使用的產品和服務越來越普及使用智慧技術時。

公平性

代表公平性的圖示。

AI 系統應公平地對待每個人,避免以不同的方式影響處境相似的群體。 例如,當 AI 系統提供醫療處置、貸款申請或雇用的指引時,應該對具有類似症狀、財務情況或專業資格的每個人提供相同的建議。

為了確保 AI 系統中的公平性,您應該:

  • 藉由提出下列問題來了解 AI 系統的範圍、精神和可能用法,例如;方式的預計運作方式? 系統的設計對象是誰? 系統對每個人的作用都一樣嗎? 如何會如何傷害其他人?
  • 吸引不同的人才。 確保設計團隊會藉由納入具有不同背景、經驗、教育及觀點的團隊成員,反映出我們所生活的世界。
  • 評估資料出處、了解其組織方式,以及進行測試來確保其代表性,藉以 找出資料集中的偏差。 在建立的每個階段 (從收集到模型化以至操作),都可能引進偏差。 [資源] 區段中提供的負責任 AI 儀表板包含可協助這項工作的功能。
  • 透過套用可改善模型透明度和可理解性的工具和技術,找出機器學習演算法中的偏差。 使用者應該主動識別並移除機器學習演算法中的偏差。
  • 運用人為審查和各領域專家。 訓練員工,使其了解 AI 結果的意義和意涵,尤其是在 AI 用來通知有關人員的後續決策時。 使用 AI 做出的決策應一律與人工審查搭配執行。 在設計流程和部署決策中包含相關的主題專家。 舉例而言,針對信用評分 AI 系統,包含消費者信用主題專家。 您應該使用 AI 作為 Copilot,即可協助您更快速地執行工作的輔助工具,但需要某種程度的監督。
  • 研究並採用來自其他機構和企業的最佳做法、分析技術和工具,協助偵測、預防及解決 AI 系統中的偏差。

可靠性和安全性

代表可靠性的圖示。

若要建立起信任,在正常情況和非預期的狀況下,AI 系統必須以可靠、安全且一致的方式運作。 這些系統應該要能夠依照其原先的設計運作、安全地回應非預期的狀況,以及反抗有害的操作。 此外,必須要能夠確認這些系統在實際操作的情況下,會如預期般運作。 它們的行為方式,以及它們能夠可靠又安全處理的各種狀況,多半會反映開發人員在設計和測試期間所預期的各種狀況與情況。

為了確保 AI 系統中的可靠性與安全性,您應該:

  • 開發用於稽核 AI 系統的程序,以評估資料和模型的品質和合適性、持續監視效能,並根據所建立的效能量值來確認系統如預期般運作。
  • 提供系統運作的詳細說明,包括設計規格、訓練資料相關資訊、所發生的訓練失敗和訓練資料可能的不足之處,以及所產生的推斷和重大預測。
  • 針對非預期情況設計,例如意外系統互動、惡意資料的引進或網路攻擊。
  • 讓領域專家參與設計和實作流程,特別是在使用 AI 協助進行人員相關的後續決策時。
  • 在 AI 系統開發和部署期間進行嚴格的測試,確保系統可以安全地回應非預期的情況、不會發生未預期的效能失敗,而且不會以非預期的方式發展。 如果 AI 系統涉及影響人類安全性或大量人口的高風險情節,則應該在實驗室和真實情節中進行測試。
  • 評估對於有影響力的決策或在重大情況期間,AI 系統應該何時及如何尋求人為輸入。 考慮 AI 系統應該如何以有意義且明瞭的方式將控制權移轉給人類。 設定 AI 系統,確保人們對於高度影響力的決策具備所需的輸入層級。
  • 開發穩健的意見反應機制以便使用者回報效能問題,便您能快速地解決問題。

隱私權與安全性

代表隱私權的圖示。

隨著 AI 越來越普及,保護隱私權和保護個人和公司重要資訊變得更加重要和複雜。 使用 AI 時,需要特別密切注意隱私權和資料安全性問題,因為 AI 系統在進行精確且有根據的人員相關預測與決策時,一定要存取資料。

為了確保 AI 系統中的隱私權和安全性,您應該:

  • 藉由將資源投注於開發合規性技術和流程,或在 AI 系統開發期間與技術領導者合作,進而遵循相關資料保護、隱私權和透明度法律。 開發一些流程,持續檢查 AI 系統是否滿足這些法律的個個層面。
  • 設計 AI 系統以維護個人資料的完整性,使其在必要的期間內或針對所定義的目的,只能使用與客戶共用的個人資料。 刪除不小心收集到的個人資料或與所定義目的不再相關的資料。
  • 根據安全開發和運作基礎來設計 AI 系統、使用以角色為基礎的存取,並保護傳送給第三方的個人和機密資料,藉此協助 AI 系統抵禦不良的行為者。 將 AI 系統設計為可找出異常行為,以及防止操作和惡意攻擊。
  • 設計具有適當控制的 AI 系統,讓客戶可以選擇如何和為何要收集及使用其資料。
  • 藉由考慮系統如何從資料中移除個人識別,以確保您的 AI 系統維持匿名性
  • 檢閱隱私權和安全性適用於所有的 AI 系統。
  • 研究並實作業界最佳做法,以便追蹤客戶資料的相關資訊、存取和使用該資料,以及稽核存取和用途。

包容性

代表包容性的圖示。

在 Microsoft,我們堅信每個人都應該受惠於智能技術,這表示智能技術必須納入並解決各種人類需求和體驗。 對於世界各地 1 億個身障人士而言,AI 技術可以是改變遊戲規則的事物。 AI 可改善教育、政府服務、聘雇、資訊及各種其他機會的取得。 智慧型解決方案 (例如即時語音轉換文字的謄寫、影像辨識服務,以及預測文字功能) 已經讓具有聽覺、視覺或其他障礙的人變強大。

Microsoft 包容性設計原則:

  • 辨識排斥
  • 從解決一人的問題延伸到解決許多人的問題
  • 從多元性中學習

為了確保 AI 系統中的包容性,您應該:

  • 遵守規定可存取技術採購的協助工具與包容性相關法律
  • 使用包容性 101 指南 (可在本課程模組的資源一節中取得),協助系統開發人員了解並解決產品環境中可能不小心排除人員的潛在阻礙。
  • 讓身障人士測試您的系統,可協助您找出最廣大的可能對象是否可以如預期般使用系統。
  • 考慮常用的協助工具標準,協助確保所有身心狀態的人們都可以存取您的系統。

透明

代表透明度的圖示。

以先前的值作為基礎是確保其餘項目有效性不可或缺的兩個基本原則:透明度和權責。 人們必須瞭解 AI 系統在用來通知對人們生活產生影響的決策時,AI 系統如何做出結論。 例如,銀行可能會使用 AI 系統來判斷某個人是否信用可靠,或者公司可能會使用 AI 系統來決定所要僱用的最合格候選人。

透明度的重要部分就是我們所謂的可理解性,或 AI 系統及其元件的實用行為說明。 若要改善可理解性,利害關係人必須理解其運作方式和用途,才能識別潛在的效能問題、安全性和隱私問題、偏差、排斥性行為或非預期的結果。 我們也相信,使用 AI 系統的人應坦率且樂於提供他們選擇部署這類該系統的時機、原因及方式。

為了確保 AI 系統中的透明度,您應該:

  • 共用資料集的主要特性,可協助開發人員了解特定資料集是否適用於其使用案例。
  • 透過套用更簡單的模型,並產生模型行為的清晰說明,藉以改善模型可理解性。 針對這項工作,您可以使用 [負責任 AI 儀表板],這可在 [資源] 區段取得。
  • 訓練員工解譯 AI 輸出的方式,並確保他們對於根據結果進行後續決策負起責任。

當責

代表責任的圖示。

AI 系統的設計和部署人員必須對其系統的運作方式負責。 組織應該利用業界標準來開發權責規範。 對於任何會影響人們生活的決策,這些規範可確保 AI 系統不會是這些決策的最終授權者,並使人類能對這些具高度自發性的 AI 系統維持有意義的控制。

為了確保 AI 系統中的權責,您應該:

  • 設立內部審查委員會,可就負責任的 AI 系統開發和部署提供監督和指引。 他們也可以協助進行工作,例如在開發期間定義記錄和測試 AI 系統的最佳做法,或提供敏感性案例的指引。
  • 確保員工都受過訓練,以負責且合乎倫理的態度使用及維護解決方案,並了解您的方案何時可能需要額外的技術支援。
  • 讓具備必要專業知識的人們可得到最新資訊,其做法是向他們回報並且讓他們參與模型執行相關決策。 如果需要自動化決策,請確保他們能夠檢查、識別及解決模型輸出與執行挑戰。
  • 備妥明確的權責和控管系統,如果發現模型以不公平或可能有害的方式表現,即可進行補救或更正活動。

我們承認每個人、公司和區域都有自己的信念及標準,而這些都應該反映在其 AI 旅程中。 當您考慮開發自己的引導準則時,我們也希望能與您分享我們的觀點。

提示

請花點時間為每個負責任的 AI 準則集思其他範例。
照片顯示圍著桌子工作和交談的人。

這些原則提供開發及使用 AI 時應該執行的一般概念。 不過,它們必須反映在更實際的層級上。 接下來,讓我們探索如何使用 AI 控管系統來確保這些原則。