準備負責任 AI 的影響

已完成

AI 是我們時代的關鍵性技術。 它已經在人類努力的幾乎每個領域實現了更快、更深刻的進步,並幫助解決了一些最艱巨的社會挑戰。 例如,AI 可以藉由為影像產生描述性文字,協助視覺障礙人士瞭解影像。 在另一個範例中,AI 可協助農夫為成長的全球人口生產足夠的食物。

在 Microsoft,我們相信 AI 運算智慧應用於增強人們與生俱來的創意和獨創性。 我們的 AI 願景是要讓每位開發人員能夠創新、讓組織能夠進行產業轉型,以及讓人們能夠進行社會轉型。

AI 的社會意涵

如同過去所有絕佳的技術創新,使用 AI 技術已對社會帶來廣泛的影響,並對於我們想要看見的未來提出複雜且具挑戰性的問題。 AI 已影響跨產業的決策、資料安全性和隱私權,以及人們在工作場所中成功所需的技能。 由於我們指望這個未來,我們必須自問:

  • 如何設計、建置及使用 AI 系統,對個人和社會造成正面的影響?
  • 如何讓工作者充分準備好面對 AI 的影響?
  • 如何獲得 AI 的優點,同時又尊重隱私權?

負責任 AI 方法的重要性

務必認清當新的智能技術興起並擴散於整個社會時,伴隨其優點帶來非預期且預料之外的後果。 其中有些會產生重大的倫理影響,並且可能造成嚴重的傷害。 儘管組織仍無法預測未來,但我們有責任齊心協力來對於我們透過審慎規劃和持續監督才在世界上釋出的技術,預測並減輕其非預期的後果。

威脅

AI 技術中的每個突破都會對共同責任帶來新的提醒。 例如,在 2016 年,Microsoft 在 X 上發行名為 Tay 的聊天機器人,可從與 X 使用者的互動中學習。 目標是讓聊天機器人能夠更妥善地覆寫人類通訊和性格特性。 然而,在 24 小時內,使用者意識到聊天機器人可以從偏執的言辭中學習,並將聊天機器人變成了仇恨言論的載體。 此體驗是為什麼設計 AI 系統時必須考慮人為威脅的其中一個範例。

新式威脅需要在負責任 AI 的方法中持續演進。 例如,由於生成式人工智慧使人們能夠創作或編輯影片、影像或音訊檔案,使其看起來非常可信,因此媒體的真實性更難驗證。 作為回應,Microsoft 正在與其他技術和新聞利益相關者合作,制定技術標準,以解決與深度造假相關的操縱問題。

注意

為了準備可能會影響學習資料集的新攻擊類型,Microsoft 開發了進階內容篩選器等技術,並引進了具有自動學習功能的 AI 系統主管。 目前產生的 AI 模型 (例如 Azure AI 服務或 Bing 聊天中提供的模型),是以這些深入解析為基礎。

偏差的結果

組織應該謹記在心的另一種非預期後果,就是未經審慎規劃和設計的 AI 可能會加劇社會或其他偏差。 開發人員務必了解偏差如何引進到訓練資料或機器學習服務模型。 此問題在預先建置的模型中可能十分普遍,因為使用者可能無法自行處理訓練資料。

例如,假設有個大型金融貸款機構,它希望開發一個用於貸款批准的風險評分系統。 當工程師在部署之前測試系統時,他們發現它只會核准男性借貸者的貸款。 由於系統已針對過去客戶的資料進行訓練,因此會重現貸款者的歷史性別偏差。 在部署之前驗證系統,可讓我們在系統啟動之前識別並解決問題。

注意

在 Microsoft,我們的研究人員正在探索可於 AI 系統內用來偵測及降低偏差的工具和技術。 預先建置的模型會徹底驗證,但仍應該明智地使用,而且應該一律稽核其結果,再採取動作。

敏感性使用案例

我們負責減輕非預期後果的另一個實例,就利用臉部辨識之類的敏感性技術。 最近,臉部辨識技術的需求與日俱增,尤其是執法組織,他們發現將此技術用於尋找失蹤兒童之類案例的潛力。 不過,我們瞭解這些技術可能會讓基本自由面臨風險。 例如,他們可以持續監視特定個人。 我們相信,社會有責任針對這些技術的使用立下適當的界限,包括確保政府使用臉部辨識技術仍受法律約束。

雖然必須制定新的法律法規,但它們不能取代我們在使用 AI 時所承擔的責任。 藉由合作,企業、政府、GPO 和學術研究人員都可以解決敏感性使用案例。

注意

Microsoft 會評估並開發原則,以控管我們的臉部辨識技術。 我們預期當我們持續學習並與客戶、其他科技公司、學術機構、公民社會及其他人士合作來處理此問題時,這些準則將會隨著時間演變。 Microsoft 會使用負責任的 AI 做法來偵測、預防及減輕這些問題,但任何與 AI 相關的專案也應該考慮這些事項。

接下來,讓我們看看如何在其他組織中套用 Microsoft 對於負責任 AI 的六個指導準則。