政府《生成式 AI 應用指引》列明四層風險

Eric Chong
Eric Chong
商業・科技・創業・編輯

特區政府數字政策辦公室日前發表《香港生成式人工智能技術及應用指引》,建議本港使用生成式AI的道德框架。《指引》列明開發人員、服務供應者和用戶的相關責任。其中詳細分出四層風險分類系統,當中的不可接受風險類別要全面禁止,開發和部署需承擔法律責任。

《指引》由數字辦委託香港生成式人工智能研發中心(HKGAI)研究和建議。目標在於平衡人工智能的創新發展、應用與責任,為人工智能生態圈中各相關人士建立符合香港情況、具本地特色的治理框架。

《指引》列明的四層風險,分別:

1)不可接受風險:對社會構成生存性威脅的系統,如危害和影響市民安全的用途、潛意識操控。應全面禁止,涉及開發或部署需承擔法律責任。

2)高風險:關鍵性基礎設施系統,如醫療診斷系統、自動駕駛技術。必須接受合規評估,亦必須設有人類介入的監督機制,實時監測和持續監控。

3)有限風險:帶來中等社會影響的系統,如招聘人才系統、教育人工智能應。應履行資訊透明的責任,提供用戶選擇退出的機制,也要每年定期作合規審計。

4)低風險:例如垃圾郵件過濾系統、創意設計工具。企業應自我認證。

常見的生成式 AI 種類

生成式 AI 由模型驅動,生命周期分四個階段,《指引》列出各階段的潛在風險。

1)規劃與獲取數據:風險涉及有害資料、數據偏見、個人資料私隱、知識產權。

2)開發模型:涉及技術風險、知識產權風險。

3)部署與整合:系統整合安全漏洞風險、許可權控制。

4)使用與維護:主要風險有內容安全、資料洩露、版權、可信等。

生成式 AI 的 4 個生命周期階段

《指引》定出治理生成式 AI 的五項原則:

1)遵守法例

2)安全透明

3)準確可靠

4)公平客觀

5)實用高效

指引除了提供不同 AI 應用需要注意的資訊安全風險,更加有講及不同領域 的生成式 Ai 應用分類。如果你想了解比較全面的 AI 生成基本知識,話也是一個不錯的入門讀本。

香港生成式人工智能技術及應用指引》PDF 下載

您會感興趣的內容

相關文章