特區政府數字政策辦公室日前發表《香港生成式人工智能技術及應用指引》,建議本港使用生成式AI的道德框架。《指引》列明開發人員、服務供應者和用戶的相關責任。其中詳細分出四層風險分類系統,當中的不可接受風險類別要全面禁止,開發和部署需承擔法律責任。
《指引》由數字辦委託香港生成式人工智能研發中心(HKGAI)研究和建議。目標在於平衡人工智能的創新發展、應用與責任,為人工智能生態圈中各相關人士建立符合香港情況、具本地特色的治理框架。
《指引》列明的四層風險,分別:
1)不可接受風險:對社會構成生存性威脅的系統,如危害和影響市民安全的用途、潛意識操控。應全面禁止,涉及開發或部署需承擔法律責任。
2)高風險:關鍵性基礎設施系統,如醫療診斷系統、自動駕駛技術。必須接受合規評估,亦必須設有人類介入的監督機制,實時監測和持續監控。
3)有限風險:帶來中等社會影響的系統,如招聘人才系統、教育人工智能應。應履行資訊透明的責任,提供用戶選擇退出的機制,也要每年定期作合規審計。
4)低風險:例如垃圾郵件過濾系統、創意設計工具。企業應自我認證。

生成式 AI 由模型驅動,生命周期分四個階段,《指引》列出各階段的潛在風險。
1)規劃與獲取數據:風險涉及有害資料、數據偏見、個人資料私隱、知識產權。
2)開發模型:涉及技術風險、知識產權風險。
3)部署與整合:系統整合安全漏洞風險、許可權控制。
4)使用與維護:主要風險有內容安全、資料洩露、版權、可信等。

《指引》定出治理生成式 AI 的五項原則:
1)遵守法例
2)安全透明
3)準確可靠
4)公平客觀
5)實用高效
指引除了提供不同 AI 應用需要注意的資訊安全風險,更加有講及不同領域 的生成式 Ai 應用分類。如果你想了解比較全面的 AI 生成基本知識,話也是一個不錯的入門讀本。