更多

    CSAM

    iOS/iPadOS 15 自動檢測兒童性侵照片  Apple 新功能惹全球審查爭議

    Apple 上星期公布一項保護兒童性侵犯的新計劃,計劃自動檢測用戶透過 Message 傳送的信息、儲存在 iCloud 上的照片和透過 Siri 進行的搜尋,如果被判斷為「兒童性虐待材料( CSAM )」的話,會發出警告,甚至會向保護兒童組織和有關當局舉報。不過計劃一出即引來爭議,有人認為這功能最終有可能被極權國家用作緝捕政治犯。而 Apple 就急急作出澄清解話。

    用 AI 保護兒童 Google 開放性侵兒童圖像檢測 API

    香港早已立例禁止在網上散布性侵犯兒童的內容,而以機械學習技術而知名的 Google 也有在這一方面出力。昨日公布推出一個針對兒童性侵犯內容的檢測 API ,民間組織、 NGO 等都可以申請使用。

    最新文章

    【場料】HUAWEI Mate 50 RS 高開兩萬三起

    近期水貨市場除了有 Mate 50 Pro 外,還有與保時捷合作推出的 Mate 50 RS,而水貨都同樣到港。並有陶瓷黑及陶瓷紫兩色,首批叫價分別為 $25,000(黑色)及 $23,800(紫色)。