首頁 新聞 社交網絡 保護青少年免受性侵威脅 Instagram 測試自動蒙糊訊息內裸露照片

保護青少年免受性侵威脅 Instagram 測試自動蒙糊訊息內裸露照片

保護青少年免受性侵威脅 Instagram 自動蒙糊訊息內裸露照片

青少年在社交平台受到騙徒威脅傳送裸露照片的新聞時有所聞,為了進一步保障未成年人士免受威脅,Meta 宣布在 Instagram 內展開自動蒙糊訊息 (DM) 中的裸露照片測試。

青少年用戶在發送含裸露成分的照片前,除了會蒙糊照片之外,也會提示用戶要小心。

這個預設針對 18 歲以下青少年的功能不單會在收到懷疑是裸露照片的訊息時,自動將照片蒙糊化,即使用戶自己發送裸露照片也會被蒙糊。而成年用戶也會收到提示,可以選擇開啟這個功能。

青少年接收到別人傳送過來,可能含有裸露成分的照片時,也會自動被蒙糊。

當用戶應對方要求,想發送裸露照片時,系統會先蒙糊照片,同時顯示「相片可能含有裸露成分」的訊息,還會彈出警告提示,提醒用戶分享敏感照片時要小心,同時提示用戶不要對不回覆對方感到壓力,並會顯示封鎖對方的方法。

系統會提示青少年不要對不回應這類感到不安的訊息感到有壓力。

除此之外,Meta 還會事先找出可能會對其他用戶進行性恐嚇的帳戶,避免青少年與這些帳戶有接觸,又向可能受到恐嚇的用戶提供求助資訊。

Meta 表示,由於檢測裸露照片是在用戶的裝置上進行,除非用戶舉報,否則 Meta 也不會看到那些照片內容的。

最新影片

Exit mobile version