- 廣告 -
OpenClaw 熱潮未減,甚至讓 AI 代理進入執行力的新境界。然而,背後隱藏資訊安全隱憂。思科在今年 1 月已發出相關警告,最新推出開源工具 Skill Scanner,上載 Github 開源,為企業檢驗 OpenClaw 的 Skill 是否安全。
思科指出,像 OpenClaw 的 AI 代理框架,雖然功能強大,但本質上卻是雙面刃。由於這些代理具備自主行動能力,若遭受惡意攻擊或被植入有害指令,極有可能在用戶不知情下,存取敏感檔案、執行惡意程式,甚至滲透企業內部網絡。對於企業網絡安全而言,這種「黑盒」式運作實是噩夢,需監測 AI 到底擁有多大的權限與能力。


Skill Scanner:為 AI 建立「能力清單」
為應付這風險,思科 AI 防護團隊在 GitHub 上載開源工具 Skill Scanner。核心理念是「透明度」與「可控性」,能自動掃描並分析 AI 代理的技能(Skills),具體定義該代理具備哪些操作權限。
- 廣告 -

簡單來說,Skill Scanner 像是 AI 代理的「體檢表」,開發人員或安全團隊可以藉此了解該 AI 能夠存取哪些系統資源、能夠執行哪些功能。這有助於在部署 AI 代理之前,先行識別並修補潛在的權限濫用漏洞,讓 AI 的行為符合安全規範。

不過,思科還是強調 Skill Scanner 的先天不足:
- 「無發現」不代表「無風險」:掃描結果顯示無發現,並不保證該技能是絕對安全、良性或無漏洞,僅表示工具未檢測到已知威脅模式,開發人員切勿視為安全認證。
- 檢測覆蓋範圍不完整:雖然該工具結合特徵比對(YARA)、LLM 語義分析及行為數據流分析,但沒有任何自動化工具能涵蓋所有攻擊技術。
- 存在誤報與漏報:無論是基於規則的比對還是基於 LLM 的分析,誤報與漏報始終無法完全避免。
- 無法取代人工審查:Skill Scanner 僅是深度防禦策略的一部分。對於高風險或生產環境的部署,必須配合人手審查程式碼或威脅建模(Threat modeling)才能確保安全。
- 依賴特定配置與參數:該工具的效能依賴掃描策略(Scan policy)的設定。若配置過於寬鬆或對風險容忍度設定不當,將直接影響檢測結果的有效性,使用者需根據自身承受風險能力作調校。
延伸閱讀
- 廣告 -



