“養(yǎng)蝦先剪腳” 多方發(fā)力布局智能體安全
關(guān)鍵詞: AI智能體 安全 OpenClaw 漏洞 安全防護(hù) 監(jiān)管
??智能體“龍蝦”(OpenClaw)高危漏洞集中暴露、技能包投毒攻擊活躍……近期,AI智能體安全引發(fā)全行業(yè)高度關(guān)注。多位人工智能行業(yè)專家與安全業(yè)界人士表示,“養(yǎng)蝦須先剪腳”,防患于未然,已成為推動AI產(chǎn)業(yè)健康有序發(fā)展的關(guān)鍵,政府、行業(yè)、企業(yè)等多方力量已同步發(fā)力,展開對智能體安全全方位布局。
??根據(jù)國家信息安全漏洞庫(CNNVD)統(tǒng)計,4月14日至28日共采集OpenClaw漏洞111個,其中超危漏洞2個、高危漏洞38個,包含了訪問控制錯誤、代碼問題、路徑遍歷等多個漏洞類型。此前,OpenClaw已因多項(xiàng)高中危安全漏洞被國家互聯(lián)網(wǎng)應(yīng)急中心、工信部網(wǎng)絡(luò)安全威脅和漏洞信息共享平臺連續(xù)發(fā)布風(fēng)險預(yù)警;國家計算機(jī)病毒應(yīng)急處理中心也監(jiān)測到大量內(nèi)含木馬病毒的仿冒“龍蝦”技能包,給用戶數(shù)據(jù)安全和系統(tǒng)穩(wěn)定帶來嚴(yán)重隱患。
??智能體的安全風(fēng)險已成為全球行業(yè)共識。OWASP基金會此前發(fā)布的《智能體應(yīng)用十大安全威脅》將智能體目標(biāo)劫持、工具濫用等列為核心威脅;機(jī)構(gòu)Gartner在《應(yīng)用安全策略2026》中更是預(yù)測,到2028年,25%的企業(yè)數(shù)據(jù)泄露事件將可追溯至智能體濫用,涉及外部攻擊者的惡意滲透和內(nèi)部人員的違規(guī)操作。
??“OpenClaw這類智能體,未來有望成為新一代操作系統(tǒng)。”亞信聯(lián)合創(chuàng)始人田溯寧表示,企業(yè)核心資產(chǎn)正從傳統(tǒng)的人員、軟件、代碼,逐步轉(zhuǎn)向數(shù)據(jù)、智能體及相關(guān)技能,“未來企業(yè)的核心資產(chǎn)大多存儲在電腦和服務(wù)器中,這些資產(chǎn)的歸屬權(quán)與安全防護(hù),已成為亟待解決的重要課題。”
??面對智能體的安全痛點(diǎn),不同領(lǐng)域企業(yè)紛紛發(fā)力,構(gòu)建起多元化安全防護(hù)體系。涂鴉智能CSO劉龍威透露,涂鴉智能已為全員配備基于OpenClaw改造的“數(shù)字員工”,去年公司70%的代碼由AI完成撰寫。但他也坦言,企業(yè)面臨的安全壓力也隨之劇增。為此,涂鴉智能構(gòu)建了六道安全防線,包括系統(tǒng)加固、安全管理流程、身份安全、運(yùn)行時檢測、供應(yīng)鏈安全、自動化安檢等。
??“切勿讓員工在企業(yè)工作環(huán)境中‘散養(yǎng)蝦’,這難以管控安全風(fēng)險和數(shù)據(jù)泄露隱患。”阿里云運(yùn)營商行業(yè)線首席架構(gòu)師梁洪偉建議,企業(yè)應(yīng)采用彈性云端部署模式,并遵循三大行動準(zhǔn)則:堅(jiān)持安全合規(guī)先行,嚴(yán)格落實(shí)最小權(quán)限原則;優(yōu)先試點(diǎn)個人場景,鼓勵內(nèi)部創(chuàng)新探索;推動生態(tài)共建共享,聯(lián)合合作伙伴打造安全可控的工具市場。
??安全廠商也積極發(fā)揮技術(shù)優(yōu)勢,助力AI智能體安全防護(hù)。面對AI智能體頻繁出現(xiàn)的“幻覺”越權(quán)與權(quán)限失控難題,亞信安全智能體安全專家焦正新指出,智能體風(fēng)險的根源在于其“智能涌現(xiàn)”的同時帶來原生不確定性,這導(dǎo)致了身份體系和授權(quán)平面的崩塌。他表示,為此亞信安全推出了智能體信任框架ATF,將“智能體意圖對齊+人機(jī)共治”的理念融入安全治理。“企業(yè)不能沿用‘一次認(rèn)證,永久信任’的舊模式,而是要將智能體作為‘?dāng)?shù)字員工’進(jìn)行全生命周期管理,遵循‘權(quán)柄代持、意圖對齊’原則。”從而將隨機(jī)性引發(fā)的風(fēng)險置于可控范圍,在釋放AI生產(chǎn)力的同時守住合規(guī)底線。
??在企業(yè)積極探索實(shí)踐的同時,政府監(jiān)管與行業(yè)標(biāo)準(zhǔn)也在加速完善,為智能體安全保駕護(hù)航。今年4月,國家網(wǎng)信辦等五部門聯(lián)合公布《人工智能擬人化互動服務(wù)管理暫行辦法》,明確對人工智能服務(wù)實(shí)行包容審慎、分類分級監(jiān)管,提出安全評估、算法備案、推動人工智能沙箱安全服務(wù)平臺建設(shè)等制度,這也是我國首次在人工智能專門立法層面,明確提出“人工智能沙箱”治理理念。與此同時,工信部等十部門聯(lián)合印發(fā)《人工智能科技倫理審查與服務(wù)辦法(試行)》,將科技倫理審查程序規(guī)范化,明確要求保障模型系統(tǒng)的魯棒性、可控可信、透明可解釋及責(zé)任可追溯。
??行業(yè)標(biāo)準(zhǔn)建設(shè)方面,人工智能安全標(biāo)準(zhǔn)體系正加速構(gòu)建。今年3月,工信部公開征求《人工智能安全治理模型上下文協(xié)議應(yīng)用安全要求》等行業(yè)標(biāo)準(zhǔn)意見;4月,全國網(wǎng)絡(luò)安全標(biāo)準(zhǔn)化技術(shù)委員會下設(shè)的人工智能安全標(biāo)準(zhǔn)工作組明確表示,將重點(diǎn)推動《網(wǎng)絡(luò)安全技術(shù) 人工智能安全能力成熟度評估方法》《網(wǎng)絡(luò)安全技術(shù) 人工智能應(yīng)用安全分類分級方法》等核心標(biāo)準(zhǔn)的制定與落地,為行業(yè)安全發(fā)展劃定清晰邊界。
??“養(yǎng)蝦先剪腳,關(guān)起籠子再上崗。”一位業(yè)內(nèi)人士形象地概括AI智能體的安全發(fā)展路徑:先為智能體賦予最小權(quán)限,通過網(wǎng)絡(luò)隔離、沙箱限制、合法身份認(rèn)證等方式筑牢安全防線,當(dāng)前優(yōu)先做好“蝦片/蝦餅”式的能力裁剪,待安全體系成熟后,再逐步放開其功能權(quán)限,實(shí)現(xiàn)安全與效率的雙向提升。(記者 吳蔚)