美國政府與科技巨頭達成協(xié)議:前沿AI模型發(fā)布前須經(jīng)國家安全審查
關(guān)鍵詞: AI模型 美國政府 審查協(xié)議 安全風(fēng)險 預(yù)審查機制
當(dāng)?shù)貢r間5月5日,美國商務(wù)部下屬的人工智能標準與創(chuàng)新中心(CAISI)宣布,已與谷歌DeepMind、微軟以及埃隆·馬斯克旗下的xAI達成協(xié)議,這三家科技巨頭將在新一代人工智能模型正式公開發(fā)布前,提前向美國政府開放模型權(quán)限,以便開展國家安全風(fēng)險審查。
根據(jù)CAISI發(fā)布的聲明,新協(xié)議允許該中心在人工智能模型投入應(yīng)用前開展評估,并通過專項研究研判模型能力及潛在安全風(fēng)險。協(xié)議核心條款要求實驗室在模型公開發(fā)布前,向CAISI開放完整版本,部分測試對象甚至是尚未命名的內(nèi)部迭代版本。

CAISI主任克里斯·福爾在聲明中明確表示:“獨立且嚴謹?shù)臏y量科學(xué)對于理解前沿人工智能及其國家安全影響至關(guān)重要。”他進一步指出,“這些擴大的行業(yè)合作幫助我們在關(guān)鍵時刻擴大公共利益方面的工作。”
值得注意的是,此次合作舉措是在2024年拜登政府與OpenAI、Anthropic達成相關(guān)協(xié)議的基礎(chǔ)上進一步擴展而來。加上此次新簽約的三家公司,美國五大主流AI實驗室——OpenAI、Anthropic、谷歌DeepMind、微軟和xAI——已全部納入同一套預(yù)發(fā)布審查框架。
作為美國政府人工智能模型測試的核心機構(gòu),CAISI透露目前已完成40余次模型評估,其中涵蓋多款尚未向公眾開放的尖端AI模型。測試場景不僅包括常規(guī)版本,也包括實驗室主動提供的“減配安全護欄”版本——目的是探測模型在約束松動時的行為邊界。
該機構(gòu)表示,人工智能企業(yè)開發(fā)者常會提交移除安全防護機制的模型版本,供該中心深入排查國家安全層面的潛在風(fēng)險。部分測試甚至轉(zhuǎn)入機密環(huán)境進行,以確保評估的全面性和安全性。
微軟方面表示,公司將與美國政府科學(xué)家合作,以更深入的測試方式觀察AI系統(tǒng)在極端情境下是否出現(xiàn)預(yù)期外行為,雙方也將共同建立測試數(shù)據(jù)集與驗證流程,強化模型安全性。微軟先前也曾與英國AI安全研究機構(gòu)簽署類似合作協(xié)議。
據(jù)CNBC報道,除CAISI周二的聲明外,白宮一直在考慮成立一個新的AI工作組,該工作組將探索潛在的監(jiān)督程序,包括在模型向公眾發(fā)布之前對其進行審查的計劃。一位知情人士透露,該工作組將匯聚多位科技公司高管和政府官員,由于細節(jié)屬于機密,該人士要求匿名。該工作組可能會通過行政命令成立。
不過,白宮表示,有關(guān)可能發(fā)布的行政命令的討論純屬猜測,任何政策聲明都將直接來自唐納德·特朗普總統(tǒng)。這一安排也兌現(xiàn)了特朗普政府于2025年7月提出的與科技企業(yè)合作審查AI“國家安全風(fēng)險”的政策承諾。
近期,美國政府對高階AI模型可能帶來的安全威脅明顯升溫,尤其Anthropic日前推出新一代AI模型“Mythos”后,其大幅提升黑客攻擊與自動化滲透能力,引發(fā)美國政府與企業(yè)界高度關(guān)注。
近幾周,包括Anthropic公司Mythos在內(nèi)的先進人工智能系統(tǒng)研發(fā)成果在全球引發(fā)熱議,美國政府官員及美國企業(yè)界普遍擔(dān)憂,這類模型會極大助長黑客的攻擊能力。據(jù)Anthropic公司稱,Mythos擅長識別軟件中的弱點和安全漏洞,因此該公司決定將其推廣范圍限制在部分公司,作為一項名為“Glasswing項目”的新網(wǎng)絡(luò)安全計劃的一部分。
Anthropic公司首席執(zhí)行官達里奧·阿莫迪在Mythos項目宣布啟動幾天后,便在白宮與特朗普政府高級官員會面,討論了該項目。
值得一提的是,此前美國國防部已將Anthropic公司列為供應(yīng)鏈風(fēng)險企業(yè)。美國國防部上周宣布,已與七家人工智能企業(yè)達成合作協(xié)議,將這些企業(yè)的先進AI技術(shù)部署至國防部涉密網(wǎng)絡(luò),意在擴充服務(wù)軍方的人工智能服務(wù)商隊伍。然而,此次國防部合作名單并未納入Anthropic公司。該公司正因軍方對其AI工具的使用權(quán)限與安全約束問題,和美國國防部陷入糾紛。
CAISI表示,這些協(xié)議支持信息共享,推動自愿產(chǎn)品改進,并確保政府對人工智能能力和國際人工智能競爭狀況的清晰理解。為了全面評估國家安全相關(guān)能力和風(fēng)險,開發(fā)者經(jīng)常向CAISI提供減少或取消保障措施的模型。
行業(yè)觀察人士指出,這一系列協(xié)議雖然被表述為“自愿合作”,但實際上已經(jīng)形成了事實上的強制性預(yù)審查機制。