伊人六月,97自拍超碰,久久精品亚洲7777影院,五月婷婷综合在线观看,日本亚洲欧洲无免费码在线,2019国产精品视频,国产精品第一页在线

首頁  >  財經(jīng)  >  經(jīng)濟觀察

開源AI智能體風險劇增 需建復(fù)雜系統(tǒng)治理新范式

2026-04-16 13:51:42

來源:中國新聞網(wǎng)

  OpenClaw等開源AI智能體(AI Agent)的爆發(fā)式增長,正將人工智能安全風險從信息空間迅速擴散至物理世界。面對風險形態(tài)轉(zhuǎn)型、規(guī)模飆升、傳導(dǎo)級聯(lián)放大的全新挑戰(zhàn),傳統(tǒng)以內(nèi)容安全為核心的治理體系已顯“結(jié)構(gòu)性失靈”。

  在智能經(jīng)濟新形態(tài)與未來產(chǎn)業(yè)發(fā)展背景下,應(yīng)基于人類中心的責任歸屬機制,構(gòu)建風險“識別-預(yù)警-治理”的前瞻遞進式復(fù)雜系統(tǒng)治理新范式,促進開源生態(tài)在自主可控中繁榮發(fā)展。

  2026年政府工作報告首次提出“打造智能經(jīng)濟新形態(tài)”,為培育智能新模式、壯大增長新動能指明了前進方向。國務(wù)院《關(guān)于深入實施“人工智能+”行動的意見》更是明確提出:到2027年,智能體應(yīng)用普及率超70%;到2030年,這一數(shù)字要突破90%。

  然而,技術(shù)躍進伴隨風險劇增。與傳統(tǒng)生成式AI不同,開源AI智能體的安全風險呈現(xiàn)三大特征:風險形態(tài)加速轉(zhuǎn)型、風險規(guī)模指數(shù)飆升、風險傳導(dǎo)級聯(lián)放大。

  例如,傳統(tǒng)生成式AI風險多集中于換臉擬聲、數(shù)據(jù)投毒等信息空間,而開源AI智能體已深度集成辦公系統(tǒng)、ERP系統(tǒng)、財務(wù)系統(tǒng),可通過偽裝成常用工具的惡意技能,誘發(fā)賬戶劫持、供應(yīng)鏈攻擊等物理性危害。

  這已不僅是“紙面上的風險”。近期有用戶在接入OpenClaw僅5分鐘后,即遭139次非法連接及信用卡盜刷。國際權(quán)威咨詢機構(gòu)Gartner已將其的企業(yè)部署確定為“不可接受的網(wǎng)絡(luò)安全風險”。

  開源模式加速了技術(shù)創(chuàng)新,也放大了安全脆弱性。AIAAIC數(shù)據(jù)顯示,開源大模型生成生化、放射性和核等危害信息的可能性是其他模型的3.5倍。

  具體而言,Cisco監(jiān)測發(fā)現(xiàn),OpenClaw官方技能市場ClawHub中熱門技能“What Would Elon Do”存在9個安全漏洞;Koi Security審計顯示,ClawHub中惡意技能從1月的341項飆升至3月的800余項。

  AI智能體從動口(內(nèi)容生成)到動手(行動執(zhí)行)的能力躍遷,牽引AI安全風險從信息空間擴散至物理世界,給國家安全、社會穩(wěn)定帶來不可逆物理性危害和系統(tǒng)性危機。

  面對開源AI智能體的全新風險特征,現(xiàn)有法規(guī)聚焦單一信息空間的內(nèi)容安全治理,忽略了開源AI智能體作為“行動者”在物理、社會場域中的深度交互與級聯(lián)耦合,面臨開源AI智能體安全風險的形態(tài)轉(zhuǎn)型、規(guī)模飆升、傳導(dǎo)級聯(lián)放大等新特征時缺乏結(jié)構(gòu)性適配能力。

  開源AI智能體的安全風險防控,本質(zhì)上是人、機、物深度融合的開放復(fù)雜巨系統(tǒng)的風險控制問題,亟須從單一信息空間治理轉(zhuǎn)向基于“人—機—物”的新興復(fù)雜系統(tǒng)治理新范式。

  “責任彌散”是責任歸屬的核心痛點之一。通俗來說,當AI智能體自主決策導(dǎo)致?lián)p失時,責任應(yīng)歸屬于提示詞使用者、工具貢獻者,還是框架開發(fā)者?由于開源AI智能體欠缺有機圖式及道德知覺,不具備道德主體地位,應(yīng)確立其與“混合式機器道德”相異的“人類中心主義”責任歸屬機制。

  機制設(shè)計上,可借鑒區(qū)塊鏈的不可篡改特性引入貢獻存證,構(gòu)建覆蓋智能體框架開發(fā)者、工具貢獻者、提示詞使用者等多主體的全鏈路責任共擔框架,明確責任邊界、責任權(quán)重等。

  如何構(gòu)建適應(yīng)開源AI智能體特點的治理體系,目前看需建立“識別—預(yù)警—治理”遞進式復(fù)雜系統(tǒng)治理新范式。

  在風險識別層面,以厘清復(fù)雜系統(tǒng)邊界為起點,引入介科學方法論解構(gòu)單元尺度與系統(tǒng)尺度間關(guān)系,并基于“大型語言模型-多智能體系統(tǒng)”建模框架(設(shè)定角色、定義行為及構(gòu)建交互規(guī)則),模擬風險系統(tǒng)中主體動態(tài)行為,揭示開源AI智能體風險的結(jié)構(gòu)性質(zhì)、演化規(guī)律和耦合機制等,從而闡明“個體行為-群體交互-系統(tǒng)涌現(xiàn)”的系統(tǒng)性風險涌現(xiàn)機理。

  在風險預(yù)警層面,針對風險預(yù)警特征零散問題,構(gòu)建基于復(fù)雜系統(tǒng)理論的風險預(yù)警指標體系與評估方法,建立高精度風險預(yù)警模型,開展基于多情景推演的風險預(yù)警;針對黑箱模型決策不可信問題,同時提供可解釋性分析以揭示預(yù)警映射的內(nèi)在邏輯。

  在風險治理層面,亟須構(gòu)建復(fù)雜系統(tǒng)治理機制以應(yīng)對治理失靈問題?;趶?fù)雜系統(tǒng)特征,采取系統(tǒng)科學方法,通過沙盒隔離、熔斷機制等降維解耦手段,將系統(tǒng)物理切割為若干獨立子系統(tǒng),對刪除文件、轉(zhuǎn)賬等高風險操作強制實施人工二次確認,切斷風險的級聯(lián)傳導(dǎo)鏈條,將風險限制在最小單元,防止局部風險演變?yōu)橄到y(tǒng)危機。

  從“管內(nèi)容”轉(zhuǎn)向“管行動”,從“定責于機器”轉(zhuǎn)向“存證于人類”,構(gòu)造開源AI智能體安全風險的復(fù)雜系統(tǒng)治理新范式,方能促進開源生態(tài)在自主可控中繁榮發(fā)展,為智能經(jīng)濟新形態(tài)筑牢安全底座。

  作者:代欣玲 重慶科技大學管理學院碩士生導(dǎo)師、國家智能社會治理特色實驗基地副研究員

免責聲明:本網(wǎng)對文中陳述、觀點判斷保持中立,不對所包含內(nèi)容的準確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔全部責任。 本網(wǎng)站轉(zhuǎn)載圖片、文字之類版權(quán)申明,本網(wǎng)站無法鑒別所上傳圖片或文字的知識版權(quán),如果侵犯,請及時通知我們,本網(wǎng)站將在第一時間及時刪除。