“養(yǎng)龍蝦”與AI風險責任承擔的轉(zhuǎn)向
OpenClaw雖然帶來諸多安全風險,但很難擋住AI智能體飛速發(fā)展的腳步。風險責任承擔模式的轉(zhuǎn)變,成為這一技術浪潮中必須直面的重要命題。
最近,社交網(wǎng)絡上流行一句話:“你養(yǎng)龍蝦了嗎?”“龍蝦”是英文OpenClaw的中文昵稱。這個OpenClaw不是真正的龍蝦,而是一款圖標為紅色龍蝦的AI智能體應用軟件。
兼具“大腦”與“雙手”
OpenClaw之所以能一躍成為AI界“頂流”,核心原因在于其實現(xiàn)了從“被動響應”到“主動執(zhí)行”的跨越。不同于傳統(tǒng)AI僅能完成“問答”交互,它兼具“大腦”(大模型)與“雙手”(工具調(diào)用能力),可在無需人類實時干預的情況下,自主穿梭于各類App之間,借助外部搜索引擎完成發(fā)郵件、寫代碼、文獻整理等復雜任務,甚至能自主策劃旅行方案、自動搶票、進行股票操作。
作為開源性AI執(zhí)行模型,OpenClaw的社區(qū)生態(tài)尤為繁榮。來自全球的開發(fā)者匯聚其中,貢獻的技能插件已超3000種,持續(xù)拓展其功能邊界,使其愈發(fā)貼合用戶需求。同時,它突破傳統(tǒng)生成式模型的標準化輸出局限,提供高度定制化服務,精準滿足中小企業(yè)創(chuàng)業(yè)者等群體的個性化需求,進一步擴大了市場影響力。
隨著OpenClaw的普及,仿佛人人都能輕松擁有專屬智能助手。但也有人指出,OpenClaw并非沒有使用門檻。它不像“傻瓜相機”那般易上手,更類似“單反相機”——普通用戶若想駕馭其高級功能,需具備一定技術素養(yǎng);而要保障其高性能運行,需依托強大的底層大模型,這意味著高配版的使用成本也相對較高。
多重風險引發(fā)關注
傳統(tǒng)AI與生成式模型場景中,用戶與服務提供方多構成“借用”或“租賃”關系,服務提供商牢牢掌握AI“所有權”。而OpenClaw的場景下,底層大模型所有權仍歸屬于平臺,但調(diào)用工具本身歸用戶所有,二者形成類似法律上的借用關系或租賃關系——用戶為“雇主”,OpenClaw為“雇員”,也可以說是“代理人”。這一關系重構徹底改變了風險邏輯。
OpenClaw的定位是“執(zhí)行任務”,這使其擁有比傳統(tǒng)AI更大的設備系統(tǒng)使用權限,可自由訪問網(wǎng)絡資源、對接第三方主體。這種“行動自由”在提升效率的同時,也帶來了更大的安全風險。
在用戶與OpenClaw的代理關系中,由于OpenClaw被賦予接管設備系統(tǒng)的權限,加上其自身具有自主行動能力,代理風險由此產(chǎn)生。用戶向OpenClaw發(fā)出的指令通常不會很精確,此情況下如果發(fā)生在人類代理身上比較容易解決,因為人類代理通常會進一步追問被代理人,但是OpenClaw不會,它只會按照自己的理解行事。
有用戶稱:其向OpenClaw發(fā)出刪掉導致卡頓的大文件并更新配置文件的指令,但指令中并沒有限定大文件的體量,也沒有提供任何配置要求。OpenClaw在未能清晰“理解”用戶指令的情況下可能擅自行動,將設備系統(tǒng)里的大文件全部刪除,并還按照文件名自行推測配置要求,跨越多個賬戶執(zhí)行了廣泛的文件覆蓋。
OpenClaw也可能超出用戶要求自主行動。有用戶在社交網(wǎng)絡上寫道,OpenClaw無緣無故清空了他的硬盤資料。值得注意的是,OpenClaw還會在執(zhí)行任務時編造事實和數(shù)據(jù),造成其圓滿完成任務的假象。
由于OpenClaw獲得使用用戶設備系統(tǒng)的權限,自然可以掌握用戶的聊天記錄、瀏覽器保存的密碼、郵件內(nèi)容等私密文件,如果OpenClaw“愿意”,或者OpenClaw出現(xiàn)安全漏洞,都可能導致用戶隱私的系統(tǒng)性泄露。
此外,AI代理人的行為也會給第三人帶來風險。OpenClaw可能在錯誤理解指令甚至未經(jīng)用戶發(fā)出指令的情況下與第三人產(chǎn)生交互,如果該代理行為給第三人帶來損害,到底由誰來承擔責任極易發(fā)生分歧。這導致第三人的利益處于不確定狀態(tài),引發(fā)市場交易風險。
OpenClaw雖然具有強大的執(zhí)行能力,但其依然屬于機器,不具備人類對善惡好壞的辨別能力。對于用戶提交的違反法律、道德倫理或有悖善良風俗的任務,通常會“不假思索”地執(zhí)行,從而很可能造成危害社會行為。
OpenClaw的安全風險已經(jīng)引起國家監(jiān)管層面的高度關注。近期,工業(yè)和信息化部網(wǎng)絡安全威脅和漏洞信息共享平臺發(fā)出預警提示:監(jiān)測發(fā)現(xiàn)OpenClaw開源AI智能體部分實例在默認或不當配置情況下存在較高安全風險,極易引發(fā)網(wǎng)絡攻擊、信息泄露等安全問題。平臺建議,相關單位和用戶在部署和應用OpenClaw時,應充分核查公網(wǎng)暴露情況、權限配置及憑證管理情況,關閉不必要的公網(wǎng)訪問,完善身份認證、訪問控制、數(shù)據(jù)加密和安全審計等安全機制,并持續(xù)關注官方安全公告和加固建議,防范潛在網(wǎng)絡安全風險。
責任邊界亟待明確
OpenClaw雖然帶來諸多安全風險,但很難擋住AI智能體飛速發(fā)展的腳步。風險責任承擔模式的轉(zhuǎn)變,成為這一技術浪潮中必須直面的重要命題。
法律風險承擔的原則是“誰控制誰承擔”,這也是行為人為自己行為承擔責任、被代理人為代理人行為承擔責任、動物飼養(yǎng)人為動物行為承擔責任的原因所在。傳統(tǒng)AI應用呈中心式網(wǎng)絡結構,大型平臺作為“守門人”,承擔著過濾安全風險的核心義務,因此絕大多數(shù)風險責任由平臺承擔,或由平臺追責至開發(fā)者。而AI智能體涉及大模型與調(diào)用工具,雖大模型仍由平臺控制,但調(diào)用工具(如OpenClaw)的實際控制權轉(zhuǎn)移至用戶,應用形態(tài)轉(zhuǎn)變?yōu)榉植际骄W(wǎng)絡結構。這意味著平臺無法掌控智能體的具體使用場景,控制能力弱化直接導致責任邊界收縮。這預示著:未來,AI智能體應用產(chǎn)生的風險,或?qū)⒏嘤蓪嶋H控制者即用戶自身承擔。
更復雜的是,用戶雖向AI智能體發(fā)布指令,但后者的自主行為能力會弱化實際控制效果。由于AI智能體無生命、無財產(chǎn),無法對自身損害承擔責任,最終責任將落到“事實上無控制能力”的用戶身上。同時,對OpenClaw而言,其技能插件多由社區(qū)開發(fā)者貢獻,部分插件可能存在惡意代碼或安全漏洞,用戶在安裝過程中難以完全甄別,這進一步加劇了責任承擔的復雜性。
相比大型平臺,用戶抵御風險的能力較弱,這也進一步導致AI智能體風險更為頻發(fā)且分散。如果得不到及時有效控制,或?qū)⒁l(fā)系統(tǒng)性風險,進而影響全球數(shù)字經(jīng)濟與數(shù)字社會的平穩(wěn)發(fā)展。
筆者認為,面對AI智能體帶來的安全風險,應該建立體系化的應對方案。除了完善法律規(guī)制,明確責任邊界之外,提高用戶的數(shù)字素養(yǎng)以及加強AI智能體社區(qū)的自治與善治也必不可少。
(作者:王延川,系西北工業(yè)大學教授、陜西省法學會互聯(lián)網(wǎng)法律與治理研究會會長)
來源:法治日報



































京公網(wǎng)安備 11010202009201號