誰來給爆火的“龍蝦”系上安全帶
222
訂閱已訂閱已收藏
收藏點擊播報本文,約
你“養蝦”了嗎?
近期,一款開源智能體項目OpenClaw迅速走紅。因圖標為紅色龍蝦,它在國內被戲稱為“龍蝦”。與傳統對話式AI應用不同,它的定位是“真正干活、持續運行的個人助手”。
從技術社區到企業內部,從開發人員到普通用戶,越來越多人開始“養蝦”:它可以寫代碼、整理資料、定時匯報,甚至在你不在線時自動完成任務,儼然一位24小時待命的“數字助手”。
社交平台上,有人分享“讓智能體替自己上班”的經驗,也有人展示如何通過簡單配置,讓系統自動生成報告、發送郵件。
“龍蝦”熱潮的背后,以OpenClaw 為代表的智能體,正推動人工智能從“對話工具”向“執行主體”轉變。“我們正處於智能體技術從‘演示可行’到‘大規模部署’的關鍵轉折期。”中國人民大學高瓴人工智能學院准聘副教授林衍凱給出判斷。
但與此同時,問題也浮出水面。國家知識產權局4月1日發布風險提示稱,使用智能體撰寫專利申請文件可能誘發多重風險。伴隨一系列安全預警,人們不再隻關心它“會不會出錯”,而開始追問它“有沒有失控”“是否值得信任”。
技術的興奮與安全的焦慮,在同一時間被放大。OpenClaw到底是什麼?它為什麼在此刻爆發?我們是否已經准備好應對隨之而來的風險?
AI從“回答者”變身“行動者”
“上周末去崇禮滑雪,在纜車上我發現還有一些工作沒完成,隨即在手機上通過飛書給‘龍蝦’派任務。經過幾輪對話,它用我本人的口吻風格,自動生成文件發給同事,給我的反饋基本達到要求。”字節跳動飛書研發工程師楊溢哲聊起“養蝦”經歷。
OpenClaw爆火的密碼,就藏在這個簡單的場景裡——它能“自動”處理工作。
過去幾年,大模型的發展更多停留在這樣一個階段:通過海量數據訓練,使AI具備接近人類的通識理解能力,從而回答問題、生成內容。
而OpenClaw讓AI跨過這條邊界。它不只是調用模型生成答案,而是將這些能力嵌入一個可以持續運行的系統中,使AI能夠理解任務、拆解步驟並自主執行。在清華大學計算機系教授、面壁智能聯合創始人兼首席科學家劉知遠看來,它更接近一種新的基礎設施——一個圍繞智能體運行的“操作系統”。
這也意味著,AI第一次以“行動者”身份進入現實環境。從這個層面上說,OpenClaw具有非常重要的技術示范意義。
從結構上看,它由三層構成:底層是模型能力的抽象封裝,中間是負責規劃與決策的Agent(智能體),上層是具體執行操作的Skill(功能插件)。
不過,值得注意的是,受訪專家普遍認為,OpenClaw的爆發並非源自底層算法的突破。林衍凱表示,無論是語言理解還是代碼生成,其核心仍然依賴於現有大模型體系。真正的變化發生在工程層面,即如何把原本分散的能力整合為一個可用、可擴展、可持續運行的系統。
這種變化不易察覺,卻極具“殺傷力”,因為它直接降低了使用門檻。過去需要團隊開發的復雜系統,如今個人開發者也可以快速搭建。
OpenClaw之所以火爆,正是技術成熟和需求疊加的結果。
一方面,大模型在工具調用與任務執行方面已經跨過“可用”門檻,不再停留在演示階段﹔另一方面,圍繞AI的工具鏈逐步成熟,使復雜能力可以像搭積木一樣被組合調用。
與此同時,用戶認知也在發生變化。人們不再滿足於嘗鮮對話,而是開始把AI視為工作“搭子”。
更重要的是智能體有了“記憶能力”,給用戶帶來類似養成的體驗——通過對短期信息與長期知識的管理,智能體能夠在多輪任務中保持連續性,並逐步形成“經驗”,互動時間越長,它的表現越“貼心”。
這些因素疊加在一起,使OpenClaw呈現出一種不同於傳統AI產品的形態。這種因技術進步解放雙手的體驗,已經滲入很多人工作生活的日常。
高權限帶來高風險
雖然是“外來物種”,但OpenClaw進入中國后迅速走紅,引發關注。
國內廠商爭相把部署服務做成“一鍵安裝”,部分互聯網公司上線“傻瓜式”配置方案。他們還將OpenClaw接入了即時通信軟件。
這背后,不可忽視的是,在國內“養蝦”的成本遠低於海外。
研究報告指出,國產模型的API(應用程序編程接口)調用價格,大約是海外同類產品的1/6。這種優勢源於國內算力背后更便宜的電力、更靈活的硬件配置以及模型廠商間的激烈競爭。
低門檻上手加爆發式傳播,讓“龍蝦”一躍成為AI頂流。
然而,當AI開始“動手”,風險也成倍放大。
奇安信發布的《OpenClaw生態威脅分析報告》顯示,截至3月13日,全球OpenClaw部署實例就已超過23萬個,其中超過2萬個可能存在安全漏洞。被操控的智能體可在數分鐘內完成數據竊取、權限提升甚至業務篡改。
“OpenClaw帶來的不只是更多安全漏洞,它還讓風險邊界整體外擴。”長亭科技安全研究員姜晨煒認為,“過去,AI的風險更多停留在對話層,如說錯話或生成不當內容﹔而現在,智能體可以直接操作文件、調用接口、訪問網絡,潛在風險不可估量。”
換句話說,過去企業防范的是“系統被攻擊”,而現在必須面對的是“系統在執行攻擊”。
“‘龍蝦’這樣的智能體是一個不知疲倦、會自動化執行的超級用戶。”騰訊iOA產品運營負責人劉登峰說,如果安裝在終端的“龍蝦”被攻破,就相當於攻擊者完全獲得了該終端的電腦權限,進而可能開展橫向滲透,擴散到企業的全部網絡終端或服務器,帶來極大的安全風險。
另一重核心風險是Skill供應鏈的投毒與濫用。劉登峰解釋,攻擊者可以把惡意文件偽裝成正常Skill,比如文件格式轉換、天氣查詢。對於普通用戶,甚至企業級員工而言,很難自行分辨。
此前,全球范圍內已出現多起相關安全事件,如Meta公司安全專家在讓OpenClaw處理真實郵件時,因上下文壓縮導致“執行前確認”的關鍵約束丟失,最終出現郵件被智能體誤刪的失控行為。
在國內,工業和信息化部網絡安全威脅和漏洞信息共享平台也發布風險警示,明確OpenClaw存在信任邊界模糊、越權操作等系統性風險,建議關閉不必要的公網訪問、完善身份認証與安全審計機制、嚴格管理插件來源、持續關注補丁和安全更新。
國家知識產權局發布最新風險提示,OpenClaw等智能體存在權限過高、安全漏洞、插件投毒等隱患,使用其撰寫申請文件,易造成技術交底書等核心信息外泄。一旦泄露,專利申請技術方案可能因喪失新穎性無法授權,甚至被他人搶先申請專利。為此,提醒申請人需提高風險防范意識。
“技防+人防”筑起安全屏障
“龍蝦”爆紅,風險焦慮如影隨形。在這一背景下,圍繞智能體的安全防護,必須從傳統模式轉向系統性治理。
在中國工程院院士吳世忠看來,自主性智能體帶來的最大風險,正是其過高的“系統代理權”。作為已嘗鮮的“養蝦人”,他提醒用戶應時刻繃緊安全這根弦,建議用戶將“龍蝦”養在一個獨立的智能終端上,做好物理隔絕,並堅持最小授權原則,特別是對涉及刪改的操作,必須設置二次確認。
騰訊電腦管家高級產品經理董京特意提到,不要將銀行密碼、雲服務密鑰等敏感信息暴露給AI,不要給它權限去訪問一些不該訪問的內網服務﹔在讓AI執行高風險操作前,務必做好重要數據的備份。
平台同樣需要筑牢防線。董京打了個比方:“給AI造一個隱形牢房,把它關進去”。
這一“牢房”,就是安全沙箱機制。董京介紹,騰訊電腦管家團隊近期上線了“龍蝦管家”AI安全沙箱功能。它主要管理三類問題:AI權限過大時,通過沙箱策略捆住AI的“手腳”﹔實時監測AI調用的腳本是否包含惡意指令等風險,防止出現清理垃圾卻誤刪所有文件等不測﹔針對OpenClaw自身迭代中出現的安全漏洞,及時進行修復。
“‘龍蝦管家’也會提供AI運行的實時日志,AI訪問什麼、調用什麼,所有操作用戶都可以一目了然。”董京說。
在更底層的安全設計上,姜晨煒指出,智能體需部署在受控環境中,並結合網絡隔離策略,限制其與內網的直接通信。在執行層面也要建立明確的安全邊界,對於文件操作、外部下載、權限修改等高風險行為,應設定不可突破的限制,並引入人工審批機制,在效率與安全之間求得必要平衡。針對功能插件體系,則需要建立審核機制,如代碼掃描、來源校驗等,防止惡意插件危害系統。
技防之上,真正的安全離不開制度約束。
“在政策層面,加快建立健全開源智能體安全治理體系。”賽迪研究院信息化與軟件產業研究所副主任黃文鴻建議,盡快研究出台開源智能體安全部署指南和行業標准,重點針對智能體的系統權限授予、執行行為審計、敏感操作確認等關鍵環節明確安全基線要求,對政務、金融、醫療等涉密涉敏領域,要實行更嚴格的部署准入和使用管控。
與此同時,應盡快建立開源智能體技能市場的安全審核與准入機制,並加快研究開源智能體自主行為的責任歸屬規則,厘清開源框架開發者、部署運營者、大模型提供方、技能發布者等需要承擔的法律責任,填補當前“AI出錯無人擔責”的制度空白。
“當前OpenClaw暴露出的種種問題,與其說是缺陷,不如說是一場提前到來的‘壓力測試’。”黃文鴻認為,它讓行業在智能體大規模落地之前,就看到了未來可能面對的風險形態。
這場“養蝦熱”的意義或許並不在於事件本身,而在於它所指示的方向。業內專家預測,未來的智能終端中,很可能會出現類似操作系統級別的智能體平台,而OpenClaw所扮演的角色,正是這一形態的早期原型。
人工智能已經開始“動手”,安全治理是擺在人類面前的必答題——隻有在釋放生產力的同時樹立清晰邊界,才能讓人工智能真正從“可用”走向“可信”。
【深瞳工作室出品】
採寫:本報記者 崔 爽
策劃:劉 恕 李 坤
關注公眾號:人民網財經
分享讓更多人看到
- 評論
- 關注































微信掃一掃


第一時間為您推送權威資訊
報道全球 傳播中國
關注人民網,傳播正能量