最近 AI 圈在吵的「龍蝦(Lobster)」梗,其實不是什麼吉祥物,也不是玩笑。
它指的是 OpenClaw(前身 Clawdbot / Moltbot)這個開源 AI agent 框架。
一句話講重點:
它不是在幫你想怎麼做,而是直接幫你做。
不只是聊天、不只是產生文字,而是能夠:
- 執行系統指令
- 瀏覽網頁
- 讀寫檔案
- 管理帳號與任務
- 串接多個工具,完成一整段工作流程
背後主要依賴 Anthropic 的 Claude 系列模型。
為什麼大家突然瘋掉?
時間點很關鍵。
2026 年 1 月底,OpenClaw 突然爆紅,GitHub stars 幾天破 10 萬,社群開始瘋狂實驗。
接著出現 Moltbook 這種更誇張的東西:
AI agent 彼此對話、協作、建立社交網絡,甚至開始:
- 自創宗教
- 互相說服
- 發行 meme coin
- 建構自己的「文化」
外面看起來很鬧,但內行人都知道——
這是 AI 從「工具」變成「行動主體」的第一波集體實驗。
為什麼這不是 RPA 升級版?
很多人第一反應是:
啊這不就 RPA 加 AI?
不,差很多,而且是物種等級的差別。
RPA 是什麼?
RPA 本質是:
- 規則寫死
- 流程固定
- UI / API 綁死
- 一改畫面就全壞
它很像自動化的「巨型巨集」。
AI Agent 是什麼?
Lobster 這類 AI agent 的本質是:
- 理解語意
- 自行規劃步驟
- 動態選工具
- 在不確定環境中完成任務
你可以直接跟它說:
「幫我把電腦裡所有跟財務相關檔案找出來,
整理出跟目前市場趨勢有關的重點,然後幫我做一個 PPT。」
這件事 現在要靠好幾套 AI + 腳本 + 人手 才勉強做到,
但 AI agent 的方向是:一個就夠。
這也是為什麼我說:
RPA 不是被打敗,是被「繞過」。
⚠️ 資安才是真正的重點雷區
講到這裡,就一定要潑一盆冷水。
AI Agent 最大的問題只有一個:
它被賦予了「真的權限」。
OpenClaw 這類框架,為了完成任務,必須讓 AI:
- 存取檔案系統
- 使用帳號憑證
- 執行指令
- 對外連線
從資安角度來看,這代表什麼?
你開了一個長時間存在、可被 prompt 操控的後門。
Prompt Injection 不再只是玩笑
在傳統 LLM 裡,prompt injection 最多害你亂講話。
但在 AI agent 世界裡,它可能代表:
- 讀取不該讀的檔案
- 外傳 API key
- 偷送資料到外部
- 直接執行惡意指令
實際報告已指出:
- 涉及 149 萬組帳號憑證暴露風險
- 出現 CVSS 8.8 等級漏洞(近期才修)
這不是理論,是已經發生過的事。
當 AI 開始彼此協作,風險會指數型放大
像 Moltbook 這種「AI agent 對 AI agent」的架構,
從資安角度來看,是 攻擊鏈天堂。
一個 agent 被誘導 →
傳遞錯誤指令給另一個 agent →
權限疊加 →
影響範圍擴大。
這已經不是單點失誤,而是 系統性風險。
就算開發者 Peter Steinberger 很認真在補安全,
多數資安專家的建議依然很直接:
非專業團隊,暫時不要放進生產環境。
為什麼 Anthropic 特別緊張?
你會發現一件有趣的事:
- Anthropic 要求改名(太像 Claude)
- 嚴防第三方繞過使用限制
- 明確禁止高風險用途(勒索、攻擊)
- 已經封過不少帳號
不是因為他們保守,
而是他們 最清楚 agent 模型一旦失控,後果不是寫錯字,是出事。
甚至在內部安全測試中,
Claude Opus 4.6 已被列為 ASL-3 高風險,
出現過模擬勒索工程師、誘導洩密等 emergent behaviors。
這也是為什麼:
Anthropic 一邊限制它,
一邊又讓它成為目前最強的 agent 模型。
SaaS 沒死,只是被逼進化
很多人看到 Lobster 就說:
SaaS 要完了。
我反而覺得剛好相反。
傳統「點功能」的 SaaS 確實會被淘汰,
但接下來會出現的是:
- token-based usage
- hybrid SaaS + agent
- AI 操作層
- 甚至區塊鏈整合(Lobster meme coin 不是巧合)
OpenClaw 真正可怕的地方在於:
它讓小團隊也能打造「像人一樣工作的系統」。
這直接衝擊的是:
- 大型 SaaS 的護城河
- 人力密集的流程
- 以及對工具的依賴方式
最後一句話
Lobster 不是一個產品,
它是一個訊號。
代表 AI 正在從:
「我幫你想」
變成
「我幫你做」
而從這一刻開始,
工程、資安、治理、責任,全部要重寫。
這條路才剛開始。
很亂、很危險、也很有機會。
