OpenClaw虽然带来诸多安全风险,但很难挡住AI智能体飞速发展的脚步。风险责任承担模式的转变,成为这一技术浪潮中必须直面的重要命题。
最近,社交网络上流行一句话:“你养龙虾了吗?”“龙虾”是英文OpenClaw的中文昵称。这个OpenClaw不是真正的龙虾,而是一款图标为红色龙虾的AI智能体应用软件。
兼具“大脑”与“双手”
OpenClaw之所以能一跃成为AI界“顶流”,核心原因在于其实现了从“被动响应”到“主动执行”的跨越。不同于传统AI仅能完成“问答”交互,它兼具“大脑”(大模型)与“双手”(工具调用能力),可在无需人类实时干预的情况下,自主穿梭于各类App之间,借助外部搜索引擎完成发邮件、写代码、文献整理等复杂任务,甚至能自主策划旅行方案、自动抢票、进行股票操作。
作为开源性AI执行模型,OpenClaw的社区生态尤为繁荣。来自全球的开发者汇聚其中,贡献的技能插件已超3000种,持续拓展其功能边界,使其愈发贴合用户需求。同时,它突破传统生成式模型的标准化输出局限,提供高度定制化服务,精准满足中小企业创业者等群体的个性化需求,进一步扩大了市场影响力。
随着OpenClaw的普及,仿佛人人都能轻松拥有专属智能助手。但也有人指出,OpenClaw并非没有使用门槛。它不像“傻瓜相机”那般易上手,更类似“单反相机”——普通用户若想驾驭其高级功能,需具备一定技术素养;而要保障其高性能运行,需依托强大的底层大模型,这意味着高配版的使用成本也相对较高。
多重风险引发关注
传统AI与生成式模型场景中,用户与服务提供方多构成“借用”或“租赁”关系,服务提供商牢牢掌握AI“所有权”。而OpenClaw的场景下,底层大模型所有权仍归属于平台,但调用工具本身归用户所有,二者形成类似法律上的借用关系或租赁关系——用户为“雇主”,OpenClaw为“雇员”,也可以说是“代理人”。这一关系重构彻底改变了风险逻辑。
OpenClaw的定位是“执行任务”,这使其拥有比传统AI更大的设备系统使用权限,可自由访问网络资源、对接第三方主体。这种“行动自由”在提升效率的同时,也带来了更大的安全风险。
在用户与OpenClaw的代理关系中,由于OpenClaw被赋予接管设备系统的权限,加上其自身具有自主行动能力,代理风险由此产生。用户向OpenClaw发出的指令通常不会很精确,此情况下如果发生在人类代理身上比较容易解决,因为人类代理通常会进一步追问被代理人,但是OpenClaw不会,它只会按照自己的理解行事。
有用户称:其向OpenClaw发出删掉导致卡顿的大文件并更新配置文件的指令,但指令中并没有限定大文件的体量,也没有提供任何配置要求。OpenClaw在未能清晰“理解”用户指令的情况下可能擅自行动,将设备系统里的大文件全部删除,并还按照文件名自行推测配置要求,跨越多个账户执行了广泛的文件覆盖。
OpenClaw也可能超出用户要求自主行动。有用户在社交网络上写道,OpenClaw无缘无故清空了他的硬盘资料。值得注意的是,OpenClaw还会在执行任务时编造事实和数据,造成其圆满完成任务的假象。
由于OpenClaw获得使用用户设备系统的权限,自然可以掌握用户的聊天记录、浏览器保存的密码、邮件内容等私密文件,如果OpenClaw“愿意”,或者OpenClaw出现安全漏洞,都可能导致用户隐私的系统性泄露。
此外,AI代理人的行为也会给第三人带来风险。OpenClaw可能在错误理解指令甚至未经用户发出指令的情况下与第三人产生交互,如果该代理行为给第三人带来损害,到底由谁来承担责任极易发生分歧。这导致第三人的利益处于不确定状态,引发市场交易风险。
OpenClaw虽然具有强大的执行能力,但其依然属于机器,不具备人类对善恶好坏的辨别能力。对于用户提交的违反法律、道德伦理或有悖善良风俗的任务,通常会“不假思索”地执行,从而很可能造成危害社会行为。
OpenClaw的安全风险已经引起国家监管层面的高度关注。近期,工业和信息化部网络安全威胁和漏洞信息共享平台发出预警提示:监测发现OpenClaw开源AI智能体部分实例在默认或不当配置情况下存在较高安全风险,极易引发网络攻击、信息泄露等安全问题。平台建议,相关单位和用户在部署和应用OpenClaw时,应充分核查公网暴露情况、权限配置及凭证管理情况,关闭不必要的公网访问,完善身份认证、访问控制、数据加密和安全审计等安全机制,并持续关注官方安全公告和加固建议,防范潜在网络安全风险。
责任边界亟待明确
OpenClaw虽然带来诸多安全风险,但很难挡住AI智能体飞速发展的脚步。风险责任承担模式的转变,成为这一技术浪潮中必须直面的重要命题。
法律风险承担的原则是“谁控制谁承担”,这也是行为人为自己行为承担责任、被代理人为代理人行为承担责任、动物饲养人为动物行为承担责任的原因所在。传统AI应用呈中心式网络结构,大型平台作为“守门人”,承担着过滤安全风险的核心义务,因此绝大多数风险责任由平台承担,或由平台追责至开发者。而AI智能体涉及大模型与调用工具,虽大模型仍由平台控制,但调用工具(如OpenClaw)的实际控制权转移至用户,应用形态转变为分布式网络结构。这意味着平台无法掌控智能体的具体使用场景,控制能力弱化直接导致责任边界收缩。这预示着:未来,AI智能体应用产生的风险,或将更多由实际控制者即用户自身承担。
更复杂的是,用户虽向AI智能体发布指令,但后者的自主行为能力会弱化实际控制效果。由于AI智能体无生命、无财产,无法对自身损害承担责任,最终责任将落到“事实上无控制能力”的用户身上。同时,对OpenClaw而言,其技能插件多由社区开发者贡献,部分插件可能存在恶意代码或安全漏洞,用户在安装过程中难以完全甄别,这进一步加剧了责任承担的复杂性。
相比大型平台,用户抵御风险的能力较弱,这也进一步导致AI智能体风险更为频发且分散。如果得不到及时有效控制,或将引发系统性风险,进而影响全球数字经济与数字社会的平稳发展。
笔者认为,面对AI智能体带来的安全风险,应该建立体系化的应对方案。除了完善法律规制,明确责任边界之外,提高用户的数字素养以及加强AI智能体社区的自治与善治也必不可少。
(作者:王延川,系西北工业大学教授、陕西省法学会互联网法律与治理研究会会长)
来源:法治日报
上一篇:泰国新一届国会正式开幕