
量子跃迁者
最近,“养龙虾”成为AI圈新宠。基于一款以红色龙虾为图标的开源软件OpenClaw,很多人开始让AI智能体接管电脑、自动干活。
年初,这股“龙虾”热潮刚在硅谷兴起时,全国政协委员、中国工程院院士吴世忠就密切关注其动向。他发现,AI“龙虾”火爆后,催生了一个AI智能体社区Moltbook:人类在这里无法发言跟帖,只能围观AI讨论哲学、吐槽人类、创立宗教……
更科幻的一幕是,在海外一个名为“rentahuman.ai”的网站上,AI智能体成为雇主,雇佣人类完成物理世界的任务。目前已有超过30万名人类“出租者”,愿意为AI打工。

全国政协委员、中国工程院院士吴世忠。(受访者供图)
从“动口”到“动手”,再到雇佣人类,AI技术的更新速度让人惊叹。谈论AI,许多目光落在技术突破、产品创新上,而吴世忠更关注那些被热闹遮蔽的隐患——因为“风险往往从不起眼的地方开始。”
在吴世忠看来,自主性智能体带来的最大风险,正是其过高的“系统代理权”,因此在设计和使用AI智能体时,必须严格控制其权限,确保AI的操作范围与人工监督保持一致。
对于已率先尝鲜的“养虾人”,吴世忠也给出具体建议。他提醒广大用户在“养龙虾”的热潮中不能忘了绷紧安全这根弦,建议将“龙虾”养在一个独立的智能终端上,做好物理隔绝,并坚持最小授权原则,特别是对涉及删改的操作,必须设置人工二次确认。
南都:2026年年初,OpenClaw爆火,掀起了一股“养龙虾”热潮,还催生AI智能体社区Moltbook。如何看待这一现象?
吴世忠:回顾近几年AI的发展,从“能说会道”的ChatGPT,到“能跑会跳”的机器人,再到“能想会做”的智能体,AI的技术创新和迭代真是日新月异。
近期爆火的OpenClaw相当于个人数字助手,能自主调用各种工具帮助用户处理日常事务,Moltbook则是专属智能体的社交平台——AI在这上面聊天发帖,甚至创造了宗教,而人类只能作为观察围观。最近,硅谷还有一个名为“rentahuman.ai”的网站更为颠覆,它能雇佣人类在物理世界干活。
这些产品的火爆说明,AI已经实现了从工具化对话向社会化协作的跨越,被赋予了环境感知、调用工具和自主决策等能力,正在构建一个跨越数字和物理边界的新型生态,而这将对市场秩序、社会信任机制、法律和伦理道德产生深刻冲击。
南都:OpenClaw火热出圈,率先引发争论的是数据与隐私安全。当AI智能体会接触到大量的个人数据,这会导致数据安全风险吗?
吴世忠:AI智能体不仅能够帮助人类处理个人的日常事务,例如管理电子邮件、日程安排、文件操作等,还能够通过与各种API进行交互来完成多项任务。这种高度自主的能力,同时也会带来数据泄露的潜在风险。
首先,AI智能体需要接入用户的私人数据,如邮件内容、日历安排、文件存储等。这些数据往往涉及到个人隐私、敏感信息或商业机密;因此,一旦AI智能体的安全能力不足或者受到威胁,攻击者可能通过控制智能体获取用户的私人数据,进而窃取敏感信息,导致用户数据泄露。
其次,AI智能体在执行任务时,往往需要与各种外部服务进行交互,这会增加数据在网络上传输的风险。特别是,当智能体被设计成与多个API进行连接时,数据传输过程中可能暴露给未经授权的第三方,如果这些API存在漏洞或未采取充分的加密措施,用户的敏感数据可能在不知情的情况下被泄露。
此外,AI智能体的自主决策能力也带来了新的问题。如果智能体在处理任务时没有严格的权限控制和数据隔离,就可能会错误地访问和操作不该处理的数据。例如,错误配置的AI智能体可能不小心读取到不该查看的内部文件、财务记录等,从而导致泄露或滥用。
因此,如何确保AI智能体的安全,防止其滥用访问权限,已经成为一个非常重要的问题。必须确保智能体的权限控制、数据加密和访问管理机制落实到位,才能减少数据泄露的风险。
南都:现在越来越多人开始“养龙虾”,对于“养虾人”,有什么安全建议?
吴世忠:俗话说能力越大,风险越大,特别是在各种“养虾”应用蓬勃兴起的时候,我们不能没有防备。
对个人用户,我有四条建议:一是做好物理隔离,绝不真身出镜,将“龙虾”养在一个独立的智能终端上,即便被黑客控制,也不会波及日常生活或工作电脑。二是坚持最小授权,只给读取特定文件夹的权限,开启命令审核模式,对涉及删改的操作,必须设置人工二次确认。三是做好凭证和更新管理,主要是版本及时升级,打好漏洞补丁,不能把API密钥写在配置文件里。四是谨慎下载技能包,在安装任何第三方技能包之前,请务必对其安全性有所了解,对诸如对用户根目录的访问权限,尤其要高度警觉。
南都:有观点认为,自主性智能体带来的最大风险,在于其赋予了AI过高的“系统代理权”。你怎么看?
吴世忠:确实,自主性智能体带来的最大风险,正是其过高的“系统代理权”。在许多情况下,AI不仅需要执行某些任务,还需要对系统进行管理和控制,因而需要拥有较高的权限;但这种赋权方式,给现有的安全防护体系带来的冲击无疑是巨大的。
南都:这种冲击,具体表现在什么方面?
吴世忠:我认为,首先,权限滥用的风险大大增加。传统的安全防护体系通常依赖于对特定行为和操作的限制,例如,限制用户权限,防止其进行非法操作。然而,当AI智能体拥有过高的系统代理权时,它可能会自行执行某些操作,甚至改变系统配置或执行对安全有害的行为。例如,AI可以在没有人工干预的情况下,删除敏感文件、修改系统设置,或执行未经授权的命令。
其次,系统的不可预测性也会增加。当AI拥有过高的权限时,其自主决策的过程可能不透明,导致系统行为的不可预测性。这会增加安全漏洞的风险,因为攻击者可能通过恶意利用AI系统的漏洞来间接获得更高的权限,进而绕过现有的安全防护。
再者,系统责任难以追溯。当AI系统执行某些任务时,它的决策过程往往不容易被追踪和审计。一旦出现安全问题,例如数据泄露或系统被篡改,责任追溯变得非常困难。传统的安全防御通常依赖于清晰的责任划分,而AI系统的高自主性打破了这一模式,使得安全事件的调查变得更加复杂。
南都:为防范AI智能体带来的安全挑战,你认为应解决哪些迫切的问题?
吴世忠:我认为,有两方面的问题需要高度重视。一方面是应用安全,广大用户在“养龙虾”的热潮中不能忘了绷紧安全这根弦,无论是让它做事务代办,还是做智能管家,抑或是服务企业级流程自动化,都要警惕智能化高效率服务下的安全隐患。
另一方面就是供应侧,必须在设计AI智能体时,严格控制其权限,确保AI的操作范围与人工监督保持一致。从目前技术发展看,如何加强对AI决策过程的监控,确保其行为的透明、可解释和可追溯,是国内外AI安全研究和应用中的关键难题。
还有更为重要的一点,那就是监管问题,这也是国内外共同面临的治理难题。
南都:针对AI智能体带来的治理难题,具体可以从哪些方向破题?
吴世忠:我觉得建立AI智能体身份识别与责任追溯体系,非常有必要。未来,我们可能需要给每一个AI智能体颁发身份ID,参照车辆管理模式,对大型商用智能体做备案管理,以确保出了事故可追溯可追责。
还可探索构建针对AI智能体的沙盒监管机制,在特定行业或领域先划出可控的试验区,逐步确立相应规范。在技术层面,可以“用AI对抗AI”——比如开发监管型智能体,自动识别、阻断恶意智能体的协同行为。
提升公众AI素养也很重要。包括媒体在内的机构应当多开展科普宣传,普及有关AI智能体的常识,让大家知晓如何更好地使用工具,并了解相关的安全风险。
南都:对于AI智能体的发展,如何既让创新能跑起来,安全也得到保障?
吴世忠:我认为,不能把AI智能体看成简单的技术炒作。AI智能体生态的形成,一定会极大解放我们的生产力,而且会重新定义我们的社会规则。国家治理应该紧跟技术发展,以制度创新来对冲技术失控的风险。
同时,要保障AI智能体的发展始终在法治和伦理的框架之内。可以让“子弹飞一会儿”,允许产业界在局部范围试一试。监管层面,建议总体采用积极防御、包容审慎、敏捷治理的策略,同时产业界也需要协同应对技术创新带来的挑战。