2026年初,开源AI智能体框架OpenClaw(中文戏称为“龙虾”)快速走红,标志着人工智能从“对话交互”迈向“自主执行”的智能体时代正式走入大众视野。用户授予权限后,OpenClaw可自动完成任务调用、资源调度与流程处理,在工作生活场景中展现出高效辅助能力,同时也将人工智能技术发展中的安全漏洞与治理难题推至台前。
伴随OpenClaw热度攀升,各类风险逐步显现。近期工信部与国家互联网应急中心连续发布风险提示,指出该智能体可能引发系统被控、隐私及敏感数据泄露等问题,提醒公众审慎使用。哈佛大学、麻省理工学院等多所高校联合发布的研究报告显示,在模拟企业环境部署AI智能体仅两周,就触发11起严重安全漏洞事件,超六成企业在智能体失控时无法有效终止运行。今年央视3·15晚会还曝光了AI“投毒”黑灰产业链,不法分子通过制造虚假数据操控算法输出,误导消费者决策。
面对智能体技术带来的全球治理挑战,国际社会与各国已启动多项应对举措。联合国工业发展组织副总干事邹刺勇在《人民日报》发文指出,人工智能已成为关乎人类共同未来的治理命题,需以风险共同体逻辑凝聚共识,通过多层治理结构提升协同效率。联合国此前已设立“人工智能独立国际科学小组”和“人工智能治理全球对话”机制,为技术风险与发展机遇提供独立科学评估。
全球多国同步推进AI治理规则落地:欧盟理事会就简化人工智能监管规则提案达成一致,精简合规流程的同时禁止AI生成色情内容;新加坡发布全球首个针对智能体的政府级治理指引《智能体人工智能治理示范框架》;韩国实施《关于人工智能发展和构建信赖基础的基本法》,在支持产业发展的同时防范高风险AI应用;美国白宫发布国家AI立法框架,推动联邦层面统一AI规范,避免各州规则碎片化。
国内方面,上海人工智能实验室推出SafeClaw智能体平台,通过多层级风险识别与拦截机制实现内生式安全防护;奥尼电子发布“奥尼龙虾”推理工作站,以本地部署模式降低数据上云安全风险。大湾区人工智能应用研究院高级研究员杨燕提出,治理应聚焦明确权限边界,划分自主操作、人工审核与暂不开放的高风险场景,而非采取“一刀切”限制技术发展。清华大学人工智能研究院副院长朱军则强调,需通过技术防护、法规约束与公众意识提升系统性应对安全隐患,平衡技术创新与风险治理的关系。
当前人工智能技术演进速度已超出治理能力跟进节奏,OpenClaw暴露的问题并非单一产品缺陷,而是全球AI快速发展中的共同挑战。如何在鼓励技术创新的同时建立适配的治理框架,成为各国及国际社会需协同破解的核心命题。
市场有风险,投资需谨慎。本文为AI基于第三方数据生成,仅供参考,不构成个人投资建议。
来源:市场资讯