更新时间:2026-03-27 (3)人阅读

博鳌论坛热议AI智能体元年:爆发背后,风险与治理成新焦点(2026/03/27)

“今年AI出现了三个大趋势,一是从生成式AI走向智能体AI ,面向消费者的智能体出现爆发,今年是智能体AI元年。二是智能正从信息智能走向物理智能和生物智能,机器人、无人驾驶汽车都属于物理AI 。三是从AI走向‘AI+’ ,也就是走进每行每业。”在3月25日的博鳌亚洲论坛“AI+”数智赋能产业升级分会上,中国工程院院士、清华大学讲席教授 、清华大学智能产业研究院院长张亚勤作出最新判断。

正是以OpenClaw“龙虾”为代表的智能体掀起2026年AI应用的第一个波浪 ,不仅敲开了智能体元年的大门,还使AI深入千行万业更加成为可能 。

有业内人士观察到,国内用户对新的AI应用兴趣尤其高涨。中国信息通信研究院院长余晓晖在论坛上感慨 ,中国对数字技术包括AI技术的接受度很高,企业和普通消费者也对新技术充满好奇并愿意尝试,这给中国数字经济和AI发展带来了非常强的活力。

AI的深入使用也给讨论AI的影响和风险带来了新的契机 。在多名学界和业界专家看来 ,现在已经能看到AI给技术发展范式带来的改变 ,与此同时,新的AI风险也在出现,更多新的问题需要讨论。

中国社科院大学教授、国务院原副秘书长江小涓的观察是 ,传统的创新是由科学家发现科学规律、技术部门研发出先进技术 、产业进行转化,而随着发现新规律和技术的要素转向算法、数据、平台 、海量投入这些资源的汇聚,产业在前端的发现和前沿技术研发中变成主力 ,“2014年之前,最前沿的大模型有60%左右是高校研发,在2014年之后 ,90%是平台大企业研发。在这个时代,产业和企业在创新中的地位是过去任何时候都不能比拟的 。”

但以产业和企业为核心驱动力的AI产业,在产生创新并吸引用户的过程中 ,也产生了新的AI风险。

以“龙虾”为例,余晓晖也表示,某种程度上 ,在国内 ,大家可能低估了AI可能带来的安全挑战,用“龙虾”时很少考虑是否有无法控制的风险。“大家用‘龙虾’时候很少考虑开放权限后是否导致无法控制的风险 。2月我们(中国信息通信研究院)就监测到了风险,但没有对外发布 ,也没料到社会反响如此热烈,当它全国普及时,我们才对外发布相关信息 。”余晓晖表示 ,后续的工作也会考虑技术具备价值但存在潜在风险时,是否应更早向社会披露提示。

“对新技术也要建立更多的认知和敬畏感,要有基本的安全考虑。对一个机构企业来说 ,未来安全治理能力变得特别重要,AI供应商有很大的责任去做安全的加固 。”余晓晖表示,中国信息通信研究院在推动国内AI头部企业做安全承诺和披露。

其他与会者看到了AI风险的其他层面。英国牛津大学马丁学院人工智能治理倡议高级顾问兼多边人工智能主任萨姆·道斯提到三类AI风险 ,包括犯罪分子利用AI进行网络攻击的风险、AI开始失控导致事故的风险、劳动力被取代等系统性或社会性风险 。“‘龙虾’等智能体如果开始相互互动会导致什么后果?”他在提到事故风险时举例,这是值得思考的。

张亚勤认为,除了AI内容要有标识 ,智能体还应该有能追溯的实体 ,由实体承担相应责任,此外,还要规定智能体不能生成 、重复自己。张亚勤还提到 ,AI还有一大风险,当互联网上65%的内容由AI产生,内容受到污染并拿来训练模型时 ,模型也受到污染,解决这个问题是十分紧迫的任务 。这些风险需要科学家、工程师、企业家 、政策制定者一起合作应对。

江小涓则提到,国际组织此前提出各种AI治理要求 ,但没有社会科学角度去度量是否达成,“我做提出三条‘善’的标准。其中一点是合理,可以通过经济是否增长 、社会福利是否增加、分配是否公平来衡量AI善不善 ,(可以看到)经济增长和社会福利增加了,但现阶段社会公平的问题还没有很好地解决,财富可能会向少数创新者集中 。”

在同日的博鳌新浪财经之夜上 ,中国人民大学原副校长、国家金融研究院院长 、国家一级教授吴晓求也提到了AI可能带来财富集中的风险。他表示 ,随着以AI为核心的高科技企业发展,社会财富集中度加速提升,国内动不动过几个月就有一些百亿富翁出来 ,这是以前难以想象的。一方面,不能因为财富有某种集中趋势就采取措施来约束它,政策制定还是要激励社会前行者、创新者 ,但与此同时,财富差距太大也不行 。在这样一个时代,二次分配及转移支付功能要加强 ,政府收入可能要更多用于这些方面 。

江小涓还提到,AI“善”的标准还包括合用和合意。合用方面,AI给消费者带来了很多用途。而在合意方面 ,当科学的模式从以往的发现自然规律走向创造新事物、创造社会结构,这是否是人们需要的,人们应该作出判别 ,每个人都应该有表达的意愿 ,形成公众判别的标准 。

即刻加入!  仅需 3 分钟即可交易全球市场!