博鳌亚洲论坛2025年年会嘉宾热议:如何平衡推进AI应用与治理
商报全媒体讯(椰网/海拔新闻记者 熊文颖 黄力萍 史若木 王春棠 戴铭 符式柔 摄影报道)3月26日,博鳌亚洲论坛2025年年会举行“AI:如何做到应用与治理的平衡推进?”分论坛上,与会嘉宾深入探讨AI的安全治理和前沿进展,并就如何管理和防范AI可能带来的风险提出对策和建议。
DeepSeek是中国对全球的贡献
2025年开年,DeepSeek的出世掀起人工智能变革浪潮。在总结近一年人工智能取得的进步和产生的进展时,中国工程院院士、清华大学讲席教授、清华大学智能产业研究院(AIR)院长张亚勤坦言“没有想到会发生这么大的变化”。他认为,DeepSeek有更好的资源、更开源的模式,是两年来人工智能领域最大的、最规模性的创新,也是中国对全球的贡献。
“当前的另一个趋势,是AI从信息智能走向物理智能,特别是无人驾驶、机器人等,也走向生物智能,人脑接口、生物体大模型等等。无人驾驶是具身智能最大的应用,也是我认为第一个能够落地的,人形机器人还需要更长的时间。从信息智能走向物理智能和最终智能,中国扮演重要的角色。”张亚勤说。
AI的发展与安全并非相互掣肘
在谈及人工智能的发展应用和安全之间的关系时,中国科学院研究员,人工智能安全与超级对齐北京市重点实验室主任、联合国人工智能高层顾问机构专家曾毅表示,二者之间的关系不是相互掣肘。“我们有一个新的研究,证明了当你提升人工智能大模型安全能力的时候,对它求解能力的影响几乎可以忽略。我们尝试了十几个人工智能大模型,可以把它的安全能力提升百分之二三十,对它的问题求解能力的影响几乎可以忽略,这说明安全和发展之间不是掣肘的关系,可以做到人工智能充分安全的情况下,它的能力几乎不受损。”
“AI的发展对提高劳动生产率有重要作用,但是能不能够较好地被社会所有成员分享?这个问题划到经济学角度上讲比较简单,就是就业是否充分,分配是否公平。如果这两个问题不能解决,就业的冲击必定会出现,我们应该有新的社会保障政策来执行它,而不是一再重复那些不能落地的原则。”中国社科院大学教授、国务院原副秘书长江小涓说。
AI使用需要设置红线和边界
对于如何平衡推进人工智能的应用与治理,与会专家学者也提出了具体对策。张亚勤表示,智能体是很好的技术,它能够自我规划、学习、试点并达到自己的目的,是非常好的工具,但是它本身带来很大的风险,这里面有很多未知的因素。我们在使用智能体的时候需要设置一些红线和边界,比如智能体不能自我复制等等。
英国励讯集团公共事务总裁、爱思唯尔董事长池永硕说:“AI使用必须是透明的,不能出现黑箱。为了实现这点我们必须得有人的监管,不能够让机器自己管自己,我们不能够信任机器,否则的话我们就失控了,我们得信任人,这是人与人之间的关系,我们每个人对自己的行为负责。最后,我们还要尊重隐私还有数据的治理。”
“不要让人工智能完全代替人的决策,一定要让决策权利在人类手中,这是当代人工智能应用时我们必须注意的问题。目前世界上有三分之一的人没有进行互联网的介入,数字鸿沟已经变成了智能鸿沟,如何弥补这个数字鸿沟?我想应该去找有资质的国际组织去协调全世界的多边组织和我们的会员国,去真正解决这样的问题,应当发挥以联合国为核心的作用,去团结不同的国际组织。”曾毅说。
【责任编辑:刘如英】
【内容审核:符 坚】
版权声明:国际旅游岛商报全媒体文字、图片、视频、音频等版权作品,欢迎转发,但非经本报书面授权同意,严禁包括但不限于转载或改编、引用等,违者必追究法律责任。
相关阅读/RELATED READING