中国网:近日,名为DeepSeek的国产生成式人工智能应用产品一经问世就引发了社会各界的关注,尤其是它表现出的低成本特点、完全开源的策略更受到热烈讨论。在巴黎举行的AI行动峰会上,各国如何看待DeepSeek?AI全球治理达成哪些共识,又面临哪些挑战?中国人工智能应该继续深入研究哪些方向?本期节目,特邀中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家曾毅进行解答。
中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家曾毅接受《中国访谈》专访。(董宁 摄)
中国网:曾教授您好,欢迎您做客中国网《中国访谈》。
曾毅:主持人好,各位网友大家好。
中国网:我们了解到不久前您参加了在巴黎召开的人工智能行动峰会。在国际层面上,大家是如何看待DeepSeek还有中国人工智能技术的发展?
曾毅:中国近期的人工智能的发展,应该说给了世界很多的信心。以前,大家都会觉得人工智能最新的进展基本上在美国、中国,或者是领先的一些欧洲国家的手里,像英国和法国做的也是不错的。但是这些技术是不是能够真正的普惠,能够真正的包容性的发展,让它赋能于甚至中低收入的国家,其实是打了问号的。
为什么这么说呢?首先,生成式人工智能基本上都是要直接使用它的终端的应用服务。如果要进行一些开发、进行微调,但是微调的技术也没有那么成熟,这对于很多的国家来讲技术本身可及性其实是非常差的。所以,如果想使用和发展生成式人工智能,可能不得不依赖于美国、中国的一些进展。
但是DeepSeek的进展把创新的模式进行了很大的调整。这种调整不仅仅是把成本降下去,更关键的是模式的创新。这种模式的创新就是这个技术,希望能够更普遍地惠及全球,在降低成本的同时,使得这个技术本身,这个模型的参数变得更可及,采取一种更开放的模式,是人人可获取的这样的模式。它的大前提是非常少的,不是说要签一个什么协议等等的,包括怎么进行利益分配,然后才能够使用这个技术和基于这个技术进行二次的开发。
所以,这不仅仅是对于中低收入的国家,甚至是对于(拥有)最强大的人工智能技术的这些国家(也很有意义),包括美国。美国现在很多的服务商都开始上线DeepSeek的模型。以前中国创新的模型,从来没有如此大规模的在像美国这样的国家被广泛地接受,而且几乎对于DeepSeek采用的这个模式,以及(对)它的创新批评的声音是非常有限的。所以大家对于DeepSeek所取的进展,以及它推崇的这种模式,可以说都得到了广泛的认可。
所以,这个也是在巴黎峰会上,虽然说在巴黎峰会的主会科学日,其实真正发言的中国的学者和产业其实是非常有限的。但谈到人工智能的创新,谈到前沿人工智能的模型的阶段,几乎大家都会提及到DeepSeek。所以,我想这一波来自中国人工智能的创新,确实引起了世界的广泛关注。
我想也不仅仅是DeepSeek,我们可以说DeepSeek其实催生了生成式人工智能整个产业,包括基础模型的这些大厂进行深度的反思。其实大家知道通义千问,阿里的这个模型实际上也是开放权重的,只不过原来在效率上各方面可能没有DeepSeek做的这么精进,而且开源的模式也没有进行这么清晰的推广,至少接受度没有达到那么高。所以,也让这些大模型的公司进行深刻的反思。所以,这不仅仅是对世界提供了中国的力量、中国的思考,实际上,对于中国内部人工智能的变革、服务的模式、创新的模式,也是进行了一场深刻的反思。
所以,我觉得巴黎峰会,叫做人工智能行动峰会,实际上也体现了最近对于创新和发展,既多了非常多的期许,也由于DeepSeek的发展多了无限的可能。以前我们讲,我们应该让人工智能赋能更多的人,不使任何一个人掉队。但是人工智能的产品服务它的使用,第一个就是门槛,第二个它不是完全的在经济的压力下,是每一个国家都可及的。由于DeepSeek的相关进展,我们可以看到趋势就是这样,方向就是这样的。我们可不可以做得更好,我不是说它们已经做得极好,不是这样,(还)有非常大的改善的空间。但是使得生成式人工智能能够惠及所有需要的人,这件事情我们已经看到曙光了。
中国网:是,DeepSeek的出现,其实相当于给很多小国家,或者以前人工智能发展没有那么普及的国家带来了希望。
曾毅:是的。
中国网:我们也注意到在峰会结束后,有61个国家共同发布了《巴黎人工智能宣言》,但是英美两国拒绝签署该声明。您怎么看?以及目前人工智能在全球治理方面都遇到了哪些挑战,我们又该如何应对这些挑战?
曾毅:首先,这个会议的包容性,应该说在整个系列会议当中已经做到了前所未有。因为这三届会议我都参加了。第一届会议在布莱切利的时候,实际上只有28个国家加上欧盟来签署。
中国网:这次有80多个国家。
曾毅:对,这次一个是80多个国家的政要,就是真正以国家的层面支持参与这个峰会,但最后参加这个峰会其实达到100多个国家相关的政产学研的力量,包括当时法国峰会的特使还专门来到中国,邀请政产学研各界去参与。所以,巴黎人工智能行动峰会在我看来,是在国际组织体系以外,在包容性上做得是非常好的。
但另外一方面,就是大家看到这个共识最后签署的,80个国家没有都签署。一方面,大家注意到英美没有签署的事情。首先,对于巴黎峰会产出的声明,实际上,我感觉应当还是被赞赏的。因为行动峰会本身它的基调是推进人工智能发展的行动。它强调了人工智能的发展是要在构建高度安全、低风险、可信的人工智能的基础之上的。另外一方面,它也肯定了布莱切利会议和首尔会议在人工智能安全方面取得的进展,并且它也强调了未来的人工智能在发展的过程当中,在信息的完整性、互联网的数据质量方面要进一步的提升和探索。
为什么英国和美国没有签署这个,当然我觉得有表面的原因,也有背后的原因。表面的原因,像美国的万斯在发言的时候有讲到,我们要推进发展,要抓住这个机遇,他讲的这个跟巴黎行动峰会的精神其实是一致的。但是他也谈到不能够进行过度的监管。所以,这个事情,他还用欧盟举例子,像包括GDPR(《通用数据保护条例》)或者欧盟的人工智能法(《人工智能法案》),是不是都算是过度的监管。
我觉得仁者见仁,智者见智。实际上这些发展,数据安全、人工智能法这些其实是保证人工智能的稳健地发展。我不认为那是完全的过度的监管。包括美国的发言强调,他也不是说完全不考虑人工智能的安全,他多次强调过度的监管将会扼杀发展。过度监管确实会扼杀发展,但是做人工智能安全、风险和治理的研究,它的目的从来不是过度监管,从来是维护稳健的发展。所以,我觉得用这一条拒绝说在上面签字,是不合适的。包括里面可能谈到可持续发展的一些议题,对于公平性、包容性的一些强调,有些人说是因为这些原因他们才不签字,这个恐怕也不完全属实。所以,我觉得可能还有其他的背后的原因,但表面上的原因是不成立的。因为在这个声明当中确实也强调了对于安全的重视。
英国方面,我的理解是英国可能更希望从首尔峰会,包括法国巴黎的行动峰会更多的强调人工智能安全的重要性和在人工智能安全方面采取行动。而这次巴黎的人工智能行动峰会,可能它的成果和声明是希望全面地发展人工智能,在人工智能促进包容性、可持续性上全面的采取行动,而不仅仅是在安全方面采取行动。
最开始,英美开始牵引各个国家成立人工智能安全相关的机构。首尔峰会的时候,主要的产出一方面是企业的安全自愿承诺,还有就是人工智能安全研究所联盟。可能比较遗憾的就是人工智能安全研究所联盟在首尔峰会宣布的时候,其实并没有把中国纳入。有些人说是因为中国没有国家级的人工智能安全研究所,这个理由实在不成立。因为纳入的十家单位,他们当时也有很多没有人工智能安全的研究所。其实这还是“小院高墙”的一个模式,并没有在巴黎人工智能行动峰会得到改善。
所以,在巴黎人工智能行动峰会的主会上,至少在人工智能安全的方面真正的成果确实是不多的,但是也不能说没有进展、不重视。因为在它的主会上的21个重要的环节当中,有7个环节其实都跟人工智能的安全风险和治理相关,所以也不能说它不重视。
但是另外一方面,我们也可以看到,在强调安全的同时,强调人工智能应该包容性的发展,应该可持续的发展,应该在人工智能的发展和应用当中节约能源。所以,我觉得很有意义的一项提案,就是跟国际能源署合作来成立人工智能的观测站,在全球的观测站。人工智能在推进可持续发展各个目标实现的过程当中,推进了比如环境、生态、经济和城市建设的可持续发展。同时人工智能的应用,它也对资源的利用有高能耗的缺点。所以,建立人工智能能效的观测站、能源的观测站,实际上就是在发展过程当中,在无时无刻的提醒各个国家,在通过人工智能推进发展的同时,是不是取得了平衡。所以对于可持续性方面的强调,我觉得是这次巴黎人工智能行动峰会一个非常重要的亮点。而且是对于这种可持续性部分提出了它的行动方案。所以,这也是为什么中国会在上面签字。
第一,中国政府看到了对于安全治理实际上是有强调的。第二,对于包容、可持续性的强调。第三,也是非常重要的一方面,巴黎人工智能行动峰会相比前两届,其实它更多的突出了联合国的已有成果和联合国作为一个政府间的机构可以发挥的作用。所以,它给予联合国更多的认可。这个也跟我们国家在人工智能的全球治理、全球发展的过程当中,在与国际机构互动层面的政策非常的吻合。
中国网:是,就像您刚刚提到的,您亲身经历了这三次峰会,包括最近您也发布了一篇关于您参加这三次峰会的一个启示录。其实,您最大的感受是不是就是像刚刚您提到的联合国监管的参与,包括各国对于人工智能安全监管方面越来越重视了。
曾毅:我觉得是这样,是不是说现在大家对于人工智能风险安全越来越重视。首先,我感觉总体的结论应当是这样的。但另外一方面,我们也看到了一些退缩,这种退缩就是跟发展的机遇相冲突的时候,发展和安全应该先顾哪头,大家觉得这是一个选择题,是一个单选题。其实,它不是单选题,你可以稳步地推进发展,大力推进发展的同时做到更安全。但是对于科技政策的制定者,对于地缘政治来讲,他们总觉得……
中国网:考虑的就更多了。
曾毅:对,他们总觉得你要重视安全的问题,似乎人工智能就会少用,就会影响发展。实际上完全不是这样的,科学技术的进展完全可以做到对于人工智能的充分使用和发展,但同时做到更安全。所以,在我们看到美国和英国看上去好像是退出了这样一个共识的机制的现象的时候,我们更要去提醒相关的国家,人工智能安全是一个必答题。
我们近期发布了“全球人工智能安全指数”报告。这个指数它讲了一个核心的问题,其实是什么呢?如果说一个国家它的人工智能的发展水平跟它的经济水平正相关,我觉得没问题。但是一个国家在风险安全的应对能力上,如果还是跟它的经济发展正相关的话,那就有很多的改变需要做了。我要说的是现在这个现象是不对的。
你的人工智能发展水平可以跟那些相对发达的国家存在差距,这个很难短期弥补。但是因为人工智能的应用,不管怎样都会在你的国家遍及,不管是说更发达的国家它要寻找发展的机遇,在别的国家寻求这个应用,还是说你自己也有这种发展的诉求,人工智能都会逐步地进入到各个国家的人们的生活和社会的服务,以及推进经济发展的这个过程当中去。即使你的人工智能发展水平没有那么高,但是你的人工智能安全风险治理的就绪度方面要做的更充分。
所以,实际上,我们的“全球人工智能安全指数”报告是在提醒各个国家,要充分地去提升人工智能安全的就绪度的水平,以使得国家免于在人工智能风险出现的时候,大范围的波及到,并且产生不必要的风险、安全的隐患和伤害。
中国网:那您认为接下来中国在人工智能领域应该继续深入探索哪些方向?
曾毅:第一个就是中国在应用的方面潜力无限。但也正是因此,我们发展人工智能要更稳健稳步的发展。人工智能现在的发展,它是不是能够撑得起我们对它的期许,是不是能够在很多关键应用的过程当中,真正的完全的替代,这个还是要更稳健的探索。
另外一方面,就是这次的发展给我们更多的启示是什么?就是当你去追求未来的人工智能的发展,迎来更多的中国时刻的时候,你的这个布局就一定不是从今年想突破明年,从去年的年底或者说经过半年、一年的准备,而是在这个创新的模式上挑战“不可能”。
第一个,在机制上有没有重塑的可能,创新的机制或者是包括人工智能的算法创新,有没有这种颠覆的这种可能。第二个就是对于在别人看来不可能的这种探索有没有胆量去挑战。DeepSeek做了一个回答,就是可不可以是百倍少的算力。最开始别人说不可能,现在已经很优化了。但实际上在这种工程优化已经做到如此极致的情况下,再缩小百倍仍然是有可能的,所以,更何况现在硬件方面也还在进一步发展。最关键的就是回答那些不可能。
科学研究是什么?科学研究,真正的科技创新它的本质就是把不可能变成可能。所以,我觉得未来中国人工智能的发展,广义的科技的发展,就是把更多的不可能变成可能。对于创新更有信心、更自主地去创新,回答更多的未知,探索更多的未知,但是在应用的这个层面更理性地去探索。
科学技术的发展,它的目的永远是推进人类社会的发展和生态的和谐。所以,科学技术的发展目标永远不是完全的替代人类。当地球上没有人类的时候,实际上这个地球也蛮好的。但是人类来到了地球,是人类需要这个地球,而不是地球需要人类。人类需要科技去推进发展,但是人类不需要通过科技让人类从这个地球上消失。所以,在全球的发展的过程当中,真正的大智慧是什么?在你有这个能力去改变世界的时候,你要知道哪一部分世界是应当被科技改变的,哪一部分是应当留给人类之间去互动的,这个才是真正的大智慧。
中国网:好的,谢谢曾教授今天精彩的作答。
曾毅:好,谢谢各位网友。
(本期人员:编导/主持:汪雅雯;摄像:刘凯 王一辰;后期:刘凯;图片:董宁;主编:郑海滨)
相关节目: