分享缩略图
DeepSeek带来AI哪些新突破?如何看待人与AI的未来?
 

时间:2025年2月27日
嘉宾:中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家 曾毅

中国网:近日,名为DeepSeek的国产生成式人工智能应用产品一经问世就引发了社会各界的关注,尤其是它表现出的低成本特点、完全开源的策略更受到热烈讨论。DeepSeek的到来会对行业格局和社会层面带来怎样的变化?在不断涌现的人工智能浪潮下,人类与AI应如何共生、共存?本期节目,特邀中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家曾毅进行解答。

中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家曾毅接受《中国访谈》专访。(董宁 摄)

中国网:曾教授您好,欢迎您做客中国网《中国访谈》。

曾毅:主持人好,各位网友大家好。

中国网:近日,国产大模型DeepSeek一经问世就引发了社会各界的关注。那您认为DeepSeek和ChatGPT有哪些区别?以及它的到来是否会重塑行业格局,对于社会还有人类生活模式会带来哪些影响?

曾毅:我觉得,从OpenAI推出ChatGPT开始,可以说生成式的人工智能确实从方方面面开始有了机遇去改善我们的人类社会,从经济和社会的发展,以及涉及到我们生活、应用的方方面面。实际上,原来我们更多的接触到的人工智能叫做判别式的人工智能。比如说识别一个物体,包括现在有一些应用识别看你吃的什么,含多少卡路里,来帮你计算是不是健康的食物。

但是生成式的人工智能是利用大规模的互联网语料去生成,根据互联网上的文本或者是图像视频生成一些具有统计显著性的答案。所以,生成式人工智能,可以说从用户交互的角度来讲,还是有非常大的显著的特点。这也是为什么像ChatGPT推出了以后,能够赢得这么多的互联网的用户。

DeepSeek的诞生实际上还是给了我们更多的期待。因为以前的生成式人工智能的发展,很多的互联网大企业都在跟我们的公众甚至是政府在传递一个非常重要的信息,就是大规模的数据必不可少,大规模的算力也是必不可少的。甚至有一些企业就会去讲,构建人工智能前沿的这个基础模型,基本上只有大厂才能做,初创的企业或者是说前沿的人工智能的研究机构,已经没有太多的机会去做前(沿)人工智能的基础模型的创新了。你只有在这个领域的微调,(在)应用上去做工作。这些前沿基础模型的创新都要由大厂,有很大的资源才能去做。基本上当时大家已经接受了这个事实,但是DeepSeek的诞生告诉大家并不是这样的。

中国网:就打破了大家之前的(这种认知)。

曾毅:可以说打破了大家的认知。DeepSeek告诉我们什么呢?第一,我对同一个问题,在回答的时候,别的这个生成式的人工智能的大模型,它的思考的深度是不够的,没有进行真正地对问题的反思,对于数据利用的反思和充分的分解。而当有了这样的深度思考的能力以后,即使说数据并没有变,但是,由于增强了深度的推理能力和对用户意图的揣测能力,使得问题的回答达到了前所未有的相当高的质量。

另一方面,即使做了这么多的深度的思考,但其实对于算力的需求并没有说增加很多。可能它使用的这个算力资源,甚至是小于ChatGPT10倍甚至100倍。这样的话带来的是什么呢?就是这个成本也是节约的。现在我没有这么大的算力,我没有这么多的资源的投入,也可以来进行这种深度的问题求解,而且这个事情变得可及了。

(DeepSeek与ChatGPT)最大的区别就是创新模式的区别。ChatGPT,就OpenAI最开始在成立的时候,希望是一个更开放的模式去构造人工智能。所以,大家开玩笑说,OpenAI走的这个路线现在是close AI,但是DeepSeek走的确实是开放的模式。

中国网:是,完全开源的一个特点。

曾毅:这个开源的理解实际上对于现代来讲,它是有一个重新的诠释,前沿人工智能模型的开源,目前主要是以开放权重的方式、开放算法的方式、模型架构的方式,而不是开放源代码。开放源代码对于人工智能来讲实际上就是存在很大的挑战。我觉得不仅仅是保护创新的这方面,最主要的是什么呢?人工智能前沿的大模型,它存在着很多的不确定性、风险和安全的隐患。如果真开放了源代码,这种有可能的风险和安全隐患影响的范围可能会更大,更可能被误用、滥用和和恶用。

像现在的很多开源的人工智能,特别是前沿人工智能的大模型,实际上主要指的是模型架构权重的开放,指的是算法的披露,但是它并不是真正意义的源代码的开放。所以,我刚才也讲了源代码的开放,从现在人工智能的科学研究角度,其实并没有证明,把源代码完全的开放是更好的。这个现在在学术界、科技界其实还是存在很多争论的。有很多前沿的人工智能的研究者都不太赞同完全的把源代码开放。但是,我觉得这个问题现在并没有真正的答案。因为让我们来看开源的精神和它真正发展的路径,如果没有真正的开放源代码,可能也确实没有像Unix、Linux这样优秀的操作系统的诞生,也没有这么强大的开源的社群来支持新系统的构建。所以,真正开放源代码这个层面,其实它还是各有利弊,还需要非常谨慎地去探索。

所以,我觉得OpenAI和ChatGPT,它们跟DeepSeek比起来,DeepSeek讲了更多的实话,数据可以被更好的利用,在没有那么强大的算力的支持下,仍然可以提升智能的水平。这个事情也并不一定只有大厂才能来做,而且使用生成式人工智能的成本可以大幅降低。所以,你可能也注意到了当DeepSeek上线以后,我们国内很多其他的人工智能的前沿大模型的服务,第二天就开始降价了。为什么?这就证明其实它这个成本,实际上并没有我们想象的那么高。对于用户的可及性来讲的话,你的价钱降下去,它的包容性、用户的可及性,以及我们赋能的能力,赋能更多的千行百业,以及我们的技术走出去,被很多的中低收入国家使用,都打开了无限的可能。

中国网:像ChatGPT还有DeepSeek这些都是比较优秀的生成式AI代表。但是您以前曾经提到过,像这样的技术可能它不是智能的本质。那究竟什么才是真正意义上的人工智能呢?

曾毅:我们可以说生成式的人工智能,它从行为上来讲的话,确实是弥补了判别式人工智能相对来说比较单一维度的对于智能行为的模仿。但生成式人工智能,总体来讲的话,它其实还是在行为上来模仿人类的智能,还不是完全从机制上来模仿人类的智能。不管是以前的判别式人工智能,还是现在主流的这种前(沿)人工智能大模型,生成式人工智能,它的起点都是数据,就是你如何去更好地去利用这个数据。但其实人类就是通过数亿年的自然演化,我们现在的起点不完全是数据,我们随着数亿年自然演化的锤炼,我们的学习、发育、演化的机制,以及我们大脑的结构,这个也是我们智能的起点。

人工智能特别是传统意义上的大数据的机器学习,实际上,它主要谈的是学习的这个维度。而且从解决问题的机制来讲的话,就存在着千差万别。为什么以前的生成式人工智能它会用这么大的算力、这么多的数据?就是因为它的智能结构和算法设计不够好。但是大家要知道,我们整个人类演化的过程,它在干什么?它在不断的做优化。如果你这样解决问题不好,我的大脑结构就这样去组织。如果说是解决一个问题,像DeepSeek最近就有一个非常重要的一个进展,叫做动态路由机制。这个跟大脑就非常相接近了。动态路由的这个机制,现在我做的这个是什么任务,最开始做一个判别以后,它就把这个任务路由到整个的大规模网络当中,更适合解决比如说数学类的问题,更适合解决交互式的对话问题,还是说更适合解决一些物理、化学类似于这样的问题。我们人类大脑是这样的。

中国网:相当于分类了。

曾毅:对,我们的人类大脑是这样的。我现在解决这个问题,需要用到的是哪些脑区,就自动地、自主地去动态地规划哪些脑区应该参与到计算的这个过程当中。所以,DeepSeek它现在引入的很多计算机制,已经从机制和结构这个角度逐步地接近人类的大脑。我并不觉得它的目标是要仿造大脑,因为我们构建人工智能是没有必要完全的反向地重构一个大脑的,你需要的是从大脑解决问题的过程当中去受到启发。

比如,我们刚才说的动态路由机制,这个就是大脑非常明确的问题求解的一个妙招。再比如说像DeepSeek当中引入的多层的注意力的机制。人在求解问题的时候也是这样的,我们在开车的这个过程当中,旁边比如说很多过去的楼、建筑、人,但是你在开车的过程当中,其实你不会注意每一个细节。你可能会注意到的第一个就是你感兴趣的,第二个就是在你看来对于开车这件事情可能有风险的事情。所以,注意的机制,特别是多层的注意机制,是人的大脑在解决问题的过程当中会使用的。这些机制可以说在原来很多的生成式的人工智能当中的产品和服务当中做的都不是很好。

中国网:您对于未来人工智能的技术发展持有一个怎样的态度呢?您是更乐观的看待,还是说相对比较悲观呢?

曾毅:我认为是这样,近期人工智能技术的进展可以说是这样的。以前的人工智能它在行为的产出上还跟人类具有很大的距离。但是现在生成式人工智能的进展,在这种行为上的表现上,已经拉近了跟人类行为之间的距离,是前所未有的拉近了。

我们在构建一个通用的工具,叫做general purpose AI,通用的人工智能,一个通用工具。但是这个跟人工通用智能是不一样的。人工通用智能,我们说的叫做AGI,就是artificial general intelligence。那个说的是什么呢?那是真正的人类智慧的方方面面都具备,达到了人类的水平。所以,我们说现在的生成式人工智能的发展,距离我们真正构造一个通用的工具来讲,可以做个比喻:假如说有一棵大树,原来我们可能在这个树根往上爬,还没到达树干,还没到达这些分支上,现在的生成式人工智能最新进展,使得我们基本上快达到树梢了,基本上快够到这个树的最高的位置了。但是,这个树的最高位置是通用人工智能,就是general purpose AI,但是人工通用智能就是真正意义的AGI,其实是那个月亮。所以,你看到真正的区别了。

在我看来,工程意义的在行为水平上达到人类的水平,工程优化方面达到通用的人工智能,这个可能是两三年会取得一个非常重要的突破。但是真正从机制上,真正人类智慧的这种本质上来达到人工通用智能的水平,在我看来,我觉得还要20年到30年真正的科学的探索。

关于(对技术的发展)是不是乐观的,很多人说你们做人工智能风险和安全的研究,会不会人类最后被人工智能替代,人工智能是不是真正威胁到人类的生存?我觉得那取决于我们如何去构造一个人工智能。现在的方法就是人工智能,包括其实DeepSeek这次采取的这种强化学习,完全强化学习的方式去训练一个大模型的时候,强化学习实际上是什么呢?就是告诉它对错,做什么是可接受的,是对的,做什么是不对。这时候取决于谁去教它,好人去教它,它就学做一个好人。你给它丢到一个坏人窝里,它学到的那就是它干好事儿人家就去惩罚它,它干坏事人家就去奖赏它。这个时候人工智能将会走向何方呢?所以,最关键的还是我们如何去塑造人工智能才是关键的。

现在生成式人工智能的进展中,特别是(关于)它的安全风险里面有一个词叫做越狱,我们想什么样的人关在监狱里呢?可能犯了法的人,犯了罪的人,或者一般意义上来说,人们说是这个坏人可能是更多的关在这个监狱当中的,但那是什么意思呢?实际上意思就是说,似乎人工智能本质是坏的,我要把它关起来,不要让它做坏事。所以,这不是更长远的、更可持续去塑造人工智能的方式。

如果一个人工智能我们最开始,就是去塑造它的自我感知的能力,让它获得自身的经验,获得情感共情、认知共情的能力,让它产生道德的直觉、利他,具有道德推理这样的能力。在构造人工智能的过程当中,在塑造的是人工智能的善,在塑造的是这个智能的本质,牵引它向善的去发展。要像真正去培养孩子一样,让它去基于理解,去理解人类社会的规则和人类社会交互的这种方式,以这样的方式去塑造它的话,那我对于人工智能未来,仍然是非常乐观的。

因为在我看来,如果人工智能是真正意义的通用人工智能、超级智能,那它应该也是超级利他的。我们人类其实也没有停止演化。最开始人类不断地索取自然的资源,但我们也有反思。后来这个智慧,我们讲绿水青山就是金山银山,我们知道如何去跟动物、生态进行和谐的相处,适度的索取,而不是无度的挥霍自然的资源。这也是人类社会发展过程当中一个不断的反思的过程。所以,这个演化的趋势就是这样的,就是利他的这个行为的趋势,超级利他的人工智能才是人工智能的未来。

现在人工智能是这样的,我用中国的智慧来对它进行解读的话,王阳明的心学当中有一个非常重要的思想,用四句话来表达的。人工智能最开始是“无善无恶心之体”。人工智能在没有接触人类数据的时候,它就是个算法,是无善无恶的。后来接触了人类的数据,它就变得有善有恶了,所以叫做“有善有恶意之动”。第三个阶段叫做“知善知恶是良知”。人工智能现在是不会知善知恶的。你想教给它,让它知善知恶,告诉它什么是对的,什么是错的。但是,你告诉它,跟“知”是两个概念,我们真正说的“知”是理解。最后就是“为善去恶是格物”。现在人工智能只是“有善有恶”,我们要让人工智能塑造为“知善知恶”,塑造为“为善去恶”。但这个过程当中,不是说就停留在这,继续往前推就可以了。有可能在科学意义上的人工智能,也许要颠覆现在的人工智能的这种模式,再进行一个极致的创新。

所以,大家看到现在包括DeepSeek的发展,当时梁文锋先生在讲DeepSeek跟其他的人工智能大模型的探索的最大区别是什么?他也讲到了,就是原始创新的这种能力。原始的创新能力,它可能是我们讲的逐步迭代的。我们自顶向下,越来越逼近智能的本质和智能的机制。另外一方面自底向上,如果对智能的机制有科学的研究,然后往上推,再构建在行为意义上的人类水平的人工智能。这样自顶向下和自底向上的结合,受到人类智能机制和水平的启发,构造真正科学意义上的人工智能。这才是我们构造的真正能够与人为善,真正的AI向善,我觉得那才是我们未来真正期望,也只有是这样构造的人工智能,可能才是值得我们去对它的未来(感到)乐观的人工智能。

中国网:所以就像您刚刚说的,未来人工智能的发展其实还是取决于背后人的决策。就像您刚刚说王阳明的格物致知,还有目前我们中国推行的“智能向善”的理论政策。

曾毅:是的。

中国网:像数字鸿沟、算法黑箱、AI换脸等,都是人工智能所带来的潜在风险,并且这些风险也不容小觑,尤其是在安全和治理方面。那您可以再谈一谈具体我们应该如何更好把关和规范AI技术,以使其稳健发展?

曾毅:大家目前都使用生成式人工智能,很多时候它能帮你节省很多时间,分析一些材料,帮你找到你想要的东西,去回答一些你不知道的问题。但是大家也会发现,生成式人工智能产生的答案的可靠性,其实有时候是非常堪忧的。再有就是现在人工智能还会以人类不可预期的方式,甚至也不知道它什么时候犯错误,而造成可能的安全隐患。

为什么?其实造成的安全隐患,有人工智能技术发展内部的原因,有外部攻击的原因。大家可能最近也关注到了,DeepSeek上线的时候,有很多来自于境外的这种恶意的攻击。实际上,这是我们说的安全隐患的两方面。一个是模型内部的稳健性的问题,这是我们说的safety的问题。一个是外部的攻击,这个的问题叫做security的问题。

但是我想更关键的是什么呢?是正确的认知。人工智能现在所处的阶段,这个对于公众、政府,甚至是科研人员都非常的重要。为什么会受到这些安全隐患的威胁?因为对人工智能没有一个正确的认知,对它该设防的地方没有设防。比如,如果你有想法,你知道它有可能犯错,你知道它的答案不一定可靠,这个时候你对于它产生的这个答案,你就会有一个更理性的方式去看待它,就不会让人工智能全面地去代替人类的自主决策。实际上,人工智能永远不应该代替人类全面的自主决策。不管怎么样,它现在还是一个看似智能的信息处理的工具,所以,它确实不能够代替人类进行决策。当你对人工智能有了正确的认知,在你的意识上有了对它的护栏,有了适当的监管。这样也能够更好地避免它可能潜在的风险。

最近我也关注到,特别是生成式人工智能的发展。很多人喜欢跟豆包、喜欢跟DeepSeek去对话,甚至有些人把它们当作朋友,所以也有很多青年沉迷于跟人工智能之间的交流。这个现在已经成为一种社会问题了,但实际上这种沉迷,它的根本就是对于生成式人工智能的本质没有一个正确的认知。

现在的人工智能技术,它能够分析人类的情感,它能够对人类的情感做出一些回应。但是它不是真正具有情感,没有生命,也没有真正的意识,现在确实也不是真正意义的人类的伙伴,只是一个工具。但是有些人说我跟它聊天很舒服,它就像我的朋友,能够理解我。所以,我再次的强调,人工智能能够做情感的分析,但是它不具备真正的情感。它可以进行某种程度的这种情感的陪伴,但是它不是真正的像人类理解情感一样,对人类情感进行深刻的理解。因为它自己本身没有真正的情感。所以,现在人工智能模型实际上是并不具备深刻的自我的模型。

中国网:我们目前还是应该把人工智能当成工具,而不是更多地期许它(能)有一些人类的行为来对我们进行一些反馈。

曾毅:不仅仅是一个工具,而且是一个辅助的工具。就不要让它,特别是不要让人工智能代替人类的决策过程。

中国网:好的,谢谢曾教授今天精彩的作答。

曾毅:好,谢谢各位网友。

(本期人员:编导/主持:汪雅雯;摄像:刘凯 王一辰;后期:刘凯;图片:董宁;主编:郑海滨)

< 阅读全文>
< 收起>
来源:中国网
(本期人员:编导/主持:汪雅雯;摄像:刘凯 王一辰;后期:刘凯;图片:董宁;主编:郑海滨)
网站无障碍