微信 手机版
首页 > 产品 >
世界今头条!图灵奖得主杨立昆:AI的逻辑推理和规划能力有限,会犯事实错误和逻辑错误 2023-06-11 21:10:05  来源:搜狐科技

出品|搜狐科技


【资料图】

作者|郑松毅

6月9日,2023智源人工智能大会在北京举办。法国当地时间凌晨四点,被誉为“世界深度学习三巨头”之一的杨立昆(Yann LeCun)在法国视频连线北京现场,发表了主题为《走向能够学习、推理和规划的大模型》的演讲,表达了对于人工智能的深度思考。

搜狐科技在智源大会现场观看了这场演讲,从杨立昆演讲时面露微笑的表情中,可以感受到杨立昆对于人工智能发展的积极乐观态度。此前在马斯克等人联名签署联名信提出人工智能发展将给人类文明带来风险时,杨立昆曾公开反驳,认为人工智能尚未发展到给人类构成严重威胁的程度。演讲中,杨立昆再次强调人工智能是可控的,他表示,“恐惧是由对潜在负面结果的预期引起的,而兴高采烈是由对积极结果的预测产生的,像这样由目标驱动的系统,我将之称为‘目标驱动的人工智能’,它会是可控的,因为我们可以通过成本函数为它设定目标,确保这些系统不会想要接管世界,相反,它会屈从于人类和安全。”

杨立昆表示,人工智能距离人类和动物的能力差距在于逻辑推理和规划,这是智能的重要特征,现在的大模型只能“本能反应”。

“如果你用一万亿或两万亿个token来训练它们,机器的性能是惊人的,但最终机器会犯事实错误、逻辑错误,它们的推理能力是有限的。”

杨立昆强调,基于自我监督的语言模型无法获得关于真实世界的知识。他认为,与人类和动物相比,机器的学习能力并不是很好。几十年来,研发系统的方式都是在用监督学习,但监督学习需要太多标签,学习任何东西都需要进行大量的尝试,强化学习的结果却不尽人意,这些系统是脆弱的,会犯愚钝和错误,且并不会真正地推理和计划。

“就像我们在演讲时,如何从一个观点表达到另一个观点,怎么解释事物,大脑里是有计划的,而不是一字一句的即兴发挥。也许在低层次上,我们在即兴发挥,但在高层次上,我们一定是在规划。所以规划的必要性是非常明显的。我的预测是,在相对短的几年内,理智的人肯定不会再使用自回归元素(自监督学习方法中的模型之一)。这些系统将很快被放弃,因为它们是无法修复的。”

他表示,为了让语言模型真正理解真实世界的知识,需要一个新的架构来取代,而这个架构就是他在一年前所发表的论文中提出的架构,“自主智能(Autonomous Intelligence)”。这是由一个配置模块控制整个系统,基于输入信息,进行预测、推理、决策的架构。其中的“世界模块”具备估计缺失信息、预测未来外界状态的能力。

谈及未来几年AI将面临的挑战,杨立昆指出三个方面,其一是学习世界的表征和预测模型;其二是学习推理,即学习如何有意识、有目的地运用思维去完成任务;最后一个挑战是如何通过将复杂任务分解成简单任务,以分层的方式运行来规划复杂的行动序列。

谈到这里,杨立昆介绍了他发表在论文中的另一个模型“世界模型(World Model)”,该模型可以想象一个场景,并根据场景预测行动结果。目的是找出一系列根据其自己的世界模型预测的行动,并最小化一系列成本的行动序列。

当杨立昆在提问环节被问及有关即将参加的一场关于AGI的地位和未来的辩论时,他表示这场辩论将围绕一个问题展开,即人工智能系统是否会对人类构成生存风险。Max Tegmark 和 Yoshua Bengio 将站在“会”的一边,认为强大的 AI 系统可能对人类构成存在风险。而杨立昆和 Melanie Mitchell 将站在“不”的一边。

“我们的观点不是说没有风险,而是说这些风险虽然存在,但很容易通过精心设计来减轻或抑制。”

杨立昆认为,超智能系统尚未被研发出来,待其被发明出后,再讨论“是否能使超智能系统对人类安全”也来得及。

关键词:

热点文章
热点 图片