LeCun的观点获得关注:符号操作是否需要硬编码,或者可以学习吗?这是停止研究混合模型(即具有不可微分符号操纵器的模型)的呼吁吗?当然不是

695次阅读
没有评论

LeCun的观点获得关注:符号操作是否需要硬编码,或者可以学习吗?这是停止研究混合模型(即具有不可微分符号操纵器的模型)的呼吁吗?当然不是

本文从人工智能的角度探讨了智能的本质和定义,并提出了一些关于智能的有趣思考。

首先,作者指出,虽然人工智能能够完成一些看似“智能”的任务,但它并不具备真正的智能,因为人工智能的行为是由程序和算法所决定的,它们不具备人类的认知和情感能力。所以,智能不仅仅是简单的任务完成能力,还包括了对于自己和周围环境的感知和理解以及对于情境的适应和反应能力等多方面的综合能力。

其次,作者讨论了“大脑为何会产生智能”的问题。他指出,智能是由我们的神经系统和认知体系共同构成的,大脑中的神经元和突触之间的复杂互动才是决定智能的关键因素。而这种复杂的神经网络结构,也是目前人工智能最关注的模拟对象。

最后,作者提出了一个有趣的思考:如果我们能够创建出完全模拟人类认知的人工智能,那么这个人工智能是否也拥有了自己的灵魂呢?他认为,这个问题涉及到了哲学和宗教上的问题,或许根本无法完全解答。

总体来说,这篇文章围绕着智能的本质和定义展开了一系列的探讨和思考,对于人工智能和智能本身都有一定的启示作用。

 

博客原文(英文全文):

在人工智能领域中,如果有一件事是常数的,那就是夸张:总是存在令人激动不已的炒作和咒骂。偶尔回顾一下我们所处的位置是很有帮助的。

当代人工智能的主导技术是深度学习(DL)神经网络,这是一种自我学习的大型算法,擅长识别和利用数据中的模式。自问世以来,批评者就过早地认为神经网络已经遇到了无法逾越的障碍,每一次都被证明是暂时的障碍。在20世纪60年代,它们无法解决非线性函数。到了20世纪80年代,通过反向传播算法解决了这个问题,但是新的问题是训练系统的难度。20世纪90年代出现了简化程序和标准化体系结构的生成,使得训练更加可靠,但是新的问题是缺乏训练数据和计算能力。

2012年,当当代图形卡可以对大规模的ImageNet数据集进行训练时,深度学习进入了主流,轻松超越了所有竞争对手。但是接着,批评者发现了一个新的问题:深度学习需要太多手工标记的训练数据。过去几年已经证明了这个批评是无效的,因为自我监督学习产生了令人难以置信的系统,比如GPT-3,这些系统不需要带标签的数据。

今天看似不可逾越的障碍是符号推理,也就是可以按照代数或逻辑常识进行符号操作的能力。正如我们小时候所学的那样,解决数学问题涉及根据严格规则逐步操作符号(例如,将最右边的列相乘,将额外的值传递到左边的列中等)。《代数思维》的作者Gary Marcus和《重启AI》(与Ernie Davis共同编写)的合著者最近认为,由于神经网络难以处理这种类型的符号操作,因此深度学习无法实现进一步的进展。与此相反,许多深度学习研究人员相信,深度学习已经在进行符号推理并将继续改进。

这场辩论的核心是智能中符号的作用的两种不同的视觉,都是生物和机械的:一种认为符号推理必须从一开始就被硬编码,而另一种认为它可以通过机器和人类的经验学习。因此,这个问题不仅关乎最实际的前进方式,还关乎我们应该如何理解人类智力,因此如何追求人类水平的人工智能。

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy