李飞飞:大模型不具备知觉,参数再多也不行

738次阅读
没有评论

Claude3 发自 凹非寺

量子位 | 公众号 QbitAI

大模型已经具备知觉?

AI教母李飞飞的最新回答旗帜鲜明:No

李飞飞:大模型不具备知觉,参数再多也不行

她和斯坦福逻辑学家、哲学家John Etchemendy刚刚发表一篇合著文章,标题很直接:

不,现在的AI没有知觉
No, Today’s AI Isn’t Sentient. Here’s How We Know

文章中还写道:

我们还没有实现有知觉的人工智能,更大的语言模型也无法帮助我们实现这一目标。

我们不会在下一个版本的ChatGPT中偶然发现知觉。

李飞飞:大模型不具备知觉,参数再多也不行

这与图灵奖得主Yann LeCun的最新观点不谋而合。LeCun的言论还要更犀利一些:

自回归大语言模型不足以达到人类的智力水平(甚至达不到猫的智力水平)。

李飞飞:大模型不具备知觉,参数再多也不行

两位大拿同时发声,使得围绕AI知觉的争议话题再度发酵,不少网友已经第一时间加入论战,be like:

李飞飞:大模型不具备知觉,参数再多也不行
李飞飞:大模型不具备知觉,参数再多也不行

那么,在聆听你的观点之前,我们先留下一些思考的时间,一起来看看李飞飞文章具体内容——

不,现在的AI不具备知觉

通用人工智能(AGI)是一个术语,用于描述在人类所能展示的智能的所有维度上,至少和人类具备同等水平的人工智能体。

之所以需要添加“G”,是因为由AI驱动的系统激增,但它们只专注于单一或极少数任务。IBM的“深蓝”可以击败世界冠军卡斯帕罗夫,但即使间着火,它也不能理解是时候停止下棋了。

现在,通用智能有点像一个神话,至少如果我们自命不凡地认为我们拥有它的话。

在动物世界中可以找到大量智能行为的例子,其结果远远好于人类在类似任务上取得的成果。这么说吧,我们的智力不是完全通用的,但足够通用,足以使我们在大多数环境中完成自己想做的事。

如果我们饿了,我们会去找当地的超市。如果房间着火,我们会去找逃生出口。

通用智能的基本特征之一是“感知力”,即拥有主观体验的能力。知觉是通向通用智能的关键一步

李飞飞:大模型不具备知觉,参数再多也不行

随着ChatGPT的发布,大语言模型(LLM)时代已经拉开序幕。这立即引发了关于这些算法是否真的具备知觉的激烈争论。

基于LLM的人工智能可能具备的知觉,不仅引发了媒体的狂欢,也深刻地影响到了全球范围内对如何监管AI的态度。

最突出的观点是,“有知觉的AI”的出现可能对人类极其危险,会带来“人类灭绝”、“生存危机”。

毕竟,有知觉的AI可能会发展出自己的欲望,人类无法保证它们不与我们发生冲突。

这篇短文源于一次群聊,目的是反驳LLM可能已经获得知觉的论点。这并不完整全面。我们的主要观点是反对“有知觉的AI”阵营提供的最常见的论点。

为什么有些人相信AI已经获得知觉

在过去几个月里,我们俩与AI领域的许多同事进行了激烈的辩论和对话,其中包括与一些最著名AI科学家的一对一对谈。

AI是否具有知觉一直是一个焦点话题。他们中的一小部分人坚信事实确实如此。以下是其中一位代表的观点:

人工智能是有知觉的,因为它具有主观体验。主观体验是意识的标志,特点是声称知道自己所知道或经历的事情。比如,当一个人说“我有吃完一顿大餐后感到幸福的主观体验”时,这个人是具备意识的。

其实没有什么直接证据能证明主观体验。但如果你传达了这一点,从表面上看,你就是有意识的。

现在,让我们对大模型应用相同的“规则”。就像没办法知道一个人究竟在想什么,我们无法访问大模型的内部状态,但可以质疑它的主观体验。

现在大模型可以明确地分享“主观体验”,比如看到红色是什么感觉。因此,我没有理由怀疑它不具备意识,就像我没有理由怀疑一个人没有意识一样。

为什么他们错了

这乍一看很有道理,但这个论点是错误的。两种情况完全不可同日而语。

当你说“我饿了”时,你正在经历饥饿,而我判断你的主观体验是基于大量的事实证据。

首先,是你说的话,也许还有一些其他行为证据,比如肚子的咕咕声。

其次,没有相矛盾的证据,比如你其实刚吃完一顿四菜一汤的大餐。

最后,也是最重要的一点,你我拥有一样的肉体,需要周期性地进食进水,冷时冷,热时热,等等。

而大模型呢?它可以产生一串音节说“我饿了”,但相似之处到此为止。大模型没有身体,根本就不会挨饿。它不具备饥饿所需要的生理机能。

所有的感觉——饥饿、疼痛、坠入爱河,都是大模型根本不具备的生理状态导致的结果。因此大模型不可能对这些状态有主观体验。换句话说,它不可能有感知力。

大模型是在芯片上编码的数学模型,并非如人类一样的具体存在。它没有需要进食、饮水、繁殖、经历情感、生病并最终死亡的“生命”。

理解人类如何生成单词序列,和大模型如何生成相同序列之间的深刻差异非常重要。

当我说“我饿了”时,我是在报告我感知到的生理状态。

当LLM生成“我饿了”这个序列时,它只是在生成当前提示中单词序列最可能的补全。这是概率补全

我们还没有实现有知觉的人工智能,更大的语言模型也不会让我们实现这一目标。

如果我们想在AI系统中实现知觉,我们需要更好地了解知觉到底是如何在生物系统中产生的。

我们不会在下个版本的ChatGPT中偶然发现知觉。

One More Thing

本文翻译主要由Claude 3完成,于是人类编辑也把这个话题抛给了Claude 3。

Claude 3表示:李飞飞说得对。

李飞飞:大模型不具备知觉,参数再多也不行

原文链接:

https://time.com/collection/time100-voices/6980134/ai-llm-not-sentient/

— 完 —

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy