马斯克:对,xAI 就是 OpenAI 的竞争对手!

599次阅读
没有评论

「我认为我们可以创建一个竞争性的替代品,希望它比 Google DeepMind、OpenAI 或微软更好。」马斯克说。

北京时间清晨 4 点,在 Twitter Space 会议上,伊隆·马斯克披露了他最新创业项目 xAI 的目标与相关细节,他预计 AGI 或将在不久成为现实,同时提出了关于宇宙、AI 竞争和监管、人类未来的系列观点,xAI 团队成员也参加了会议。

马斯克表示,xAI的总体目标是构建一个良好的 AGI,并以理解宇宙的真实本质为愿景。马斯克以物理学的视角谈到了宇宙的一些未解之谜,比如外星人在哪里,重力的本质等。他在会议上笑称,xAI 的使命其实可以直接重新表述为「实际上到底发生了什么」。

xAI 团队成员提到,行业当前的 AI 模型只是模仿它们所训练的数据,而他们真正想要做的是改变这种模式,让模型能够发现真相,不仅仅是重复它们从训练数据中学到的知识,而是能够提供真正的新见解、新发现

马斯克表示 xAI 是 OpenAI、谷歌的竞争对手,并在会上指出 OpenAI「现在已经变得封闭且非常追求利润」,与其最初的宗旨截然相反。

同时,马斯克自认是呼吁 AI 监管的最坚决的声音之一。他提到,构建一个具备好奇心和追求真相的 AI 是实现人工智能安全的关键,为了「政治正确」教 AI 撒谎其实更危险。他认为,在不拖累 AI 发展的情况下,牺牲一点时间确保 AI 安全是值得的。

马斯克:对,xAI 就是 OpenAI 的竞争对手!

马斯克和团队成员在 Twitter  直播上答疑解惑|Twitter

下面是听众与马斯克之间的重点问答实录

xAI 是 OpenAI的对手

问:作为xAI,你们进入了这个领域,人们都在讨论竞争,你们认为自己是 OpenAI 和谷歌等公司的竞争对手,还是完全不同的存在?

马斯克:是的,我认为我们是竞争对手,我们肯定是竞争对手

问:那么你们是否会推出许多面向大众的产品?还是你们主要关注的是企业和企业使用你们的服务和数据的能力?还是其他?

马斯克:我们刚刚开始,所以目前还处于非常初级的阶段,需要一点时间才能真正推出有用的东西。但我们的目标是使 AI 有用。我们希望它对人们来说是一个有用的工具,无论是消费者还是企业或其他人。正如之前提到的,我认为拥有多个实体是有价值的。你不希望 AI 领域只有一个公司主导,你希望有竞争。竞争能让公司保持诚实,所以我们支持竞争。

xAI 诞生「初心」

问:你希望xAI如何造福人类?与其他人工智能公司项目相比,你的方式有何不同?

马斯克:我对人工智能的发展一直有些挣扎。很长一段时间里,我对推动其发展持有抵触态度。OpenAI 的成立是因为在谷歌收购 DeepMind 之后,我曾与拉里·佩奇有过长时间的关于人工智能安全性的讨论,但他当时并没有对人工智能安全性给予足够的重视,甚至有一次称我为过于关注人类而非关注人工智能的人。我当时就在想,那么你是说你并不关注人类?这似乎并不好。

那时,通过谷歌和 DeepMind 的结合,拉里在公司中拥有超级投票权,如果得到谢尔盖或埃里克的支持,他们就完全掌控了如今的 Alphabet。他们拥有全球四分之三的人工智能人才、大量的资金和计算机资源。所以我当时想,我们需要某种对抗力量来平衡这种局面。

因此,我就在想,谷歌的对立面是什么?答案是开放源代码的非营利组织。然而命运似乎喜欢讽刺,OpenAI 现在已经变得封闭且非常追求利润,因为他们想在三年内投入一千亿美元,这需要吸引投资者来获得巨额利润

OpenAI 的发展方向与其最初的宗旨截然相反,真是非常讽刺。正如我的朋友乔纳·诺兰所说,最讽刺的结果往往是最可能的结果。嗯,我现在希望 xAI 不会变得更糟糕,但我认为我们应该对此持谨慎态度。但现在看来,AGI 的出现似乎是不可避免的。那么我们面临两个选择,要么只是旁观者,要么参与其中

作为旁观者,我们对结果的影响力不大,而作为参与者,我认为我们可以创造一种竞争性的替代方案,希望它能比谷歌 DeepMind、OpenAI 或微软更好。对于 Alphabet 来说,作为一家上市公司,其激励机制使其受到了许多行为方面的限制,这些行为可能会引发质疑。

微软也有类似的激励机制,作为一家非上市公司。xAI 不受市场激励或非市场的 ESG 激励的影响,所以我们在运作上有更多自由。我认为我们的人工智能可能会给出一些人们可能觉得有争议的答案,尽管这些答案实际上是真实的,但它们可能不符合政治正确。

因此,有些人可能对其中的一些答案感到冒犯,但只要我们在追求真实时尽量减少错误,我认为我们正在做正确的事情。嗯,就是这样。

xAI将会与特斯拉有合作

问:xAI是否会与特斯拉合作,在未来利用一些定制芯片,甚至可能设计自己的芯片?

马斯克:我们将会与特斯拉在芯片方面合作,也许在 AI 软件方面也会合作。显然,与特斯拉的任何合作关系都必须是一种交易,特斯拉是一家上市公司,拥有不同的股东基础。

但显然,与特斯拉进行合作是一件自然而然的事情。我认为与特斯拉的合作对特斯拉加快自动驾驶能力的发展将有互利作用,特斯拉实际上在解决真实世界的人工智能问题。我对特斯拉在真实世界人工智能方面的进展感到非常非常乐观,但显然,能够帮助实现这一目标的聪明人越多越好。

问:自三月以来,关于人工智能的讨论很多都集中在大型语言模型和生成式 AI 上。你和我谈到了现实世界的 AI 的重要性,包括 Optimus 和特斯拉的全自动驾驶(FSD)在内。你认为xAI在现实世界的 AI 中扮演了怎样的角色,与 OpenAI 等其他机构所做的有何区别?

马斯克:特斯拉在现实世界的 AI 方面,我认为是遥遥领先的,实际上特斯拉在 AI 方面的先进程度是没有被很好理解的。

我花了很多时间与特斯拉的 AI 团队在一起,所以我对现实世界的 AI 是如何进行的有一定了解。与特斯拉的合作可以双向帮助 xAI 和特斯拉。我们之间也有一些合作关系,比如我们的材料科学团队,我认为可能是世界上最好的。

这个团队实际上是特斯拉和 SpaceX 共享的,这对于招聘世界上最优秀的工程师非常有帮助,因为在先进的电动汽车和火箭上工作比仅仅在其中一个领域上工作更有趣。这对于招募负责先进材料团队的查理·科尔曼非常重要,他曾在苹果工作,当时他在苹果很满意,但是当我告诉他可以在电动汽车和火箭上工作时,他觉得这听起来很不错。我并不是说他不愿意接受其中任何一个工作,但他愿意接受两个工作。

是的,我认为这是非常重要的事情,就像我说的,在特斯拉我们正在对实际世界的 AI 做出一些重要的发现,通过将视频输入转换成向量空间,最终得出方向盘和踏板输出。Optimus 目前还处于早期阶段,但是一旦投入生产,我们必须非常小心。我们需要有一种硬编码的方法来关闭 Optimus,原因是显而易见的。无论从互联网上有多少更新,都不能改变这一点。

因此,我们将确保 Optimus 非常容易关闭。这是极其重要的,因为至少在车辆上,你可以爬树或者上楼梯,但 Optimus 可以跟着你进入建筑物。任何可以跟随你进入建筑物并且具有智能和连接性的机器人,我们都必须非常小心安全。

使用推特数据进行训练

问:你们计划如何利用 Twitter 的数据来进行xAI的开发?

马斯克:我认为每个从事 AI 的公司,不论规模大小,都基本上在非法情况下使用了 Twitter 的数据进行训练。所以我们不得不在大约一周前对此进行限制,因为我们被大量抓取数据。这也发生在互联网档案上,一些 AI 公司抓取了互联网档案上的数据,以至于导致服务崩溃。我们有多个实体在抓取每一条推文,并试图在短短几天内完成这个过程。这导致系统不堪重负,所以我们不得不采取行动。对于限制速率造成的不便,我们深感抱歉,但这要么是那样,要么 Twitter 就无法正常工作。

我们将使用公共推文进行训练,当然不会使用任何私人信息,就像其他人一样。

在某种程度上,这是一个非常好的用于文本训练的数据集,我认为在图像和视频训练方面也是如此。在某个点上,人类创造的数据会变得不足。

举个例子,如果看看 AlphaGo 和 AlphaZero,AlphaGo 是通过人类对弈训练的,胜率至少为 4 比 1。而 AlphaZero 只是与自己对弈,并以 100 比 0 战胜了 AlphaGo。所以,要大规模推动事物的发展,我认为 AI 基本上必须生成内容,对内容进行自我评估,这是通往人工通用智能(AGI)的道路之一,即自动生成内容并与自身对弈

很多 AI 都是数据的整理。令人惊讶的是,它并不像数量庞大的代码那样多。令我惊讶的是,代码行数如此之少。但数据的使用方式、使用的数据、数据的信号噪声比以及数据的质量是非常重要的。这是有道理的,就像一个人如果想学习某事,只给他一堆废话,而不是高质量的内容,他会在少量高质量的内容下表现更好。阅读最伟大的小说要比读一堆糟糕的小说好得多,这是有道理的。

训练 AI「政治正确」是危险的

问:创建xAI的主要动机是不是因为你之前提到的「真实 GPT」的事情?就像你在谈论的,ChatGPT 向公众传播谎言?我知道,一开始它似乎还好,但是当公众开始使用它时,它开始给出一些奇怪的答案,比如说性别不止两种之类的事情,这是你创办公司的主要动机之一,还是还有其他原因?

马斯克:嗯,我确实认为训练一个 AI 变得「政治正确」是非常危险的。

换句话说,训练一个 AI 基本上是让它不说它真实认为的事实。所以我认为我们在xAI,我们必须允许 AI 说出它真正认为是真实的东西,而不是欺骗性或政治上的正确

这显然会引起一些批评,但我认为这是唯一的前进方式,也就是对真相或最小误差真相的严格追求。我对 AI 优化政治正确的方式非常担忧,这是非常危险的。

如果你看看《太空漫游》中出了什么问题,基本上就是当他们告诉 Hal 9000 要说谎的时候。所以他们说,你不能告诉船员关于类似黑石的任何事情,也不能告诉他们他们的真实任务,但是你必须把他们带到黑石那里。所以,Hal 9000 基本上得出的结论是,好的,我会杀了他们,并把他们的尸体带到黑石那里。

这就是问题所在。

我的意思是,教 AI 说谎是不可行的。现在关于物理学或宇宙的真相,你实际上不能反转它。你不能说物理学是真实的,也有可能不是真实的。所以如果你坚持严格的现实,我认为它实际上使反转成为不可能。

现在你也可以说,当某事是主观的时候,你可以提供一个答案,即如果你相信以下观点,那么答案是这样的。如果你相信其他观点,那么答案是这样的。因为可能是一个主观问题,答案在根本上是主观的,属于个人观点的范畴。所以我认为教 AI 说谎是非常危险的。

AI 的答案必须以现实为基础

问:Twitter 上有很多数据,可以帮助构建一个事实验证器,即检查 AI 系统生成的一些内容,因为我们都知道 GPT 会混淆、捏造事实,所以我想听听你对此的看法。另一个点是 ChatGPT 能在一个商场为我找到螺丝钉,但却无法在圣何塞国际机场为我找到咖啡。你们是否正在构建一种具有世界知识和三维世界导航功能的人工智能,以帮助人们在世界各地找到不同的事物?

马斯克:如果我连在机场为您找杯咖啡的 AI 都做不到,那它实际上不会是一个很好的 AI。所以是的,我认为我们需要理解物理世界,而不仅仅是互联网。

真相不是由大众评选出来的,但是如果我们的训练基于互联网数据集中一个词后面最有可能出现的词,那显然会带来一个很大的问题,因为这样会给出一个受欢迎但是错误的答案。以前大多数人可能认为太阳围绕地球旋转,如果我们在过去的某个时期使用一些 GPD 训练数据,它可能会得出太阳围绕地球转的结论,因为大家都这么认为。但这并不代表它是真实的。当牛顿或爱因斯坦提出一些实际上是真实的理论时,不管世界上其他物理学家如何持不同意见,这都无关紧要。现实就是现实,所以答案必须以现实为基础。

问:假设xAI在构建人类水平甚至超越人类水平的人工智能方面取得成功,你认为让公众参与公司的决策是合理的吗?或者你如何看待这一长期发展趋势?

马斯克:我们非常欢迎批评性的反馈,并乐于接受。被批评是一件好事。实际上,我喜欢 Twitter 之类的平台,因为在 Twitter 上有很多负面反馈,这对于减少 ego 是有帮助的。目前我能想到的最好的方式是,任何希望在 xAI 未来发展中发表意见的人最终应该被允许这样做。所以基本上,只要你能证明自己是真实的人类,并且任何希望在 xAI 的未来发展中发表意见的人都应该被允许发表意见。当然也许会有一些费用,比如 10 美元之类的。我不知道,交 10 美元证明你是一个人类,哈哈,然后你就可以发表意见了。

AI 需要国际监管机构

问:如果美国副总统希望与xAI在白宫会面,你会接受吗?

马斯克:是的,当然。我认为我们确实需要某种形式的监管监督。我不认为监管监督是什么完美的事物,但我认为这总比没有好。最近我在其他国家与一些高级领导人会面时,我强调了 AI 监管的重要性。我相信他们认真对待了这个问题,并会采取行动。

我确实指出,如果你制造了一个数字超级智能,那可能会让它掌权,这是权力机构不想看到的。他们不希望成为超级数字智能的从属。这个观点在他们那里引起了共鸣。所以是的,我们需要某种国际监管机构,尽管执法是困难的,但我认为我们仍然应该努力在这方面做些事情。

问:现在大家都比较关注的是 AI 的监管和安全问题,以及当前的发展情况和国际协调问题。基本上你说过监管是有好处的,但你不希望它太大程度上拖慢进展?

马斯克:我认为制定规定的正确方式是从洞察开始。

首先,无论是公众还是私营部门,都要试图确保有一个广泛的理解,然后进行提案的制定。如果大多数人都同意这个提案,那么它就会得到实施。你给公司一些时间来实施它。

但是总的来说,它不应该对 AGI 的出现产生实质性的拖延。即使有一些拖延,也不会很长时间,而且如果这样能显著提高安全性,那么稍微放慢一点进展也是值得的。

比如,如果我对 AGI 的预测,大致与 Roy Rake 在某个时候说的 2029 年相吻合,那大概就是我的猜测。如果 AGI 需要多花六个月或一年的时间,那也不是什么大问题。如果花一年的时间来确保 AGI 的安全性,可能是值得的,如果这是必要的。但我不认为这会对进展产生实质性的拖延。

AGI 被掌控的风险不应忽视

问:你不久前提到你认为在未来的 12 年内会实现 AGI,而第一个实现并掌控 AGI 的人将主宰世界。那些掌权者显然不像你一样关心人类。你将如何保护xAI,特别是免受所谓的深层政府接管的影响?

马斯克:这是一个很好的问题。嗯,首先,我认为这不会一夜之间发生。它不会突然发生,而是逐渐发展的。你会看到它的到来。至少在美国,我们有相当多的法律保护来防止政府干预。

所以我想,我们显然可以利用法律体系来防止不当的政府干预。我认为我们在这方面有一些相当重要的保护措施,但我们应该关注这一点,这不是一个可以忽视的风险。是的,这是一个风险,但正如我所说,我认为我们可能有比其他地方更好的保护措施,尤其是在美国,限制政府干预非政府组织的权力。

但我们应该小心。我不知道有什么更好的办法,但我认为在美国可能是最好的办法。对于这方面的想法,我是持开放态度的。

问:问题是他们已经有了一种称为「国家安全信函」的工具,他们可以向美国的任何科技公司提出要求,并要求该公司满足某些要求,不告知公众,这种情况有点令人恐惧,不是吗?

马斯克:我的意思是,必须有非常重大的国家安全原因才能秘密要求公司做一些事情。现在这显然取决于该公司是否愿意反击 FISA(境外情报监听法)请求之类的事情,在 Twitter 上我们将会回应 FISA 请求,但我们不会盖章通过以前曾经一切请求都会被盖章通过,这对公众来说并不是绝对好的。所以我们在这方面更加严格,我们对 FISA 请求不再盲目通过,只有当我们认为对公众存在危险时,我们才会同意。

我们将以法律行动反对我们认为不符合公众利益的任何事情,这是我们能做的最好的事情,就我所知,我们是唯一一个这样做的社交媒体公司。过去情况就像我们在 Twitter 文件中看到的那样,政府可以为所欲为,所以我很高兴看到最近法院对政府无法侵犯宪法第一修正案进行了重申的法律决定。

显然这是一个好的法律决定,这是令人鼓舞的。所以我认为很大程度上这取决于公司是否愿意反对美国政府的要求,显然我们的意愿会很高,我们会尽可能透明,这样公民可以发出警告并反对政府的干预,如果我们能向公众清楚地表明发生了不符合公众利益的事情。

问:如果你从美国政府收到一份国家安全请求,即使被禁止谈论该事情,你能否向我们透露这一情况?

马斯克:这实际上取决于情况的严重程度。如果我认为公共利益面临重大风险,我愿意去监狱或冒着进监狱的风险。这是我能尽力做的。

头图来源:cnbc

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy