英伟达首席执行官黄仁勋关于AI的专访

887次阅读
没有评论

原文转自Stratechery

原文链接

https://stratechery.com/2023/an-interview-with-nvidia-ceo-jensen-huang-about-ais-iphone-moment/

ChatGPT的影响
Jensen Huang,欢迎回到Stratechery。

JH:谢谢你,本。很高兴见到你。

我们最后一次交谈是在去年9月,我很荣幸Stratechery是GTC后的一种选择。两个月后,ChatGPT被释放。你在上个月的财报电话会议上说:“毫无疑问,无论我们今年的观点如何,它们都发生了巨大变化。”让我们从为什么开始。为什么你的观点发生了巨大的变化?ChatGPT的影响是什么?

JH:嗯,我们已经看到了GPT-3一段时间了,我们看到了WebGPT,我们看到了InstructGPT,我们看到了GPT的片段,它们中的每一个都非常壮观。但真正唤醒整个行业的是ChatGPT。这是一个非凡的应用程序,这无疑是有史以来最易于使用的应用程序,可以执行让几乎每个人都感到惊讶的任务。你可能是一个不太了解计算并与之互动的人,并对连贯的反应感到惊讶。你可能是一个深陷计算机科学的人,但仍然对它能够做到的明显推理和解决问题感到惊讶。我认为在整个范围内,人们对ChatGPT令人难以置信的能力感到惊讶。

这唤醒了整个行业,在每个行业中。我相信,这是每个董事会的谈话,这是世界各地每个工程师的谈话,这是晚餐时间的谈话,孩子们在谈论它,从来没有过这样的事情。这是一个重要的时刻,当然每个人都对ChatGPT的广泛使用感到惊讶,但之后立即发生的事情是,每个云和每个软件公司醒来后问:“这对我们意味着什么?”与此同时,数百家初创公司正在创建,令人难以置信的应用程序正在使用生成人工智能构建,包括图像生成人工智能和语言生成人工智能或两者的组合,这些初创公司正在从木制品中走出来。风险投资公司正在资助它,风险投资公司正在撰写关于生成人工智能的博客,这一切都在大约60天内发生。

因此,如果你要分配惊喜,因为我在那里听到了两个答案,一个只是对能力的惊讶,一个是大规模的反应。就你作为英伟达首席执行官的惊喜而言,是A栏的一点点,还是B栏的一点点?就像你说的,你以前见过GPT——GPT-3及其之前的各种迭代——但不仅仅是因为它如此有能力,还像,“圣牛,有这么多人使用它,这将以一种我意想不到的方式对我们的业务产生有意义的影响”?

JH:我认为我们都对ChatGPT在易用性和令人难以置信的能力方面的有效性感到惊讶。几乎紧接着,ChatGPT在世界各地的涟漪、云服务提供商、所有这些不同行业的软件供应商开始提出这个问题,这对他们意味着什么?我想,这两件事的结合,它们都独立令人惊讶,但它发生得非常快。这并不是说变压器没有发展,也没有变得越来越大,也不是说创新没有在显而易见的地方完成,而是ChatGPT时刻,一切都走到了一起。用户界面令人难以置信。它被微调,以产生令人难以置信的结果,所有这些都在一个爆发点中结合在一起,因为它立即环游世界,每个行业的涟漪和回响都发生得非常快。

很多人,他们从未直接参与我们所做的工作。我们正在谈论它,但我认识的大多数高管,他们看到了GTC主题演讲,他们真的很兴奋,但这不会直接影响他们。没有一个我认识的高管,也没有一个高管没有被ChatGPT吵醒,现在他们打电话给我说:“现在我明白你在说什么了。你说的所有这些事情,我现在明白了。”当我解释变压器,这些大型语言模型时,它首先学习了人类的语言,但它将学习一切事物的语言,一切有结构的东西。那么,有什么结构呢?好吧,事实证明,物理世界有结构,这就是为什么我们是对称的,这就是为什么当我看到Ben的正面时,我对Ben的背面有一种感觉。

在几个GTC之前,你对物理学有广泛的了解,我想这是试图提出这一点,但现在人们明白了。

JH:是的,蛋白质有一种语言,化学物质有一种语言,如果我们能理解这种语言并在计算机科学中代表它,想象一下我们可以移动的规模,我们可以理解,我们可以产生。我们可以理解蛋白质以及与它们相关的功能,并且我们可以产生具有新特性和功能的新蛋白质。我们现在可以用生成性人工智能做到这一点,现在突然间,这些话变得有意义了,现在他们正在连接并启动,现在正在将其应用于自己公司的所有领域,并看到一次又一次的机会来应用它。因此,我认为“AI时刻”,ChatGPT,是一笔非常重要的交易,它打开了每个人的心扉。

同样重要的是,ChatGPT和生成性人工智能有几个属性——当然,其中之一是它导致并推动了采用人工智能的拐点,这是培训上升的原因,也是需求上升的原因。然而,它还创建了一个新的计算模型,其中您编程计算机和您可以使用这台新计算机构建的应用程序的方式以及这台计算机的可访问性,这意味着实际上可以将其投入工作的人,都是全新的!

我刚才描述的这三个属性是计算平台的特征。您可以使用这三个属性来描述微型计算机、工作站、PC、互联网、云、移动云——每个属性都以不同的方式编程,编写不同的应用程序,并且该平台的覆盖范围不同。因此,就工作站而言,它以数十万人为单位,就个人电脑而言,它以数亿和数十亿为单位,就移动设备而言,以数十亿为单位,有趣的是,每种情况下的应用程序数量都在增加。应用程序商店中有500万个应用程序,可能有数百个PC应用程序,有35万个,也许50万个网站很重要——大型语言模型上会有多少个应用程序?我认为这将是数亿,原因是因为我们要写自己的!每个人都会写自己的。

这是一个相移,一个差异,一个拐点,一种不同的方式,这里肯定有一个新的计算模型,这是深刻的。我们要回头看,我们会说“嘿,你猜怎么着,我们在那里”。意识到这件事的那天,我们都在那里,我们内化了它对我们的意义,并利用了它。许多公司都在问自己:“这是什么意思?这对我们来说意味着什么?这对我们的行业意味着什么?这对我们的竞争意味着什么?这对我们的产品意味着什么?这对我们的商业模式意味着什么?”在我们说话的时候,这正在发生,这是一件非常大的事情,真的是一件非常大的事情。希望有一天,当我们回顾这次采访时,我们会记得你和我谈话时发生的事。

我认为这说得非常好。在你引入推理平台之前,你在中间有一个部分,在那里你浏览了ChatGPT以及人们能够用自然语言有效编程的含义。我认为这是演示文稿中最引人注目的部分。你总是从产品公告到产品公告的速度如此之快,在中间有一点“看,这是背景,这是一件大事”,我真的很喜欢那部分,这就是你现在正在驾驶的东西。

JH:真是一件大事。

Nvidia的ChatGPT响应
我想,那么自然的后续行动是,从有形的商业意义上讲,你的观点是如何改变的?Nvidia在ChatGPT后做了什么不同的事情,而他们以前没有做过?

JH:嗯,我们必须做的第一件事就是回应需求。显然,需求加速,需求增加,以及以两种不同方式部署资源的紧迫性。首先是培训——几乎每个主要的云服务提供商都已经在开发大型语言模型,现在他们意识到他们必须更快地进入下一个水平。

不仅仅是研究方面,还有推理方面。

JH:这是第一件事就是更快地训练这些模型,更快、更快地到达更大的模型,开发所有用于微调、对齐、护栏和增强的支撑模型,以及围绕这些大型语言模型的所有支撑模型,每个人都必须立即解决这个问题,因此迫切需要进入下一个级别的大型语言模型,这意味着更大的模型,更多的数据,以及创建所有周围模型的紧迫性,这就是其中之一。因此,培训在世界各地的需求加速上升了一步。

其次,由于生成模型非常有用,以至于它被连接到Microsoft Office,世界上最普遍的应用程序,Google Docs,突然间,生成人工智能现在连接到一些非常非常大的应用程序和网络浏览器,当然,因此推理需求已经达到了顶峰。因此,我认为这两件事都在发生,需求的增加,交付的紧迫性,这两件事都同时发生。

我想谈谈你可能做的其他转变,但我确实想加入那个满足需求,因为我想让你帮助解决我遇到的最大的难题之一,那就是去年下半年,当你对库存进行大量减记时,事实证明,当你深入到财务报表时,这些减记的很大一部分不仅仅是你已经做了并且无法出售的筹码,还有未来与台积电的采购订单义务,他们对这些非常严格当每个人都想要空间时。作为一名分析师,我应该如何平衡这些减记与人工智能应用程序爆炸式增长的看法?爆炸是夸大其词,还是只是发生在ChatGPT之前,之后事情爆炸了?或者这是一个游戏问题,你不能转换为人工智能?这种脱节对我来说一直很突出,我希望您帮助我解决这个问题。

JH:我们必须进行储备,我们必须对游戏产品和数据中心产品进行减记,很明显,因为我们预计去年会比结果大得多,而且由于年初的周期时间太长,相当肯定的是,我们必须建立或承诺购买比实际销售的库存和供应多得多。去年无疑是令人失望的一年。

对,但这不仅仅是你没有出售的东西,还有那些购买义务,也许我错了,但我想那是尚未建造的东西,但你承诺在未来建造。

JH:在这些情况下,如果我们最终建立它,那么这些承诺可能会解除,但我们会看看结果如何。这只是取决于未来承诺有多少,有多少真正被注销,有多少是上一代。例如,当我们到达那里时,我们不太可能需要,随着时间的推移,需要安培的可能性会降低,因为我们想要Ada和Hopper,因此我们显然预计去年会出售很多安培。这里面有保质期,带有变压器发动机的Hoppers在这些大型语言模型上非常出色,所以我们将拭目以待。

明白了。建造更多建筑并满足这一需求的制约因素是什么?这只是制作芯片的能力吗?是数据中心可以容纳它们吗?是客户群真的来到谈判桌上并放下钱吗?限制因素是什么?

JH:嗯,你已经确定了相当多的人。首先,人们认为GPU是芯片,但事实并非如此。如果你想一想我们的数据中心GPU是什么,它是八个带有两个半DCA[不清楚]封装的芯片,通过不分列的热管理系统与NVLink互联,以几千兆赫兹提供几千安培。这是一台非常沉重的电脑,我认为只要把一个料斗从烤箱里拿出来,可能就大概有70磅重,有35,000个单独的组件。因此,构建GPU是,即使你有五个纳米晶圆,你仍然缺少很多组件,然后是它的制造部分。

现在那只是一个GPU。为了站起来这些人工智能超级计算机之一,你有开关,你有所有的NIC,你有所有的电缆,然后你仍然有数据中心空间,你必须站起来,PDU——所有这些都是关键路径,这些都不容易。这些是当今世界制造的最先进的计算机,我们批量制造它们,因此我们正在以最快的速度移动,每个人都在有点竞争,非常迫切需要到达那里,因此我们认识到这一点,我们正在尽我们所能地努力工作。

回到Nvidia在ChatGPT后所做的不同事情——我们排名第一,你只是在竞相满足需求——你对业务的看法还有什么变化?

JH:推理。推断,推断业务的规模已经经历了一个步骤功能,毫无疑问,以及现在正在进行的推断类型,你知道视频将添加生成性人工智能来增强视频,以增强背景,增强主体,重新照亮脸部,做眼睛摆姿势,用有趣的图形增强,等等。所有这些生成性人工智能工作都是在云端完成的,因此视频具有生成性人工智能。我们知道,生成人工智能有成像和3D图形,生成人工智能有视频。我最喜欢的公司之一是一家名为RunwayML的公司,它基本上是使用生成性人工智能进行全电影质量的视频编辑——视频功能令人难以置信,现在任何人都可以进行视频编辑,这需要不同类型的GPU。

然后是大型语言模型,大型语言模型跨越超过1750亿个参数,但不止这些,当然,一直扩展到50亿或80亿个参数,大约200亿和400亿,以此类推,750亿,各种不同的大小和形状。因此,有一个大型语言模型推断,每个字符每个令牌的响应时间非常重要,因为你正在写一封很长的信,或者你正在写一个很长的程序,人们希望以相对互动的方式看到它。如果它离线,使用它的人的耐心将受到挑战。然后,这些推论有检索模型,这些检索模型有AI数据库、矢量数据库,它有自己的推理模型类型,Grace Hopper是理想的选择。

你有那四个芯片——或者你称之为它们的那四个新平台——都专门用于这四个用例,这些都已经工作了很长时间了吗?其中一些与前几代人有相似性,如安培一代,但其中一些人喜欢H100语言模型,我认为这是新的。从提出这些到实际宣布和发展它们的速度如何?他们是否工作了很长时间,还是有一点点,特别是随着推理的爆发,这完全加速了?在这样的程度上,这当然是对你有能力将核心架构并很快将其重新设计成其他东西的肯定,我只是好奇这四个新平台的时机是什么?

JH:所有的核心技术都存在。将它们转化为数据中心的大规模推理产品,这发生在大约六个月内。

中国和台积电
你提到了一件事,只是作为一个如何快速改变路线的例子,你基本上把所有这些A100都换成了中国的A800。总的来说,你正在处理的主要限制是互连内存的速度,芯片的实际速度很好,现在你将拥有H800。这样做有什么含义?你刚才谈到了DGX超级计算机以及它的所有复杂性,显然这取决于芯片之间的高速内存接口。甚至有可能为中国建造一台DGX计算机,还是他们必须弄清楚如何将这些芯片绑在一起?

JH:800系列是融合的,这意味着它们是物理融合的,因此它要么降低浮点处理,要么是互连,要么两者兼而有之,以符合我们的出口控制,因此它们是物理融合的,它们不能断开融合。但是,它的形状适合功能相同,它插入相同的插座,它运行相同的软件只是更慢。它比较慢,但它仍然是世界上最好的。因此,它满足了使用它们的客户的需求,并且符合要求。归根结底,最重要的是它符合规定。

你已经谈了很多关于加速计算的思考方式,你喜欢提到摩尔定律已经结束,或者放慢了速度,或者你想如何构建它,重要的是不仅要构建一个芯片,而且你必须构建一个系统,然后它必须扩展到甚至数据中心。它们仍然插入,但有了内存互连的保险丝,这些仍然可以扩展到系统和数据中心,而且速度很慢吗?或者这是对缩放如何工作的根本限制?

JH:它可以缩放,但效果没有那么有效,只是取决于你想去哪个规模。互连的重要性相当重要。计算连接处理器的计算结构需要相当高速。处理器越快,对高速计算结构的需求就越大,因此这是一个规模和规模有效性的问题。例如,如果你想增加到1000个处理器,这种扩展的线性性将不那么线性,如果互连速度较慢,它就会更早停滞,因此这基本上是权衡。这只是你能缩放多远的问题,缩放的有效性是什么,缩放的线性度。

关于同一主题,去年年底,你在亚利桑那州参加台积电的剪彩,台积电在他们的收益中评论说,他们未来销售提议的一部分将如何成为通过增加地理灵活性而产生的成本。这是你作为台积电客户要支付的费用,这是你渴望支付的费用,还是你在这里感觉有点同意?

JH:归根结底,每家公司都需要具有多样性和复原力,这种复原力来自多样性和冗余,为了实现多样性和冗余,以便每家公司都能拥有更大的复原力,这意味着在美国和其他地方建造工厂,而这些工厂越来越昂贵。在宏伟的计划中,必须考虑这些。因此,多样性和冗余需要付出代价,我们投资于公司和每家大公司,以便具有复原力。有电源冗余,有存储冗余,有安全冗余,有各种冗余系统。即使是组织——销售和营销也相互吻合,这样他们就可以有一些多样性和一些冗余,这样你就有更大的复原力,工程也做了同样的事情。我们有很多不同的方法来成为一个更具弹性的组织,这基本上表明我们需要在供应链中有更多的弹性。现在,在包装、组装和测试方面,我们已经内置了多样性和冗余性,这需要花钱,所以这些都是大公司必须考虑的事情。

DGX云
这一直是我们对话的一个持续主题。它始于一年前我第一次和你交谈时,我问你是否会拥有云服务。事实证明,回到那次采访,你预先宣布了DGX Cloud,你说:“如果我们做服务,除了在必须的话,除了自己构建一些东西外,我们还会在每个人的云中运行它。”现在,上次我们谈到了Omniverse Cloud,也许是“我们自己构建一些东西”。但在这里,您宣布了在其他人的数据中心运行的DGX云。你当时已经在计划使用DGX Cloud了吗,还是在过去的一年里,你真正改变了你的想法?你告诉我什么,但一年前没有告诉我?

JH:(笑)我想那必须由你来解码。如果你看看GTC,我们一直在建造的大多数东西,我一直在描述,它是在显而易见的地方建造的,为什么对我来说,在GTC相当透明地传达我们的方向很重要,因为我们有这么多依赖我们的合作伙伴,他们了解我们要去哪里很重要。我们一直非常透明,也非常一致地希望建立一个无处不在的计算平台,这个计算平台是以数据中心规模构建的。今天的计算机不是个人电脑,今天的计算机是数据中心,数据中心是计算机,你必须像编排一个一样在数据中心内安排整个计算机。这就是为什么他们称它为单窗格,它管理一台计算机,这就是为什么它必须由软件定义。这就是为什么你必须将计算平面和控制平面分开。

所有这些架构原因都导致,基本上,数据中心就是计算机。我们构建整个系统全栈,然后以数据中心规模端到端构建它,但当我们进入市场时,我们分解了整个东西。这就是我们所做的奇迹,我们是全栈,我们是数据中心规模,我们在多个领域工作,我们这里有量子计算,我们那里有计算光刻,我们这里有计算机图形,这个架构运行所有这些不同的领域,在人工智能和机器人等方面,我们从云到边缘操作,我们把它构建在一个完整的系统中,垂直集成,但当我们进入市场时,我们分解一切,并将其集成到世界的计算结构中。

我们将其集成到戴尔,我们将其集成到联想,我们将其集成到广达,我们将其集成到富士康,我们将其集成到Azure,GCP,AWS,OCI等,等等,每个人都有自己的需求,每个人都有自己的运营方式,我们与他们合作,了解API是什么。我们把所有这些考虑因素带回我们公司,我们创造了一种方式,一方面使我们能够成为一个系统公司,垂直集成,完全全栈,然而当我们进入市场时,我们分解了一切,并将其连接到世界。这确实是我们所做的奇迹,只有当我随时向生态系统传达我打算建立的东西,以便他们一方面为我们做好准备,另一方面我们才能为他们做好准备,这才有可能。

现在,如果您今天看看我们的计算平台,让我们以OEM为例。我们真的是一个扩展,Nvidia确实是戴尔的扩展,我们是惠普的扩展,我们是它们的扩展,从这个意义上说,每当您想购买Nvidia计算机时,您都会致电戴尔,并指定您想要的Nvidia计算机,它们都可用,完全符合我们的型号,它与我们所有的软件堆栈完全兼容,客户可以完全期望拥有一台完全优化的计算机。好吧,我们应该能够在所有CSP(云服务提供商)做完全相同的事情。我们应该能够在Azure上扩展我们的架构,我们应该能够用Nvidia扩展AWS,计算机的扩展应该与他们原生运行Nvidia堆栈时所享受的完全相同,他们应该能够享受计算机,运行该堆栈,即在任何云、多云、混合云上,一直到边缘,同一个软件堆栈。

当我们谈论云时,这基本上就是我想象的,现在有一个业务扩展。这是我们有史以来最大、最重要的商业模式扩展,在这种关系中,不仅是云中的英伟达,CSP,这些例子,我们自己去市场,当我们赢了,他们就赢了。当然,他们也有自己的Nvidia实例,欢迎他们将其推向市场,我们支持他们,因此这是一个有点有趣的模式,因为我们的销售人员和我们的营销人员以及他们的销售人员和营销人员现在都非常紧密地合作,在每个案例中,我们都会与他们一起销售。其中一些直接来自我们,因为客户想直接与我们合作,其中一些通过他们,因为客户喜欢直接与他们合作。我们对这两种模式都完全支持和满意。

我当然了解了Nvidia是如何通过不同的云广泛访问的。但就你而言,这似乎确实是一个相当有意义的转变,你构建了这个系统,然后正如你提到的,你在一定程度上分解了它,所以它适合不同的云。但现在您实际上是在交付整个系统,您不注册甲骨文,而是访问英伟达网站并处理英伟达销售。你谈到你将帮助人们使用这些模式,这需要一个庞大且不断增长的服务组织。

这有很多不同的角度来看,但你正在用甲骨文启动,这是第一个,这对我来说非常有意义,因为你走进来,你不仅可以让他们立即从顶部脱颖而出,而且因为他们从后面开始,他们将构建完整的Nvidia堆栈,包括你的网络,包括你的管理层,而不是其他极端,如AWS,他们在那里对他们的Nitro层进行了大量投资,这与你为将它联系在一起所做的一些事情直接竞争。这是一本好书,了解你现在想直接联系客户的情况吗,所以就像戴尔或惠普可以直接按照你的规格构建并成为实现层一样,这是考虑甲骨文的一种方式吗?我们现在有OEM云层吗?

JH:很近。从某种意义上说,这并不那么规范,就Oracle OCI而言,我与Clay [Magouyrk]合作,我们与他们的架构团队合作,以弄清楚:“集成到他们的云架构的最佳方式是什么?”与其说我们交付我们的系统,他们坚持了下来,远非如此,我们非常紧密地工作,以弄清楚,“在他们的云中,在我们的整个堆栈上,最好的架构是什么可以尽可能地表现?”我们的整个堆栈必须原生运行,我们所做的一切都必须原生运行,包括我们的编排层,仅包括系统管理层或分布式计算层。所有这些都必须原生运行,因此我们必须与他们密切合作,以确保他们的云和我们的软件架构能够和谐地协同工作,因此在任何情况下都是协作。

当我们与Azure一起做这件事时,有一个合作,包括:“进行计算的最佳方式是什么?与安全性集成的最佳方式是什么?连接存储的最佳方式是什么?如何最好地托管它,以便客户有很多私人数据安全问题,也许还有数据的工业监管问题,以便他们能够最好地管理它?”因此,围绕这些不同事物的架构进行了相当多的合作。

那么,每种云提供商的体验可能会有所不同吗?可能会有一些这样的“看,如果你想获得完整的Nvidia体验,这里有我们的网络,它有我们的管理层”,“哦,这个,它有一个不同的网络,我们已经适应了,我们正在与之合作,但它不会那么扩展,因为它没有完全调整”。这对客户来说是有形的区别吗?你会与他们沟通吗?

JH:是的,当然。归根结底,客户将为价值和性能付费,这是其中非常重要的一部分。但归根结底,我们实施的架构并不那么多样化,以至于会那么明显,因此所有的云都与我们密切合作,以尽我们所能增强和优化,这一切都应该很好,我希望它们都很好。

当有人注册DGX Cloud时,他们会选择他们想要的基础主机提供商吗?那是如何运作的?他们是否也必须与甲骨文、Azure或GCP建立关系,还是Nvidia将调解这种关系,你告诉Nvidia你想要什么,然后Nvidia会找到放置它的地方?

JH:如果你不在乎,那么我们建议你这样做。如果您确实在乎,因为您已经与他们签订了某种预先协商的协议,我们很乐意使用它。

明白了。例如,就Azure而言,我认为这显然是有意义的,DGX云对企业非常有吸引力,特别是他们可以利用您的预训练模型,他们可以将自己的数据放入其中,他们可以拥有自己的LLM,他们可能已经与Azure建立了关系,微软想在那里是有道理的,在某种程度上也是GCP。

AWS因其缺失而引人注目。我不知道我是否在Nvidia演示文稿中看到过这么多徽标,几乎每张幻灯片都有一个徽标。显然,人们非常强调伙伴关系对你前进的重要性,但这确实使缺席更加引人注目。与此同时,您宣布将有新的P5实例,这听起来像AWS上的DGX,大概是通过他们的软件层。那里有技术障碍吗,还是他们觉得只是为了他们的业务,坚持使用AWS实例,而不是被中介是有意义的?

JH:除了我们从其他三个开始之外,没有什么可读的。有对话,我们很难同时支持每个人,我们完全有兴趣与AWS合作,我认为AWS完全有兴趣继续以非常深入的方式与我们合作。在我们的联合新闻稿中,它描述了一种非常深厚的伙伴关系。我们在SageMaker上一起工作,我们在所有基础设施上一起工作,我们在人工智能上一起工作,我们一起研究的东西很多,推荐系统,图形神经网络,他们的机器人系统,我们与AWS合作的东西清单真的很大。我们描述的这种新的商业模式,我们从OCI开始,不是因为除了那里有更多的兼容性。

他们收获最大。

JH:他们可能收获最多,但我们希望以这种方式与每个人合作,就像我们与惠普、戴尔和联想合作一样。他们在我们的每个平台上营销的时间并不总是在同一时间,但在某些时候,我们以相同的方式与每个人合作。

那么,您是否必须真正建立和扩大您的销售队伍和支持组织?当你谈论你的尼莫和毕加索模型,以及它们如何成为基础模型和行业如何将自己的数据带入它们时,我突然跳出来了。你会说,“我们将随时帮助你,并帮助你完成这个过程。”这让我的耳朵有点振奋起来,因为就你而言,以前有人会去戴尔购买,他们正在购买一台英伟达电脑,但戴尔正在处理与消费者的互动。从进入市场的角度来看,这听起来是一个相当实质性的承诺,一个直接与英伟达接口的持续支持视角——这是你未来需要建立的东西吗?

JH:我们已经与做这些事情的最终用户和开发人员进行非常深入的工作。我们今天这样做,并与我们关注的世界领先的重要垂直领域合作,无论是医疗保健、汽车,当然还有所有人工智能初创公司,我们都与大约10,000家人工智能初创公司合作。因此,一个又一个行业,如果有我们可以增加很多价值的行业,视频游戏行业,我们几乎直接覆盖每个开发人员。在汽车行业,我们直接覆盖了几乎每家汽车公司。在医疗保健行业,我们几乎与每家药物发现公司合作,所以我们今天已经这样做了。只是系统的实现最终来自其他人。如果你想加速你的堆栈,你可以与Nvidia合作。我们在cuLitho上直接与台积电合作,我们直接与ASML合作,这不像是其他中介代表我们这样做。我们直接合作的量子研究人员,这只是历史上通过其他人实现的系统。在这种情况下,履行仍然可以通过另一个CSP或其他OEM进行,也可以直接通过我们进行。

这种新的商业模式是否有点缓解,因为英伟达一直以周期性而闻名,你去年经历了周期的缺点之一,你的脑海中是否有一点,就像,“你知道吗?一些订阅收入会相当不错,而不是销售产品。”

JH:这不是真正的考虑因素,考虑因素是许多公司自己正在开发非常重要的堆栈,而堆栈可能是他们机器学习框架的企业版本。有些公司不是在别人的ML操作上标准化,不是在别人的ML平台上标准化,而是在自己平台上标准化,原因是他们内部有一个非常大的团队,他们有很多专业知识,而且很多东西都是专有的。他们相信他们可以做得更好,在这种情况下,我们将与他们合作,加速他们的端到端ML操作平台,如果他们选择与我们一起托管部分或全部,或者如果他们与我们的CSP合作伙伴之一托管,我们都会完全满意。因此,这确实是我们能够直接与客户互动的方式,一直到托管,支持他们的服务,在云中支持他们的应用程序,并能够更快地移动并拥有更大的覆盖范围。我们现在可以,因为Nvidia在浏览器中,您不必构建DGX系统,您仍然可以构建DGX系统,但您可以直接从浏览器开始。

DGX云客户
这是我非常好奇的部分,你提到了这些拥有大型团队和大型组织的团队,它们是他们自己的结构,例如,他们完全有能力从亚马逊获得P5实例,并自行设置所有这些。但你在谈论DGX Cloud时强调的一点是所有没有这些团队的企业,在过去六个月里,他们特别意识到他们需要一些东西,而英伟达非常适合提供这些。因此,这是我的问题:假设有一个企业出现了……

JH:Ben,也许我会打断你。

当然。

JH:你的假设是错误的。我们有大型团队在SageMaker上与亚马逊合作。他们有一个大团队,他们需要我的大团队来加速SageMaker。Vertex AI有一个庞大的团队,他们与Nvidia的大型团队合作来加速Vertex AI。微软有一个庞大的团队,但没有人比我们更了解加速计算。没有人比我们拥有更丰富的库集,这些库必须集成到他们的框架中,也没有人有资源规模来帮助他们加速和优化整个端到端微服务。我们整天为拥有大型工程团队的人谋生。他们中的一些人拥有庞大的工程团队,他们创建的机器学习框架不用于语言,不用于计算机视觉,而是为了药物发现。他们需要像我们这样的人来帮助他们端到端地加速该平台,并在加速的云上站起来。

因此,通过直接与我们合作,他们可以端到端加速它,他们可以在任何有Nvidia的云上运行它,如果他们决定与我们一起部分托管它——请记住,如果他们与我们一起托管它部分或全部托管它,那么他们将受益于工程师与他们合作,不断完善他们的框架,完善他们的平台。如你所知,加速计算不像旋转CPU,有很多加速库需要创建,只是有很多计算机科学。否则,你怎么可能克服摩尔定律?除了聪明,你如何克服物理学,对吗?所以这种聪明就是计算机科学。

完全有道理。因此,作为基础,可以公平地说,即使有一大群与英伟达和英伟达密切合作的人,也可以帮助他们做得更好,走得更快,无论是托管还是其他什么,你是否也看到了不知道自己在做什么的人的机会,他们觉得他们需要进入这个空间?与你一直在协助的人相比,“这是我们业务需要的东西”的市场相对规模是多少,他们一直在帮助。我看到这里有两个不同的部分,新人,因为没有更好的词,和已经建立的人,这是正确的吗?还是这只是已经建立的人的扩张?

JH:对于那些对机器学习或人工智能非常陌生的人来说,他们应该只使用其中一个云。

不是你的云?

JH:是的,只是其中一个云,因为SageMaker很棒,Azure ML很棒,这些都是很棒的东西。除非您想构建一些相当定制和针对特定使用领域进行优化的东西,否则您只需使用其中一个——如果您是ML新手,只需从任何云开始。它们都很出色,我们已经将GPU集成到世界上大多数人工智能框架中,因此它们都会以某种方式加速。除非您正在构建一个定制的框架平台,并且它非常特定于您的领域,但也许它适用于工业人工智能,也许不是。您正在创建一些真正重要的东西,您的整个公司战略就支持它,它适用于一个不是通用企业人工智能的领域,它不是XGBoost,因此您需要一些专家来帮助您开发。不仅开发加速层,还可能为它创建一些算法。因此,这将是一家公司从直接与我们合作中真正受益的例子。

也许你想创建一个专有的大型语言模型,你想确保你可以扩展那个大型语言模型,也可以完善和部署它,并使该语言模型尽可能地具有性能,你有很多领域专业知识,你有很多数据科学家,但也许你只是没有我们所做的大型语言模型专业知识——我们可以帮助你。我认为任何可以使用公共云的人,任何今天可以使用云服务的人,都可以使用它。我们不应该成为世界上第五个云服务提供商。我们不是想那样。

CUDA和商品化
最后一点,我真的很感兴趣,因为我很好奇——你认为会有公司真的永远不会进入CUDA吗,因为这对那个生态系统来说没有意义,但现在他们都在LLM。所以他们好像更高了,他们想在LLM的基础上建立一些东西,而你谈论在ChatGPT后时刻萌芽的所有初创公司。创新的爆炸吗——这是否会在未来从根本上处于一个不同的层,只是更上一层,这是你预见的未来?

JH:这取决于你执行什么应用程序。如果您正在创建一个基于人工智能的基于视频的生成故事服务,并且您正在以非常高的质量生成视频,那么您会希望与我们合作,以加快生活。因为处理时间真的很长,所以我们可以增加很多价值。然而,如果你是一个拼写检查员,我很确定我会向你推荐一大堆服务,证明这一点是没有意义的。只要它已经在GPU上加速,并且我很确定它会在几乎每个人的云上加速,我认为它会非常棒。我敢说,世界上80%的人应该直接使用云,这是我们的合作伙伴之一,我们将直接与我们的云服务提供商合作,以确保基础设施及其服务和API都尽可能加速,这将很棒。对于一些不能这样做的人,无论出于什么原因,他们都欢迎与我们合作。

这完全有道理。但是,如果世界上有80%的人应该去找你的伴侣,因为他们的抽象程度更高,那么就商品化而言,这对英伟达来说是风险吗?您是否对Meta等公司试图扩展PyTorch以抽象CUDA并减少您的锁定感到担忧,AMD和英特尔显然希望填补这个空间,他们非常高兴——商品化层对他们来说会更好,因为他们落后了。你对此考虑了多少,它对你向云端的转变有什么影响吗?还是这几件事可能同时发生,也可能不同时发生?

JH:你通过做别人做不到的事情来建立一个伟大的公司。你不能通过与其他人,一大堆其他人,来做每个人都能做的事情来建立一个伟大的公司。请注意,我说过,如果我们的任何CSP合作伙伴已经加速了他们的堆栈,我们正在愉快地加速他们的堆栈,我们正在努力加速他们的堆栈,我们宣布了一大堆我们已经加速的机器学习平台。其中一些在云端,一些在第三方,任何拥有ML ops管道的人,ML ops框架的人,任何拥有框架的人,我们将帮助您加速它。如果有人能使用它,让他们的生活更轻松、更方便,我们对此感到高兴,我们应该致力于只有我们才能工作的事情。

看看英伟达所做的一切。我们不会去研究一大堆可能与引脚兼容或二进制兼容的东西,不管它是什么。我们只是不是一家股份公司,我们是为了解决我们应该解决的问题,只有我们才能解决的问题,或者我们是最能解决的问题。请注意,到目前为止,我解释一切的方式正是这样,庆祝我们合作伙伴的成功之间没有不一致之处,即使它是在我们更下面的抽象层,与节约自己的精力去做只有我们应该做和我们可以做的事情之间没有不一致,这对我来说不是冲突。当AWS做得很好时,我真的很高兴,当OpenAI做得很好时,我真的很开心,这就是我们对合作伙伴和生态系统的态度,无论他们是否使用CUDA,这对我们来说并不重要。CUDA对我们很有价值,无论它是否对其他人很有价值,那又怎样?最重要的是,他们能够尽可能轻松地、尽可能有效地做他们想做的任何事情。如果我们的合作伙伴之一是最好的答案,或者甚至其他人是最好的答案,那就这样吧。我们继续前进。

集中计算与本地化计算
一般来说,我还有一个关于人工智能的大问题是集中式与本地式的问题。显然,集中式在计算到命令和可扩展性方面具有巨大的优势。与此同时,它附带成本和真正的控制,人们可能并不总是喜欢。与此同时,我们看到了在图像生成方面用于稳定扩散的本地模型,以及过去几周Meta的LLaMA语言模型。你认为我们会看到有意义的生成性人工智能应用程序在本地运行吗?第二,你在那里看到Nvidia的市场机会很大吗?目前最好的选择显然是Nvidia游戏GPU,获得4090。应该有消费者AI GPU吗?

JH:推理将是未来软件的运行方式。推理只是一台由计算机编写的软件,而不是由人类编写的软件,每台计算机总有一天会运行推理。总有一天,每台计算机都会成为生成的人工智能。如果你已经知道答案,为什么要查找答案?你问我的每个问题,如果我必须去查找它,或者去找一群朋友和核心小组,然后回来给你答案,这比我脑子里已经需要的能量多得多,就叫它25瓦。我整天坐在这里给出答案——

制作最后一小时的答案,我很感激!

JH:对,所以这完全是生成的人工智能。生成人工智能是最节能的计算方式,这是毫无疑问的。当然,问题是我们什么时候可以大规模地做到这一点?好吧,Ben,回到过去,为了运行OpenGL,它开始在现实引擎的数据中心,然后是10万至15万美元的工作站,现在你在手机上运行OpenGL。推断也会发生同样的事情。今天,大型语言模型,最大的模型需要A100 HGX才能运行,所以需要几十万美元。但是,我们还要多久才能拥有较小的版本,以及相当高性能的版本在手机上运行?不超过十年。我们将在各种不同规模的任何地方进行推断。分布式计算非常具有成本效益,它不会消失。然而,将来,你会在手机上做一些推理,你会在PC上做一些推理,但你总是有备份,你总是会连接到云模型,该模型作为备份设备上较小版本的能力要大得多,所以我非常有信心,今天的计算模型将保留。

本地推断会在英伟达芯片上进行吗?还是这是苹果有很大优势的领域?你觉得呢?

JH:嗯,今天会是建造设备的人,当然会有更简单的模型,但这些设备现在真的很强大,它们会运行各种有趣的模型。

我想要可以粘在电脑里的H1英伟达芯片。好吧,对于英伟达来说,每六个月使用一次GTC似乎总是相当激进,但考虑到变化的步伐,现在这似乎很合适。

JH:Ben,这是一个很大的观察。还记得摩尔定律每五年在ISO功率和ISO成本方面进步10次吗?这就是趋势,这就是摩尔定律,每五年十次,ISO功率,ISO成本。因此,在拥有PC35年40年后,仍然约为1000美元。我的第一台PC是Gateway的1000美元,仍然大约1000美元,性能要好得多。它仍然插入墙壁,仍然有几百瓦,性能要好得多,所以这就是摩尔定律。

不幸的是,在接下来的五年里,你不会得到十倍的ISO功率或ISO成本,不会发生。与此同时,有趣的是,与此同时,在过去的十年里,人工智能无疑进步了一百万倍,一百万倍。我的意思是,我们怎么可能从AlexNet检测猫到今天做这件事?因此,很明显,计算已经取得了巨大的进步,当然,发生的方式是对计算机如何编写软件、计算机架构和计算机运行软件的完全重塑。从芯片到系统再到互连到算法的每一层,都完全重新设计了,所以这种全栈计算的方式就像你预测的十年一样,在我看来,毫无疑问,大型语言模型和这些非常大的语言模型将有机会再改进一百万倍。只是它必须是全栈的。

是的,我的意思是,这是结束它的完美方式,这就是我开车的方式。我喜欢回电——我记得486或386出来的时候——就像,“286不是刚出来吗?它好多了,也快多了。”它确实有这种感觉,那种感觉,“哇,这根本没有放慢速度”。Jensen Huang,很高兴再次与你交谈,非常激动人心的时刻。

JH:和你聊天真是太好了。

这个每日更新采访也可以作为播客提供。要在您的播客播放器中接收它,请访问Stratechery。

每日更新适用于单个收件人,但偶尔转发是完全可以的!如果您想以团体折扣(至少5个)为您的团队订购多个订阅,请直接与我联系。

感谢您成为支持者,祝今天过得愉快!

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy