算力焦虑下,挑战英伟达成大厂必修课

593次阅读
没有评论

人工智能和深度学习技术的迅速发展使得对高性能计算的需求急剧增加,人工智能企业需要不断投入计算资源,以提高算法的准确性和效率、应对数据量的增长、满足时效性要求并保持技术竞争优势,这为芯片公司提供了巨大的市场机会。

其中,GPU作为一种专门为图形渲染和大规模并行计算而设计的芯片,具有高并发、低功耗、高性能等优势,非常适合用于深度学习和人工智能计算。英伟达是目前GPU市场的领导者,其GPU在性能、兼容性和生态系统方面都具有较大的优势。然而,随着市场竞争的加剧,许多芯片公司都试图挑战英伟达的地位。

算力焦虑下,挑战英伟达成大厂必修课

英伟达现状

趁着人工智能的东风,英伟达如今笑傲半导体江湖。据TrendForce集邦咨询研报,预计AI芯片2023年出货量将增长46%。英伟达GPU是AI服务器市场搭载主流,市占率约60%到70%。

GPU头部厂商英伟达股价飙升,其A100/H100芯片一卡难求,被视作大模型生态中的最大赢家。英伟达仍占据着大量AI计算市场份额,这主要受益于英伟达的C++UDA软件平台,通过此平台,开发者可以访问英伟达的核心硬件功能。

同时,国内GPU创业公司的产品大多兼容CUDA,以确保用惯了英伟达产品的客户在迁移时没有障碍。正因此,英伟达目前还没有能动摇其地位的竞争对手。

根据Jon Peddie Research发布的GPU市场数据统计报告,英伟达2022年全年PC GPU出货量高达3034万块,是AMD的近4.5倍;截至2022年四季度,在独立GPU市场,英伟达占据84%的市场份额,远超同业竞争公司。

老对手不甘人后

今年8月,在英特尔最近的财报电话会议上,英特尔首席执行官Pat Gelsinger表示,英特尔正在研发下一代Falcon Shores AI超算芯片,暂定名为Falcon Shores 2,该芯片预计将于2026年发布。为了打破英伟达在AI领域的垄断地位,英特尔可谓是不遗余力。7月11日,英特尔召开芯片发布会,针对中国市场推出高端AI处理器Gaudi 2。

英特尔研究院副总裁、英特尔中国研究院院长宋继强近日表示:“在这一波大模型浪潮当中,什么样的硬件更好并没有定论。”他认为,GPU并非大模型唯一的硬件选择,半导体厂商更重要的战场在软件生态上。芯片可能花两三年时间就做出来了,但是要打造芯片生态需要花两倍甚至三倍的时间。英特尔的开源生态oneAPI比闭源的英伟达CUDA发展可能更快。

算力焦虑下,挑战英伟达成大厂必修课

经过一年的发展,oneAPI日趋完善,现在不仅支持DP C++,也支持优化的Python。在软件工具库方面,英特尔一口气拿出了7个,涵盖数学、人工智能、视频处理等场景,使开发者能够快速获得最佳性能和跨体系结构支持。

在英特尔自家的硬件产品上,基于oneAPI编写的程序可以轻松无缝移植。比如一个在至强处理器上运行的目标检测模型,开发者只需将设备名称这一行代码从CPU更改成XEHP,即可在Xe显卡上运行。oneAPI还是全行业的开放标准,任何厂商都可以使用。因此oneAPI获得了行业支持,包括微软Azure和谷歌TensorFlow最近的认可,美国阿贡国家实验室、伊利诺伊大学都在使用oneAPI。

算力焦虑下,挑战英伟达成大厂必修课

另一位不甘心屈于人下的对手是AMD。6月14日,AMD发布了AI处理器Instinct MI300系列。直接对标H100。这颗芯片将CPU、GPU和内存全部封装为一体,从而大幅缩短了DDR内存行程和CPU-GPU PCIe行程,从而大幅提高了其性能和效率。

据悉,Instinct MI300即将上市。AMD称Instinct MI300可带来MI250加速卡8倍的AI性能和5倍的每瓦性能提升(基于稀疏性FP8基准测试),可以将ChatGPT和DALL-E等超大型AI模型的训练时间从几个月减少到几周,从而节省数百万美元的电费。

另一方面,在不久前针对2023年第二季度的财报电话会议上,AMD首席执行官苏姿丰博士强调了加速人工智能工作负载的数据中心产品线的重要性。此外,AMD可能会像英伟达及英特尔那样,通过定制产品绕开相关的出口限制,寻找机会向中国客户提供对应的人工智能解决方案,以此进一步扩大市场。

科技大厂围剿

芯片公司在AI方面的努力众所周知,一些科技公司也开始凭借在特定领域或特定应用中积累的丰富经验和技术优势,开发专门用于深度学习的芯片,这些芯片在处理大规模数据集时可以提供更高的性能。

2017年,谷歌高调聘请了苹果A系列处理器开发主要领导人之一Manu Gulati,向业内暗示其正在建立一个手机处理器芯片的硬件设计团队。表面上看谷歌当然是想摆脱对高通芯片的依赖,节约购买专利和产品的预算,建立自有的生态圈吸引用户。事实上,自主研发芯片,尤其是具备深度学习性能的芯片,是谷歌为了争夺AI市场做铺垫。

据外媒Axois报告,谷歌在自研处理器方面取得了显著进步,最近其自主研发的 SoC 芯片已经成功流片。据悉,该芯片是谷歌与三星联合开发,采用5nm工艺制造,“2+2+4”三架构设计的8核CPU集群,以及搭载全新ARM公版架构的GPU,同时在ISP和NPU上集成了谷歌Visual Core AI视觉处理器。这让谷歌的终端芯片能够更好地支持AI技术,比如大幅提升谷歌助手的交互体验。

算力焦虑下,挑战英伟达成大厂必修课

亚马逊正在美国德州的实验室设计两种微芯片,用于训练和加速生成式人工智能。这两款定制芯片的代号分别为Inentia和Trainium,它们为亚马逊云科技(AWS)客户提供了一种替代选择,可以代替英伟达图形处理器培训大语言模型。目前,采购英伟达的图形处理器越来越难,而价格也越来越高。

2023年初,亚马逊云科技专为人工智能打造的Amazon Inferentia 2(可通过芯片之间的直接超高速连接支持分布式推理)发布,最多可支持1750亿个参数,这使其成为大规模模型推理的有力竞争者。

民生证券方竞研报表示,下游应用端的高速发展使得微软、谷歌、Meta等众多海外巨头争相增加算力储备,算力芯片需求高度旺盛之下,英伟达一家独大的市场格局或将迎来转变。

Meta和微软则合力为人工智能领域引入了更多的竞争,另辟蹊径打造了企图打破GPU深度依赖的Llama 2。其可以为企业提供一种新的、高性能的计算工具,以支持大规模的语言处理任务。对于那些已经具备大量 GPU 资源的企业来说,Llama 2 可以进一步提高其语言处理的效率和准确性。而对于那些缺乏 GPU 资源的企业,他们也可以通过使用 Llama 2 来降低计算资源的消耗和成本。

算力焦虑下,挑战英伟达成大厂必修课

小结

人工智能市场竞争激烈,各企业需要不断进行技术研发和创新,以保持竞争优势。计算能力是人工智能技术的一个重要方面,拥有更强的计算能力,意味着企业可以更快地开发和应用新技术,提高产品性能和用户体验。

因此,除了海外知名半导体厂商和科技大厂的努力,国内的芯片企业也迅速入局,今年世界人工智能大会上天数智芯推出的通用GPU推理产品“智铠100”、瀚博半导体发布的图形处理渲染芯片sg100第二代、昆仑芯科技展示的包括第二代ai芯片和基于第二代ai芯片的加速卡产品r200系列等新品和海飞科的GPU compass c10芯片,都在一定程度上向人工智能的算力端紧追。

虽然英伟达在GPU市场上的领先地位暂时难以撼动,但随着技术的不断发展和市场的不断变化,其垄断地位可能被诸多对手进一步分化。因此,英伟达仍需要保持持续的创新和技术领先,以应对市场的挑战和变化。

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy