吐槽百度“太着急”的人,你不懂

934次阅读
没有评论

万众期待下,百度终于在前几天交出了“文心一言”的第一份答卷。

作为国内乃至全球互联网大厂中第一个勇敢“站”出来对标ChatGPT的存在,百度发布会关注度直接拉满,也迎来了不少质疑。

吐槽百度“太着急”的人,你不懂图源:网络

从发布会召开之前,就开始流传确认伪造的、说是需要百度员工顶替“文心一言”回答提问的聊天记录截图;再到发布会结束之后媒体直接将“市值上损失XXX亿元”,当作了百度本次发布的成绩总结;甚至是上手实测之后,实际使用口碑有所反弹,许多人又开始吐槽“百度太急了”。

全方位地吐槽与讨论,着实让百度久违地、狠狠地火了一把。

虽说百度的确选择了录制而非现场演示,但关键还是在于ChatGPT让人们自己提前形成的“高期望”:所有人从心底不希望中国错过这次重要创新变革机会,因此将“文心一言”设定在了能够与GPT3甚至GPT4相匹敌的高期望上,自然无法避免将几者进行比较。

而百度选择尽早发布文心一言,恰恰也是考虑到时机——为了抓住大模型这次关键AI变革,百度已经没有时间磨蹭,必须往前赶。反倒是那些吐槽百度“太着急”的人,才是真的不理解这次变革的重要性,更没有看清紧迫的形势。

大模型,一个即将进入的AI新时代

吐槽百度“太着急”的人,你不懂图源:百度智能云

提到AI的落地应用,许多人并不陌生。

包括百度在内的中国科技公司们,通过自己研发AI技术栈,并且打造开放的能力平台,已经助力相当多的企业实现了包括语言理解、文本审核、文字识别、图像审核、图像识别在内的AI基础能力落地。

与过去这些单一功能、细分行业场景的AI能力对比,ChatGPT和“文心一言”带来的不仅仅是自然语言处理(NLP)技术的跃升,更是算力时代“大模型”变革到来的昭示。

在上一波,由CNN卷积神经网络模型为核心的计算机视觉技术,开启的AI应用落地浪潮中,很多想积极尝试AI的企业都遇到了同一个难题:想利用AI,但是独立收集和标注数据的成本实在太大;大部分的AI数据集和神经模型也无法直接跨领域使用。

最终整个AI市场走入了“孤岛式”的发展节奏,在几个容易应用AI的行业(如安防、翻译、语音识别、自动驾驶)被覆盖之后,AI的商业应用就陷入了“停滞”。这种“停滞”背后,体现的是上一代AI“智慧能力”的有限,只能解决相对简单的特定问题。

ChatGPT的各种表现震惊全场,就是“大模型”路线再次实现了人工智能“智慧能力”突破的最好证明。

举个简单的例子:过去为了让人工智能学会自动驾驶,我们就给它专门提供驾驶相关的图片数据,希望直接“训练”它学会开车。训练出来的结果在特殊案例(不规范的道路标识、不遵守交通规则的其他车辆)上频频出错,反倒阻碍了自动驾驶的进一步推广应用。

而现在,我们可以先用更多的算力资源和时间,把各种图片、视频甚至文字的信息都丢给它,让它不断自我学习,最终形成一个基础大模型(Foundation Model),随后再套用到自动驾驶这样的具体应用领域,进行应用相关的优化和调整。相当于在它学会开车之前,先让它学会辨认世界,实现“智慧能力”水平的突破。

以官方公布的“文心一言”投入为例,训练数据就包括了万亿级网页数据,数十亿搜索数据和图片数据,百亿级语音日均调用数据,及5500亿事实的知识图谱。这些庞杂知识的共同训练,最终为“文心一言”贡献了思维链和复杂推理能力,让解答各种各样的疑难问题成为现实。

在“智慧能力”提升之外,多种数据训练而成的“大模型”在应用落地和商业化上也有着自己的先天优势。

不同于过去人工智能的“孤岛式”落地发展,每一个大模型都拥有可以对应广阔的应用场景,在新应用场景落地的同时,还会给大模型本身带来更多的原始数据,反过来不断扩展大模型的智慧能力边界。

最终形成“不断应用、不断吸纳数据、不断训练、不断增加能力、继续扩大应用”的大模型能力“滚雪球”发展路线。

哪怕“大模型”对于算力和资金的需求远比过去多,起码可以确认沿着这条路线,更有希望让人工智能逐步接近更高级别的认知智能水平,甚至是帮助人类决策和探索。

再不着急,就真的晚了

今年2月,外媒爆出微软对OpenAI 100亿美元投资并没有换来任何股份,只是阶段性的分红权利(总利润达到1500亿美元时,微软的分红权利自动停止)的新闻时,夸张的合作协议一度让许多人不解。

真正的原因在于——跟过去很多可以“滚雪球”的赛道一样,“大模型”赛道中的先行者将拥有接近垄断的优势。

根据业界测算,大模型的训练往往起步就需要上千张顶级GPU加速卡,总价值有望超过5000万,单次跑下来的电费、人力和硬件折旧就要接近500万元。很多过去在人工智能行业中摸爬滚打的中小公司很可能都训练不出来有竞争力的“大模型”,门槛的提升将会极大地拉开龙头公司与追赶者之间的差距。

所以从今年1月正式宣布对OpenAI投资起,微软短短几个月就召开了一系列的发布会,并且实现了ChatGPT各种能力在微软一系列重磅产品和解决方案中的落地,能看出它其实也很“着急”、很“激进”。

这个时候我们再来看百度的“着急”,实在是再正常不过。能够快速冲刺并且在全球科技大公司中首个输出成绩,证明了百度自身在大模型、AI研究的深厚积累和投入。

百度在NLP大模型关键资源如“知识图谱”、“语义计算”、“阅读理解”等上有着多年的积累。其中知识图谱的发展更是能够追溯到2014年,通过逐步拓展多源异构知识图谱的研发与应用,百度在2019年发布了“文心大模型(ERNIE)1.0”,由其发展而来的ERNIE 3.0,屡屡在全球性的人工智能语义理解竞赛中获胜,如今也成为了“文心一言”的关键骨架。

在“文心大模型”之外,百度还拥有国内规模最大的深度学习框架“百度飞桨”,截至2022年底,凝聚了535万开发者、创建67万个AI模型,服务20万家企事业单位,位列中国深度学习平台市场综合份额第一。作为国内最大的搜索引擎服务商,百度更是拥有得天独厚的数据资源优势。

在关键的研发投入上,百度也在逐年加码,2022年核心研发费用214.16亿元,占其核心收入比例达到22.%,比例处于整个科技行业的最头部。

尽管百度的积累和投入已经相当可观,“大模型”成长所需的外部“助力”,成为了催促百度这么短时间内交出成绩的“最后一根稻草”。

与过去互联网时代的打造功能、打造应用思路不同,大模型有两个关键的需求“强化学习”、“prompt”,前者是指将大量用户的真实应用资料,再次融入到大模型的训练资料中去,简单点说,就是它必须要“先用起来,才能越变越聪明”。

“prompt”指的则是要从一开始就去圈定大模型有可能回答的答案范围,从而让它在运行过程中更好地理解用户的问题,相当于提前打打“小抄”,背背一些基础知识点,是大模型覆盖全新应用场景、行业必做的功课。

通过让文心一言快速上线,并且逐步开展内测,百度将能够拥有更多的用户反馈,并且作为资料融入到训练当中,优化提升已有应用中的实际表现。通过快速建立生态,则可以帮助文心一言在已有能力范围获得快速落地,获得实际用户外,还能够有规划地拓展应用场景和行业,及早确定整个大模型下一步的训练方向,实现AI工程与商业化的协调发展。

换言之,“文心一言”的发布会既是一次“交卷”,也是百度全力踩下的一脚“油门”,更是接下来加速发展的起点。再以过去互联网时代的产品思路来审视,真的过时了。

吐槽百度“太着急”的人,你不懂图源:百度

创新时刻来临,拼了就应该鼓励

相比产品上的表现,尽管OpenAI很强、微软全力投入在前,百度仍高调预热并发布,积极杀入大模型市场的拼劲,才是最值得普罗大众所关注的。

跟过去的自研芯片、自研大飞机等重大科技挑战一样,AI“大模型”之战,即将逐渐成为中国不能输的一场战争。打破技术封锁,实现独立自主发展的唯一办法,就是全力创新,而且是九死一生的创新。

尤其是目前“OpenAI+微软”的强力组合,已经威胁到了国内企业“大模型”赛道后续的发展。百度能在这个时候第一个站出来直面压力输出成果,就应该鼓励、提供助力,而不是嘲笑。

只有普通用户更包容现有的技术差距、积极使用并且给出反馈;产业积极使用,快速拓展整个生态的活力和商业潜力;政策制定者量身定制更鼓励的营商环境等多方齐心协力,像百度这样的、肩负创新重任的民营企业,才有可能赢下最终的比赛。

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy