非独家对话李彦宏:真正AI时代,新的应用需要基于大模型的“新地基”

979次阅读
没有评论

3月23日晚上,百度文心一言邀请内测一周后,李彦宏和品玩,极客公园以及CSDN一起聊了一个小时天。

对于文心一言快速邀请内测背后的考量,与ChatGPTGPT-4等的比较,未来国内市场的竞争,以及这场技术革命给人类带来的机会和挑战,他都给出了自己的答案。

以下为经简单整理的聊天实录。

诞生

“我当时拍了个板,3月份一定要内测”

极客公园:Robin好,非常高兴见到你,其实百度文心一言作为中国第一个类似于ChatGPT这样类型的产品,本身是情理之中,可能速度有点意料之外,我听到外界比较感兴趣一个传说百度经历过大概40天冲刺,能够迅速Deliver产品出来,这个让大家很吃惊的,我好奇40天经历什么,冲刺怎么冲,给我们讲讲诞生过程。

李彦宏:40天这个说法我是没有听说过的。百度做人工智能十几年,我们做大语言模型也有几年的时间,从2019年文心1.0版本发布,到现在将近四年时间,这期间我们发布了文心1.0、2.0、3.0。去年11月30号ChatGPT发布,我们试用了一下之后确实有惊艳的感觉,与以前的大模型相比,尤其在内容生成方面有大的进步,所以从那个时候开始内部确实压力比以前更大。

中国产业环境里,包括我接触到很多人都在问,百度有吗,你们要不要做一个类似的东西,大家很自然而然地往这个方向想。百度这些年一直在做语言大模型,确实很重视,从2019年到现在,我个人花了不少时间和团队讨论大模型到底会向什么方向发展,会有什么样应用,有多大潜力,应该投入多少资源。到最后越来越觉得我们需要尽快做一个对标ChatGPT的大语言模型。

所以确实在邀请内测之前两个月,内部工作压力蛮大的,大家日夜奋战,也有很强的危机感。刚刚做出来的时候,内部看效果确实不行,我们虽然看到它能以很快的速度提升,但是不确定什么时候可以邀请内测。内部也不断讨论到底什么时候可以。

我当时拍了个板,3月份一定要内测。团队没有那么有信心,担心3月份做不出来。我这样做确实是有意给团队一些压力,让他们能够动作更快一点,提升的速度更快一点。

所以确实最后两个月比较紧张,但是我还是比较满意。一开始我们公布3月份要内测的时候,团队的理解是3月31号。后来我跟他们讲3月17号我要去参加亚布力论坛,那个时候文心一言已经满城风雨,关注度非常高,如果我到亚布力的时候文心一言没有内测,我会不知道该说什么,别人关注都是文心一言,我去讲别的,人家肯定觉得很虚伪。包括一些很好的朋友,问起来的话什么都不说是不行的,说一些保密的东西也不合适,毕竟我们也是上市公司,投资人也对文心一言很关心,跟一部分人说跟不跟另外一部分人说,就是选择性披露,这是不行的,所以2月底的时候我就说3月16号邀请内测好了。确实到最后这个阶段有一点赶,但3月16号的时候我对文心一言已经达到的水准还是比较满意的。

“市场需求这么旺盛情况下,谁先做出来还是意义非常大的”

非独家对话李彦宏:真正AI时代,新的应用需要基于大模型的“新地基”

品玩:Robin特别高兴有这个机会跟您交流文心一言事情。您本人、团队最近一直强调百度是全球大厂里第一个做出生成式AI模型的公司。外界对创业公司和大厂做同样的大模型这件事的包容度是不同的,您怎么看待大厂里第一个内测大模型这件事的意义,为什么它对百度是重要的,以及大厂在这里边有哪些东西是它的优势?

李彦宏:百度文心一言内测之后遇到了一些批评的声音,算是我预料之中。我在新闻发布会至少说过三遍文心一言还不完美,选择现在这个时间邀请内测,最主要的原因是市场需求旺盛。ChatGPT刚刚发布的时候也是遇到很多批评,所谓“一本正经胡说八道”,很多人觉得无法接受。我记得程序员社区Stack OverFlow明确禁止在社区发布通过ChatGPT生成的内容,因为ChatGPT错误率太高了,很容易误导用户。所以文心一言不管什么时候出来,都不可能是完美的,只有出来之后才有机会更快地去迭代,去提升。

百度作为全球大厂中第一个做出来意义很大,我觉得很骄傲,因为市场需求太旺盛了,无数的人,过去不怎么联系或者行业跟我隔得很远的人现在都在问,我们怎么能跟百度合作,怎么尽早试用。

所以在中国市场上极早做出来一个生成式大语言模型意义是非常大的。其他的大厂包括美国的谷歌、Facebook、Amazon都没有发出来,我觉得有两种原因,一个原因是他们之前没有那么重视这件事,生成式AI和过去搜索引擎常用的判别式AI是不太一样的,使用的算法、理念甚至是评判质量好坏的标准都不太一样。所以生成式AI不是大厂之前很重视的方向,等到ChatGPT出来之后,它再着急的话确实需要时间的,不是一时半会儿能够做的跟OpenAI做的一样好。

当客户把需求提给我们之后,我们有针对性地进行优化和迭代,很快就可以变得非常有用。对我们来说如果客户不愿意为这个付费,这个产品或者这个技术对我们也没有什么价值,客户如果愿意付费的话,无论多不完美它自己就证明了它的价值,所以我觉得市场需求这么旺盛情况下,谁先做出来还是意义非常大的。当你作为一个大厂第二个做出来了,很像谷歌在美国遭遇一样,其实谷歌的人工智能技术我觉得基础是非常好的,这么多年AI上花的钱应该可能不输于任何一个全球高科技公司。在这种情况下如果出来的东西还是有瑕疵的,明显不如一个创业公司的话,顶的压力是很大的。作为市场上第二个出来,公众或者说客户、媒体对你的要求完全不一样了,所以从这个意义讲我也认为第一个出来非常重要。

竞争

“别人我们管不了,我们只管自己就好了”

极客公园:拿今天的文心一言和已经经过几个月数据飞轮循环的ChatGPT跨时空比有些不公平的,对公众来讲大家还是很期望有一个比较能够理解的对标,比如说让你定义下,今天的文心一言相当于什么时候的ChatGPT,甚至在技术上是多少分,或者相当于什么时候?有没有一个比较具像让大家理解这么一个对标,追问一句有差距但是往上追赶,真正挑战到底是在算力、数据、还是在模型更创新方式上,你会怎么看?

李彦宏:文心一言邀请内测之后,我看到网上各种各样的评测、对比,都是在拿文心一言跟最先进的大模型做对比。不仅会对比GPT-3.5版本,也会对比GPT-4版本。GPT-4在文心一言邀请内测之前一天发布,发布之后大家在网上评测、对比都是说文心一言和GPT-4相比有什么问题,或者熟优熟劣。像文心一言的多模态功能,用文字生成图片,我看好多人把这个功能跟Midjourney对比,大家会在任何一个方向上用市面上最先进的产品跟百度文心一言进行比对。其实我觉得也无所谓公平不公平,大家这么关注,有这么高期望,是我不断提升的动力。我也不断在讲文心一言不够完美,事实上如果全面来评测的话,文心一言确实也不如现在最好的ChatGPT版本,但是差距不是很大。所谓不是很大,可能就是一两个月的差别。讲一个我们内部的Datapoint,大约就是两个月之前,我们内部做过一次评测,用文心一言跟当时的ChatGPT做对比,我们大约落后那个时候的ChatGPT 40分左右,我们分析那些落后于它的地方,感觉差不多用一个多月时间就可以把这些问题解决。

过一个月之后解决的差不多了,再去评测一下ChatGPT和文心一言,发现我们不仅没有赶上ChatGPT,反而差距拉大了。所以当时的团队也很焦虑,就觉得说我们做了半天反而越来越不如人家了。

极客公园:为什么?是数据原因还是其他原因?

李彦宏:就是ChatGPT本身也在不断升级,能力也在快速提升,那一个月的时间,文心一言可能提升速度不慢,但ChatGPT可能中间有一次大升级,导致它能力有一次质的飞跃。再仔细分析差距之后,觉得说再给一个月还能够追的七七八八。按照团队现在的分析,我们水平差不多是ChatGPT今年1月份的水平。但是大家早就忘了1月份它是什么样子,今天大家已经习惯GPT-4,GPT-4这个技术跟我们只差一天出来,是一个其他大厂也很难去拿出一个东西跟它比的技术,所以我觉得没关系,比就比,对我来说只要自己提升足够快,能够把过去做不到的东西一步步做到,尤其有越来越多的用户给我们这些反馈的时候,我还是逐渐看到不少亮点,不少我们已经做的比现在的ChatGPT要好的方向,当然更多方向不如它,我觉得假以时日我们都是可以弥补的。

极客公园:越多的人在用,哪怕大家吐槽,有追上更大可能。

李彦宏:这也是当初急着邀请内测的重要原因。

极客公园:大家一边骂一边用也是有意义。

李彦宏:对,别人我们管不了,我们只管自己就好了。

“被裹挟不见得是坏事”

品玩:您提到着急邀请内测有被裹挟的成分,那么完成邀请内测就是一个分水岭,前阶段可能被”裹挟”,毕竟对方先做了出来,那么接下来都到真实环境里来比拼,是不是可以不用完全继续被”裹挟”了?

李彦宏:我觉得“裹挟”不见得是坏事,当时没有外部压力,我们有可能不会这么快内测这样水平的产品;邀请内测之后我也不觉得不再会被“裹挟”,恰恰相反每天收到的用户反馈比以前多很多很多倍,用户反馈当中1/3说好的,2/3是说不好的,说不好的用户反馈实际上也是一种压力,不管公开骂还是通过邮件、通过我们设计的渠道来进行反馈,每天看到都是各种各样的问题,遇到问题,去解决问题,这就是创新过程,自然而然会让我们迭代的速度越来越快,而这个东西把它说成裹挟也可以,但我更希望说成反馈,我一直认为所有的创新都是靠反馈驱动的,有反馈就可以不断去创新,反馈越多创新速度越快,没有反馈天天憋在自己屋里头自己干,那其实没有出路的。

品玩:中国公司的大语言模型,和美国公司的大语言模型,未来技术上会有区分吗?

李彦宏:还是会有一些不一样,中国有自己特色的语言和文化,比如说我刚才也讲文心一言有些地方做的比ChatGPT好,比如贴吧里边那些梗,你去问文心一言,它基本上回答对,97%、98%的准确率,ChatGPT会是30%左右准确率,我估计它在这方面的训练语料少一些,百度在这方面多一些。再举个例子,白话文翻译成文言文,或者把文言文翻译成白话文,这个也是我们擅长的,明显比它要好。有很多这些东西,包括再往后我们的客户要求我们做定向调优时候,数据进来之后,就能够在客户的领域做的更加精细化,更加高准确率。因为有些场景不能够容忍这么高的错误率,所以我们一定会解决那些问题。时间长了之后,还会觉得这两个大模型会有比较多的不同之处,虽然基础技术是比较类似。

非独家对话李彦宏:真正AI时代,新的应用需要基于大模型的“新地基”

极客公园:创业者尤其是技术型创业者,在观察百度文心一言邀请内测时,问到文心一言背后的大模型跟OpenAI是完全一样的技术路线,还是有不同选择?未来大模型所谓的炼丹,可能有技术上的分叉,创业者在选择跟随哪个平台做创新时,应该关注哪些东西?应该如何选择?技术上是不是还会有新的变量?

李彦宏:我们用的技术有一些不同之处,最主要的不同一个是检索增强,一个是知识增强。检索增强是,由于很容易出现”一本正经地胡说八道”,我们本身又拥有非常强大的,做了20多年,很高市场占有率的检索系统,搜索语境下人们对错误容忍度很低。当问的问题有相对比较确定性答案的时候,我们通过检索增强就能够比较成功避免“一本正经地胡说八道”。所以3月16日的新闻发布会demo用的第一个的例子,《三体》作者是哪里人,我测了好多遍,ChatGPT回答都是错的,我们的每一次回答都是对的,通过检索增强,文心一言首先要理解《三体》作者是谁?哪里人?是什么意思?再问籍贯,这些都弄对,以后才回答得出来。

第二个不同之处叫做知识增强,这是百度对于大模型领域学术上的贡献。ChatGPT里的T叫做Transformer,是谷歌发明的,不是OpenAI发明的。ChatGPT走到这样一个地位,不是自己发明所有的东西,实际上也吸取了很多前人的经验,transformer是对大模型的一个新的推进。百度对于大模型的贡献就是知识增强,我们做搜索的过程中积累了一个非常大规模的知识图谱,应该是全球规模最大的知识图谱,有5500亿对事实。人对物理世界的理解,如果沉淀成知识,用一个一个事实表达出来,成立一个知识库,成立一个知识图谱,再把它融合进文心一言,这就使得自身进化的速度会更快一些,因为借助了一些其他的工具,这也是OpenAI作为创业公司相对来说不具备的资源或优势。

“具体公布参数,意义不大”

极客公园:刚才聊到百度在通用大模型上有加强,做了一些知识增强,等于做了一些额外加强,这也是百度在大模型上面的一种创新。不知道能不能公布百度通用大模型是一个什么量级的参数?也是千亿量级数据的训练过程吗?

李彦宏:肯定是千亿量级。这是一个门槛,如果不过千亿不会出现智能涌现,这是过去实验都证明过的。但是具体是多少参数,公布意义不大,过了千亿之后,不是万亿量级参数一定比千亿效果要好。GPT-4出来之前,我看好多媒体猜测是万亿量级参数,十万亿量级,方向就错了。大模型不是靠提升参数规模,是在其他方面进行提升,不用太纠结。

极客公园:那你觉得创业者在选择技术路径的时候,背后的在确定性问题上做增强,对于创业团队或者商业公司来讲是非常重要的地方吗?

李彦宏:我认为在很多场景下都非常重要。有些场景下可能说错了也无所谓,更关注的是创造性、说话的语气、精彩程度。但像保险理赔,客户打进来电话说出什么事故要赔,回答是错的,这个事就大了,不可用。可能在一半以上的应用场景当中,对于错误的容忍程度都是很低的。当有知识图谱和检索增强的时候,越到具体的行业应用,越会显示出它本身的优势。

技术

“不知道,跑出来了再去研究”

品玩:您刚才提到了理论和工程的关系。我们也知道无论是OpenAI做ChatGPT,还是文心一言也好,本质上做的是工程师的事情,本身对基础科技的投入不是很多。这个过程有人称之“大型的暴力美学实验”,因为投入大量的资金、算力等去做。前不久一个AI领域科学家跟我讲,他觉得好幻灭,大家都参与这样实验,像炼丹一样。你不知道什么时间哪次怎样的努力导致出现变化和跃迁,到底什么原因导致一个大模型能够走出来、跑出来,这个关键到底是在哪个环节上?这个爆发的时刻在过去几个月的经验当中,你觉得哪个月是最关键的?

李彦宏:简单讲就是不知道,我也不知道哪个月最关键。这么做了之后,突然能力就具备了。但是我相信未来人类一定会弄清楚背后的理论基础。很多时候就是工程先做出来了,然后再慢慢研究,这是空气动力学,原则等东西慢慢都出来了。我们从小到大正规教育出来的,太习惯说用理论来指导实践。如果这个实践不是靠理论指导出来的,甚至当前的理论无法解释,我们就觉得很魔幻,觉得不可接受,觉得像炼丹、伪科学,其实根本不是,科学本身也在发展,凭什么现在知道的科学就是真理,一定都是对的?还是需要通过不断的实践、创新,通过吸取各种各样的反馈来加速技术的迭代。跑出来了之后,再去慢慢研究这背后的理论也OK,没有跑出来的话,再过五年时间,人们也不会朝着这个方向去研究。其实大厂都没有在做生成式AI,没有在上面投太多资源,包括学术界,大家没有觉得这个事值得那么多人去研究,但是一旦跑出来确实很厉害,万众瞩目。我相信会有大批科学家会跟进研究,背后到底是什么理论。当然也有可能把这套理论总结出来之后,也可以再用来指导大模型下一步迭代更新,这点完全是合理的。

CSDN:我代表开发者问一些问题,ChatGPT出来的时候正好是NIPS大会,有4万个机器学习和神经网络的博士在开会,他们都惊呆了—这好像超出了我们对NLP或对话能力的理解,后来解释是智能涌现能力,这个秘密现在被揭秘了吗?ChatGPT没有用很多中文语料,中文的事实理解其实很差,但是它仍然可以做很好的中文表达,我们选智利诗人巴勃罗·聂鲁达很有名的作品翻译成中文,发现比翻译家翻译得还要好,这个你怎么看?这个突破能不能给我们技术人员讲讲,到底涌现是怎么实现的?为什么用很少的语料,但语言的差距却没有了呢?

李彦宏:这确实是让人感到惊喜和兴奋的地方。我们做大模型做了很多年,其实也有不少其他公司做大模型,当用一个亿级大模型做的时候,可能做某个单项任务,或者一两个任务,相对比较窄。后来变成十亿级,百亿级,一直到最后参数规模达到千亿,同时匹配足够多的数据来训练,最后就会出现智能涌现,应该说是从量变到质变的过程。仅仅三年前,我们所说的大模型是参数亿量级的大模型,今天当我们说大模型的时候,大家大多数理解参数是千亿量级的大模型,这种进化和技术迭代的速度其实超过了像摩尔定律这样大家熟悉的演化速度,这还是很神奇的。

一旦越过那个门槛之后,过去我们觉得不太可能的事发生了质变。如果再稍微往下沉一点看,为什么会有这样的质变?我自己的理解是,学世界各种各样语言的文本,本身虽然是概率模型,还是基于过去已经出现的十个字符或者token,下一个字符最有可能是什么,简单的技术原理就是这样。但是当实际数据量足够大,算法比较正确的时候,基本上人类对于物理世界的理解逐步压缩到了一个模型里,如果这么来理解大模型的话,确实就是具备了智能涌现或者说是触类旁通的能力,我觉得确实很神奇。

以前人们没有想到,很多东西都是做出来了之后,才会去琢磨这个东西是为什么,里面的科学道理是什么。因为我们上学都是学科学和自然,我们的印象是社会的进步,科技的进步都是先有了理论,在理论的指导下做技术和工程,再把它做成产品推向市场。其实很多时候是工程先做到了,比如人们先发明了飞机,已经飞上天了,人们才开始琢磨为什么比空气重的东西还能在天上飞,由此产生了空气动力学。所以大模型也有点这个意思,先做出来了,我们才开始去研究为什么会是这样。

CSDN:如果大家都用这个千亿模型,逐渐都能够达到这个能力吗?逐渐变成类似于开源系统一样,大家知道基本原理,但是你并没有开源所有的东西,我们也能够做到吗?其他家也能够做到吗?

李彦宏:对,这是一个moving target,一直在变。ChatGPT本身也在以一个很快的速度在进化,文心一言在以更快的速度进化。下一个出来的不管是谁,创业公司也好,大厂也好,做到今天这样的水准肯定是没问题的。但是我们今天觉得这已经很神奇了,也许再过三个月会发现这个东西怎么这么差,它怎么还会出错。人们的期望值会不断抬高,下一个出来的再去追赶之前的大模型,我认为难度是比较高的。在同一个市场上,领先的大模型一定会获得更多的开发者在上面开发各种各样的应用,一定获得更多的用户给反馈。那这种规模效应或者数据飞轮一旦转起来,其实后来者追赶起来会挺辛苦的。

“以后没准学文科更容易找工作”

CSDN:对开发者来说现在硅谷那边已经风起云涌,在做各种基于GPT的应用,给编程带来了很大的不同,过去我们面向API、技术栈,现在变成promote编程了,整个开发者生态和应用会发生很大变化,你怎么看未来,不是那种模型应用,是模型之上的ToC和ToB应用会发生什么变化?

李彦宏:我觉得这是很大的,趋势上的变化。未来可能不需要那么多程序员,今天写计算机程序的程序员,大模型很多时候能够自动生成代码。但是我们会需要越来越多的提示词工程师。大模型本身的能力放在那儿了,谁能把它用好,这个东西是有讲究的,用得好不好,完全靠提示词来决定。提示词写得好,智能涌现的可能就多一些,反馈的结果就更有价值一些,提示词不好,出来的东西就是一本正经胡说八道,或者是错误的结论。所以怎么样把提示词写好,这些东西既是技术也是艺术,甚至我觉得艺术的成分还更多一些。今天这种世俗的来看,好像学自然科学的人更好找工作,工资更高,学文科的不太行,以后没准学文科更容易找工作,因为写提示词的时候,想象力、情感、表达这些有可能真的比现在学工程的人要更有意思,更有效果一些。

CSDN:不同大模型比如说咱们ChatGPT或者GPT-4提示词会不一样吗?

李彦宏:很不一样,底层训练毕竟是独立训练出来的,如果把它比喻成一个人的话,他的脾气禀性是什么,肯定是不一样的。和他交互过程当中也有不断摸索的过程,你才会慢慢知道,我怎么写这个提示词能够获得更好的效果。

CSDN:你问它数据也会变化是吗?

李彦宏:会变化。最近谈的很厉害那种写成语,出来的东西你觉得它没有理解,但是过两天它就理解了,你老说它不对,它就会知道不对,重新搞一遍好了。

非独家对话李彦宏:真正AI时代,新的应用需要基于大模型的“新地基”

商业化

“我不担心外界搞不清楚OpenAI是怎么回事,商业竞争会让技术进步更快”

品玩:刚才我们说OpenAI现在有GPT-4之后,都不发论文、不开源,不发论文,科学家怎么去研究?我们到底怎么去配合科学和理论?

李彦宏:OpenAI现在相对来说比较商业化,当然商业化也不是坏事,有足够的资金去投入,技术迭代的速度会更快。开源不开源完全是它的选择,如果在不开源的情况下,技术迭代速度会更快,能够更好地去造福人类,也是挺好的路线。外界的研究也不能完全指望靠OpenAI的公布,其实各个公司各个研究机构都已经开动了这种机器,该投入的投入,该做研究做研究,该做尝试做尝试。所以,我认为逐渐会形成一套产学研模式,各干各的事,慢慢会形成有规模的领域,甚至是学科。我不担心外界搞不清楚OpenAI是怎么回事,这项技术或者是这个方向的迭代速度都会变慢,我恰恰觉得有竞争,有商业色彩在里头,会使得技术的进步更快一些。

极客公园:现在外界很多人推演说未来大模型的赛道要把技术越练越好,百亿美金以上持续投入。我比较好奇,在百度视角,在你的视角来看,是不是必然投入的量级,有没有其他选择?

李彦宏:投入是肯定的,而且会越来越大。比如目前OpenAI百亿美金的投入量级。但是只要有竞争的话,一定会投入增大。所以,未来是百亿美金,还是千亿美金没有人知道。我们只知道随着这些投入,技术进步会越来越快,在各个行业、各个场景商用普及程度也会越来越快。所以,投入只是硬币的一面,硬币的另一面是收益,这个确实有用,是在我们能够想到的各行各业、各种场景都有用。

所以,发展大模型不仅仅意味着投入,也意味着收益。这个收益随着时间推移,会越来越显现出来。我不知道你有没有读过OpenAI,他们从非盈利组织变成limited organization。门槛、利润要超过今天的苹果,苹果是世界上第一大第二大市值的公司,利润超过之后,才会变回去。足见对生意、业务,对能够挣钱的量级有很高的预期,不是纯投入。纯投入不可能发展这么快,一定是有收益,有收益的根本原因是有效果,是市场需要,对我们的社会、文明有正向的作用,才会有收益。

极客公园:所以就是一边炼丹,一边发电,那么百度接下来在搜索上,会很快看到它在里面发电吗?

李彦宏:肯定,百度目前所有的产品无论搜索、小度、贴吧、文库、网盘、地图,每个部门现在都在加班加点,更快地研究把文心一言的能力集成进去,而这种集成其实会很自然,你会觉得这个产品里头就需要这样的能力。对百度来说是这样,对很多企业也是一样的,大家很自然地就能够看到,我可以用到、集成、需要这些能力。

所以,社会会以一个更快的速度去演进。今天我们回看15年前,比如iPhone出来之前,很难想象那个时候的人过的是那样的生活。如果再过五年十年再回看2023的话也是同样的感觉。过去的人们可能回看一两百年都觉得差不多,人们过的就是那样的日子。但是今天你回看15年、20年都觉得很不一样。今天我们看一些讲90年代的电视剧,看他们的生活场景,明显和今天不一样。我觉得未来五年十年,这种感觉会更明显。

“大模型是云计算的Game Changer”

品玩:看得出你对技术宏大的一面很有热情,但其实过程里也一直提到商业化。我注意到你一开始提到,如果这个技术出来没有客户买单其实也没有什么意义,刚刚有些问题其实还是聚焦在百度搜索等具体功能上的使用,但其实我们会发现,包括对chatgpt的讨论,大家可能忽视的是后面还有微软的云Azure,其实云市场已经在发生很明显的变化了。所以您认为大模型对于云市场的改变是怎样的?

李彦宏:是的,我也公开地讲过,我认为文心一言的出现或者大语言模型的出现对于云计算来说,是一个game changer,它会改变云计算的游戏规则。因为过去比较传统的云计算就是卖算力,主要是每秒钟的运算速度、存储这些比较基础的能力。但是随着技术的演进,真正AI时代的应用不会建立在一个过去的地基上。过去的地基,除了刚才说的云计算之外,还有在移动时代的iOS或者安卓这样的操作系统上面去开发APP,或者PC时代的话就是在Windows上面开发各种各样的软件。而在AI时代,新的应用会是基于大模型来开发的。关于“是不是有一天所有的模型都统一成一个模型”这个存疑,我大概两年前,在内部push过一段时间,想把语言、视觉、语音模型全都统一成一个模型。虽然当时大家怎么想都觉得不对、做不到,但是语言模型规模变大之后,它会能力越来越强,视觉模型规模变大之后,能力也会越来越强。

未来的应用会基于这些模型去开发,上面开发的不管是搜索或者是贴吧,都是基于我们已经做出来的这些大模型去进行开发。这和过去一个创业公司直接去用某一个云,是很不一样的,那个时候用的确实就是算力,甚至具体到用几块CPU、GPU,而以后不用再担心这个层面的事了。就比如我小时候学的是汇编语言,后来学C语言,而今天大家都在用Python写代码,方便程度是完全不一样的。你如果能够用Python写,谁还会去学汇编?就是这么简单的一个道理。所以,对于百度来说,我的理论就是四层架构,芯片层、框架层、模型层,上面才是各种各样的应用。早期的人们是说有什么芯片,我要基于这种芯片去开发各种各样的应用。后来我们说像百度的飞桨,人工智能时代的框架,它的中国市场占有率第一,在美国的话就是Pytorch、TensorFlow。在2023年之前,开发者做AI应用的时候,比较依赖框架。但是大模型出来之后,其实框架也变成相对比较底层的东西,以后开发各种各样的应用基于模型来开发就可以了。下面是什么框架,其实也没有那么重要了。

但是对于百度这样的公司,当我们在提供基础模型的时候,我们用什么框架、芯片其实还是很重要的。甚至某种意义上讲,它每一层通过反馈不断相互加强,不断提升它的效率。所以,内部叫做端到端的优化。由于我们在芯片层有昆仑,在框架层有飞桨,在大模型层有文心。当然,这种暴力美学如刚才提到的很耗算力,那么同样用价值10亿美元的芯片,怎么比别人效率更高,怎么能够算得更快?就需要有飞桨这个框架进行配合。模型也要能够知道这些芯片到底是什么能力可以被充分发挥出来,或者说,昆仑芯片怎么改变一下自己的设计,去更适用于飞桨,更适用于文心一言的模型。

这些东西端到端优化之后,我们的效率会比任何其他的大模型要更高。所以,时间长了,商业的竞争最终竞争的是效率,你的效率比别人更高你就赢了,你的效率比别人低,再给你投多少钱,最终也会打水漂,这是无数的案例都证明了这一点。

品玩:其实是三层架构,最后才是应用。我们现在看GPT-4,很难说它在哪些大型产业上能够被广泛的应用。写个论文,做个心理咨询等,其实也没有落地大型产业。基于中国的产业环境和结构,是不是反而能够弯道超车或者变道超车?

李彦宏:我认为确实这个模型还可以再有一个中间层,就是所谓的行业大模型。除了这些基础模型之外,某一个行业比如能源行业,所以行业大模型应该是一个未来比较看得见的创业机会,有些行业相对比较后知后觉,那些客户觉得不着急,等等看。这个时候如果你基于这个行业的共性训练出来一个行业大模型的话,可以慢慢把行业客户都吃下来,让他们基于这个行业大模型再去开发自己的应用。

生态

“创业公司最大的机会在应用”

品玩:您的意思就是通用大模型的事,创业公司最好就别往里边去做了,因为又要花钱又要花时间,交给几个大的平台,让他们基于这个东西去衍生行业模型的应用,这是比较好的生态。

李彦宏:目前看确实是这样的。如果去做基础大模型的话,创业公司是没有优势的,这和OpenAI那个时代是很不一样的,它2015年成立之后,慢慢琢磨,在别人都看不上,不看好的方向,最后做出来了,一下聚集了一批开发者,有微软的支持,才能够有今天。但是今天所有的大厂都在玩命投资源做的情况下,我作为一个创业公司,我想做一个基础大模型,我想让所有的开发者都基于我的模型开发应用,这没有什么道理啊。你又不是第一个做出来的,市场上已经有了。要数据没有数据优势,要算力没有算力优势,要生态没有生态优势。对于创业公司来说,最好做一些新东西,做一些别人不太看好的东西,成功率会更高一点,社会意义、商业价值都会更大。

非独家对话李彦宏:真正AI时代,新的应用需要基于大模型的“新地基”

CSDN:我问一个问题。大家都把ChatGPT的出现比喻为iPhone时刻,在移动时代出现了开放、开源和闭源的竞争,iOS是闭源的,安卓是开源的,开源最后赢得了生态很大的胜利。所以,开源大模型包括Meta出了一个LLaMA,开源大模型有市场机会吗?

第二个问题,行业大模型有两种”炼法”,一种是在百度文心一言上炼行业大模型,还有一种是在开源大模型上去练我的垂直大模型。哪种会更好一些?会出现开源大模型的这种生态吗?

李彦宏:我觉得有可能出现,但是最终其实是一个市场的自然选择,对于一个开发者来说,今天去选择一个闭源的大模型还是开源的大模型,最主要是看两个因素。一个就是哪个效果好,一个就是哪个便宜。开源的话在价格上有非常明显的优势,基本上可以不要钱就能使用这些东西;闭源如果还有生存空间的话,一定是做得比开源好,才有生存空间。所以当你更加追求效果的时候,你就会选择一个闭源的模型。但这是一个静态的观察或者说是讨论,动态的话可能说随着时间的推移,开源和闭源两条技术路线,最后谁会跑得更快,谁会后劲更足,可持续性会更好,我认为这是一个开放性问题,正例反例都有。对于开发者来说,现在只能选择现在效果更好的,或者性价比更高的这样一个模型来进行开发,对于这两条路线之争我们只能是拭目以待了。

极客公园:问最后一个问题。创业者社区里,大家特别要求我一定替他们问Robin,很想得到你的建议,大家以前我们讲有移动时代的Mobile native。现在什么是AI Native,Robin有没有在这方面的思考,或者感悟能够分享。对创业者来讲,是今天赶紧下场做To C的产品,还是说更加认真思考一下,在某些垂直领域怎么改变商业逻辑,怎么建议创业者行动。

李彦宏:今天大模型处在产业发展非常早期阶段,不管是什么样的观察,我观察也好,其他人观察也好,都有可能发生变化。今天在我看来所谓的AI Native最明显特征,就是刚才讲的提示词。过去没有这个行当,我们也不觉得说跟计算机交互有那么多讲究,今天或者未来怎么去写提示词,才能够把大模型能力能够推举出来,这是非常有意思的行当,我也认为这是将来新的工作机会,最容易出现的地方。甚至有一个比较大胆的猜测,我觉得10年之后,人类一半的工作跟这个有关,就是写提示词。除了提示词这一方面大的改变,从创业的角度来说,我认为首先机会会很大,这个机会可能10倍于移动互联网的机会,主要机会肯定在各种各样基于大模型开发出来的应用,这个应用是To C还是To B,是收费还是广告模式,我认为肯定会都有。每一个方向的机会已经大到作为单独一个创业者来说不需要关心这个事,不可能有天花板,以至于一个创业公司都要担心这个市场是不是足够大,完全不用担心。

品玩:行动就好了。

李彦宏:谢谢你们。聊得非常开心。

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy