专访|龚克:人为叫停人工智能无用,我们要学会驾而驭之

627次阅读
没有评论

点击蓝字

关注我们

专访|龚克:人为叫停人工智能无用,我们要学会驾而驭之

龚克

世界工程组织联合会前主席,中国新一代人工智能发展战略研究院执行院长、人工智能国际治理研究院学术委员会委员

人工智能,正经历百舸争流。

近期,随着国产大模型陆续向公众开放,相关产品应用不断升温。而人工智能尽管发展势不可挡,却难掩外界对于其风险和安全的担忧。世界工程组织联合会前任主席、中国新一代人工智能研究院执行院长、信创海河实验室主任龚克在接受新京报贝壳财经记者专访时坦言,人工智能快速发展,生成式人工智能突然爆发,让监管有些措手不及。

龚克认为,生成式人工智能可能发生的内容错误,如果应用到了高敏感度的应用里,就会带来极大风险。这也是为什么全球不少声音强烈呼吁要对人工智能进行治理。他呼吁,加快建立全球多元对话,促成明确共识,在全球共识上来进行立法与规范,进行标准化。

在龚克看来,标准的建立需要基于价值共识以及技术支撑。没有技术支撑,治理就难以落地。全球需要的是一个具有人类价值观,为全球可持续发展服务的人工智能。他认为,百度、阿里、华为等大厂在发展大模型方面的优势,在于这些优秀的互联网企业聚集了大量的优秀人才,拥有强算力和数据积累,同时还拥有资金优势。但小厂也不可忽视,他们不仅自身创新活跃,而且是大厂生态的重要组成部分。就中国国情来看,不仅要扶持科技大厂,更要扶持好中国整体创新生态。

龚克直言,他并不认同国际上呼吁暂停人工智能大模型研发的观点。在他看来,暂停是没有用的。人工智能是先进生产力,其发展势不可挡。龚克认为,人工智能在助力我国实现碳达峰碳中和目标、促进制造业及各个行业高质量发展、改进社会服务等各个方面可能形成国际优势与突破。所以,我国应当首先要发展好这个生产力,并在发展中治理,以治理促进和保障其健康发展。

龚克深耕科研与教育事业多年,谈到了人工智能人才缺乏问题时,他表示,新技术人才缺口是全球性的问题,人才竞争在一定意义上是教育体系的竞争。中国教育系统需要深化改革以适应智能化发展。要从娃娃抓起,提升公众智能化素质,让所有人能够在不同的程度上正确使用人工智能工具。

龚克表示,现在不学人工智能,就像在上世纪八九十年代不学计算机。人工智能是通用技术,各个专业都要学习。人工智能具有很强的实践性,学习人工智能要重实践而不是空谈理论,实现知行合一。

01

谈现状

大厂存三大优势,

大模型突围不是各自为战

贝壳财经:目前布局大模型的大多都是互联网企业,例如阿里、百度、腾讯以及美国的微软和谷歌,互联网企业在做大模型方面有哪些先天优势?

龚克:这些科技大厂的优势主要凸显在三个方面。一是人才优势,优秀的互联网企业聚集了大量优秀人才。第二是技术优势,这又体现在两个方面,硬优势即有很强的算力,软优势即这些公司有大量数据的积累、算法的积累、平台好生态。三是这些公司拥有资金优势,这点非常重要,因为目前推出的各类大模型等还不能快速实现盈利,但投入是非常大的,需要有这样的资金优势。

不过,除了要看到大厂的先天优势,我们也要看到跟大厂一起合作、为产品做出贡献的生态伙伴,即一大批创新活跃、独具特色的新创企业。就中国的国情来看,我们不仅要扶持科技大厂,还要扶持好我们中国的整个创新生态。我个人认为,美国多年进行科技创新所形成大厂、小厂一起创新创业,初创企业和成熟大企业相互合作的生态,值得学习。

贝壳财经:文心一言等国产人工智能大模型陆续免费开放,相对于国际上的人工智能大模型,国产人工智能是否还存在差距?

龚克:对比中国和全球通用大模型的发展,中国在大模型方面正在迅速赶上,我个人在使用体验上并未感觉存在着非常突出的差距。需要强调的是,中国发展人工智能始终贯彻一条主线,即推动人工智能和实体经济深度融合。让人工智能助力实体经济的产品和服务提升,通过深化人工智能应用,提高产品质量、生产效率,降低成本、能耗和减少碳排放,是一个非常重要的发展趋势,中国和世界都在向这些方面发展。

特别是制造业、基础设施的发展,都是中国发展人工智能过程中不容忽视的重要方面,比如电力基础设施和人工智能结合,形成更加低碳的、高效的、可靠的、稳定的电力网络服务。人工智能大模型大有可为,不仅大厂对此大有可为,小厂也是大有可为。发展的核心是要建设好专用的、高质量的、标准化的数据集等,这需要生态共荣,需要开放平台,需要大家合作起来,而不是各自为战。

02

谈短板

我国大模型尚处发展初级阶段,

新技术人才从娃娃抓起

贝壳财经:如今,有的企业致力于研究通用大模型,有的做垂类模型,还有的企业做小数据模型,如何看待这几个赛道?我国相关产业链上下游还有哪些领域亟待布局?

龚克:目前大家所熟知的文心一言、盘古大模型等,都在大力推动大模型向专用化方向发展。我们要看到预训练大模型的成功推出,推动了人工智能的发展,无论是大公司也好,小公司也好,不必从基础的数据从头开始训练,而是可以在通用大模型基础上,用更加专用的数据精调预训练大模型,这也体现了大模型从Chat到Product(从内容到产品)的进化过程,是人工智能发展的重要阶段。

不可忽视的是,我们依旧处在发展的初级阶段。跟发达国家相比,我们许多企业的数字化程度不够。企业有比较好的数字化,才能有完整的全生命流程的设计、制造、检验、销售以及用户反馈数据、销售渠道反馈数据等,利用这些相对完整的数据可以调出专用的大模型。

同时,我们存在人才弱势,不仅基础研发人才不足,产业应用的人才也不足。尽管大模型已经大大降低了人工智能应用的门槛,但是我们仍然需要很好的工程师才能掌握相关技术、用好人工智能工具。要加快人才的培养,不仅是在学校培养人才,还要在生产岗位上培训我们现有的工程师,去掌握这个新兴的数字技术。

贝壳财经:你多年投身于科研和教育事业,人工智能人才缺乏的问题,各方面应该如何努力?

龚克:新技术人才缺口是全球性的问题,人才竞争在一定意义上是教育系统的竞争,这给我们的教育系统提出新的问题,即我们的教育和社会培训体系是不是能迅速适应智能化快速发展的需求。我们首先要在观念上认识到,人工智能技术是一个革命性的通用技术,不仅要建立专门的学科来培养专门的人才,还需要将其作为通识,从娃娃抓起,提升公众智能化素质,让所有人能够在不同程度上正确使用人工智能工具。

今天不学人工智能,就像在上世纪八九十年代不学计算机。这两年,我国教育系统在这方面下功夫比较多的是设立一个人工智能专业或学院,这当然是需要的。但我认为更要把人工智能基础作为一个通识教育模块,从而提高公众的智能化素质。全民的智能化素质提高,就能使中国成为一个人工智能高地。我们很难在低谷里去建一个高峰,要在高原上建高峰。

人工智能作为一个横向技术,已经打破专业壁垒,改变行业面貌,而我们的工程教育是基于工业化时代分工的专业教育,甚至是专业壁垒高筑,这是必须改变的。我们的整体教育系统要跟着智能化时代变革,同时要重实践而不是空谈理论。要真正认识这个工具,就必须使用这个工具,在使用中更加了解工具,实现知行合一,这也是我国教育非常需要的改革。

03

谈落地

看到差距也要增强信心,

必须对人工智能进行监管

贝壳财经:人工智能有三驾马车:算力、算法、数据,我国人工智能发展过程中,算力、算法、数据孰更重要,哪部分将面临较大挑战?

龚克:数据方面,目前全球数据共享和数据跨境流动还存在着很多障碍。同时,对于中国做大模型的公司来说,掌握的中文数据相对更少,质量也有限。以互联网数据为例,中文数据还不到10%,相对英文数据占比超过70%。所以,我们要想办法提高数据的质量,以质取胜,而且要创新算法,减少数据依赖。

算力方面,从国际统计数据来看,我国算力处于世界第二位,暂时落后于美国,但领先于其他很多国家。所以,从算力方面来讲,我国的发展情况相对较好。不过,我国在国产GPU(显示芯片)、半导体基础工艺等方面与发达国家仍存在较大差距,这也相对制约了算力的发展。

算法方面,目前我国算法发展迅速,但必须看到的是,这依赖于国际上的开放生态,同时像深度神经网络、变换器(transformer)、词嵌入、隐私计算等相关重要算法,其首创都不在中国。我们需要以决心和恒心加强原始创新,实现基本原理的突破,实现算法可解释、风险可预测等。

除了算力、算法、数据,还有一个不可忽视的重要因素,即人才。无论是算力的竞争、算法的竞争、数据的竞争,其背后都是人才的竞争。在看到差距的同时,我们也要增强信心。与改革开放初期相比,我国与发达国家的差距已经大大缩小了,并且在人工智能的基础硬件、框架、模型和应用方面已经有了许多创新成果和创新能力。我们要有决心、有信心在智能化发展中走在前列。

贝壳财经:自ChatGPT(OpenAI研发的一款聊天机器人程序)爆火以来,无论是特斯拉首席执行官马斯克还是OpenAI(一家人工智能公司)高管,都提出要对人工智能进行监管,甚至还有逾千名专家呼吁暂停巨型人工智能的研发,他们在担心什么,你是否认同?

龚克:我非常认同必须对人工智能进行监管。其实,我们对任何技术、任何技术产品都是有监管的,只不过人工智能发展太快,生成式人工智能突然爆发,让监管有些措手不及。对数字化发展来说,监管与治理都是后置的,只有少数技术,比如像通信技术等,治理和标准建立在前,后面再谈产品和服务。

特别是生成式人工智能。它生成的是内容,内容带着价值观,涉及真实性、可靠性和公正性。例如,曾经就出现过人们用人工智能进行招聘初筛,该模型把某一个年龄、非某种学校毕业、某性别的申请人直接进行排除。原因是社会存在的歧视反映到数据之中,再用数据训练模型,使歧视被固化、强化。所以,治理具有必要性。

目前的大模型是基于概率生成内容的。例如,你向它提一个问题,它给你一个回答,这个回答是怎么生成的呢?这是基于这个回答中的词语组合和提问中的词语组合的联合分布概率。既然基于概率,就不会是百分之百正确,换句话说,就是百分之百的会出错。这种错误如果应用到了高敏感度的应用里,就可能带来极大风险。这就是为什么全球强烈呼吁要对人工智能进行治理。我们希望加快建立全球多元对话,形成明确共识,在全球共识上来进行立法与规范,推进标准化,进行风险分类分级。

不过,我并不认同暂停人工智能研发的主张。暂停是没有用的。人工智能是先进生产力,它的发展势不可挡。从历史上来看,当机械动力的纺织机代替手工纺织的时候,愤怒的工人砸机器,但这没用,挡不住机械化的历史进程。当汽车出现时,也曾规定让汽车的速度不能超过马车,也没用,这些都阻挡不了先进生产力的发展。

我们能做的事是建立安全标准,明确生产者和使用者的责任。人为叫停是不能阻止人工智能发展的,就像看到汽车行驶飞快,人类害怕没有用,挡也是挡不住的,你要做的就是学会开车。对于人工智能,我们也要学会驾而驭之。

04

谈规范

治理需要技术支撑,

加快制定与伦理和公序良俗相关的标准

贝壳财经:此前你多次提到,“生成式人工智能是有内容的,我们必须为它立心,使得它符合我们的标准”,人工智能发展到目前阶段,需要建立什么样的标准?

龚克:所谓“立心”,就是要让它遵守人类伦理和价值观、遵守法规和符合标准。目前,联合国教科文组织已经推出人工智能伦理建议书,为人工智能全球治理奠定了重要基础,其中提出了四个重要的价值观。第一,尊重和保障人权和人的基本权利;第二,保护环境的多样性和生态的多样性;第三,保持人类社会的多样性、多元性和包容性;第四,和平和互联互通。

这一建议书还突出了“相称性和不损害”“公平和非歧视”“隐私权和数据保护”“透明性与可解释性”“人类的监督与决定权”等十项指导原则。联合国教科文组织要求各成员国具体落实这些价值观和原则,就需要制定必要的法规、导则和标准。

我国已经推出了八项治理原则、十八条人工智能伦理规范,相关的立法调研已经开展起来,提出了人工智能标准框架等。最近,联合国在加快推进全球人工智能治理的步伐,欧洲率先推出人工智能法案,各国也都在加速。在标准化层面,中国在2021年已经推出了一个由相关部委共同发布的人工智能技术标准框架。这个框架从基础层到应用层,都做了全面的规范,在这个框架之下,相关团体企业都在积极开发相关标准。鉴于人工智能是在发展中的技术,我们特别提出了“敏捷治理”的概念和原则,这在国际上是非常突出的。如何让“敏捷治理”更好落地,还需要我们不断创新实践。

总之,人工智能的治理就是要促成“AI with human values for sustainable development(具有人类价值观的可为全球可持续发展服务的人工智能)”。为此,需要技术支撑,比如为保护隐私,需要隐私计算这样的技术来支撑,需要有可测试检验的标准。否则,伦理也好、原则也好,都会成为空谈。

贝壳财经:大模型迎来爆发节点,数据安全和隐私保护成为值得关注的问题,在建立、健全关键信息基础设施安全、算法安全、数据安全、个人信息保护等方面,你有哪些建议?

龚克:在上述方面我们要做的事情有很多,从法规来讲,近年来我们接连落地更新实施了《数据安全法》《个人信息保护法》等,从法律规定到真正实践落地,中间有一个非常重要环节,即建立技术标准。我建议在发展建立技术标准中,重点优先发展用于安全审查、隐私保护的技术标准和规范,先把产品中可能出现的问题找出来,尽可能消除隐患、并在评估风险的基础上再投入使用。要加快与伦理和社会公序良俗相关的标准制定。

第二个建议是对人工智能包括对其技术产品的治理,要基于风险区分。例如,让生成式人工智能来直接制定发展规划、产业政策,这是不行的,一旦出错会造成高风险。但是如果用人工智能去写一个科幻小说,那么即便内容出现错误,危害也相对较小。所以,我们要区分各种领域应用的风险,在风险分类分级的基础上,针对不同的应用来制定不同的规范和标准。

第三个是建立敏捷治理的机制,在发展和应用中治理,而不是等法规和标准都完善后再发展应用。其实,汽车的治理也是在使用中不断完善,比如“系安全带”的规定,就是在发展和应用中才提出来的,是由“三角安全带”的技术发明来支撑落地的。

关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。


新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

来源 | 本文转载自新京报,点击“阅读原文”获取更多内容

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy