腾讯新闻20周年特别策划《20年20人20问》,携手全球顶级企业家、思想家、教授、学者作为“未来提问官”,一起向未来发问,共同探讨未来20年的未知世界,畅想上天入地的潜在可能。
今日,《连线》杂志创始主编凯文·凯利、联想集团董事长兼CEO杨元庆,分别提出了他们关心的问题。我们邀请了7位专家、学者一起来解答。他们都说了什么?我们一起来揭晓!
《连线》杂志创始主编
凯文·凯利的提问:
Q:针对目前潜在的赛博竞争,还没有任何具体的国际条例去限制它,之后会有吗?
腾讯新闻答主@梁正:
(清华大学人工智能国际治理研究院副院长)
有信心禁止AI“核武器”。
大家好,我是清华大学人工智能国际治理研究院副院长梁正,针对凯文·凯利先生提出的问题,我来分享一些我的看法。关于这个问题,我觉得可以从历史经验中得到有益启示。最相近的情况是在核武器领域,我们看到,即使在冷战最严峻时期,美苏两个核大国依然能够在全面禁止核试验,限制核武器使用,削减核弹头数量等方面达成了一系列协定,特别是《不扩散核武器条约》的签署。我认为当前在网络空间、数字空间、人工智能等领域都存在着类似的契机和可能。比如在人工智能领域,今年以大模型、生成式AI为代表的人工智能所展现的惊艳表现,已经引起了国际社会对人工智能安全问题的普遍关注,包括各国政府在这方面进行的积极探讨。在行动方面,下一步首先是主要人工智能大国应当承担起相应责任,对人工智能风险进行前瞻性的研判并提出应对措施。这也是刚刚不久在英国落幕的首届全球人工智能(AI)安全峰会关注的主要问题,作为负责任的人工智能大国,中国也派出了政府代表和各界专业人士参会并明确阐明了自身立场。从目前公开的信息来看,国际社会对人工智能安全问题已经有了比较深刻的认识和讨论,同时也采取了一系列行动,特别是作为全球第一份针对人工智能安全问题的国际性声明《布莱切利宣言》的签署,以及联合国高级别人工智能咨询机构的建立。我们应该意识到,在人类向更高阶段发展的过程中,不应被动地等到灾难性后果发生后再去限制,而应提前进行部署和应对。我们不应再重复限制核武器的历史过程,即等到全世界见识了核武器的巨大威力后,才开始去提出相关的约束要求。在全面禁止化学武器、生物武器等方面也有同样的问题。从这个角度来看,不管是数字空间还是赛博空间,或者是对人工智能这样先进技术的使用,各国应针对一些明显可能对人类长远发展或者相互利益产生不利影响的场景及应用展开充分的研讨,去思考应当划定哪些“红线”,如何设置研发、使用等方面的具体要求,这应该是下一步整个国际社会、各国政府、国际组织共同去探讨的问题。从最近的情况来看,国际社会在这一问题的应对上还是比较积极的,比如前不久在联合国框架下成立了高级别人工智能咨询机构,正在探讨设立人工智能专门机构的问题。当然其中也会存在一些困难,比如主要人工智能大国之间是否能在一些问题上达成共识?相关限制是否会对人工智能自身和他国发展产生影响?这些问题都需要通过专业界的对话和讨论去进行识别与回应。就像在全面禁止核试验和核裁军等一系列国际条约的形成过程中,事实上就是以罗素、爱因斯坦等为代表的一批知名科学家首先在世界范围内共同倡议,然后经过像帕格沃什科学和世界事务会议这样富有盛名的专业对话平台开展了深入研讨,形成相关观点和方案,最后再由各国政府采纳和实行的。这对战后,特别是冷战期间限制核武器研发和实验,禁止使用等方面都起到了非常重要的影响。我觉得在数字空间、网络空间、人工智能领域也迫切需要去搭建这样的平台,展开专业对话,我所在的清华大学人工智能国际治理研究院在过去三年连续举办“人工智能合作与治理国际论坛”,吸引了来自近三十个国家的上百名专家学者,业界人士和政策制定者共同探讨人工智能发展与治理问题,形成了诸多有益共识,就是这样一种努力和尝试。
从我个人来讲,我还是有信心的,因为我们既然可以解决类似核武器这样具有相互毁灭功能、能够造成大规模杀伤的武器限制使用问题,同样也有理由能在数字网络空间、人工智能领域达成同样的效果。应当相信,伴随人类文明的进步,我们可以也应该能够“未雨绸缪”,理性应对和最终解决类似这样的重大挑战。
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
来源 | 本文转载自腾讯新闻,点击“阅读原文”获取更多内容