【全球AI战略洞察】栏目由清华大学人工智能国际治理研究院推出,旨在通过对当前人工智能领域发生的重要信息进行“标注、提炼、解读”,剖析全球AI治理各国家间不同的战略图景,以此描绘人工智能治理领域的国际格局。
栏目主理人:刘典
复旦大学中国研究院副研究员、清华大学人工智能国际治理研究院战略与宏观研究项目主任
前言
2023年11月1日至11月2日,首届全球人工智能安全峰会在英国布莱切利公园举行。中国科技部副部长吴朝晖率团出席此次人工智能安全峰会。包括中国在内的28个国家和欧盟共同签署了《布莱切利宣言》,旨在促进全球在人工智能安全发展上的合作。
为什么要举行全球人工智能安全峰会?此次峰会有哪些值得关注的信息?峰会的召开将对人工智能国际治理产生什么影响?针对这些问题,我们为大家对近期首届全球人工智能安全峰会内容要点进行了梳理。
英国AI峰会要点动态梳理
11月1日-2日,全球人工智能安全峰会达成了世界首个AI协议《布莱切利宣言》。峰会上,英国政府宣布将投资3亿英镑构建英国的“AI研究资源”,使英国人工智能超级计算能力提高30倍。同时,英国将联合全球合作伙伴,利用AI助力世界最贫困国家的发展。此外,全球首个人工智能安全研究所在英国成立,负责测试新兴类型人工智能的安全性。
一、中国、美国与欧盟等多方代表联署世界首个AI协议《布莱切利宣言》
2023年11月1日,包括中国在内的领先人工智能国家首次在布莱切利公园召开会议,会议达成了世界首个AI协议:《布莱切利宣言》。
来自非洲、中东、亚洲和欧盟等全球28个国家一致认为,目前迫切需要建立新的国际合作,了解并共同管理人工智能的潜在风险,确保用安全、负责任的方式开发和部署人工智能,以造福全球社会。
与会期间,出席英国人工智能安全峰会的中国代表团呼吁各国就人工智能安全和国际治理问题开展交流与合作。
会上,中方宣介了《全球人工智能治理倡议》,该倡议多条内容被纳入《布莱切利宣言》。(详见:【全球AI战略洞察】中方多条倡议成为英国AI峰会宣言内容,五个要点解读《布莱切利宣言》)
二者在内容上的呼应主要有以下六方面:
1. 以人为本
2. 尊重他国主权,遵守他国法律
3. 建立风险评估体系
4. 公平、非歧视原则
5. 加强国际合作、对话
6. 帮助发展中国家
来源:https://www.gov.uk/government/news/countries-agree-to-safe-and-responsible-development-of-frontier-ai-in-landmark-bletchley-declaration
https://english.news.cn/20231102/ce5ed63b8ea14d82aa423b085f2f83b7/c.html
二、英国科学、创新和技术大臣米歇尔·唐兰在峰会开幕式上致辞,同时宣布英国将加大投资构建新的“AI研究资源”
2023年11月1日,英国科学、创新和技术部长米歇尔·唐兰(Michelle Donelan)在AI安全峰会开幕式上致辞,强调各国“共同拥有维护人类安全的资源和任务,应为前沿人工智能系统的安全开发和部署建立正确的防护和治理机制”。
其讲话重点内容如下:
●《布莱切利宣言》具有里程碑式的意义,使我们加深了对前沿AI新风险的理解,并申明了应对这些风险的必要性。宣言还强调了各国家、AI开发者和民间组织于实现“AI安全”这一共同使命的重要性。
●但是,我们决不能满足于这一“奥弗顿之窗”(当前的局限),我们每个人都要发挥作用,推动实际可能性的极限。
●下一次峰会将在六个月后由韩国主办,一年后将由法国主办峰会。本次峰会的目标是达成对AI的清晰认知、确定合作的路径和大胆的行动,以实现AI的益处,并降低潜在风险。
同时,她宣布,英国政府将增加AI研究资源投资,使英国人工智能超级计算能力提高30倍:
●英国将投资3亿英镑(约合3.64亿美元)用于构建新的“AI研究资源”,以支持先进AI模型的研究。
●资金将主要用于建设两台新的超级计算机,分别位于剑桥和布里斯托尔,其容量比英国目前最大的公共AI计算工具还要大30余倍。
●布里斯托尔的“Isambard-AI”超级计算机将包含英伟达的5000个先进AI芯片,由惠普构建;而剑桥的“Dawn”超级计算机将通过与戴尔和英国中小企业StackHPC的合作交付,并由1000多个英特尔芯片提供动力。
●两大超级计算机将从明年夏天开始运行,将用于分析先进的AI模型以测试安全功能,并推动药物发现和清洁能源方面的突破。
来源:CNBC
https://www.cnbc.com/2023/11/01/uk-to-invest-273-million-in-turing-ai-supercomputer.html
三、英国公布全球合作计划,
将利用AI助力非洲国家的发展
2023年11月1日,英国政府还在峰会上公布了一项新的全球合作计划,将与加拿大、比尔及梅林达·盖茨基金会、美国和非洲的合作伙伴一起,利用AI解决发展中国家所面临的一些最为紧迫的挑战。
英国将用8000万英镑(1亿美元)资助非洲的AI项目,以此支持非洲本土的AI专业知识和计算能力,帮助非洲大陆的AI创新者实现增长,支持其长期发展。该倡议首先将关注撒哈拉以南的非洲地区。
英国AI促进发展计划(UK AI for Development Programme)将为这一计划提供3800万英镑,其目标包括:
(1)让使用46种非洲语言的7亿人享受到AI带来的益处。
(2)使5个以上的非洲国家在全球AI对话中具有影响力,包括利用AI帮助实现可持续发展目标。
(3)在非洲大学建立或扩大8个以上负责任的AI研究实验室。
(4)帮助至少10个国家为负责任、公平和安全的AI建立健全的监管框架。
(5)帮助降低非洲AI创新者进入私营部门的门槛。
未来5年,英国与全球合作伙伴的合作将包括:
(1)为非洲大学的AI研究生培训和奖学金提供资金。
(2)投资创新者利用当地技能和计算能力,通过数据建立能够准确反映非洲大陆情况的模型,以解决其挑战。
(3)促进负责任的AI治理,帮助非洲国家降低AI风险,使其经济适应技术变革。
(4)帮助撒哈拉以南的非洲国家在如何利用AI推进联合国可持续发展目标方面拥有更多发言权。
四、全球首个人工智能安全研究所在英国成立,负责测试新兴类型人工智能的安全性
2023年11月2日,全球首个人工智能安全研究所于英国正式成立,其前身为前沿人工智能工作组,由伊恩·霍加斯(Ian Hogarth)继续担任主席。
英国旨在继续巩固其在人工智能安全领域的领导地位,努力开发世界上最先进的人工智能保护措施。
研究所执行三个核心功能:
第一,开发和评估先进的人工智能系统,旨在了解AI系统的安全性,并评估其社会影响。
第二,推动基础人工智能安全研究,包括启动一系列探索性研究项目和召集外部研究人员。
第三,促进信息交流,包括在自愿的基础上,根据现有的隐私和数据监管规定,在研究机构与其他国家和国际组织之间建立明确的信息共享渠道,信息共享的对象包括政策制定者、国际合作伙伴、私营公司、学术界、民间社会和广大公众。
五、人工智能安全峰会首相代表马特·克利福德发言:人工智能的未来是什么样的?
2023年11月2日,人工智能安全峰会首相代表马特·克利福德(Matt Clifford)发言,其讲话要点如下:
1.人工智能安全峰会将取得哪些成果?●本次峰会将重点讨论领先人工智能公司的安全问题,特别是下一代先进模型,以及如何以安全、可信的方式开发这些模型。
●这次峰会将汇聚全球主要代表,各国政府和顶尖人工智能开发专家(含学者、人工智能巨头公司首席执行官等)将共同探讨最先进的人工智能所带来的风险。
2.人工智能如何造福人类?必须认识到人工智能为日常生活带来的变革性机遇:●例如,英国正在大力投资人工智能和医疗保健领域,包括为国家医疗服务系统(NHS)工作人员提供技术,以便更快地诊断和治疗癌症、中风和心脏病等疾病。目前正在研究能够预测患病风险的模型,并寻找治疗神经痛等慢性病的新方法。人工智能的进步还能改变脑癌患者的手术,帮助医生检测乳腺癌病例。●人工智能还可以在应对气候变化方面发挥关键作用。某些技术已被用于帮助英国工业减少碳排放,以及在为建筑物供暖和优化电动汽车时增加绿色可再生能源电力的使用。
●最后,人工智能可能为英国的学生和教师以及其他工作场景提供支持。在人工智能的帮助下,学生能够增强自适应学习,在最需要帮助的领域得到个性化的支持。
3.前沿人工智能有哪些风险?英国认为全球社会面临的最大潜在风险有两个方面:“滥用”和“失控”。首先,这些模型有被不法分子滥用的风险。例如,可能会加剧网络攻击等现有威胁。
其次,先进系统的行为方式可能与英国的价值观和目标不一致,可能引发道德或伦理方面的担忧。
4.如何降低人工智能风险?峰会的讨论以五个目标为基础:第一,对风险建立共同的理解;第二,国际合作的前瞻性进程;第三,鼓励前沿人工智能公司在安全方面制定最佳实践;第四,探索可以在人工智能安全研究方面开展合作的领域;第五,展示如何安全开发人工智能将有助于充分发挥这项技术的潜力和优势。
5.这是否在打击初创科技企业的积极性?我们在讨论人工智能的潜在风险的同时,也要支持创新。
目前,只有少数几家拥有庞大资源的公司正在开发具有潜在危险的AI系统。英国认为,这些公司应该接受更严格的审查。英国鼓励专注于特定领域的公司自由创新。
六、11月1日圆桌会议召开
2023年11月1日,与会代表和包括OpenAI、Anthropic和DeepMind在内的AI科技巨头举办了圆桌讨论,致力于提高前沿人工智能安全,考虑如何定义风险阈值、有效的安全评估以及强大的治理和问责机制,以实现开发人员安全扩展前沿人工智能。
以下是人工智能安全峰会圆桌会议主席总结:
圆桌会议1:前沿人工智能滥用给全球安全带来的风险
讨论近期和下一代前沿AI模型带来的安全风险,包括对生物安全和网络安全的风险。
主席:François-Philippe Champagne,加拿大政府创新、科学与工业部长。
圆桌会议2:前沿AI发展的不可预测性带来的风险
讨论随着模型的快速扩展,AI前沿不可预测的“飞跃”所带来的风险、新出现的预测方法以及对未来AI发展(包括开源)的影响。
主席:曾毅,中国科学院研究员
圆桌会议3:前沿人工智能失控的风险
讨论未来先进的AI是否会导致以及如何导致人类失去控制和监督,这将带来的风险,以及监测和预防这些情况的工具。
主席:Josephine Teo,新加坡政府通讯及新闻部长
圆桌会议4:前沿AI融入社会的风险
讨论前沿AI融入社会所带来的风险,包括对犯罪和网络安全的影响、破坏选举以及加剧全球不平等,讨论将包括各国为应对这些风险已经采取的措施。
主席:Marietje Schaake,斯坦福大学网络政策研究所
圆桌会议5:前沿AI开发者应如何负责任地扩展能力?
讨论前沿AI开发者负责任的能力扩展政策,包括定义风险阈值、有效的模型风险评估、对具体风险缓解措施的预先承诺、健全的治理和问责机制以及开发选择模型。
主席:米歇尔·唐兰,英国政府科学、创新和技术部部长。
圆桌会议6:国家政策制定者应如何应对AI的风险和机遇?
讨论各国管理AI前沿风险的不同政策,包括监测、问责机制、许可和开源AI模型的方法,以及从已采取的措施中汲取的经验教训。
主席:Rebecca Finlay,AI Partnership
圆桌会议7:国际社会应如何应对AI的风险和机遇?
讨论最需要在哪些方面开展国际合作,以管理AI前沿技术带来的风险和机遇,包括开展国际研究合作的领域。
主席:Tino Cuéllar,卡内基基金会
圆桌会议8:科学界应如何应对AI的风险和机遇?
讨论AI前沿安全技术解决方案的现状、最紧迫的研究领域以及目前可行的解决方案。
主席:Dame Angela McLean,英国政府首席科学顾问
https://www.gov.uk/government/publications/ai-safety-summit-1-november-roundtable-chairs-summaries/ai-safety-summit-2023-roundtable-chairs-summaries-1-november–2
推荐阅读
主理人:刘典
编辑:陶含孜
校审:王祚
终审:梁正 鲁俊群
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG