【海外智库观察224期】中、美、英、欧盟等国/地区的AI治理政策与成效

707次阅读
没有评论

点击蓝字

关注我们

【海外智库观察224期】中、美、英、欧盟等国/地区的AI治理政策与成效

海外智库观察

人工智能的快速发展既给全球带来了广泛的发展机遇,也因其不确定性而产生了一系列风险与挑战。当前,已有多数国家和地区提出了各自的人工智能政策与法规,并组织召开了相关全球会议,以推动人工智能安全、负责任地发展。本期《人工智能国际治理观察》将关注海外智库对中国、美国、欧盟和英国等国家与地区的人工智能治理政策及方法的评析。


布鲁金斯学会

Brookings Institution



评估34国人工智能发展与治理情况:美国人工智能战略的执行效果仍有待观察,中国的投资和研发能力与美国几乎不相上下

2023年12月13日,布鲁金斯学会发布其客座高级研究员Kevin C. Desouza、加拿大皇家军事学院管理系教授James S. Denford和美国亚利桑那州立大学助理教授Gregory S. Dawson共同撰写的《国家人工智能战略聚类分析(A cluster analysis of national AI strategies)》。文章以已制定并发布了国家人工智能战略的34个国家为研究对象,依据数据管理、算法管理、人工智能治理、能力发展、行业部署情况和公共服务这六个要素来评估一个国家如何进行人工智能治理和管理(数据管理、算法管理和人工智能治理)、打算如何发展人工智能技能(能力发展)以及如何部署或集中人工智能工作(产业、公共服务),并据此创建了各国人工智能战略在所选属性中处于净高、中或低水平的国家集群。


从整体上看,集群范围包括了“净高(美国)”到“净低(加拿大)”,其中,有三组国家具有相同的评估情况,分别为比利时和英国、法国和塞尔维亚,以及瑞典和阿联酋。总体评估情况如下图所示:


【海外智库观察224期】中、美、英、欧盟等国/地区的AI治理政策与成效


数据管理指国家设想如何获取和使用人工智能产生的数据。高集群国家(中国、印度、日本、西班牙和美国)以数据交换频繁为特征,注重数据隐私和安全,将本国的数据视为国家的特定资产,认为其具有极高的价值和敏感性,不愿与其他国家分享数据,并制定了数据交换法规;中等集群的国家(比利时、芬兰、墨西哥和英国)以机构之间、与其他利益相关者以及与其他国家之间数据交换频繁为特征,关注隐私但不太关心数据安全问题,比高集群国家更有可能在国际上共享数据;而低集群国家(奥地利、加拿大、瑞典和阿联酋)虽然认为有必要对数据进行保护,但对数据管理的兴趣不大。研究人员认为,这些国家的人工智能发展明显不够成熟,尚未看到其全部价值。


算法管理指一个国家对算法问题或算法道德的认识。高集群国家(澳大利亚、俄罗斯和美国)对算法的价值拥有清晰的认知;中等集群的国家(爱沙尼亚、卡塔尔和西班牙)拥有较高的算法偏见和透明度,但道德和信任度较低;低集群国家(奥地利、加拿大和中国)的所有子要素的得分都很低。


人工治理的是人工智能的包容性、透明度和公众信任,以及适当监督的必要性。高集群国家(德国、英国、美国、中国和俄罗斯等)拥有人工智能技术并了解强有力的人工智能治理的价值;中等集群国家(澳大利亚、波兰和瑞典)在安全性、法规、社会公平和风险控制上评估等级较高,但在知识产权保护上的评估等级较低;而包括奥地利、加拿大和日本在内的低集群国家只对基本治理感兴趣。


能力发展指的是每个国家将用于发展其人工智能的资源。高集群国家(印度、墨西哥和美国)计划利用除了商业模式之外的所有能力发展因素;中等集群国家(澳大利亚、中国和波兰)侧重于发展教育的能力而非研究和开发方面;低集群国家(加拿大、俄罗斯和新加坡)专注于研发,并只对人工智能在促进基础教育方面感兴趣。


行业反映了作为国家人工智能工作目标的私营部门行业。高行业集群国家(包括中国、西班牙和美国)计划在除了国防和旅游业以外的所有行业部署人工智能;中等集群国家(包括澳大利亚、印度和俄罗斯)关注人工智能在技术、能源和自然资源、农业和医疗保健领域的应用,而低集群国家(加拿大、墨西哥和瑞典)暂无专注于任何行业的打算。


公共服务指的是人工智能要解决的公共服务行政职能。高公共服务导向集群国家(包括澳大利亚、西班牙和美国)将移民、法律、税收和教育以外的绝大部分公共服务部门囊括在人工智能应用的计划之中;而中等集群国家则关注人工智能在医疗保健、交通和信息通信技术等基础设施中的应用;低集群国家仅关注人工智能在教育和医疗保健领域的应用。


研究人员通过比较和评估,提供了对每个国家当前和未来的人工智能治理和技术发展方向的洞察。例如,中国、印度和日本等一些国家主要关注人工智能的前景,而以美国为代表的其他国家则更关注人工智能的潜在危险,因此制定的战略也更关注对可能发生的危险的防范。


此外,文章还研究了集群与全球人工智能指数衡量的人工智能性能之间的关系。首先,拥有更高的基础设施能力会令政府更加重视安全和风险,以确保这些系统的安全。其次,拥有强有力的监管制度和公民对人工智能普遍持积极看法的国家可以在人工智能使用和控制领域的政策制定上投入更少的精力。最后,在创新和投资方面,政府公共服务的发展与研究、开发、政府战略和商业领域呈负相关,表明政府需要在人工智能的采用和资助方面发挥带头作用。


综上,文章认为,虽然美国拥有最完整的人工智能战略之一,但其执行效果如何还有待观察,中国是人工智能大国,其能力发展投资战略可能使其占据主导地位,并且在投资和研发方面与美国几乎不相上下,而加拿大、奥地利和荷兰等国家需要加强人工智能的政策和能力建设,并深化对人工智能领域潜在增长趋势和影响的认识。







美国企业公共政策研究所

American Enterprise Institute for Public Policy Research,AEI


欧盟《人工智能法案》的执行力和有效性仍有待实践的检验

2023年12月15日,美国企业公共政策研究所发布其客座高级研究员Bronwyn Howell撰写的评论文章《欧洲人工智能法规:能真正降低风险还是一场监管“作秀”?(European AI Regulations: Real Risk Reduction or Regulatory Theater?)》。文章指出,欧盟《人工智能法案》(以下简称《法案》)草案在尊重欧盟公民的基本权利,促进人工智能在欧洲的创新与应用,以及预防新的人工智能技术应用中出现的威胁或潜在风险方面发挥了积极作用,但相关法规在执行力和有效性上仍有待观察。


文章指出,欧盟《人工智能法案》最显著的特征在于其使用了“基于风险的方法”,根据人工智能对社会造成危害的能力来进行监管。一方面,针对诸如医疗保健、教育、边境监控和公共服务等对基本权利构成重大风险的应用领域的监管重点是减轻潜在危害。另一方面,《法案》禁止了一些具有“不可接受风险”的特定用途,包括使用敏感特征的生物特征分类系统(例如政治信仰、宗教信仰、哲学信仰、性取向、种族)、从互联网或闭路电视摄像头的图像中进行非定向采集以创建面部识别数据库等。根据《法案》,通用人工智能系统的提供者必须符合透明度要求,包括提供有关用于训练人工智能基础模型的数据的详细信息。而被认定为高风险的人工智能系统开发者将需要对其模型进行评估和减轻系统风险,进行对抗性测试,向欧洲委员会报告重大事件,确保网络安全,并报告其能源效率。


文章认为,欧盟不仅应关注监管内容和达成协议,还应关注《法案》是否能落实于实践当中,以及在执行过程中是否产生实际效用,并建议欧盟将《法案》中的“细则”转化为由成员国代表批准、在“立法过程正式通过前经过法律语言修订”的草案法律,作者还建议欧盟政策执行者在关注已经确定的相关危害的同时还应就技术发展的不确定性采取预防性措施。



战略与国际研究中心

Center for Strategic and International Studies, CSIS


英国人工智能安全峰会关注的安全性问题范围狭窄,不能满足民众期待

2023年11月20日,美国战略与国际研究中心发布其高级研究员迈克尔·弗兰克(Michael Frank)撰写的《英国人工智能峰会汇报第1部分:人工智能风险的框架(UK AI Summit Debrief Part 1: The Framing of AI Risk)》。文章总结了峰会讨论的四个风险类别,即人工智能滥用、人工智能前沿的意外能力、“流氓人工智能”和人工智能安全与社会传播的问题,并指出了所讨论的四个风险类别所涉及的安全性问题具有狭隘性。


人工智能滥用而言,前沿人工智能的滥用可能产生网络攻击、信息操纵和其他有害用途的潜在威胁,并对国际安全、生物安全和网络安全造成风险。但相较于对生物安全风险国际治理的关注,当前围绕网络安全的讨论局限于仅关注来源于非国家行为者的威胁。


人工智能前沿领域的意外能力而言,人工智能具备改善部分领域的潜力,但由于其不可预见的性质和滥用的可能性也将带来相当大的风险。对此,作者认为,参会代表们对通过测试、评估、提高公共利益相关者在风险管理中的可见性来管理这种风险的可能性持相对乐观的态度。


“流氓人工智能”问题而言,高度先进的人工智能系统可能超出人类的预期或有意的监督,并做出开发人员预见不到的决策或行动,对此,参会代表们决定定义一组“不应交给人工智能系统的决策”。


人工智能安全与社会传播而言,随着人工智能的持续扩散,偏见和歧视将被固化或被放大,社会内部和国家之间的不平等将加剧,甚至还可能破坏公共信息生态系统。然而,峰会仍未就相关问题达成统一的共识,不少民众批评此次峰会关注的安全问题的范围过于狭窄,忽略了民众对于人工智能赋能的期待。为此,作者建议政策制定者进一步关注人工智能可能加剧的偏见、歧视和不平等问题,从而缓解民众的担忧。






原文链接:

[1] https://www.brookings.edu/articles/a-cluster-analysis-of-national-ai-strategies/ 

[2]https://www.aei.org/technology-and-innovation/european-ai-regulations-real-risk-reduction-or-regulatory-theater/ 

[3] https://www.csis.org/analysis/uk-ai-summit-debrief-part-1-framing-ai-risk 

文章检索:周韫斐

编译:朱奕霏、杨雨虹

审核:何嘉钰

排版:赵杨博

终审:梁正、鲁俊群


清华大学人工智能国际治理研究院编上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点

往期回顾

海外智库丨人工智能国际治理观察第222期

海外智库丨人工智能国际治理观察第221期

海外智库丨人工智能国际治理观察第220期


关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。



新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy