【AIIG观察第210期】布鲁金斯学会:加州以公平正义为原则且善用政府采购权来推广人工智能

695次阅读
没有评论

点击蓝字

关注我们

【AIIG观察第210期】布鲁金斯学会:加州以公平正义为原则且善用政府采购权来推广人工智能

海外智库洞察 · 九月上

【AIIG观察第210期】布鲁金斯学会:加州以公平正义为原则且善用政府采购权来推广人工智能

布鲁金斯学会

Brookings Institution

「以公平公正为原则,善用政府采购权推广人工智能,同时兼顾劳动力发展,加州行政命令或将取得切实成效」

2023年9月12日,布鲁金斯学会发布《加州描绘人工智能的未来(California charts the future of AI)》。文章充分认可了美国加利福尼亚州州长于9月6日签署的一项行政命令,认为该行政命令很有可能产生切实的政策效果。该命令指示州政府机构对人工智能监管采取积极主动的态度,审查人工智能对弱势社区的影响、高风险应用造成的威胁以及生成式人工智能新发展带来的挑战。该命令还指出州政府应利用政府采购权来推广值得信赖的人工智能原则。在伦理治理方面,该命令强调,制定指导人工智能开发的道德标准并确保此类产品保护隐私、安全和透明至关重要,将把公平和公正作为人工智能产品和服务的重要原则。此外,该命令还建议将劳动力发展作为人工智能部署的重要组成部分。

作者:达雷尔·韦斯特(Darrell M. West),布鲁金斯学会前副主席、治理研究项目主任,政府治理研究资深研究员,专注于研究人工智能、机器人技术、技术政策以及政府治理等。

原文链接:

https://www.brookings.edu/articles/california-charts-the-future-of-ai/

「美国最高法院的重大问题原则应当被限制」

2023年9月6日,布鲁金斯学会发布《最高法院的重大问题原则与人工智能监管(The Supreme Court’s major questions doctrine and AI regulation)》。文章指出,目前,美国国会或白宫监管人工智能的任何努力都可能被最高法院的”重大问题原则”所推翻。但立法者和监管者或许可以利用政府购买力,只从遵守一系列自愿性标准的平台购买人工智能服务,从而规避这一风险。这也将向市场发出一个信号,即优先资助符合这些标准的企业。政府将成为购买人工智能服务的最重要部门,尤其是在国防、医疗保健和教育等领域。此外,文章还建议,政府可以召集所有关于人工智能的主要机构买家,创建一个评级机构,这样不仅能够告知买家特定的人工智能产品是否符合某些最低标准,还能帮助买家确定哪些人工智能能提供最佳性能,同时还能保护用户和公众。但文章也指出,未来最好的前进道路还是让最高法院找到机会来限制甚至扭转其”重大问题原则”。这样国会就可以像对待其他新兴技术一样,设定目标,并将分析、规则制定和执行工作委托给专家机构。

作者:布莱尔•莱文(Blair Levin),布鲁金斯学会非常驻高级研究员,曾工作于美国联邦通信委员会,担任幕僚长等重要职务。汤姆·惠勒(Tom Wheeler),美国联邦通信委员会前主席,布鲁金斯学会访问学者,专注于研究技术与创新、治理等问题。

原文链接:

https://www.brookings.edu/articles/the-supreme-courts-major-questions-doctrine-and-ai-regulation/

【AIIG观察第210期】布鲁金斯学会:加州以公平正义为原则且善用政府采购权来推广人工智能

卡内基国际和平基金会

Carnegie Endowment for International Peace

「对超级人工智能的炒作正在误导政策走向,应更关注已确定的人工智能风险与挑战」

2023年9月14日,卡内基国际和平基金会发布《对超级人工智能的炒作如何将政策引向歧途(How Hype Over AI Superintelligence Could Lead Policy Astray)》。文章指出,硅谷长期以来都相信人工智能的进步将很快创造出一种科幻式的超越人类能力的“超级智能”,这种 超级智能将在几乎所有领域超越人类的能力。近年来,关于超级智能的讨论也开始影响政策行动。英国即将举行的全球人工智能峰会就尤其关注与超级智能紧密联系的安全议题,而不是讨论民主、隐私、劳动力影响或确保全球共享人工智能利益的广泛议题。鉴于未来是否存在超级智能既无法确证,也无法反证,只能依靠假设和推断。文章认为政策制定者应该更多关注人工智能带来的进化问题,从而避免将资源从更确定的人工智能挑战、有风险的政策建议上转移,并避免过早地将重要声音排除在政策辩论之外。

作者:Matt O’Shaughnessy,卡内基国际和平基金会技术与国际事务项目访问学者,专注于研究地缘政治和全球技术治理。

原文链接:

https://carnegieendowment.org/2023/09/14/how-hype-over-ai-superintelligence-could-lead-policy-astray-pub-90564

「印度应当在全球推广数字公共基础设施战略」

2023年9月1日,卡内基国际和平基金会发布《解读G20数字公共基础设施共识:印度担任主席国的一项重要成果(Decoding the G20 Consensus on Digital Public Infrastructure: A Key Outcome of India’s Presidency)》。文章介绍了印度通过G20将数字公共基础设施(Digital Public Infrastructure, DPI)这一术语变为数字化转型的全球术语的努力和过程,并就印度如何联合各方建立全球性的数字公共基础设施提出四点建议:(1)重点关注G20拟议的One Future Alliance或全球DPI机构,印度可以首先投资创建一个多利益相关方机构,由印度永久任命一名主席,并与合作伙伴、现有的多边机构、私营部门、学术机构、丰富的全球DPI生态系统以及捐助者和知识合作伙伴共同开展工作;(2)必须将快速部署DPI,与技术、治理以及市场和社区的作用结合起来考虑,将各方共同联系起来,就部署问题展开全球讨论;(3)需要就与伙伴国家签署的一系列联合声明采取行动,印度或需成立新的DPI工作组来负责制定战略和部署工作;(4)印度可以与其他G20国家同步普惠金融全球伙伴关系(Global Partnership for Financial Inclusion, GPFI)和数字经济工作组(Digital Economy Working Group, DEWG)成果文件中概述的DPI路线图,并将其作为2023年9月中旬联合国大会的讨论框架。

作者:鲁德拉•乔杜里(Rudra Chaudhuri),卡内基印度中心主任,专注于研究南亚外交史、当代安全问题以及新兴技术和数字公共基础设施在外交、治国方略和发展中的重要作用。

原文链接:

https://carnegieindia.org/2023/09/01/decoding-g20-consensus-on-digital-public-infrastructure-key-outcome-of-india-s-presidency-pub-90467

【AIIG观察第210期】布鲁金斯学会:加州以公平正义为原则且善用政府采购权来推广人工智能

战略与国际研究中心

Center for Strategic and International Studies

「欧洲云服务网络安全认证计划违法世贸规则,有损美国科技公司利益」

2023年9月1日,战略与国际研究中心发布《欧洲云服务网络安全认证计划(The European Cybersecurity Certification Scheme for Cloud Services)》。文章认为,欧盟委员会提出的欧洲云服务网络安全认证计划(European Cybersecurity Certification Scheme for Cloud Services)对美国云服务提供商未来在欧洲的成功构成了威胁,并将损害它们在其他全球市场的利益。对此,文章指出,如果美国官员不能与欧盟中志同道合的成员国一起提出强烈反对意见,那么在法国、西班牙和意大利的积极推动之下,欧盟将采取行动使这些很可能违反世贸组织规则的法规最终落实。为避免进一步歧视美国供应商,文章建议美国贸易官员应坚持要求欧盟网络安全局重新评估该计划是否符合国际法。文章还表示,鉴于该计划或将降低欧洲公司获得高质量网络安全服务的能力,并进一步削弱欧洲在许多领域的全球竞争能力,从而造成安全风险,因此欧盟还应评估该计划对欧盟企业和国家安全可能造成的意外后果。

作者:梅雷迪斯·布罗德本特(Meredith Broadbent),战略与国际研究中心非常驻高级顾问、美国国际贸易委员会前主席。

原文链接:

https://www.csis.org/analysis/european-cybersecurity-certification-scheme-cloud-services

【AIIG观察第210期】布鲁金斯学会:加州以公平正义为原则且善用政府采购权来推广人工智能

加拿大国际治理创新中心

Centre for International Governance Innovation

「自愿人工智能护栏无法真正实现全面的人工智能监管」

2023年9月13日,加拿大国际治理创新中心发布《自愿人工智能护栏将企业利益置于公共利益之上(Voluntary AI Guardrails Risk Placing Corporate Interests Over Public Good)》。文章指出,加拿大联邦创新、科学和经济发展部追随美国政府的脚步,于今年8月宣布将制定自愿行为准则(或“护栏”)来管理生成式人工智能。文章指出,这些自愿协议往往对政府和行业有好处,但对公共利益却不太有利,因为它们可以快速、悄无声息地进行,而几乎不需要监督或问责。自愿协议可能会带来一定的优势,特别是在监管人工智能等快速发展的技术时,签署方可以根据技术或环境的变化快速修改这些协议。但归根究底,企业不会采取违背自身商业利益的行动来解决与生成式人工智能相关的问题。文章强调,加拿大政府必须为了公共利益,认真监管生成式人工智能以及更广泛的人工智能。并建议政府取消自愿行为准则计划,积极推进与改进《人工智能与数据法案(Artificial Intelligence and Data Act,AIDA)》。

作者:Natasha Tusikov,加拿大约克大学社会科学系犯罪学副教授,澳大利亚国立大学监管与全球治理学院访问学者,专注于研究互联网和数据治理,尤其是智慧城市物联网议题。

原文链接:

https://www.cigionline.org/articles/voluntary-ai-guardrails-risk-placing-corporate-interests-over-public-good/

清华大学人工智能国际治理研究院编

上述信息均根据原文内容整理,谨供读者参考

不代表本机构立场和观点

往期回顾

海外智库丨人工智能国际治理观察第209期

海外智库丨人工智能国际治理观察第206期

海外智库丨人工智能国际治理观察第205期

关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。

新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

编译:周韫斐

审核、排版:何嘉钰

终审:梁正、鲁俊群

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy