谷歌发布公司2023年在人工智能领域的发展方向

1,564次阅读
一条评论

本文来自谷歌博客,由谷歌高级研究科学家Lauren Wilcox代表技术人工智能、社会和文化团队发布。

以下为博客正文(机器翻译)

可移步查看原文 https://ai.googleblog.com/2023/04/responsible-ai-at-google-research.html

谷歌将人工智能视为一种基础和变革性技术,最近在生成性人工智能技术方面取得了进展,如LaMDA、PaLM、Imagen、Parti、MusicLM和类似的机器学习(ML)模型,其中一些现在正在被纳入我们的产品中。这种变革潜力要求我们不仅要负责如何推进技术,还要负责如何设想要构建哪些技术,以及如何评估人工智能和支持ML的技术对世界产生的社会影响。这项努力需要具有跨学科视角的基础和应用研究,该视角涉及并解释塑造人工智能系统开发和部署的社会、文化、经济和其他背景维度。我们还必须了解持续使用此类技术可能对弱势社区和更广泛的社会系统产生的一系列可能影响。

我们的团队,技术,人工智能,社会和文化(TASC),正在解决这一关键需求。关于人工智能社会影响的研究是复杂和多方面的;没有一个学科或方法学观点可以单独提供应对ML技术的社会和文化影响所需的多样化见解。

因此,TASC利用了跨学科团队的优势,其背景从计算机科学到社会科学、数字媒体和城市科学不等。我们使用具有定性、定量和混合方法的多方法方法,以批判性地检查和塑造支撑和围绕人工智能技术的社会和技术过程。我们专注于参与性、文化包容性和交叉性以公平为导向的研究,将受影响的社区带到前台。我们的工作在计算机视觉、自然语言处理、健康和通用ML模型和应用程序等领域推进了负责任的人工智能(RAI)。

下面,我们分享了人工智能方法的示例,以及我们在2023年的发展方向。

谷歌发布公司2023年在人工智能领域的发展方向

主题1:文化、社区和人工智能

我们的关键研究领域之一是通过社区参与和文化包容性的方法,推进使生成性人工智能技术对全球人民更具包容性和价值的方法。为了实现这一目标,我们将社区视为其背景下的专家,认识到他们对技术如何能够和应该影响他们自己的生活的深刻了解。我们的研究倡导在整个ML开发管道中嵌入跨文化考虑的重要性。社区参与使我们能够改变我们如何在整个管道中整合最重要的知识,从数据集策划到评估。这也使我们能够了解和解释技术失败的方式,以及特定社区可能如何遭受伤害。基于这种理解,我们创建了负责任的人工智能评估策略,这些策略可以有效地识别和减轻多个维度的偏见。

我们在这一领域的工作对于确保谷歌的技术对世界各地的不同利益相关者来说是安全的、有效的,并且对它们有用至关重要。例如,我们对用户对人工智能的态度、负责任的互动设计和公平评估的研究,重点是全球南方,展示了人工智能影响的跨文化差异,并贡献了能够进行文化评估的资源。我们还正在建立跨学科研究社区,通过我们最近和即将举行的关于人工智能/人工智能文化、计算机视觉创造性应用中的伦理考虑以及NLP跨文化考虑的研讨会,研究人工智能、文化和社会之间的关系。

我们最近的研究还寻求了已知在ML开发和应用中代表性较低的特定社区的观点。例如,我们在自然语言和性别包容性健康等背景下调查了性别偏见,利用我们的研究对偏见进行更准确的评估,以便任何开发这些技术的人都可以识别和减轻对具有酷儿和非二元身份的人的伤害。

主题2:在整个开发生命周期中启用负责任的人工智能

我们通过在整个开发管道中为RAI建立全行业最佳实践,并确保我们的技术可验证地默认纳入该最佳实践,来大规模启用RAI。这项应用研究包括为ML开发进行负责任的数据制作和分析,以及系统地推进支持从业人员实现透明度、公平性和问责制等关键RAI目标的工具和实践。为了扩展数据卡、模型卡和模型卡工具包的早期工作,我们发布了数据卡手册,为开发人员提供了记录与数据集相关的适当用途和基本事实的方法和工具。由于ML模型通常根据人类注释数据进行训练和评估,我们还推进了以人为本的数据注释研究。我们开发了记录注释过程和方法的框架,以考虑评分者的分歧和评分者的多样性。这些方法使ML从业者能够通过识别当前障碍和重新构想数据工作实践,更好地确保用于训练模型的数据集注释的多样性。

未来方向

我们现在正在努力通过将多样化的文化背景和声音嵌入到技术设计、开发和影响评估中的方法,进一步扩大对ML模型开发的参与,以确保人工智能实现社会目标。我们还在重新定义负责任的做法,这些做法可以处理ML技术在当今世界运行的规模。例如,我们正在开发框架和结构,使社区能够参与行业人工智能研究和开发,包括以社区为中心的评估框架、基准以及数据集管理和共享。

特别是,我们正在推进我们之前的工作,以了解NLP语言模型如何延续对残疾人的偏见,将这项研究扩展到其他边缘化社区和文化,包括图像、视频和其他多模式模型。这种模型可能包含关于特定群体的比喻和刻板印象,或者可能抹去特定个人或社区的经历。我们努力在ML模型中识别偏见的来源,这将导致更好地发现这些代表性危害,并将支持创建更公平和更具包容性的系统。

TASC是关于研究人工智能和人之间的所有接触点——从个人和社区,到文化和社会。为了使人工智能具有文化包容性、公平性、可访问性,并反映受影响社区的需求,我们必须通过以受影响社区的需求为中心的跨学科和多学科研究来应对这些挑战。我们的研究将继续探索社会与人工智能之间的相互作用,进一步发现开发和评估人工智能的新方法,以便我们开发更强大、更具文化定位的人工智能技术。

致谢

我们要感谢团队中为这篇博客文章做出贡献的每个人。按姓氏的字母顺序排列:Cynthia Bennett、Eric Corbett、Aida Mostafazadeh Davani、Emily Denton、Sunipa Dev、Fernando Diaz、Mark Díaz、Shaun Kane、Shivani Kapania、Michael Madaio、Vinodkumar Prabhakaran、Rida Qadri、Renee Shelby、Ding Wang和Andrew Zaldivar。此外,我们要感谢Toju Duke和Marian Croak的宝贵反馈和建议。

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 1
评论(一条评论)
Avatar photo
2023-04-24 16:37:34 回复

mark

 Macintosh  Chrome  中国北京北京市电信
Generated by Feedzy