特约文章丨道德行动体视角下生成式人工智能伦理问题解析

650次阅读
没有评论

文 / 李洋,梁正

摘 要:

关于人工智能道德主体地位的讨论一直是人工智能伦理的热门命题,尤其是生成式人工智能的涌现性特征,加剧了对其道德属性的隐忧。本文尝试从道德行动体(moral agent)的视角出发,探究生成式人工智能道德负载和价值表达的可能性,并在此基础之上,探讨价值嵌入、责任对应、伦理评估的伦理问题应对方式,提出舆论澄清、体系平衡、重点突破、制度手段、国际治理的治理框架思路。

关键词:

生成式人工智能;道德行动体;价值嵌入

0 引言

智能社会积极变革人类社会的同时,也伴随着消极面。人工智能(AI)是人类社会科学技术发展的必然产物,是人的本质力量对象化的结果 [1]那么,它不仅延继了人类善的方面,也延展了人类恶的方面。人类与人工智能互动关系的构建中,存在着诸多不确定性。尤其是近些年来生成式人工智能技术的突飞猛进,不可避免地引发各界对人工智能伦理的深度忧虑。

我们最早发明机器,是为了使人摆脱繁重的体力劳动。随着时代的进步,这种替代意愿从体力劳动扩展到脑力劳动,智能机器被用来解决复杂的计算问题、规划问题、决策问题等。如今基于大模型的多模态生成式人工智能,更是在一步步刷新人类对人工智能边界的未来想象。这不禁使我们自问:我们研发人工智能究竟为了什么?如果用它代替我们做任何形式的活动,人类生活会因此进步还是倒退?假设未来人工智能演化出足够的智慧能力,人类还能扮演什么角色?面对这种沉思,人工智能发展应该把握一个社会可接受的“度”,而非一味的追求速度 [2]。同时,是否需要将人工智能的发展控制在整体弱而单项强的水平上,是否有必要在一定程度上保留人工智能的致命智力缺陷 [3],有待政策界、学术界、产业界共同研讨。

人工智能可否作为道德行动体

生成式人工智能的长足进步,使人们产生对自身主体性地位产生怀疑,甚至深感不安,对于机器自主决策和主体地位的讨论再次甚嚣尘上。这种担忧也随着生成式人工智能不断在自然语言理解、长文本交互、多模态应用等方面的突破逐步加深。智能机器的进步对人类社会的道德压迫感,使越来越多学者加入人工智能技术未来发展的讨论。

人工智能是否能够具有道德主体地位?所谓道德主体是指有自我意识的,能够通过推理、判断、约束从道德认知层面规范行为,且能够做出道德决策,并对相应行为承担道德责任的道德行动体。那么,人工智能作为一种人工物能否具备这些条件?人工智能与道德行动体有怎样的关系?摩尔(James H. Moor)对人工道德主体进行了分类:道德影响主体(ethical-impact agents)、隐形道德主体(implicit ethical agents)、 显 性 道 德 主 体(explicit ethical agents)、完全道德主体(full ethical agents)[4]。然而,智能机器道德主体地位的讨论并不能通过简单的分类划定,可以从多个层面分析。

人具有道德主体地位的内核是主体的自由。主体自由的形成是一个漫长而复杂的进程。首先,人类经过在自然界中的长期演化,培育了自主学习的能力,在与世界互动的过程中不断加深对世界和对自我的认知。自我认知的发展推动了自我意识的形成,产生自由的主体意识。生成式人工智能的基本技术逻辑仍是概率模型,虽然人类反馈和监督微调提升了机器学习效果,但从目前的实践结果来看,还没有一种除自然方法以外的人工方法能够使机器具备主体意识的能力。其次,当人类通过语言、交往、组织等形式组成社会后,自我认知开始复杂化。人和社会的互动中,人类进一步认识到自身是自由的,主体性进步为对自由的自我认识,人的各种社会行为受到自由意志的支配。人的自由意志是社会意识反思的产物。然而,对于机器来说,这种复杂化的自由意志是一个更为高级的阶段。最后,社会进步使得人对自由的自我认知加深,人类不仅认识到自由,而且还意识到自己应该是自由的,即为自由赋予了道德内涵。因此,从主体自由的角度看,生成式人工智能似乎并不能具有道德主体地位。

主体自由的观点也许在某种程度上有唯我论的倾向。分析哲学和现象学分别为主体性提供了新的思想资源。

分析哲学认为,人类心灵由处理客观信息程序的“智能”和伴随程序的主观感受“意识”构成[5]。主体的内在表征能力作为“内在意向性”,把具体内容语义与逻辑形式联结,形成理解,即所谓智能。意识则作为行动的识别器,发挥主体对行动负责的功能。因此智能和意识成为主体性的两个先决条件。约翰逊(Deborah G. Johnson)指出,由于人工智能无法满足“具备意愿、信念和其他倾向的内在状态,且有行动意图(intending to act)”,因而它只能被视为道德实体(moral entities)而不是道德主体(moralagents)[6]。从分析哲学的观点看,生成式人工智能虽具备处理客观信息的能力,且能够反馈超越图灵测试的结果,然而有意识的识别行动并对其负责尚未能实现,这一观点也受到“人类中心主义”的批评。

信息哲学家弗洛伊迪(Luciano Floridi)提出,诸如主体意识、自由意志、内在状态这些特征并不是人工智能具备道德主体地位的必要条件。只要具备交互性(interactivity,主体与环境相互作用)、自治性(autonomy,在不影响交互的情况下改变状态)、适应性(adaptability,交互中可以改变内部状态来调整过渡法则),人工智能就可以成为人工主体(artificial agents,AAs)[7]。这种思维模式是建构主义的,它不排除人工智能在被建构的过程中成为道德主体的可能性。但是人工主体概念会在不同情境、条件中变换,因而难免陷入相对主义的批判。

现象学认为主体是一个自我发现的过程,它与世界是一种“共生”关系。主体自我认知的实现是一个靠知觉能力将自己从与世界共在的情境中抽离。后现象学彻底抛弃了主客二元的论调,它通过不同的“人技关系”①表述将人与技术认知为一个相互纠缠、彼此构成的统一体。荷兰技术哲学家维贝克(Peter Paul Verbeek)称其为技术调节(technicalmediation),并在此基础上讨论“道德物化”的可能性。显然,从“道德物化”的观点看,生成式人工智能具备成为道德主体的条件,因为人工智能与人类在某种程度上是互构的,彼此是相互纠缠、相互塑造的关系。可以判断,人工智能在成长为道德主体的道路上没有理论方面的阻碍。对人类来说,目前的人工智能往往被视为处于附属地位的工具,将人工智能视为道德主体需要感情上的逐步认同 [8]。

美国信息技术学者纳多(Joseph Emile Nadeau)的观点更为激进:人类不是智能主体但机器人是。受康德的影响,纳多认为一个行为之所以是自由的行为,当且仅当这一行为是基于主体的理性思考。人经常依靠情感判断并抉择,所以人不可能具有绝对理性。反而,一个基于形式逻辑的机器能够做到绝对理性,因而它具有完全道德主体的能力 [9]。该观点被称为进化论思维的超级主体概念 [10],是近乎一种忽略现实的科幻思维。

总而言之,人工智能的道德行动体地位并不限缩于哲学领域,它已经在实践中成为一种可操作的技术模型。OpenAI的生成式人工智能基于大模型、大数据、强算力的基础架构,运用人类反馈强化学习和监督指令微调的方法发展出了一条“超级对齐”的新思路。一方面,它与使用者的互动构成了重要的数据集和学习库,利用人类反馈不断“学习”。在这一过程中,使用者价值事实上对大模型构成了塑造影响。另一方面,人机互动为生成式人工智能的进一步更新提供了非常有意义的参数,设计者通过标注、校对等微调方式践行伦理对齐原则,以保证生成式人工智能所表达的价值与人类良善的一致性。这种设计者、使用者与大模型之间的互动,印证了以关系本体论为核心的后现象学和道德物化理论的实践路径,即生成式大模型与人类在道德上也可能是相互构成、相互塑造的关系。这其中的核心要点在于,人类应该以何种方式参与人工智能的设计和使用,以及如何更有效地将公平、良善等价值因素嵌入大模型,使其产生积极的道德后果。

生成式人工智能伦理问题应对:价值嵌入、责任对应、伦理评估

尽管生成式人工智能可否作为道德行动体履行相应的责任和义务在学界还有诸多争议,但它能够嵌入、表达、塑造价值已成为普遍共识。生成式人工智能可能引发的技术风险、伦理风险、产业风险、社会风险、政治风险的原因是多方面的。一是技术误用。人工智能的生成式新特性在一定程度上赋予使用者通过人类反馈的方式参与设计的路径,增加了技术误用的可能性。二是技术失控。生成式人工智能的涌现性提升了失控的可能性,引发人类对智能技术失去控制进而产生不可估量的后果。三是应用失控。任何人都难以估量大范围地应用生成式人工智能的后果,它是否会造成重大社会问题 [11]生成式人工智能的伦理问题应对是一项涉及面广、涵盖内容多、波及范围大的艰巨任务。应对人工智能的伦理问题不仅要通过伦理手段规范技术使用,也要运用工程技术手段和治理规划手段。因此,人工智能的伦理和治理更需要综合性的体系建构,从设计阶段的价值嵌入、使用阶段的责任对应、伦理评估和调适入手,构建多元主体、不同层级、多种手段配合协调的机制,以达到有效治理的目标。

生成式人工智能伦理应对要起于设计。一个优秀的智能产品应是经济性、功能性和价值性的综合。在智能技术的设计中引入道德的、伦理的设计元素,写入价值因素,越来越成为现代技术高品质的核心要求。OpenAI 所提倡的超级对齐原则提供了设计价值嵌入的理论方法和实践案例。生成式人工智能与设计者和使用者的互动反映了人技交互中相互纠缠的复杂关系,它在一定程度上具备成为道德行动体的条件。那么作为一个“准道德主体”,智能技术在设计阶段的价值嵌入具有合理性。近些年兴起的价值敏感设计和负责任创新研究都为这一主张提供了理论支撑。从伊德的“人技关系”理论与维贝克的技术调节论、“道德物化”理论,再到超级对齐方法,人工智能的道德嵌入不仅停留在理论层面,在实践上也是可行的。

荷兰的代尔夫特理工大学近些年掀起了一股“价值设计”(design for values)的研究浪潮,引起了全球范围内的关注。所谓“价值设计”更注重将伦理价值落实到技术研发、技术设计和技术应用中。“价值设计”实践主要体现在三个方面:其一,工程师课程教育引入伦理道德相关课程,成为每一个工程师的必修课。通过这样的课程可以培育实践一线技术专家的价值敏感性,使之认识到自己的工作并不仅仅是技术问题或工程问题,亦是价值问题和伦理问题。其二,工程师培养的实践活动中有伦理学研究者参与。这一点即强调实践操作中技术与伦理融合的可能性和可行性,教学相长和实践应用的过程中科学与人文进行良性互动。其三,工程学者与伦理学者共同体的构建。工程师与人文学者应组建一个对话沟通,促进彼此理解的研究共同体,一方面使工程师的乐观更加包容审慎,另一方面让人文学者的担忧不再是空想的未来学。

构建责任对应机制是应对生成式人工智能伦理问题的棘手问题。责任伦理要求回答谁来负责、向谁负责、负什么责、怎样负责、如何负好责五个问题。

谁来负责对应责任的主体性。政府应负起监管责任,宏观上把控技术发展方向;企业应负起设计责任,意识到模型训练过程价值嵌入的消极方面;高校应负起教研责任,教学科研中培养负责任的工程师;公众应负起监督责任,积极发挥自身对政府、企业、高校等群体的监督义务;“人工智能体”应负“技术责任”,始终作为善的技术,需要设计者与使用者的良善互动。

向谁负责对应责任的指向性。各责任主体首先应对自身行为负责,还应向其他责任主体负责,以此形成有机的闭环责任体系。

负什么责对应责任的内涵性。举例而言,企业应负的责任就是保证生成式人工智能应用的安全性,规避风险性,摒除危害性。不同责任主体对应的责任内涵性亦不同。

怎样负责对应责任的方法论。即如何实现责任的内涵性,责任伦理贯穿动机、行为、结果,因而意识层面、制度层面、行为层面的责任方法论有待构建。

如何负好责对应责任的评价性。能否搭建有效的生成式人工智能伦理与治理评估机制直接关系到责任伦理践行的最终效果。

伦理问题的效果取决于多方参与的评估和调适。2019 年欧盟人工智能伦理高级专家组总结了七点智能技术的伦理准则:人的能动性与监督;技术稳健性与安全;隐私和数据治理;透明性;多样性、非歧视和公平;社会和环境福祉;问责制。 首先,需要通过多方协商的方式在评估体系上达成共识,有标准支撑才能有的放矢。其次,生成式人工智能的伦理评估不应仅仅停留在事后评估,评估应该被引入到技术研发过程中。技术专家和人文学者共同体应时时跟进人工智能项目进展,尽早发现问题、解决问题,通过技术治理的手段应对人工智能涌现性的种种问题。最后,政府部门应对出台相应的治理措施以辅助伦理评估的进行,包括法律法规、行为规范等。我国出台的《关于加强科技伦理治理的意见》《生成式人工智能服务管理暂行办法》《科技伦理审查办法(试行)》都可以作为伦理评估和调适的手段。

生成式人工智能治理的框架思路

舆论澄清——避免技术被妖魔化。尽管失序、失业、失控构成了生成式人工智能的主要隐忧,但技术发展是治理的前提条件,尤其要避免妖魔化生成式人工智能技术,避免形成舆论上的压倒性声音,阻碍技术发展。必须坚持正确舆论导向,利用专家的共识性观点与公众积极沟通,摆明问题,讨论问题,解决问题。

体系平衡——处理好技术创新和规范治理的关系。没有技术发展就谈不上治理技术。因此,对新兴技术的不确定性应有一定宽容度,技术快速增长阶段不宜设置过多障碍。应深化技术全球布局,防止设置过高门槛不利于产业发展。大模型的进化需要大量用户反馈的数据流动,进而自我完善。若治理门槛过高,难免使一些企业的大模型应用无法上线,导致阻碍技术进步。

重点突破——积极发展人工智能的伦理对齐。伦理对齐是生成式人工智能未来重要的发展方向,它能使人工智能的产出更加符合人类的价值观,并在与人类的协同交付中发挥人和人工智能不同能力。需要深入研究技治主义、负责任创新、价值敏感性设计、道德物化、人机关系及智能体主体地位等理论,运用技术与理论的结合在人工智能伦理对齐方面有所突破。

制度工具——建立模型评测系统,搭建风险评估平台。建立大模型的评测制度,开展大模型评测,根据评测数据,制定上线标准。人工智能的概率模型工作逻辑,使之无法达到 100% 准确性。可以通过分优先级、分阶段的评测方案确立大模型发布标准,构建容错机制,给予时间周期修正、完善,使之健康运作。随着开源程度加深、使用范围扩大,难免增加安全漏洞和风险,安全风险评估尤为重要。为此,应建立风险评估平台,推进大模型可信可靠。

国际治理——人工智能技术的数字化、分散化、开源化、网络化特征决定了其影响很难限制在地理边界和国家范围内,生成式人工智能带来的内容安全、价值冲突、失控风险、人机关系等问题在很大程度上是全球性挑战乃至人类共同风险,任何一个国家都难以独自应对,需要不同利益主体、各个国家之间的协调、协同与合作,建立全球性的治理框架、治理机制和相关规则至关重要。

4 结束语

生成式人工智能智能技术的发展对人类的最大威胁,既不是失业问题,也不是它强大到消灭人类的问题,而是对人类在工业文明基础上形成的价值观、发展观、就业观、财富观、分配制度等治理体系与传统概念框架的挑战。[12] 当环境变化太快,原有的概念框架和价值体系赶不上正在发生的变化时,才是每个人应该正视的真正风险。智能技术、智能产业、智能社会正在形成一个新的“生态”。正如弗洛伊迪所言,第四次革命消极地关注我们失去“独特性”(我们不再处于信息领域的中心),并且积极地关注我们将自己理解为信息的新方式;当我们将自己解释为信息有机体时,我指的不是依据广泛的“精神外在”现象,而是将自身整合于日常的技术中;这一新形式不同于基因改造人类,掌握其基因信息并因此掌握未来的化身,这种后人类主义,无论在技术上(安全可行)还是道德上(可以接受的)都是一个未来主义的视角 [13]。
总之,随着人类生活水平的不断提升,我们关注的不再只是如何发展、怎样发展的传统问题,而是应该积极面对怎样更好、更有价值地发展的新问题。生成式人工智能是这个时代的产物,我们也应当与时俱进、转换思维,在不断变化的形势下探究伦理新难题、应对治理新挑战,实现生成式人工智能的善创、善用、善治。

① 唐·伊德的后现象学将“人技关系”划分为具身关系、诠释学关系、它异关系和背景关系,维贝克发展了该理论,增·添了赛博格关系和复合关系。

②参见欧盟AI高级专家组(High-Level Expert Group on AI)于2019年4月8日发布的“Ethics Guidelines for Trustworthy AI”。https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai。

参考文献

[1] 袁伟.人工智能:统治人类还是服务人类?——基于历史唯物主义的思考 [J].自然辩证法通讯,2021(2):1-9.

[2] 潘恩荣,孙志艳,郭喨.智慧集成与反身性资本重组——人工智能时代新工业革命的发展动力分析 [J].自然辩证法研究,2020(2):42-47.

[3] 赵汀阳.人工智能“革命”的“近忧”和“远虑”——一种伦理学和存在论的分析 [J].哲学动态,2018(4):5-12.

[4] Moor J H.The nature,importance,and difficulty of machine ethics[J].IEEE Intelligent Systems,2006,21(4):18-21.

[5] Chalmers D J.The conscious mind:in search of a fundamental theory[M].New York:Oxford University Press,1996:25-32.

[6] Johnson D G.Computer systems:moral entities but not moral agents[J].Ethics and Information Technology,2006,8(4):195-204.

[7] Floridi L,Sanders J W.On the morality of artificial agents[J].Minds and Machine,2004,14(3):349-379.

[8] 吴童立.人工智能有资格成为道德主体吗 [J].哲学动态,2021(6):104-116.

[9] Nadeau J E.Only androids can be ethical[M]//Ford K M,Glymour C,Hayes P J,et al.Thinking about Android Epistemology.California:IAAA Press,2006:241-248.

[10] 程鹏,高斯扬.通用人工智能体道德地位的哲学反思 [J].自然辩证法研究,2021(7):46-51.

[11] 陈小平.人工智能伦理体系:基础架构与关键问题 [J].智能系统学报,2019(4):605-610.

[12] 成素梅.智能革命与人类前景 [J].山东科技大学学报(社会科学版),2019(1):3-5.

[13] Floridi L.The forth revolution:how the infosphere is reshaping human reality[M].Oxford:Oxford University Press,2014:95-96.

特约文章丨道德行动体视角下生成式人工智能伦理问题解析

李洋

清华大学人工智国际治理研究院助理研究员,清华大学公共管理学院博士后。主要研究方向为技术哲学、技术伦理。

特约文章丨道德行动体视角下生成式人工智能伦理问题解析

梁正

清华大学人工智能国际治理研究院副院长,人工智能治理研究中心主任,清华大学公共管理学院教授。主要研究方向为国家创新体系、新兴技术治理。

选自《中国人工智能学会通讯》

2024年第14卷第1期

人工智能伦理治理新挑战专题

特约文章丨道德行动体视角下生成式人工智能伦理问题解析

扫描加入我们
获取更多学会资源

关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。


新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

来源 | 本文转载自中国人工智能学会,点击“阅读原文”获取更多内容

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy