导语
计算的逻辑是合格获取:形和式;算计的逻辑是破格获取:变与化。
刘伟 | 作者
人机与认知实验室 | 来源
复杂系统比科学的范围更大,既可以从科学角度展开成复杂科学,也可以从非科学角度理解为非科学复杂问题,它们共同之处都在于还原论的失败,1+1/=2。
复杂性问题有时并不复杂,比如气候变暖和天气问题,从宏观算计的角度看,也许路人皆知且都有感觉(如中秋还在穿T恤,寒冬见不到冰溜溜),但从中观、微观计算的角度看,则很难实现精准化预测和预报,究其因,隐变量和干扰变量太多太杂之故吧?!
复杂性有很多种,有物理世界里的客观事实造成的,也有人类社会中的主观意识生成的,更有这两者混杂而成的既复又杂的结合物。
研究复杂性问题,最忌讳的是仅用数学形式化手段和框架去处理,忽略了东方系统思维中的整体观,犹如当前人工智能领域的研究一般,头疼医头,脚疼医脚,一会儿深度学习,一会儿强化学习,一会儿迁移学习,一会儿联邦学习,一会儿**学习……殊不知,这些学习的基和源就是不完备的数学形式化工具,都是建立在数据处理基础上的公理性逻辑体系,而复杂性系统中的那些非数据、非公理、非逻辑的种种因素和元素早已被过滤的一干二净了!人类学习中的“深度”、“强化”、“迁移”、“联邦”等是动词,而且可以千变万化、伸缩自如、弥聚有度,但在机械化复杂性研究和AI中却都变成了干巴巴的形容词,“深度”不会弯曲、“强化”不知隐藏、“迁移”不懂纵深、“联邦”不明跳跃,……,总是想用还原分析中的各种“复”描述、诠释、解决系统过程中的各样“杂”题,天真烂漫!
正可谓“空山不见人,但闻人语响”、“只在此山中,云深不知处”也是人工智能无法解决的复杂性问题吧!
表面上看,各国智能化发展非常迅速:百舸争流,百花齐放,百家争鸣,一片热火朝天的景象,实际上,各国的智能化进程却都存在着一个致命的缺点,就是没能深入地处理人机融合的智能问题,尤其是深度态势感知问题。任何颠覆性科技进步都可回溯到基础概念的理解上,例如人的所有行为都是有目的的,这个目的性就是价值,目的性可以分为远中近,其价值程度也相应有大中小,除了价值性因果推理之外,人比人工智能更为厉害的还有各种变特征、变表征、变理解、变判断、变预测、变执行。严格地说,当前的人工智能技术应用场景很窄,属于计算智能和感知智能的前期阶段,不会主动地刻画出准确的场景和情境,而智能科学中最难的就是刻画出有效的场景或上下文,而过去和现代智能化的思路却是训练一堆人工智能算法,各自绑定各自的工程应用场景。一般而言,这些人工智能技术就是用符号/行为/联结主义进行客观事实的形式化因果推理和数据计算,很少涉及价值性因果关系判断和决策,而深度态势感知中的深度就是指事实与价值的融合,态、势涉及客观事实性的数据及信息/知识中的客观部分(如突显性、时、空参数等),简单称之为事实链,而感、知涉及主观价值性的参数部分(如期望、努力程度等),不妨称之为价值链,深度态势感知就是由事实链与价值链交织纠缠在一起的“双螺旋”结构,进而能够实现有效的判断和准确的决策功能。另外,人侧重于主观价值把控算计,机偏向客观事实过程计算,也是一种“双螺旋”结构。如何实现这两种“双螺旋”结构之间(时空、显著性、期望、努力、价值性等)的恰当匹配,是各国都没有解决的难题。
所谓主动态势感知技术就是通过人的算计制定出系统安全性测试计算程序,模仿故障点,进行故障前的测试、诊断等过程,主动暴露特定人机环境系统中的不足和缺陷,针对系统中的薄弱环节进行测试探查,犹如战场中的火力侦查,抑或电工维修作业中的耐压实验,以达到未雨绸缪、防患于未然之效果。
主动态势感知中的态、势、感、知测试或许与被动态势感知中的有所不同。
前几天,有位不认识的留学德国的朋友写道:“在德国办理各种事情的时候,很多时候需要花不少时间研究明白具体的规则和流程,这些规则和流程就像德国车的设计,是一个高效可靠但又极其复杂的机器系统。虽然前期学习和适应需要不少时间,然而一旦你对整个系统熟悉了,就会发现它运行起来是如此平稳顺畅,只要遵守这些规则按照流程走,基本不需要太动脑子,非常省力省心。”。实际上,对于人们而言,这些规则和流程与法律条文一样相对都是显性的系统,所以“如此平稳顺畅”。而对于伦理道德、人文艺术等隐性系统,人们与之们的交互就没有那么顺畅了,究其因,没有了一致性的公认协议和公理,类似数学的形式化逻辑体系是建立不起来了,没有了尺规,当然也就没有了红绿灯和各种标准要求。
显性的系统往往与客观性事实有关,如杀人偿命、欠债还钱,但是单单依据这些事实进行判断量刑还远远不够,还需要依据杀人的人为什么要杀人、被杀的又是什么人、欠债的为什么不还等等,不自觉中,可能就会把更多的事实牵扯进来,进行衍生出价值和意义之类主观性的隐性关系来,于是具体数据、信息、知识的学习、运用、创造使得抽象概念、范畴得以泛化成更抽象的联系、关系。
相对而言,有经验的大人们常常能够控制自己理性和感性,收发自如地处理各种显隐性系统,没有经验的小孩往往控制不了自己,机器也是如此,而且对于隐性、潜在、变化因素更是难以随动。
无论人在系统上、中、下(外),都将会涉及与显、隐性系统交互的问题。大家研究的一般是看得见、摸得着的显性系统,如自动控制系统、各种规则标志等,而对潜在的、不确定隐性系统以及更多的显隐混合系统的研究较少,这也是为什么当前人工智能技术迟迟没有得到“心服”的主要原因:没有得形得意般地真实灵活反映事实、价值的纠缠与混动。
没有一个人是生活在客观的世界里, 我们都居住在一个各自赋予其意义的主观的世界。正可谓,反其道而行之,换个角度看世界,会收获到不同的东西,世界也因此以另一个面貌展示在你面前。何时、何处、如何反其道而行之,这里面隐性的部分要关键于显性的环节吧?!
通过这次抗疫可以看出中美的差异:一个是伦理道德辅以法律条例,一个仅仅靠法律条例,前者是自制为主,后者是它制为主,自制者生生不息,它制者也是“生生不息”。伦理道德需要几千年的沉淀,法律法规可以立竿见影,但效果大相径庭。非常道。
有人认为:“一个主体对外部环境的变化做出相应的能力就叫智能,这个主体可以是车间、机床、机器人、立体仓库、研发团队、企业等,无论什么主体,衡量智能的重要标志就是它对需求的变化能否做出响应。”,也许这个定义忽略了主体内部主动的变化和内部隐性环境的扰动吧!
世界不仅是事实构成的,也是由价值构成的,人与系统之间的交互应该包含隐性部分。
读者来信选编:1、@人机与认知实验室 谢谢提供文章,做思考的磨砺石[抱拳]
不过,我又仔细看了这篇文章。阅后,我不认为有“计算逻辑”与“算计逻辑”之分。
即使愣要分出个“算计逻辑”,其基础还得是“逻辑”,仍然得遵从同一律、非矛盾律、排中律,文中所讲的“算计逻辑”所倚重的“非同一律”、“矛盾律”的示例是不成立的,那些例子基本上属于同一概念的内涵置换,或不同概念的内涵趋同,并非真的是有那样的可以验证“非同一律”和“矛盾律”的真实事物。怎么讲呢?通俗点,那些就是文字游戏。
至于量子力学出现的“量子纠缠”,是否能成为“非排中律”的支持,也是存疑的。即使能,也不影响在宏观层面、AI应用上的“排中律”的运行。
在AI领域,如果不遵从同一律、非矛盾律、排中律,那就寸步难行了,因为那就处于混沌状态了。前天篇文章讲到了基于数理逻辑的人工智能目前遇到的瓶颈问题,即还无法像人类那样面对复杂多变、充满矛盾的现实问题。
2、这个观察是对的,但给出的药方——解决之道,却不对。
解决这些问题,想用 反 “同一律”、“非矛盾律”、“排中律” ,是行不通的,因为这样你连一行代码也写不出来,根本就提不到:AI会因自相矛盾的指令寸步难行。
那怎么理解现实中人类在现实中的自相矛盾的行为及应对这种情况呢?
人类的这种矛盾行为与想法共存的情况,是由于人类的评价准则有很多套,准则之间是会自相矛盾的,但一套准则之间基本上是遵循“非矛盾律”的。
那么解决之道就来了,那就是让AI了解人类的这些相互抵触的评价准则,让其在海量学习中,适应或从中筛选出某个时点所应遵循的价值准则。3、觉得算计的这个,还可以想一些中性的词汇描述。答:不少朋友也有此建议,但找了很长时间了,实在找不到与计算既对称又对应的词~所以只好暂用“计算计”一词。另外,在人机协同过程中,人类的信息输入分为内输入和外输入,外部输入包括物理域、信息域、任务域、认知域的数据、刺激、知识等客观输入,内部输入包括大脑思维域里的经验、价值、意义等主观输入。
机器的输入主要涉及传感器采集的各种客观数据。
未来,如何使机器形成内部“思维域”的“经验”、“价值”、“意义”等“主观”输入将是人机协同的重要发展方向。
AGI读书会启动
为了深入探讨 AGI 相关话题,集智俱乐部联合集萃深度感知技术研究所所长岳玉涛、麻省理工学院博士沈马成、天普大学博士生徐博文,共同发起 AGI 读书会,涵盖主题包括:智能的定义与度量、智能的原理、大语言模型与信息世界的智能、感知与具身智能、多视角下的人工智能、对齐技术与AGI安全性、AGI时代的未来社会。读书会从2023年9月21日开始,每周四晚上 19:00-21:00,预计持续7-10周。欢迎感兴趣的朋友报名参与!
详情请见:
推荐阅读
1. Yoshua Bengio领衔跨学科团队,Nature刊文综述人工智能时代的科学发现2. 几何深度学习:让物理世界拥有AI | 黄文炳分享整理3. 14个机构63位学者合作 AI for Science 重磅综述:用于量子、原子和连续体系科学的人工智能4. 张江:第三代人工智能技术基础——从可微分编程到因果推理 | 集智学园全新课程5. 成为集智VIP,解锁全站课程/读书会6. 加入集智,一起复杂!
点击“阅读原文”,报名读书会