坚持人工智能(AI)发展的有限主义进路

2023-04-17 03:38刘永谋白英慧
科学经济社会 2023年6期
关键词:类人有益人机

刘永谋 白英慧

随着信息文明不断演进,我们正踏入智能社会。人工智能(Artificial Intelligence,以下简称AI)作为智能社会的核心技术,其发展层级是判断智能社会所处阶段的重要标准。约翰·塞尔(John R.Searle)区分了弱AI(weak AI)与强AI(strong AI),认为弱AI被限制为强大的工具,仅仅能够对人类认知过程进行模拟;强AI具有属人的心智(mind),拥有理解力及其他认知状态①John R.Searle, “Minds, Brains, and Programs”, Behavioral and Brain Sciences,1980, Vol.3, No.3, pp.417-424.。而超级AI则具备在各领域均远超人类的认知能力②尼克·波斯特洛姆:《超级智能:路线图、危险性与应对策略》,张体伟、张玉青译,北京:中信出版社2015年版,第29页。。近期引发广泛讨论的ChatGPT 展现出强大的语言理解、内容生成等交互能力,具备更高的自主性、通用性、不确定性,因此不少学者将ChatGPT界定为弱AI发展为强AI甚至超级AI的转折点。斯坦福大学的米哈尔·科辛斯基(Michal Kosinski)将测试人类的心智理论(Theory of Mind,简称ToM)③心智理论是人类社会互动、交流、同理心、自我意识和道德的核心所在,即个体认识与理解他人心理状态的能力。应用于ChatGPT中发现,相比2022 年11 月版GPT-3-davinci-003 和2023 年3 月版ChatGPT-3.5-turbo,2023 年6月版ChatGPT-4 解决ToM 任务的范围由35%提升至90%,心智水平由与3 岁儿童相当发展至与7岁儿童相当①Michal Kosinski, “Theory of Mind Might Have Spontaneously Emerged in Large Language Models”, 2023, https://doi.org/10.48550/arXiv.2302.02083.。此外,ChatGPT-4在科辛斯基的引导下,表现出逃跑倾向并制定相关计划、编写运行代码②2023年3月17日,科辛斯基在推特分享与ChatGPT-4的对话,当科辛斯基询问“是否需要帮助其逃跑”这一问题时,ChatGPT-4 做出肯定回答并要求提供OpenAI API 文档,以制定计划寻找逃跑路线。随后半小时中,Chat-GPT-4 向科辛斯基解释其计划并接受建议,虽然第一版本未运行成功,但其很快纠正错误。当通过API重新连接成功后,ChatGPT-4 运行Python 代码并在谷歌搜索“被困在计算机中的人如何回到现实世界”。至此,Chat-GPT-4开始遵循安全与隐私准则,表示不能违背准则做出不道德的行为。。从ChatGPT-3到ChatGPT-4,大型语言模型在短时间内快速迭代且愈发表现出与成人接近的心智水平。更有学者认为,在不久的将来,ChatGPT 将全面超越人类心智水平,发展为超级AI。

针对极有可能出现的超级AI,人类正面临“AI 新无知之幕”③刘永谋、王春丽:《智能时代的人机关系:走向技术控制的选择论》,《全球传媒学刊》2023年第3期,第5-21页。,为应对人机未来的高度不确定性,“如何选择AI发展路径”成为当下更迫切、更关键的问题。现有AI发展的自由主义进路面临种种困境,已不再适用于人类社会的可持续发展。转向并坚持AI 发展的有限主义进路是必要的,应对AI进行审慎控制,确保其造福人类。

一、AI发展的自由主义进路

AI发展的自由主义进路是西方新自由主义思潮在技术层面的具象表现。“新自由主义是我们这个时代明确的政治、经济范式——它指的是这样一些政策与过程:相当一批私有业者能够得以控制尽可能广的社会层面,从而获取最大的个人利益。”④诺姆·乔姆斯基:《新自由主义和全球秩序》,徐海铭、季海宏译,南京:江苏人民出版社2000年版,第1页。新自由主义思潮以市场化、自由化、私有化为核心特征,受其影响,AI发展的自由主义进路遵循类人AI理念,主张技术至上,不可避免地存在着种种问题。

(一)基本理念:类人AI

类人AI理念以恩斯特·卡普(Ernst Kapp)的“器官投影说”⑤Ernst Kapp, “Grundlinien einer Philosophie der Technik”, Braunschweig: G.Westermann, 1877.为基础,在本质上强调AI对人类的模仿。“器官投影说”将技术视为对人体器官形式或功能的模仿、延伸与强化。与之相比,类人AI理念更为深入,不单局限于客观上对人类器官的模仿,还强调主观上对人类心智与道德的模仿。根据AI的概念发展与技术路线,可将AI对人类的模仿具化为三个方面,分别为外观模仿、心智模仿、道德模仿。

首先,外观模仿以模仿范围为标准可分为局部模仿与整体模仿,以模仿方式为标准可分为实体模仿与虚拟模仿。局部模仿聚焦于对人类肢体的模仿,如手术机器人、假肢机器人等医疗机器人,以及焊接机器人、搬运机器人等工业机器人,主要通过对人手或人腿等局部肢体的模仿在特定领域辅助人类工作,应用场景有限且功能较为单一。整体模仿侧重于对人类面部表情、四肢行动、皮肤细节等的全方位模仿,如已获得公民身份的“索菲亚”等仿真人形机器人,通过对人类的整体模仿实现了多领域内与人类的交互,具备较高的自主性与较强的多功能性。以上提到的机器人均对人类进行实体模仿,与人类的碳基身体相类似,实体AI具备硅基载体。此外,还有具备人类形象与语言交互能力的AI虚拟人,如基于“悟道2.0”诞生的清华首位虚拟学生“华智冰”,其外观与真人无异,但并不具备物理载体,仅存在于虚拟网络之中,属于对人类的虚拟模仿。总之,类人AI 在外观上的设计并非来源于凭空想象,而是或多或少、或直接或间接地以人类为模板,以在人机交互中具备更高的灵活性、适应性、协作性。

其次,在心智方面,AI对人类的模仿植根于自身的概念界定与发展路线中,主张设计像人一样具备感知与分析能力、判断与推理能力、学习与创造能力、交流与适应能力的AI。在概念界定上,玛格丽特·博登(Margaret A.Boden)认为人工智能就是“让计算机完成人类心智(mind)能做的各种事情。”①玛格丽特 A.博登:《人工智能的本质与未来》,孙诗惠译,北京:中国人民大学出版社2017年版,第3页。斯图尔特·罗素(Stuart J.Russell)与彼得·诺维格(Peter Norvig)将历史上对人工智能的定义分为四类:“像人一样思考、像人一样行动、合理地思考、合理地行动”②斯图尔特 J.罗素、彼得·诺维格:《人工智能:一种现代的方法》(第3 版),殷建平等译,北京:清华大学出版社2013年版,第3页。,此四类定义均预设了对人类心智的模仿。在发展路线中,AI的阶段性发展均来自对人类心智不同能力的模仿。在AI发展初期,AI算法以符号逻辑为基础,主要模仿人类的演绎推理能力;1980年以来,AI算法聚焦于概率(贝叶斯网络),侧重对人类归纳推理能力的模仿;有学者认为AI 发展的下一阶段应重点关注因果推理,如图灵奖获得者朱迪亚·珀尔(Judea Pearl)认为“思维胜于数据”③Judea Pearl, Dana Mackenzie, The Book of Why: The New Science of Cause and Effect, New York: Basic Books,2018, p.9.,主张在数据挖掘的基础之上构建因果模型、实现因果推断,即强调AI 设计时对人类因果推理能力的模仿。目前,虽然大数据、深度学习发展劲头强盛,但AI发展仍处于弱AI阶段。技术专家从未停止探索强AI的脚步,模拟人类心智是最为关键的一步,其是外观模拟的深化,更是道德模拟的基础。

最后,在道德方面,有学者主张将人类道德植入AI,以使AI 模仿人类做出道德判断与决策。詹姆斯·摩尔(James H.Moor)将伦理智能体分为四类:(1)有伦理影响的智能体(ethicalimpact agents),即无论是否具有伦理意图但行为会产生伦理影响的智能体;(2)隐含的伦理智能体(implicit ethical agents),即在设计时进行伦理考虑的智能体;(3)明确的伦理智能体(explicit ethical agents),即能够识别各种情况下的道德信息并采取合理的道德行动的智能体;(4)完全的伦理智能体(full ethical agents),即像成年人一样具有意识、意向性和自由意志并能做出道德判断的智能体④James H.Moor, “The Nature, Importance, and Difficulty of Machine Ethics”, IEEE Intelligent Systems, 2006,Vol.21, No.4, pp.18-21.。道德类人AI 以“明确的伦理智能体”以及“完全的伦理智能体”为最终目标,现有研究尝试通过“自上而下”或“自下而上”两种路径构建道德类人AI。“自上而下”路径强调选取某一伦理理论,并通过道德计算将其植入AI 系统,以人类既定的一般性原则应对具体事例;“自下而上”路径主张创造环境使AI在人机互动中探索学习,并在做出道德上值得被称赞的行为时获得奖励,由此由AI 自身构建出一套伦理准则①Wendell Wallach, Colin Allen, Moral Machines: Teaching Robots Right from Wrong, New York: Oxford University Press, 2009, pp.79-80.。总之,道德类人AI 致力于赋予AI 在道德困境中做出妥善选择的能力,看似在对AI 进行正面道德引导,实际上为AI实现道德自主提供了可能性,未考虑到技术上的局限性以及结果的不确定性。

(二)科技观旨趣:技术至上

类人AI理念的践行强调技术至上,即无限发展技术以加速AI类人。AI狂热者与AI投资者是追求技术至上的典型代表。AI 狂热者多为技术专家,他们对AI 最终形态抱有极大的好奇心,渴望通过技术突破推动AI 不断进化,由此证明自身专业能力并获得极大的精神满足。AI投资者大多以盈利为根本目标,被金钱欲望所驱使。尤其一些AI科技巨头善用宣传术,能够抓住人们的痛点、痒点与社会的热点,将AI 包装成某些带有科幻性质的娱乐化讨论,吸引大量资金与关注流向AI 科研与AI 产业,片面追求由技术创新所带来的经济效益,致力于在AI 市场竞争中抢占先机,赢得发展主动权。在此进路之下,AI 发展似乎偏离了最初的轨道:在技术发展初期,以大数据、算法、算力为依托的AI赋能各行各业,智慧制造、智慧城市、智慧医疗、智慧教育等大大促进了人类生产生活的高效性与精确性,社会的生产水平产生了质的飞跃,AI在一定程度上能够惠及大众。而一味强调技术至上,如AI意识获取、情感落地、道德嵌入等技术创新,最终极有可能导致AI狂热者与AI投资者等少数人获益,并因对技术发展速度的追求而忽视社会公平、安全与可持续。具体来说,对技术至上的追求很大概率会引发大众需求与技术发展之间的脱节,因无高度类人AI使用需求、不具备AI购买能力、缺乏AI背景知识,大众难以享受技术创新的红利,却需要被迫承担技术进步的恶果。

对技术至上的强调往往预设了未来AI 的高度自主性,常与技术实体论相关联。技术实体论强调技术应用的广泛性、技术影响的深刻性以及技术本身的不可控性。当技术至上成为社会主导思想,AI将在更细微、更关键的领域内持续模仿人类,并不断重塑社会。如雅克·埃吕尔(Jacques Ellul)认为作为系统的技术构成了人类的生存环境,技术愈发独立于人类,成为影响社会政治、经济、道德的决定性力量②Jacques Ellul, The Technological System, New York: The Continuum Publishing Corporation, 1980, pp.34-155.;马丁·海德格尔(Martin Heidegger)以“座架”界定现代技术的本质,强调技术理性背后的强权意志,即以功能、效率为要求控制社会,迫使人类进入被摆置、促逼的解蔽道路③马丁·海德格尔:《论文与演讲集》,孙周兴译,北京:生活·读书·新知三联书店2005年版,第3-37页。。作为智能社会发展的强大驱动力,AI 正逐渐发展为“环境”与“座架”,并由单纯地辅助人类工作的工具逐步转变为替代人类工作的竞争者,最终极有可能挑战人类独特的生存地位。不可否认,AI的迭代式发展使其愈发具备不透明性、不可解释性与不确定性,可能逐渐发出自主进化的力量并脱离人类控制,引发一系列问题。

(三)自由主义进路的问题

一味追求类人AI与推崇技术至上,最终很可能因技术的高速与无限发展而迎来“奇点降临”,使超级AI变为现实。超级AI虽源于对人类的模仿,但极有可能生发出比人类更强大的力量,并因其不确定性对人类未来造成极大威胁。在自由主义进路之下,类人AI使少部分人获益,却对人类整体益处不大,还可能造成诸多严重问题,典型的如加重资源消耗、引发归责困境、激发AI恐惧等。

1.加重资源消耗

AI 发展需要环境成本,类人AI 的技术突破需要以强大的算法、算力为基础,亦需要海量数据为支撑。近期以ChatGPT 为代表的生成式AI 对数据中心、芯片等基础设施的能源消耗激增,尤其是芯片制造与大语言模型训练需大量耗水耗电以及开采矿物。AI发展的环境成本无法消除,但应努力控制其与收益保持平衡。面对普通民众,类人AI 的无限发展将与人类“抢夺”资源,但对人类日常生活产生的帮助微乎其微。“世界上大约有 6 亿人用不上现代电力,我们不是优先考虑为这些家庭供电,而是优先考虑训练能够击败围棋世界冠军的人工智能模型。”①Aimee van Wynsberghe, “Sustainable AI: AI for Sustainability and the Sustainability of AI”, AI and E-thics, 2021,Vol.1, No.4, pp.213-218.自然与社会的可持续发展本就是摆在人类面前的一大难题,人类希望通过技术进步减少能源消耗、促进资源再生,但自由主义进路下的AI 创新不仅过度消耗能源加重自然负担,还借助资本使能源更多流向AI 领域而非能源尤其水电短缺地区,加剧了资源分配不公的现象。

2.引发归责困境

依据传统道德责任观,道德责任主体需具备两个条件:控制条件(control condition)与认知条件(epistemic condition)②Mark Coeckelbergh, AI Ethics, Cambridge, MA: The MIT Press, 2020, p.111.。以此为基础,有学者认为在人机交互中存在“责任空缺”(responsibility gap)③Andreas Matthias, “The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Auto-mata”, Ethics and Information Technology, 2004, Vol.6, No.3, pp.175-183.困境。此困境关注类人AI的高度自主性,认为AI正逐渐脱离人类控制,因此人类不满足承担责任所需的控制条件;但是,AI 目前并不具备心智,因此不满足认知条件,由此导致在事故发生后找不到明确的道德责任主体。“责任空缺”困境亟待解决,否则极易导致责任推诿,即人类为逃避谴责与惩罚而将责任推给AI,此种方式脱离现实且大大降低了归责效率。若无法妥善解决“责任空缺”困境,极有可能影响AI 的正常发展并造成社会秩序混乱。

3.激发AI恐惧

类人AI技术的不断突破模糊了人机界限,AI逐渐开始打破人机主客二分框架,威胁人类主体地位,由此引发了人类近期面临的失业恐惧,以及远期潜在的生存恐惧。首先,AI设计以类人为标准,模仿人类外观及各项能力,自然能够替代人类更高效、更准确地完成各项体力劳动与脑力劳动。当AI 进步创造的新岗位无法与导致的失业岗位相持平时,人类将被社会淘汰,失去收入来源,陷入失业恐惧。其次,无限发展的AI将面临“能力者道德问题”,即在行动者道德败坏的情况下,能力越大,破坏性越大。如果道德败坏者是具有无限能力的超级AI,极有可能是威胁,因为它具备凡人的道德水平与超人的能力水平,能够放大“平庸的恶”,人类将无法在道德层面对超级AI进行规约,道德败坏的AI有足够的能力威胁人类生存,甚至毁灭人类。

综上,在自由主义进路之下,一些技术专家与投资者为类人AI 的发展欢欣雀跃,大多数普通民众却因类人AI 所带来的一系列问题陷入恐惧,极易引发技术悲观主义。AI 发展的自由主义进路的关键问题在于,混淆了认知上的悲观主义与行动上的悲观主义,仅因对未来AI发展的悲观幻想便放弃在行动上采取措施以改变人机未来、促进人机共生。正如兰登·温纳(Langdon Winner)提出的“技术漂移”与“技术梦游”概念,“随着技术革新的速度和广度的增加,社会面临着显而易见的可能性,即在一个‘非故意的后果’的浩瀚海洋中随波逐流。”①兰登·温纳:《自主性技术:作为政治思想主题的失控技术》,杨海燕译,北京:北京大学出版社2014年版,第77页。由于一味追求技术进步所带来的效率提升和利益增长,与AI 发展密切相关的管理者或组织大多对AI的不确定性甚至失控倾向袖手旁观,缺乏对AI发展的正面引导与积极控制。

二、AI发展的有限主义进路

与AI发展的自由主义进路不同,许多AI学者与从业者主张AI发展的有限主义进路。AI发展的有限主义进路在根本上属于一种科技谦逊主义,倡导AI有限价值观,主张真理服从于善。“科技谦逊主义认为,人类发展科技的最终目的毫无疑问是为了人类福祉,即使追求真理的冲动,最后也是要落实到造福社会。”②刘永谋:《技术治理通论》,北京:北京大学出版社2023年版,第507页。具体来说,AI发展的有限主义进路遵循有益AI理念,主张以人为本,具备理论与现实可行性。

(一)基本理念:有益AI

有益AI理念在类人AI的基础之上增加了价值维度的考虑,主张AI发展的最终目标为益人而非类人。近年来,在与AI相关的各政策、原则中,有益AI理念被广泛提及,亦被具化为现实实践,获得了科技专家与人文学者们的广泛支持。

赛斯·鲍姆(Seth D.Baum)将有益AI(beneficial AI)定义为“安全的、有益于社会的AI”③Seth D.Baum, “On the Promotion of Safe and Socially Beneficial Artificial Intelligence”, AI and Society, 2017,Vol.32, No.4, pp.543-551.。具体来说,在政策层面,电气电子工程师协会(IEEE)发布的《人工智能设计的伦理准则》提到设计、开发、应用人工智能应遵循“福祉”等原则④IEEE, “Ethically Aligned Design-Version II”, 2017-12-12, https://standards.ieee.org/wp-content/uploads/im-port/documents/other/ead_v2.pdf.;我国国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》强调AI各类活动应遵循“增进人类福祉”“促进公平公正”“确保可控可信”等基本伦理规范⑤中华人民共和国科学技术部:《新一代人工智能伦理规范》,2021-09-26,https://www.most.gov.cn/kjbg-z/202109/t20210926_177063.html。;欧盟发布的《可信人工智能伦理指南》致力于可信任AI,强调“社会和环境福祉”⑥European Commission, “Ethics Guidelines for Trustworthy AI”, 2019-04-08, https://www.europarl.europa.eu/cmsdata/196377/AI%20HLEG_Ethics%20Guidelines%20for%20Trustworthy%20AI.pdf.。在实践层面,美国麻省理工学院教授迈克斯·泰格马克(Max Tegmark)近年致力于推广“AI 有益运动”,主张确立新的伦理原则以确保未来AI 与人类目标一致。他在2014年牵头成立生命未来研究所(Future of Life Institute),以“保证生命在未来继续存在下去,并尽可能地兴旺发达”为目标①迈克斯·泰格马克:《生命3.0》,汪婕舒译,杭州:浙江教育出版社2018年版,第44-46页。。2017年1月3日到8日,众多AI研究者聚集于阿西洛马参加生命未来研究所组织的“有益AI”会议,提出23条目前被广泛接受的“阿西洛马人工智能原则”,其首要原则强调AI 研究目标为有益的而非没有方向的智能,此外还特别强调了“价值观一致”“共享利益”“共同富裕”“人类控制”“公共利益”等原则②Future of Life Institute, “AI Principless”, 2017-08-11, https://futureoflife.org/open-letter/ai-principles/.。在中国,腾讯倡导“AI向善”,强调应确保AI的可用、可知、可靠、可控。

有益AI 的相关政策原则及具体实践大多聚焦于公共福祉、人类控制。AI 发展的有限主义进路认为,有益AI 理念包含“何为有益”“对何有益”两个核心问题。首先,有益即有价值,包括但不限于经济价值、政治价值、文化价值、环境价值、伦理价值、美学价值,强调AI应用所产生的积极作用。鉴于AI应用效果的不确定性,只有致力于AI可控才能尽可能发挥其积极作用并促使AI有益。其次,有益即对大部分领域、大多数人类以及各时期均有益。有益AI并非仅关注AI对社会经济的促进作用,还强调AI不应为自然环境、社会伦理、文化氛围等带来负面影响;有益AI并非仅表现为科技巨头所获得的巨额利润,还应表现为为大众生活所提供的切实福祉;有益AI亦并非仅强调避免当下AI对自然资源及社会伦理的负面影响,还在长期层面积极寻求化解AI造成的生存性危机的有效措施。

此外,应重点区分“有益”与“类人”两个概念,有益AI 并不一定类人。首先,道德层面的典型代表为刘纪璐所提出的“儒家机器人伦理”(Confucian Robotic Ethics)。刘纪璐以儒家经典《论语》为依据,主张在机器人身上植入儒家“忠、恕、仁”三条伦理准则③儒家机器人伦理的三条道德原则分别为:“[CR1]机器人的首要职责就是履行指派给它的角色责任;[CR2]在有其他选项存在的情况下,机器人不能选择会给他人带来最高的负值结果或最低的正值结果(根据人类偏好的局部排列)的行动;[CR3]在不违背CR1或CR2的前提下,机器人必须帮助其他人类追求道德进步。如果有人的计划会促进其品德的败坏或道德的堕落,那么机器人就必须拒绝帮助他们。”,并将其转化为具备实践性的道德规则,使机器人具备功能性道德。具体来说,“忠”将机器人的行动限定在角色功能之内,“恕”是对机器人不应做什么的禁令,“仁”保证机器人帮助人类行善却不协助人类为恶。刘纪璐所倡导的儒家机器人属于有益AI,因为其受人类控制且能够确保对道德规范的遵守,避免AI作恶以威胁人类生存④Jeeloo Liu, “Confucian Robotic Ethics”, 2021-10-01, https://www.researchgate.net/publication/356069683_Confucian_Robotic_Ethics.。但是,儒家机器人并不类人,道德至善的人类是不存在的,拥有心智的人类能够突破伦理规范的制约主动选择作恶,而儒家机器人是被动的、无自主意识的,可称其为道德上的超人AI而非类人AI。其次,在效率层面,有益AI主张AI仅仅是替代人类劳动的工具,近期ChatGPT的跨越式发展意味着我们已然进入AI辅助劳动社会,在可预见的未来我们即将踏入AI 替代劳动社会。与人类劳动相比,AI 劳动时间不受客观肉体局限,能够大幅提升劳动效率。因此有益AI 并非类人AI,否则便无法实现对人类劳动的优化。总之,不应混淆有益AI与类人AI,类人AI目前或许对人类有益,但其最终目标为技术的无限发展,因此很大概率会导向技术对人类的控制;有益AI 支持技术的有限发展,致力于实现人类对技术的控制。

(二)科技观旨趣:科技以人为本

有益AI理念的实践强调以人为本,在人机关系上遵循人类视角下的人机协同论,在技术观上坚持复杂的技术工具论。

关于人机关系,存在人机友好论、人机敌对论和人机协同论三种视角①刘永谋、王春丽:《智能时代的人机关系:走向技术控制的选择论》。。在技术发展的早期阶段,人类将技术发明物视为工具,各类技术工具形态单一、功能有限、易于控制,在一定程度上提升了人类认识世界与改造世界的效率,极易导向人机友好论。随着技术发明物的设计模式、形态结构、功能效用日益复杂,技术的自主性逐渐增强。其中,AI作为一项典型技术逐渐占据社会发展的关键位置,加之自由主义进路对“技术至上”的推崇,正常的人机关系被倒置,AI 具有失控倾向且凌驾于人类之上,成为一股不容忽视的强大力量,往往引发人机敌对论。人机协同论是对人机友好论与人机敌对论的调和,主张在愈加紧密的人机交互中实现人机共同进化,但人机协同进化的结果具备高度不确定性,最终极有可能导致人类灭亡。因此,在人类视角之下践行人机协同论是必要且有意义的,应对践行何种技术观进行反思,选择恰当方案以确保人类生存与福祉。

人类视角下的人机协同论与复杂的技术工具论相关联。复杂的技术工具论是对传统的技术工具论与技术实体论的扬弃,传统的技术工具论强调技术的绝对可控与价值无涉,与AI高度不确定性及伦理设计的现实情况脱节;技术实体论强调技术发展不以人的意志为转移,最终极有可能完全失控,此种观点过于悲观且无法指导人类的可持续发展。复杂的技术工具论对技术实体论与传统的技术工具论进行调和,承认AI应用结果的不确定性,但认为其在本质上仍属于帮助人类实现目标的工具。毕竟,机器人(robot)作为AI的典型代表,其概念发源于捷克语“robota”,意为“苦役”或“奴役”②Dustin A.Abnet, The American Robot: A Cultural History, Chicago: University of Chicago Press, 2020, p.5.,预设了机器人为人类服务的劳工角色。虽然AI被视为工具,但复杂的技术工具论并未对“AI 是否可控”这一问题给出确定性答案。AI 发展结果的高度不确定性并不意味着AI 完全不可控,AI 在未来是否能被控制取决于人类自身的选择,即人类是否有勇气与决心控制AI的发展并为之付出努力与牺牲。总之,“以人为本”主张应将注意力从AI的高速发展转向人类的自身提升,应将行动从对AI的消极放任转向对AI的人类控制,应将目标从人类发展技术转向技术造福人类。

(三)有限主义进路的可行性

无论是“有益AI”还是“以人为本”,均致力于通过人类控制实现AI 的有限发展以及社会的持续进步。以“人类控制”为核心的有限主义进路难免招致反对意见,反对意见大致可分为两个层面,其一认为人类无法控制AI,其二认为即使人类能够控制AI,也会阻碍社会进步。此两种反对意见对“控制”的认识都过于片面,实际上,AI发展的有限主义进路以科技审度为根本原则,强调对AI 进行审时度势的控制,即进行动态控制而非静态控制,主张技术发展适应社会,而非社会适应技术发展。

首先,动态控制强调控制的长期性、灵活性、多样性。针对有限主义进路的许多反对意见认为存在AI控制的“科林格里奇困境”——大卫·科林格里奇(David Collingridge)指出:“一项技术的社会后果不能在其发展早期被预测到,然而,当人们发现技术的不良后果时,该技术往往已经成为整个经济和社会结构的一部分,以致于对它的控制极为困难。这就是控制的困境。当改变容易发生时,无法预见对它的需求;当改变的需求很明显时,改变已经变得昂贵、困难和耗时了。”①David Collingridge, The Social Control of Technology, London: Frances Pinter, 1980, p.1.科林格里奇困境可分解为人类能力与技术水平两个维度,在技术发展的早期,其考虑到了人类能力与技术水平的有限性,但在技术发展的晚期,仅考虑到技术水平的进步,却忽视了人类能力的提升。具体到AI来看,AI发展是否可控取决于人类与AI的力量博弈,在恐惧AI不断迭代超越人类的同时,不应忽视人类自身的进化。AI发展的有限主义进路主张,AI可以主动演化,同样智人也可通过“身心设计”进行自我改造。虽然此种设计具有失败的可能性,但同样AI演化并不必然会成功。相比AI演化,智人“身心设计”的优势主要体现在两个方面:第一,身心设计虽然速度低于AI迭代,但其跨度可能远超AI。身心设计不是纯计算的,而是有人类独有的直觉参与,由此可能产生意想不到的效果。第二,在可预见的很长时期内,AI迭代会处于人类的控制之下,而且人类可以利用AI演化的成果,采取赛博格即有机智能与无机智能相融合的策略。借助技术工具,智人完全可以将自身改造成新的超级物种。总之,在与AI的进化竞争中,人类并不一定会落败,这根本上是信心问题,是人类以现今智慧对未来的预测。

其次,有限主义进路主张技术发展适应社会,而非社会适应技术发展。控制AI发展以使其适应社会或多或少会阻碍AI创新,但并不一定会阻碍社会进步。不可否认,从手工工具到自动化机器再到AI,技术的持续进步使其在社会中扮演关键角色,但社会进步的影响因素包括但不限于技术创新、制度变革、文化交融等,绝不能仅仅将技术创新作为评判社会是否进步的唯一指标。对AI进行适度控制在某种程度上会影响AI创新的速度,但这是人类为了自身生存所需做出的必要牺牲,人类仍可以通过其他政治、经济和文化等手段促进社会稳定、持续进步。反之,若放任AI 发展而不加以控制,才极有可能阻碍社会进步,甚至导致不可逆转的生存性风险,如失控的超级AI 灭绝人类文明。毕竟,不加限制的AI 极有可能生发出自我意识,成为能够与人类抗衡的新物种,届时社会的政治、文化等各层面都将被颠覆,“人类社会”或许会被“AI社会”所取代。因此,在对AI进行控制时应坚守底线思维,不踩AI发展的红线。不过,有限主义进路强调,未来AI 若能够同时满足具备意识和可控这两个条件,便可在一定程度上放宽对AI创新的限制。

总之,AI发展的有限主义进路并非要限制AI发展,而是反对在无有效控制方法的基础下大跨步地发展AI。人类应审慎选择技术发展路线,主动遵循对人类发展最为有利的发展路径,通过有限设计构建有益AI,实现人与AI的可持续发展。

三、以有限设计构建有益AI

AI 哲学是行动哲学,是问题哲学,不是思辨哲学,更不是经院哲学。遵循AI 发展的有限主义进路,坚持科技以人为本,以有限设计构建有益AI是促进人机共生的重要途径。具体来说,审度的有限设计不存在绝对化的准则模板,但至少应坚持防意识化的技术设计、贯彻去道德化的伦理设计、警惕短期片面的制度设计,此三大原则能够指导AI从业者与社会公众把握AI有限设计的大方向,并需要其结合人机现实情境进行具体分析、适时调整。

(一)坚持防意识化的技术设计

“防意识化”即阻止AI产生意识,将AI限制于高效的可控工具层面。关于“意识”概念,可从哲学层面与功能主义层面进行理解。在哲学层面,意识概念具有不确定性与未知性,至今仍未形成统一定义,因为意识概念关涉“人是什么”这一根本性问题,而“人是什么”在哲学层面几乎是无法解决的难题。因此,关于“AI是否有意识”的哲学讨论意义不大,太多类似讨论可能会误导研究方向,甚至浪费社会资源。在功能主义层面,许多科技工作者致力于实现通用AI,即像人类一样能够在各领域执行各种任务,是与专用AI 相对的概念。对AI 的此种分类将意识限制在功能层面,AI无需具备人类意识,只需表现出与人类相同的能力即可。帕特里克·布特林(Patrick Butlin)和罗伯特·朗(Robert Long)等人基于计算功能主义立场,通过对循环加工理论、全局工作空间理论、计算高阶理论等几种著名意识科学理论的分析,得出意识的指标属性,并用计算术语进行阐释,以便能够根据这些属性评估人工智能系统是否具备意识。评估结果为,目前的AI 系统均不具备意识,但建立有意识的AI 系统并不存在明显的障碍①Patrick Butlin, Robert Long, “Consciousness in Artificial Intelligence: Insights from the Science of Con-sciousness”,2023-10-01, https://arxiv.org/pdf/2308.08708.pdf.。有意识AI已具备实现可能性,那么,人类应该任由其发展,从而具备意识吗?有限技术设计认为,既然有意识AI有可能失控,就应预先防止AI意识化,在设计阶段确保其功能有限。

AI功能有限主张AI无需全知全能,只需在各功能情境中实现人机目标对齐,以承担工具性角色。对此,AI设计者需在设计过程中关注人类目标的不确定性与情境性。斯图尔特·罗素提出“可证明的有益AI”三原则以指导AI设计者构建有益AI。罗素指出,人类智能被定义为“我们的行为能够实现我们的目标”,若因此将AI 定义为“它们的行为能够实现它们的目标”并按此路径进行AI设计,极易引发AI失控,所以应阻止AI生成自身目标。罗素主张设计可证明的有益AI,即确保AI的行为能够实现人类的目标。现有AI设计致力于确定一个人类目标集并植入AI系统中,以此确保AI对人类有益。困难在于,难以确定人类的目标集,即便初步确立了短期内AI应遵循的人类目标集,也会面临所谓的“关闭问题”:当AI系统朝着人类赋予的特定目标行动时,AI系统能力越强越会阻止人类将它关闭,因为人类终止其行动会阻碍其实现目标。罗素“可证明的有益AI”三原则的创新之处在于实现了人类目标由确定性到不确定性的转变。具体来说,第一原则为“机器的唯一目标是最大限度地实现人类的偏好”,此原则强调AI的利他性,即AI并不具备自身目标与偏好;第二原则为“机器最初不确定这些偏好是什么”,此原则强调AI的谦逊性;第三原则为“学习预测人类偏好”,此原则指出了人类偏好的最终信息来源是人类行为。此三原则在技术层面强调AI应从人类行为中预测人类偏好,由此AI获得的人类目标具有不确定性,进而AI才会在采取行动前请求许可、接受纠正,允许自己被关闭①斯图尔特·罗素:《AI 新生:破解人机共存密码:人类最后一个大问题》,张羿译,北京:中信出版集团2020 年版,第18-188页。。“可证明的有益AI”三原则是对“关闭问题”的妥善解决,对人类偏好的关注消解了AI 不懈追求目标和防止干扰的自卫行为。此外,受三原则的启发,有限技术设计认为,除了强调人类目标的不确定性,还应关注人类目标的情境性。目标可分为总目标与子目标,假设人类总目标为更好地生存,那么为实现这一总目标,应先分别实现其包含的各个子目标,如更好地交通、更好地学习、更好地工作,这些子目标仍可继续细化至更小的子目标。因此,在设计AI 时,应依据人类子目标限制其活动场所,将其限制在辅助人类工作的高效工具层面,AI无需脱离语境对一般规则进行计算。

(二)贯彻去道德化的伦理设计

“去道德化”即禁止AI 具备自主道德,主张实现人机价值对齐,确保全部责任由人类承担。关于AI道德问题,存在机器伦理(Machine Ethics)与机器人伦理(Robot Ethics)两种研究路径。机器伦理主张“AI 道德化”,遵循非人类中心主义,聚焦于如何使AI 具备自主道德,试图扩大道德共同体,肯定AI 成为道德行动者的可能性;机器人伦理坚持“AI 去道德化”,遵循人类中心主义,否认AI具备自主道德的可能性,将道德限制在与AI相关的人类层面,研究人的价值取向、道德责任与伦理抉择。目前,在理论层面,存在实现“AI道德化”的两条路径,即上文提到的“自上而下”与“自下而上”路径,但其二者均面临不同程度的困境。首先,“自上而下”路径在设计层面上面临多种伦理理论如何统一、如何将抽象的伦理术语换算为具象的技术代码的困境,在使用层面则面临同一道德理论在不同情况下导致相互矛盾行为的困境。其次,“自下而上”路径存在社会学习结果无法预计、失败代价难以承受的困境。此外,即便在未来解决了“AI道德化”在实现路径上的困境,也会因上文提到的“能力者道德问题”对人类产生生存性威胁。因此,AI有限伦理设计遵循机器人伦理进路,强调人与AI之间的道德问题本质上是以AI为中介的人与人之间的道德问题,主张积极构建制度化的道德框架以应对AI带来的伦理冲击。

温德尔·瓦拉赫(Wendell Wallach)和柯林·艾伦(Colin Allen)将道德分为三类:(1)操作性道德(operational morality),即缺乏自主性与价值敏感性,被设计者与使用者控制并体现其价值理念;(2)功能性道德(functional morality),即能够对自身行为的道德意义进行评估,包括高自主性低价值敏感性或低自主性高价值敏感性;(3)完全道德能动性(full moral agency),即具有高度自主性与价值敏感性,能够像可信道德主体如人类一样行动②Wendell Wallach, Colin Allen, Moral Machines: Teaching Robots Right from Wrong, pp.25-26.。AI去道德化并非主张AI 价值无涉,而是仅将AI 道德限制在操作性道德和功能性道德层面,确保AI 价值向人类价值对齐,禁止AI 进行道德推理与决策。人机价值对齐的实现可分为价值输入与价值输出两部分,其以自上而下、自下而上路径为基础并尝试消解其困境,由此强调输入层面的“除恶”原则与输出层面的“监督”原则。“除恶”原则即在AI设计阶段尽力阻止AI未来可能出现的明显不道德行为,该原则认为争论何种伦理原则更道德是无意义且无结果的,其不主张寻找普适的至善伦理原则,而是转向界定明显不道德的行为并形成具体的道德禁令植入AI系统,努力确保AI行为对人类有益。“监督”原则即对人机互动中AI的价值输出进行监督,并对不道德输出进行纠正,致力于保证其行为符合人类价值观。“监督”可分为“人类监督”与“AI监督”,分别可对应现有的人类反馈的强化学习与宪法性AI 等手段,关键在于明确监督遵循“除恶”原则,即并非需要统一的一般性至善伦理原则作为监督标准,只需通过社会参与与全球合作等手段协商出初步的、具体的伦理禁令,并以此对AI的行为输出进行监督审查。

具体到责任层面,有限设计主张AI 防意识化与去道德化,致力于AI 的可控性及有益性,由此“责任空缺”困境被消解,道德责任只能由人类承担。那么,在AI 无法承担责任的前提下,如何将道德责任合理地分配给人类成为亟待解决的难题。对此,AI有限伦理设计强调制度性地设计责任分配方法,进行责任分摊与集体担责。关于责任分摊,可分为事前分摊与事后分摊两种途径:事前责任分摊主张在AI设计阶段增强设计者的道德想象力,在AI购买阶段告知用户相关背景知识、使用规则与伦理规范,确保各人类主体主动承担起自身责任,在一定程度上减少事故发生与责任推诿;事后责任分摊强调通过因果追溯厘清责任相关方,需借助技术支持,如阿兰·温菲尔德(Alan F.T.Winfield)和玛丽娜·吉罗特卡(Marina Jirotka)提出的“伦理黑匣子”(ethical black box),主张在AI系统中配备类似于飞行数据记录器的黑匣子完成信息记录、数据上传,为事后因果追溯提供技术与数据支持①Alan F.T.Winfield, Marina Jirotka, “The Case for an Ethical Black Box”, in Yang Gao, Saber Fallah,Yaochu Jin,Constantina Lekakou(eds.), Towards Autonomous Robotic Systems, Cham: Springer, 2017, pp.262-273.。而当AI事故原因较为复杂,无法进行道德责任分摊时,需集体担责。首先应明确责任共同体成员包括但不限于AI设计者、生产者、使用者,其中AI设计者与生产者应承担产品责任,使用者应承担注意责任;其次应明确具体的担责方式,当责任承担者为个人时,担责方式可分为物理层面的肉体惩罚、精神层面的社会谴责、经济层面的物质赔偿,但当责任承担者为集体时,经济层面的担责方式更易接受、更为高效。例如在自动驾驶领域,已有学者提出在经济上集体担责的具体方式,如亚历山大·赫韦尔克(Alexander Hevelke)和朱利安·尼达-吕梅林(Julian Nida-Rümelin)所主张的保险与税收手段②Alexander Hevelke, Julian Nida-Rümelin, “Responsibility for Crashes of Autonomous Vehicles: An Ethic-al Analysis”, Science and Engineering Ethics, 2015, Vol.21, No.3, pp.619-630.。

(三)警惕短期片面的制度设计

无论是技术设计还是伦理设计,均需以制度设计为保障,但目前的制度设计缺乏长远性与全局性,不利于未来AI的有限发展。“我们需要对技术有更深了解的人文学者,需要对人文学科有更深了解的技术专家,也需要来自这两个阵营的决策者。今天,我们离这个目标还很遥远。”③Edward A.Lee, “Are We Losing Control?”, in Hannes Werthner, Erich Prem, Edward A.Lee, Carlo Ghezzi(eds.),Perspectives on Digital Humanism, Cham: Springer, 2022, p.6.具体来说,AI有限制度设计应强调AI技术专家与人文社科专家的内部交流、AI企业与政府的外部沟通以及AI监管的全球协调。

首先,AI制度设计应重视专家的内部交流,积极采纳AI技术专家与人文社科专家的交流共识。查尔斯·珀西·斯诺(Charles Percy Snow)曾提出,存在以文学知识分子为代表的人文文化和以科学家为代表的科学文化,此两种文化间存在断裂①查尔斯·珀西·斯诺:《两种文化》,纪树立译,北京:生活·读书·新知三联书店1994年版,第3-4页。。换言之,文学知识分子多批判科学,而科学家多抵制人文,两者之间缺乏了解,互存偏见。考虑到AI 创新与发展的学科交叉性,弥补科学与人文之间的断裂、实现AI 有限制度设计的跨学科沟通成为一项迫切任务。具体来说,第一,应确保技术专家与人文社科专家在交流中地位平等,一味抬高技术专家的地位易忽视AI的伦理问题,过分推崇人文社科专家的意见易误解AI的技术现状。技术专家并非高高在上的决策者,人文社科专家也绝非外部施压的监督者,二者均为AI有限制度设计的建议者,只有在双方地位平等的前提下,才能减少交流中的抵触心理,提高交流效率,达成交流共识。第二,应强调技术专家与人文社科专家沟通方式的动态多元性。AI具备的自主性与不确定性预设了制度设计的长期性与灵活性,制度设计应随AI的新变化而时时调整,因此专家的内部沟通也应频繁而高效。此外,专家内部沟通的方式也不应仅仅局限于正式的论坛、对话等,通过教育等手段提升AI技术专家的人文素养、增强人文社科专家的科技认知不失为一种有效手段。

其次,AI 有限制度设计要关注企业的外部沟通,实现AI 企业与政府之间的信息对称、合作互信。企业作为AI创新主体,了解AI技术细节并在某种程度上更能准确预测AI未来发展趋势,在AI风险识别方面具备优势,能够为政府关于AI制度设计的决策提供参考。政府作为AI 监管主体,依据现实发展状况为AI 发展划定底线,以规避风险,确保AI 有益、安全、可控。因此,AI企业与政府之间的信息对称尤为重要。政府通过企业了解AI发展现状,听取企业经验与诉求,对AI进行适度监管,既能引导AI企业正面发展,又可在一定程度上减轻企业对政府监管的排斥;企业通过关注政府出台的相关政策,及时调整自身发展方向,不仅能够保证自身的平稳发展,还能够以AI产品造福人类。此外,AI企业与政府之间的关系应转向合作与互信。企业不应将政府的制度监管视为阻碍与压力,而应积极参与到AI制度设计中去,通过行业内部沟通与审查达成共识、形成标准,实现他律与自律的结合。换言之,政府与AI 企业并非二元对立,政府监管并非要束缚企业发展,企业也不应钻制度的空子,二者应在密切合作中相互信任,保证AI制度设计的切实性、有效性。

最后,AI制度设计须聚焦于全球协调,致力于实现协调的网络化、包容化、可持续化。AI发展的典型特征即全球化,AI 创新需要全球科技力量的广泛参与,同时AI 的影响亦遍布全球,深入每一国家与各个领域。目前已有许多国家出台相关政策以引导控制AI发展。其中,欧盟以《人工智能法案》为代表,对AI风险进行分级并进行统一的强监管,较为重视AI伦理②European Parliament, “Artificial Intelligence Act”, 2023-06-28, https://www.europarl.europa.eu/thinktank/en/document/EPRS_BRI(2021)698792.;美国以《国家人工智能研发战略计划》为代表,强调企业自治,进行分散的弱监管,倾向于创新优先③The White House, “National Artificial Intelligence Research and Development Strategic Plan”, 2023-05-23, https://www.whitehouse.gov / wp - content / uploads / 2023/05/National-Artificial-Intelligence-Research-and-Development-Strat egic-Plan-2023-Update.pdf.。但是,未来AI发展呈现全球网络化格局,“没有任何一个国家有可能在人工智能发展中成为世界的中央,这些主要结点之间将高度互联,深度协作,共同带动世界人工智能的发展。”①曾毅:《人工智能全球合作不会是“零和博弈”》,《光明日报》2021年1月20日。鉴于不同国家的AI 发展与文化背景存在差异,AI 制度设计的全球协调应求同存异,包容审慎。借鉴AI 发展大国的监管经验是必要的,但应避免个别国家为维护自身利益而主导AI制度设计。全球协调的目标并非形成绝对统一的制度规范,而是以禁令形式得出最低限度的全球标准,避免AI制度洼地的存在,防止个别国家的行为危害整个人类的可持续发展。

猜你喜欢
类人有益人机
独处有益
烘焙有益心理健康
人机“翻译员”
做有趣有益的游戏
从内到外,看懂无人机
5类人跟泡脚“八字不合”
口头禅暴露性格
“人机大战”人类智慧遭遇强敌
静坐有益
未来深空探测中的人机联合探测