人工智能应用的伦理风险研究综述

2022-11-21 04:58苗存龙王瑞林
关键词:伦理算法机器人

苗存龙,王瑞林

(重庆理工大学 马克思主义学院, 重庆 400054)

人工智能介入人类社会生活,虽然促使劳动生产率有效提升,但是也显露出颠覆传统社会伦理秩序的能力,破坏了传统人伦关系,引发了伦理问题,甚至危及了人类社会的未来发展。人类不得不谨慎对待人工智能的发展和应用,对人工智能的技术研发,做出合乎人类伦理价值的明智抉择。据统计,截至 2021 年 3 月8日,以“人工智能伦理风险”为相关主题的研究著作逐渐出版,例如,杜严勇的《人工智能伦理引论》、郭锐的《人工智能的伦理和治理》、高奇琦的《人工智能:驯服赛维坦》、李伦的《人工智能与大数据伦理》等,这些著作分别以专题和非专题的形式对“人工智能伦理风险”做了研究探讨。通过 CNKI 数字资源平台进行检索发现,以“人工智能伦理风险”为主题的期刊论文124篇,其中,博士硕士学位论文9篇,报纸7篇,这些研究成果针对“人工智能伦理风险”作了专题研究。以“人工智能伦理”为主题的期刊论文2 904篇,这类论文中有部分文章也围绕“人工智能风险”主题做了探讨。现梳理 、评述人工智能伦理风险的相关研究成果,总结经验、发现不足并展望未来的研究工作,以期推动后续研究。

一、人工智能引发伦理风险可能性的相关论证

人工智能的发展越来越迅速,其引发伦理风险的指数也越来越高。人工智能究竟缘何引发伦理问题?学者们对此问题不断展开追问和探赜。学界普遍认为人工智能引起伦理风险的可能性在于两个逻辑层面:一是人工智能作为道德主体主动介入引发伦理风险。二是人工智能作为道德客体被动参与引发伦理风险。无论是主动还是被动地触发伦理风险,就论证过程而言,两种状态都是研究人工智能伦理风险可能性的基本逻辑起点。关于人工智能能否具备主动介入人类伦理领域的条件,学者们分别作了或直接或间接的相关论证。最早提出相关研究假设的学者是艾伦·麦席森·图灵。虽然图灵没有研究人工智能是否能够主动介入人类伦理领域,但是他著名的图灵测试为人工智能在智能运行技术可能性上提供了相关研究基础。1950年,图灵在论文《计算机器与智能》中预言了制造出具有真正智能机器的可能性。拘囿于“智能”这一概念难以明确界定和阐述,他创造性地提出了著名的图灵测试以作为“智能”佐证:如果一台机器能够与人类展开对话而未被辨别出其机器身份,那么就认为这台机器具有智能。这一简化测试使得图灵能够令人信服地说明“会思考的机器”是可能的[1]。由此则可以判定机器智能是否能够摆脱人类智能而在机器与人的关系中发挥主动性。近年来,国内学界关于人工智能能否主动介入伦理领域的研究逐渐增多,此处仅引入以下几位代表学者观点。杜严勇认为,为了使人工智能“为人类服务”,人类可以为机器赋予“受限”的权利。如果把社会生活中的人称之为“完全的道德主体”,那么机器人就是“有限的道德主体”[2]。郭锐认为,相比以往的传统技术,人工智能的独特之处就在于它的“自主性”。或由于技术本身的特性、或由于其应用过程中社会赋予了它特定角色,当代人工智能技术已经在深度“参与”人的决策[3]。张金钢认为智能机器人在算法的支持下,能够像人一样进行自我思考,与人一样有了自我独立意志,能自主支配自己外在机体,即成了行为自由的主体[4]。有学者从人工智能核心的技术——算法角度进行分析。王天恩认为“人工智能的伦理问题根源于从大数据处理到作为智能体自主行动整个过程所涉及的智能算法”[5]。他认为在相应的大数据处理过程中,伦理问题出现在3个时间点:一是当数据移到一组选定的变量时;二是当选定的数据移到由算法或伦理研究产生的结果时;三是当这些结果移到明确的行动计划时。当这3个节点由算法控制时,智能算法便具有重要伦理意蕴。综上所述,无论是将人工智能视为“完全的道德主体”,还是“有限的道德主体”,以上学者均认为人工智能主动涉足了人类伦理生活领域。

持不同意见的学者认为,人工智能只能被动参与人类社会伦理生活领域。学者们或直接或间接地做了有价值的相关论证。涂良川从历史唯物主义层面分析认为,人工智能奇点论主张人工智能获得主体性,并非逻辑地证明了机器真正获得价值的自主性,而是现实地证明了人类智能的实践性。人工智能物的特性及其立基并充分展开的物性思维因其没有社会历史的存在论基础,只是以对比性的方式突显了人作为实践主体的创造性本质[6]。戴益斌认为,只有当智能机器人主动地面向人类,或者某人与智能机器人发生有意义的关联时,智能机器人才能获得道德接受者的地位。这样的智能机器人必须具备对话能力,会使用某种语言[7]。还有学者从现象学角度分析,如刘永安认为,意识是制约道德主体是否可能的关键维度。目前,人工智能体能在功能等价的意义上对意识的智力性认知层面予以模拟,但并不具备对于一个道德主体来说至关重要的现象学意识。人工智能体缺乏现象学意识第一人称的定性特征[8]。学者们普遍认为,因为人工智能不可能拥有人类所特有的心智状态,所以人工智能无法成为真正的道德主体,而只能以道德客体身份被动参与人类伦理生活领域。

显然,人工智能能够引发伦理问题已是不争事实,学界观点分歧主要在于:人工智能究竟是以道德主体身份主动涉足人类伦理生活领域,还是以道德客体身份被动参与人类伦理生活领域。就目前学界研究现状和未来任务而言,关于人工智能引起伦理风险可能性的两方面研究,均需要继续深化论证,应更深层次探赜:作为主动和被动两种引发人类社会伦理风险的方式,其“意识”层面的逻辑理路有何不同?随着人工智能技术的发展,不同“智能进阶”的弱人工智能、强人工智能、超人工智能的主体“意向性”“创造性”会提升,其参与伦理方式、程度又如何变化?分别产生哪些方面的伦理影响?诸如此类研究将为进一步探究人工智能引发的伦理风险内容和寻求伦理风险规制之道奠定理论基础。

二、人工智能伦理风险的主要内容

人工智能已经渗透到社会各个领域,造成的伦理影响是全方位的。现对学界已经开展的几个主要伦理风险进行梳理述评。

(一)人的主体性异化

在辩证唯物主义实践观中,人类能够主动地认识并通过实践活动改造自然界,从而使人类自身达到自然性与社会性的和谐统一。人类依托独特智慧,躬身实践,创造了人类社会丰富灿烂的文明。传统伦理秩序中,机器依附于人,人决定着机器如何开展工作。在高度智能化的人工智能物面前,人显得既笨拙又呆板,反而成为智能机器的“零部件”,人与机器的关系正逐步发生翻转,人的主体性已经出现异化端倪。控制论之父维纳在其名著《人有人的用处:控制论与社会》中认为:“这些机器的趋势是要在所有层面上取代人类,而非只是用机器能源和力量取代人类的能源和力量。这种新的取代将对我们的生活产生深远影响。”[9]孙伟平认为,作为人类社会的基本技术支撑,智能科技构成了对人类或公开的或隐蔽的宰制,人正在沦为高速运转的智能“附庸”和“奴隶”;智能机器人的快速发展模糊了人机界限,对人的本质、人的主体地位等形成强烈的冲击,使“人是什么?”“人机关系如何?”凸显为挑战哲学常识的时代难题[10]。闫坤如进一步指出,人类在享受智能技术带来的便捷与自由的同时,深陷被智能造物支配与控制的危机之中,人的主体性逐渐被智能机器解构和占有,客体化危机严重,主体间的关系也日益疏离化、数字化和物化,人的尊严和自由面临着被侵蚀的风险[11]。美国学者约翰·普利亚诺则从人工智能使用引起的劳动机会变化入手进行分析,认为人工智能基本上相当于免费的劳动力,这对劳动者不利[12]。而在文学创作领域,人工智能也显示出非凡的建构能力。刘欣认为,现代写作已无法以“限度”之名逃避与人工智能“作者”的竞争,写作的主体性问题进入反思领域。透过主体论诗学的“人性”神话与后人类主义的激进想象,人工智能写作在人机交互的间性主体和机器的他者维度得到重新思考[13]。还有学者关注到人的主体性会随着弱人工智能、强人工智能、超人工智能的进阶,而逐步进入更加弱化的时代。强人工智能或超人工智能将代表人类“预测一切、决定一切、安排一切”,人的主体作用在下降,社会参与度在降低,势必产生客体主体化、主体客体化的逻辑混淆[14]。如果说康德的“人为自然界立法”论断使人类觉醒并摆脱对自然界的依赖和控制,破天荒地标识了人的主体性地位,那么人工智能的快速发展则正在对这一论断和现实带来冲击,对人类主体性地位带来挑战。人工智能正在依托拟人特质,逐步增强替代人类体力劳动和脑力劳动的能力。如何既能享受人工智能技术发展带来的收益,又能规避主体性异化的风险?有无使人类智能和人工智能两者功能皆通畅发挥的平衡之道?诸如此类研究是时代难题。

(二)隐私权遭受威胁

海量信息数据是人工智能发挥其智能性所不可缺少的“信息食粮”。人工智能越是智能,就越需要收集和存储更多的个人数据和信息。然而,获取和存储海量信息数据,就不可避免地涉及个人隐私泄露的伦理问题。王璐认为,一些单位为了锻炼出更加“聪明”的智能体,有意采取合法与非法、公开与隐蔽、知情与不知情等多种信息渠道,肆意挖掘整理人们的身份信息、家庭信息、健康信息、消费喜好、日常活动轨迹等重要数据。这些数据在智能技术的强大驱动下,则可以映射出个人支付能力、社交关系等高价值信息,进而生成或还原出一个人的“生活肖像图”[14]。在万物智联的世界,人几乎与“透明人”无异。金东寒等学者认为,在人工智能的应用中,云计算被配置到智能架构中,许多企业、个人等将信息存储至云端,这很容易遭到威胁和攻击;如果将这些数据整合一起,那么便可“读出”他人秘密,如隐蔽的身体缺陷、既往病史、犯罪前科、变性经历等。如果智能系统掌握的敏感的个人信息被泄露出去,会将人置于尴尬甚至危险的境地,个人的隐私权会受到不同程度的侵害[15]。蔡立媛从人工智能在广告方面的应用入手进行分析,认为人工智能广告的追踪定位侵犯个人隐私,会引起个人信息安全失控、个人私事泄露、个人财产失窃、心理失衡、心理焦虑甚至恐慌,而且个人行踪泄露也危及人身自由和生命安全,影响社会秩序的稳定。用户的既有隐私、将有隐私、当下隐私都可能被侵犯,都可能被无意地泄露[16]。科技创新推动社会发展,人类虽不能由于隐私难题因噎废食,但人工智能的发展也决不能以牺牲隐私权为代价。2019年6月17日,我国新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,要求人工智能发展应尊重和保护个人隐私,充分保障个人的知情权和选择权。人类未来智慧生活中,如何兼顾“高度智能技术与高度隐私安全”,这是需要攻克的重点课题。

(三)挑战家庭婚恋观

目前,关于人工智能对家庭婚恋观念产生影响的相关研究,多数聚焦于智能机器人具有家庭或婚恋成员身份替代性的伦理领域,少数聚焦于人工智能参与相亲匹配等大数据分析领域。总体而言,其风险大于收益。人工智能研究专家大卫·利维撰写了一本书《与机器人的爱与性:人与机器人的关系进化史》,他提出了一个引人注目的观点:到2050年左右,人与机器人将建立真正的伴侣关系。人形智能机器人的研制正在取得技术突破,更加助推了人工智能影响婚恋观念的快速转变。金东寒认为,人形智能机器人越来越像人,越来越“善解人意”,也越来越“多愁善感”。人形智能机器人可能拥有完美的身材、漂亮的五官、光洁的皮肤、温柔的性情、坚贞的品格等,堪称完美的择偶对象。人形智能机器人能长情地陪伴人类,甚至为人类怀孕、生子、养育子女[15]……骆安安认为,因人工智能而兴起的伴侣机器人,正在快速融入人类的情感生活。人机之恋正成为新型恋爱关系,伴侣机器人进入更多家庭甚至和人类结成法律允许的婚姻关系也并非完全不可能[17]。王睿认为,性趣机器人作为高人机交互型机器人,其设计、生产和广泛研发应用将造成广泛的社会伦理影响。他通过问卷调查、深度访谈和对网络平台的参与观察,调查男性、女性对性趣机器人的各项选择意愿。针对选择性趣机器人作为伴侣的意愿原因和对基础设定、主体地位的选择意愿三项内容,分别根据韩炳哲“爱欲之死”思想、情感社会学中“情感异化”理论和女性主义的社会性别观点,对选择意愿的共性和差异进行剖析,结果显示人们对性趣机器人的喜好超乎想象[18]。美国普利策奖得主戴夫·巴里曾说,他并没有打算再婚,但如果非要结婚,他宁可娶个机器人。巴里的话,显然带给我们的不全是幽默。人类不得不面临一个重要伦理风险:人工智能的广泛应用,将颠覆传统的婚恋关系、家庭模式,并使家庭结构和伦理架构陷入危机。

(四)造成算法偏见

2018年2月,麻省理工学院的 Joy Buolamwini 发现,IBM、微软和北京旷视科技有限公司的三家公司最新研发的性别识别人工智能,可以在99%的情况下从照片中准确识别一个人的性别,但其识别人种范围仅限于白人。对于女性黑人来说,其准确率会大幅降至35%。王天恩认为,人工智能算法导致的偏见最初是从人类习得的。人工智能可以从人类语言信息中习得偏见,智能算法设计中的前提性预设,与智能算法的人类理解密切相关[5]。卜素也认为,人工智能技术在其实际应用过程中经常出现偏差性结论或反馈,其中最为典型的即为“算法歧视”问题。“算法歧视”的成因根源上在于人类固有的社会偏见,经由人工智能背后的算法技术转译,具有难以预测、难以监管以及责任主体多元化的特点;内部成因与外部成因所导致的算法歧视又具有各自的独特属性[19]。仇筠茜以新闻生产为例,他认为技术的“黑箱”切断了算法结论与事实之间的关联。算法所擅长的大数据整理、挖掘、分析的处理能力,是人类能力所不及的。特别是对宏观趋势的预测及其自我学习的逻辑以及决策的过程,即使是人工智能程序设计者也不能完全理解。这种方式将新闻生产过程推进更深的“黑箱”,产品即是“勿需推敲”的成品。这导致了对事实的核查、对真相的追寻将变得迷雾重重[20]。张恩典从算法特征方面分析认为,受算法决策自动性和模糊性等因素影响,大数据算法歧视呈现出高度的隐蔽性、结构性、单体性与系统连锁性特征,增加了歧视识别判断和规制的难度,并给传统以差别待遇为标准的反分类歧视理论和以差别性影响为标准的反从属歧视理论带来适用困境[21]。算法是人工智能技术的核心,在人工智能技术应用领域,算法是导致偏见的深层次根源。人工智能时代,算法偏见早已深入了各个领域。

(五)军事领域风险

伴随着人工智能在军事化领域的广泛应用,人类对未来安全问题的忧虑正日渐加深。人工智能时代,是否应该限制或禁止使用致命性自主武器系统(1ethalau-tonomous weapons systems,简称LAWS)的话题备受热议。2015年7月,一封要求停止研发致命性自主武器系统的公开信获得了多达3万人的签名,其中包括斯蒂芬·霍金、埃隆·马斯克以及众多人工智能领域的专家学者。专家学者们认为自主武器系统具有极大的风险,一旦被研发成功并应用,就有可能被恐怖组织掌控,对无辜平民将产生巨大的生命安全威胁[22]。军事斗争自古以来是人类社会的一个沉重命题,由人工智能主宰军事决策,意味着这一命题将变得简单化、程序化。铸戈认为,比这更严重的是,如果赋予人工智能武器系统“自主开火权”,人与武器的关系将发生根本质变,“机器代理人战争”将会成为人类社会不可承受之重。而在智能化军事体系中,政治因素和理性因素已不存在,“战争是战争的继续”[23]。从这个意义上说,武器系统的智能化程度愈高,后果则愈严重。人工智能时代,“极速战”是未来的战争走向。战争出发时间将缩短到几乎是即时反应。谢丹从军事责任认定视角分析认为,智能武器的特殊性及其推广应用,给现行军事法特别是武装冲突法带来诸多严峻的挑战。在军事冲突中,人类几乎完全不能参与“观察—定向—决策—行动”(OODA)的循环过程[24]。鉴于此,值得深刻思考的是:未来自主武器能否精确识别平民百姓和战斗人员?能否恪守国际人道主义规范?一旦自主武器脱离控制对人类造成大规模杀伤,谁将为自主武器的决策和行为承担责任和后果?是追究军事指挥官的责任,还是人工智能的责任?责任认定将难以判定。生死攸关的致命抉择“让渡”于机器定夺,是否意味着未来人类社会将终结?大部分学者依据人工智能发展技术,从长远审视未来战争,认为人工智能在军事化领域的应用,对未来人类安全终将造成威胁。如果人工智能超脱了人类智能的控制,势必将给人类带来灭顶之灾。

三、人工智能伦理风险的防范规制

关于人工智能伦理风险防范规制问题,学界主要从策略原则、算法设计、责任追究和制度管理等方面展开讨论。

(一)策略原则方面

阿西莫夫在他的机器人科幻作品中定义了机器人的三大定律,这三大定律从宏观层面对人工智能伦理风险的防范规制进行了预想。第一,机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手旁观。第二,机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外。第三,机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。三大定律对研究如何规制人工智能伦理风险具有借鉴意义[25]。耶鲁大学机器人学专家Jonathan Hartman建议把三大定律作为人工智能的适应性标准。Jonathan Hartman认为不能像自上而下的应用定律那样限制人工智能功能的发挥,定律应该是一个宽松的指导原则,其后代将会根据他们的能力靠近这些目标。Jonathan Hartman认为三大定律的优势是:机器人会与定律形成一个更动态的关系,把定律当作是灵活的指导原则[25]。王璐认为,人工智能的设计应该重视科技理性与价值理性,必须坚持科技服务人类的根本价值取向,突出以人为本,强调公平正义,遵守伦理发展[14]。

(二)算法设计方面

因算法是人工智能技术的核心,有学者从人工智能思维内核——算法层面,思考如何规避人工智能引发的伦理风险。闫坤如主张,伦理学家与技术哲学家不能袖手旁观,人工智能设计应该遵循“合乎伦理设计”的规则。人工智能设计主体必须在设计之初把人类道德与规范嵌入到智能机器算法中,从而使得人工智能系统的决策、行为具有可靠性与安全性[26]。丁晓东认为,要以实现负责任的算法为目标,采取场景化的规制路径,根据不同场景类型对算法采取不同的规制形式。在算法场景化规制原则的指引下,可以构建算法公开、数据赋权与反算法歧视等算法规制的具体制度[27]。为了避免涉及性别、族裔和性向等“敏感属性”与中性特征无意关联而触碰红线,罗梅和鲁格吉里提出了4个策略:控制训练数据集的失真;通过将其与反歧视标准相结合,修改分类学习算法;提取分类模型后,对模型进行后处理;在应用时,对预测进行更正,在受保护和不受保护的群体之间保持决策的相称性[28]。

(三)责任追究方面

学者们认为加强追责问责也是规制人工智能伦理风险的有效方法。孙保学探究了算法层面追责的策略,他认为,由于算法中间环节较多,确定某一具体操作失误究竟是编程错误、系统故障或还是偏见干扰往往异常困难,这意味着准确定位导致行为后果的直接责任主体更难[29]。显然,从算法层面追责问责是有难度的,而伯朗格(Béranger)则提出谨慎创新思路,他认为可以在创新和谨慎之间找到平衡,这将导致一个基于赋予行动者责任的双赢体系。如果设计者没有采取必要的预防措施来避免这种风险,那么设计者应该对重大损害后果承担责任。诚然,人工智能使用者也应充分考虑自己在使用人工智能过程和操作中产生的伦理影响[30]。中国学者戴益斌的观点与伯朗格相似,戴益斌认为新工具主义主张将智能机器视为人类的奴隶,机器伦理的支持者倾向于赋予智能机器以道德主体地位,这两种方案在处理人工智能的伦理责任问题时都面临困境。他认为应将道德主体扩展至他者以及非人类的实体。智能机器导致的责任问题可以指派给所有与智能机器相关的责任方[7]。

(四)制度管理方面

公共政策和管理治理机制可以为人工智能伦理规制提供基础。田广兰认为,为了抵御人工智能的伦理风险,“蓄水池式”的公共决策机制有助于形成融贯性的行动策略,以将人工智能的发展和应用尽可能置放在人的意图之下[31]。戴益斌从道德与法律两方面分析规制策略,认为应坚持“以人为本”“以德为先”“以法为界”的理性治理规则[7]。基于人工智能具有法律主体地位的前提认识,黄甫全探讨人工智能立法,在内容上聚焦于人工智能主体的规范,主要包括交通法、隐私法、医疗法和著作权法等领域;在特征上突出表现为,以保障人类利益为本,以原有法律体系为主,以部分类型与领域立法为先[32]。针对人工智能在新闻传播领域引发的伦理风险,杨保军提出4个规制原则:第一,透明原则;第二,风险可控原则;第三,知情同意原则;第四,核查与公正原则[33]。

四、人工智能时代伦理风险研究的不足和展望

现有的人工智能时代伦理风险研究成果为进一步深化、拓展和完善研究奠定了基础。同时,通过梳理也发现,当前的研究正处在一个需要继续深化的阶段,这预示着人工智能伦理风险研究还有更广阔的空间。

(一)现有研究的不足

学界对人工智能伦理风险的研究虽然不乏真知灼见,但总体而言仍存有不足,择其要者,兹述如下。

一是研究布局尚欠合理,研究有待深化。一方面,研究布局不够合理。人工智能伦理研究包括人工智能道德哲学、人工智能道德算法、人工智能设计伦理和人工智能应用伦理等4个领域。通过对现有研究成果梳理可知,现有研究成果多集中于人工智能道德算法、人工智能设计伦理和人工智能应用,而人工智能道德哲学领域研究成果相对薄弱。人工智能道德哲学研究关乎人工智能的善与恶、对与错、权利与义务等思辨和论证。推动人工智能道德哲学研究,有利于我们审视人工智能的社会价值和伦理风险影响,以哲思智慧引领人工智能其他领域研究。另一方面,研究还有待深入。人工智能设计伦理关乎人工智能如何与人类生活融合的问题。鉴于人工智能本身固有的技术不确定性,研发设计环节究竟赋予其多少“智能”,才能确保不会引发伦理风险?如何针对人工智能的决策“僭越”加以控制和防范?这些都是值得继续深入思考和研究的问题。

二是研究立意略显消极悲观。因为受到人工智能奇点论影响,所以学界有部分学者对人工智能伦理风险研究持悲观倾向。其实没有必要持悲观态度,应理性看待人工智能与人类智能的“较量”。因为人工智能是随人类意识创造而产生的,人工智能每前进一步都是建立在人类智能创新的基础上的。人的“意识代替他的本能,或者说他的本能是意识到了的本能”[34]。无论人工智能技术发展如何迅速,作为“意识产物”的人工智能,不可能绕开人类意识,实现无“意识”内核驱动境况下的智能跨越。现今,人工智能引发的伦理风险不至于即刻给予人类“致命一击”,人类仍然掌握着是否继续研发和应用人工智能各项技术的抉择权。人类作为唯一能够以智力引领人工智能的物种,完全可以通过自身智慧解决人工智能伦理风险问题,从而实现人工智能工具理性和价值理性的有机统一。因此,研究应始终保持理性自持,做到客观不悲观、预想不幻想。

三是研究视角缺少整体性。关于人工智能伦理风险规制方法的研究,多数缺少整体性视角。部分学者提出的人工智能伦理风险的规制方法和措施较“碎片化”。部分研究出现“头痛医头,脚痛医脚”的现象。例如,面对人工智能算法导致算法歧视的现象,部分研究者往往忽略心智维度,将算法歧视归罪于人工智能算法技术层面,以工具理性视角取代价值理性视角,这将阻碍人工智能技术发展,不利于科技发展和社会进步。人工智能伦理风险研究与其他技术伦理风险研究不同,应当围绕“机芯”和“人心”整体性建构而展开研究,未来人工智能伦理研究应更多地赋予人工智能“善”的意蕴。

(二)未来研究的展望

鉴于上述人工智能时代伦理风险的总体研究存有不足,现对未来的研究提出几点粗浅看法,仅供后续研究参考。

一是综合多学科知识开展研究。影响人工智能伦理风险研究的因素很复杂:一方面,人工智能的伦理问题研究与传统的伦理研究大有不同,其研究视域发生了较大的跨越,已经超出了人类主义的伦理学范围。人工智能伦理风险研究讨论的不再是人与人之间的关系问题,也不是人类与自然界的既定事实之间的关系问题,而是人类与自己所创造的智能产品之间的关系问题。另一方面,人工智能伦理风险的研究环境也在快速变化。例如人类对人工智能的接纳程度正在发生变化。2017年10月26日,沙特阿拉伯已经给予了美国汉森机器人公司生产的女性机器人索菲亚公民身份。因未来人工智能伦理风险研究所需知识将横跨多学科领域,所以研究过程中应与时俱进地综合运用多学科知识。例如,可结合科学技术哲学、人工智能哲学、伦理学、社会学、工程学、法学等学科知识,综合审视人工智能伦理风险,切实谋划有效的风险防范策略。

二是重视人工智能伦理风险评估和管理研究。由于人工智能技术发展存在诸多不确定性,亟须加强人工智能潜在伦理风险的评估研究,推动人工智能安全可控健康发展。人工智能伦理风险评估研究,既需要顶层的宏观哲思方面的研究,以保持人工智能发展和伦理秩序稳定之间的平衡,同时也需要基础的微观评估指标的研究,以保障风险评估的有效操作性。应着力建构人工智能风险评估体系,实现评价指标具体化、可操作化,为人工智能研究及应用提供伦理风险评估反馈。要加强人工智能伦理风险管理研究,关注人工智能伦理风险管理中风险识别、数值评估、责任处理、预期监控及汇报传达等各环节,探讨各有关主体的风险管控责任。要坚持评估的预防性原则,将伦理风险评估前置于人工智能开发应用阶段。重视人工智能伦理风险评估研究,将有利于降低人工智能潜在伦理风险,为更好决策人工智能未来发展奠定基础。

三是增强人工智能与人类智能协同发展研究。马克思认为“那些发展着自己的物质生产和物质交往的人,在改变自己的这个现实的同时也改变着自己的思维和思维的产物”[34]。因为人的思维意识与生产生活是协同发展的,所以我们对人工智能引发伦理风险进行归因时,决不能局限于人工智能技术本身,还应同时反观人工智能创造者们的设计水准。人工智能和人类智能之间决不是“你死我活”的完全冲突关系,我们应打破“非此即彼”的形而上学的思维模式的禁锢。未来研究应从人工智能伦理风险给人类生存状态、价值理念和人伦观念带来的各种冲击中,逆向反思人类智能发展的现实困境,谋求人工智能与人类智能协同共生之道。面向未来,既要推动人工智能不断完善,实现技术层面伦理风险规避,又要以此为契机促使人类智能逐步提升,实现价值层面伦理复归。

猜你喜欢
伦理算法机器人
《心之死》的趣味与伦理焦虑
《白噪音》中后现代声景的死亡伦理思考
Travellng thg World Full—time for Rree
伦理批评与文学伦理学
学习算法的“三种境界”
算法框图的补全
算法初步知识盘点
华语科幻电影中的“伦理性”想象
机器人来帮你
认识机器人