服务机器人领域人工智能伦理风险评估方法的设计与实践

2023-10-26 03:34李梦薇刘鑫怡
中国科技论坛 2023年10期
关键词:严重性伦理人工智能

李梦薇,徐 峰,晏 奇,李 芳,刘鑫怡

(1.中国科学技术信息研究所,北京 100038;2.北京旷视科技有限公司,北京 100190 )

0 引言

随着本轮人口红利的逐渐消失,我国老龄化程度加深,空巢青年数量增加,护幼与未成年人陪护等压力日益增大。人工智能技术在服务机器人领域的应用将大大缓解人类的劳动压力、生活成本,弥补服务业人力的不足,提高社会生产力与生活舒适程度,是应对人口老龄化、空巢青年等社会问题的有力举措。国际机器人联合会 (IFR)报告认为,未来几年服务机器人将出现强劲增长。然而,随着人类对服务机器人的需求日益旺盛,服务机器人对人类社会的影响也日趋深入,产生的各种问题纷至沓来,对人类主体性威胁的恐慌、对隐私泄露的担忧等,使得服务机器人的人工智能伦理风险热议不断。以欧盟为代表的国家、经济体与国际组织纷纷制定出台人工智能伦理风险相关的政策法律、标准规范,力图通过伦理规制确保人工智能的健康发展,为人工智能的未来应用扫清障碍。2018年10月,习近平总书记在中央政治局集体学习中强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。探讨服务机器人的人工智能伦理风险点,并采用合适的评价方法对其风险大小进行评估,是亟待解决的问题。

本文聚焦服务机器人这一人工智能的重要应用领域,通过识别服务机器人领域的人工智能伦理风险、分析风险源,梳理风险评价方法,并构建一套通用的人工智能伦理风险评估方法。此外,本文将该评估方法落实到实践中,对服务机器人领域的五大人工智能伦理风险及其风险源进行评价,验证了该方法的可操作性。

1 服务机器人的伦理风险识别与分析

服务机器人是人工智能技术的重要应用领域,指半自主或全自主工作的机器人能完成有益于人类的、便利人类生活的服务工作[1]。服务机器人的应用场景极其广泛,既包括以供人观赏、娱乐为目的的娱乐机器人,如唱歌机器人、足球机器人;又包括用于在家庭生活中承担家庭事务工作的家庭服务机器人,如烹饪机器人、护理机器人等;还包括在特定场所应用的专业服务机器人,如医疗机器人、导游机器人等[2]。

风险评估是风险管理过程的一部分,旨在为有效的风险应对提供基于证据的信息和分析。风险评估主要包括风险识别、风险分析和风险评价三个步骤。风险识别是发现、列举和描述风险要素的过程;风险分析是明确风险产生的原因、引发的正面和负面影响以及发生的可能性,主要目标是确定风险等级。风险评价是将风险分析的结果与预先设定的应对准则相比较,对未来的行动进行决策,包括确定某个风险是否需要应对、风险的应对优先次序以及应该采取哪种应对措施。人工智能伦理风险评估是对人工智能在应用过程中可能产生的伦理风险的可能性大小、后果严重性轻重进行量化分析的过程。

1.1 文献综述

随着人工智能技术在服务机器人领域的落地应用,一些由这种新技术引发的伦理挑战也随之而来,包括隐私保护、算法歧视、就业替代和责任分担等一系列风险和问题。例如,医疗机器人领域算法偏见对患者安全造成的潜在风险,家庭机器人的 “不受控”给家庭成员带来的安全威胁,服务机器人训练和使用过程中涉及的用户隐私数据泄露风险,公众对服务机器人的接受性,事故发生后责任难以界定的风险,技术滥用和伦理审查缺乏导致的潜在风险等。

荷兰学者鲁亚科斯等[3]认为,仿生陪护机器人会破坏社会尤其是儿童的发展,人们甚至不愿意去培养和维护长期的关系,社交能力退化。美国学者福特[4]认为,由于绝大多数工人都来自服务业和零售业,智能服务机器人的应用将对这些行业造成破坏,导致大量工人失业,加剧社会不公。对于自闭症儿童而言,使用陪护机器人极易导致情感依赖问题,物理辅助机器人则容易侵犯使用者隐私[5]。赵志耘等[6]将人工智能伦理风险划分为人类决策自主受控、侵犯隐私、偏见和歧视加剧、安全责任划归困难与失当、破坏公平、生态失衡六大类风险,并认为人工智能伦理风险源于技术-人-社会-自然之间的复杂交互,主要包括技术内生型伦理风险和技术应用型伦理风险两大生成路径。本文基于这种认知,将服务机器人领域的人工智能伦理风险梳理整理,归类为五大伦理风险,即决策自主受控风险、隐私侵犯风险、偏见或歧视风险、破坏公平风险、责任归属不清或失当风险 (责任归属不确定风险)。通过前人的研究梳理与场景分析,对服务机器人领域的五大人工智能伦理风险做了论述。

纵观前人研究,尽管已有不少学者论述了人工智能伦理风险 “是什么” “有哪些”等问题,但对伦理风险进行评估,指出不同风险的 “轻重缓急”,尤其对人工智能某个重要应用领域进行伦理风险评估的研究较为缺失。本文基于场景分析的思维,对服务机器人这一人工智能重要应用领域展开伦理风险的识别与评估,以期弥补该领域研究的空白,为人工智能技术的应用发展,尤其是在服务机器人领域的应用发展提供参考。

1.2 五大伦理风险的识别

人工智能伦理风险的实质是人与机器、人与人以及人与自然之间的控制失衡[6]。由于服务机器人的应用产生了与人类界限模糊、被机器监控、用户失去对个人数据的控制权以及伤害人类安全等问题[7],也可能沉浸在对机器人的 “被动”或 “依赖”中,从而造成主观能动性的匮乏[8],对个人隐私、社会公平、安全可控、负责任等伦理价值产生冲击。因此,该领域主要包含决策自主受控、隐私侵犯、偏见和歧视加剧、破坏公平以及责任归属不清这五类伦理风险。

1.2.1 决策自主受控风险

人类一旦接受并开始使用服务机器人,就难以避免对服务机器人产生依赖,且随着服务机器人智能化水平的不断提升,人类对其的依赖性也会不断增强。机器人的道德判断可能决定人类的利益是否受到保护,甚至会决定人类的生死[9]。服务机器人可能造成社交活动量的减少、家庭关系的不稳定,侵犯被服务者的人身自由,甚至身心健康受损[10]。人类不能长时间与机器人在一起,脱离人际交往而单独与机器在一起会产生各种各样的问题,包括依赖机器人、失去自我的主动性等[11]。此外,服务机器人也存在安全隐患,例如手术机器人突然出现手臂关节螺栓松动、突然停电导致机器人操作系统自动复位等,都会对患者直接造成意想不到的伤害[11-12]。

服务机器人的自主问题主要发生在三个情境中,一是出现危险或故障之前,二是出现危险或故障时,三是正常使用 (无危险或故障出现时)。第一种情境是出现危险或故障之前,如果服务机器人系统联网,则存在被黑客攻击的危险,包括可能被黑客控制机器人进行有危险性的活动;如果没有联网,则服务机器人无法及时更新操作系统,也无法与其他智能家居等智能化设备进行交互,从而导致服务效果不尽如人意。第二种情境是出现危险或故障时,此时服务机器人系统理应将控制权交给人类用户,甚至由人类用户终止其使用状态,但服务机器人危险或故障出现情况的界线难以判断,且移交控制权的过程中服务是立刻终止或者缓慢停止 (如服务机器人在炒菜过程中火候没能控制好导致出现火灾可能,此时机器人是直接停止工作,抑或是一边暂停炒菜一边采取其他措施避免火灾发生)?这些判断的问题是交由政府决定,还是服务机器人的生产厂商决定,抑或直接由使用者决定?使用者是否具备判断的能力?第三种情境是正常使用时,假设为了避免糖尿病潜在人群患上糖尿病或者病状加重,服务机器人拒绝了人类用户想要吃西瓜的要求,但用户确实是非常想吃甜品,而且一定的甜品危害不深,或者用户愿意承担病情加重的后果,此时就出现了人类用户 “想做却无法做的事情”,违背了人类用户的意愿,即其决策自主性受控。

1.2.2 隐私侵犯风险

服务机器人的智能决策依赖于大数据的分析应用,难免会带来隐私困扰。为了更好的服务体验,应当鼓励开发者之间共享相关数据,但为了保护版权、商业机密,这种共享又需要予以限制。同时,为了提升服务体验,必不可少需要与人类用户产生交互,并获得用户的相关数据,但为了保护用户隐私权又应尽可能减少用户信息的搜集,这就使得隐私问题成为一个牵涉其他敏感问题的复杂问题。仍以医疗服务机器人为例,随着信息技术的发展,远程诊疗、智能陪护等涉及的患者信息往往以电子病历或医疗信息系统方式存储在云端,使得安全确保个人隐私变得越来越困难——不仅存在黑客入侵盗取信息的可能,还存在医疗机器人未经患者同意读取患者与诊疗无关的生活信息的可能 (例如,医护机器人在照顾患者的过程中难以避免接触其生活信息,而患者可能并不知情甚至并未授权)。这些隐私信息的被侵犯可能导致一些严重后果,例如,医疗从业者可能在获取患者信息的情况下针对性推销医疗器材,报销从业者也可以针对性提升保险费用,企业可以将医疗档案作为是否聘用员工的重要参考,既往病史的泄露还可能损害患者的尊严。如何在确保用户隐私保护和相关数据共享之间达到最佳平衡,将是服务机器人发展所要面临的巨大伦理挑战。

1.2.3 偏见或歧视风险

由于机器人的训练数据标注、算法的设计等来自人类个体,这些个体自身带有的偏见歧视可能会被所训练的服务机器人 “继承”,使得服务机器人难以做到客观中立。推荐引擎通过调查用户的各项特质推出最适合的广告、换取更高的点击率,这种推荐本身即含有偏见歧视。例如,男性和女性会在网上看到不一样的招聘广告——卡内基·梅隆大学的研究显示[13],谷歌的高薪职位推荐重男轻女。齐琳珲[14]根据新闻写作机器人ZXM关于2018年温网公开赛的报道进行内容分析,发现关于男选手的图片数量明显多于女选手,且图片类型分布上存在明显的性别差异,说明该机器人存在性别偏见,而此类偏见会对社会产生潜移默化的影响。

1.2.4 破坏公平风险

与人工智能在其他领域的应用一样,服务机器人也会涉及公平问题,且由于服务机器人应用非常广泛,理论上可以对几乎任何社会领域产生影响,因此涉及的公平问题非同小可,可能会导致社会出现系统性分配不公,从而阻碍共同富裕的实现。人类个体的学习与思考能力与人工智能技术相比有一定的局限性,人工智能技术在服务机器人领域的应用将大大提升效率、精度,大幅压缩成本,从而逐步替代越来越多的服务业工作者。在医疗领域,医疗服务机器人对患者信息具有更加科学体系化的判断,从而降低诊疗的错误率,这种显著优势促使医疗机器人逐步取代医疗人员的工作。但同时,服务机器人毕竟不是人类,缺乏人类的情感与同理心,在医疗诊断等敏感领域的服务过程中,可能会因不能设身处地为患者着想、缺乏同情心等造成医患矛盾,有碍社会和谐稳定。此外,由于我国地区之间发展的不平衡不充分依然存在,医疗机器人等服务机器人资源的不公平使用及获得相关信息技术的方法不平衡,可能会加剧地区之间的发展鸿沟,从而加深不公平。

1.2.5 责任归属不确定风险

服务机器人的事故规则问题也是舆论的热点之一,不仅涉及复杂的技术认定问题,也涉及伦理、法律对于服务机器人主体地位认定的争议。从服务机器人的使用过程来看,人类意愿是服务机器人使用的目的,而服务机器人本身是一种方法,但随着人工智能技术的快速发展,服务业工作者,尤其是单调劳动者将在相当大的程度上被服务机器人取代,从而失去作为参与者的影响。在这种情况下,几乎完全由服务机器人完成的行为应当规则于谁成为重要问题。更进一步,服务机器人有时甚至需要做出社会道德选择,例如康复机器人在康复护理过程中间接对患者造成欺骗性、虚幻性消极影响时,是否应诉诸康复机器人承担责任?当服务机器人出现故障,究竟是使用前就存在潜在设计漏洞或制造问题,还是用户使用时操作不当、训练不足?其责任认定到底由谁来承担[11]?可见,如何规避和厘清此类责任的伦理风险是服务机器人在责任设计中的重要环节。

1.3 风险源分析

随着生活水平提升,人们对服务行业的个性化、极致化需求会越来越多。服务机器人将从最基本的替代人类的服务性劳动,发展为可以替代情感性交流,为人类提供更贴心的情感寄托。也正因此,服务机器人将越来越多地融入人类生活的物质和精神世界,人类或将有意识无意识地从机器人那里听取更多的建议。从护幼到助老、从医疗辅助到康养服务、从家务辅助到管家服务,机器人将越来越多地介入人们的日常,会时刻发生人与机器人之间的决策控制问题。随着服务机器人的智能化水平提升,人类决策自主受控的可能性会越来越大、程度越来越深。与之相伴的服务失误、失败责任问题,偏见歧视与破坏公平问题也会偶尔出现。与所有人工智能产品或服务一样,服务机器人智能决策系统所使用的训练数据或自动收集的数据面临着较大的隐私侵犯风险。做出决策所依赖的算法,是决策自主受控、加剧偏见歧视的重要风险源;无论是训练还是服务机器人使用过程中收集的数据,都存在数据泄露的可能,与隐私侵犯最为相关。服务机器人的部署使用不仅将替代服务工作者,也将挑战现有的制度规范,带来社会面的公平及责任问题。

具体来看,由于服务机器人的开发与应用推广过程涉及面较广,在分析其伦理风险生成机制,即寻找其伦理风险点时,需要对其从数据搜集、算法设计到产品开发与应用落地的全过程进行环节分析,以期更为全面地评估风险的 “轻重缓急”。

决策自主受控风险可能由数据处理、算法开发、产品开发、部署使用、制度规范等风险源引起,例如,机器人未经用户同意自主采集用户信息,或机器人数据被黑客窃取、控制;机器人的算法开发过程中没有设置自主决策选项或程序;机器人的产品开发过程中没有设置自主决策选项或按钮;医院等服务机构强行为用户选择机器人的服务,或者要求配合人工服务方案共同使用;在制度规范中缺乏详细的避免机器人脱离人类控制的条款或细则等。

隐私侵犯风险可能由数据处理、算法开发、产品开发、部署使用、制度规范等风险源引起,例如,服务机器人模型训练需要收集大量数据;服务机器人算法开发企业没有设立数据安全审查机制;服务机器人系统数据安全性能不足,机器人信息安全威胁分析及防护体系架构不完备;服务机器人运营过程中收集用户的表情、动作和状态等生物特征信息,以及个人和企业用户的行程、地址等信息;服务机器人数据安全顶层设计、监管体系、标准法规等不完善等。

偏见歧视风险可能由数据处理、算法开发、产品开发、部署使用、制度规范等风险源引起,例如,服务机器人训练数据存在偏见;服务机器人算法开发中植入偏见,缺乏伦理审核;服务机器人在功能设计、人机交互方式、系统透明性等方面考虑不周,导致偏见歧视;将服务机器人用于可能引发偏见歧视的场合;关于服务机器人数据、算法、应用中的偏见与歧视相关标准或监管体系不完善等。

破坏公平风险可能由数据处理、部署使用、制度规范等风险源引起,例如,服务机器人自主搜集数据信息从事有损于患者的活动;服务机器人大规模使用替代医护、餐饮等服务业工作者;有关服务业工作者转岗就业的培训和就业保障安排缺乏;现有的垄断法规尚未适应数字智能化趋势,等等。

权责归属不清或失当风险可能由数据处理、部署使用、制度规范等风险源引起,例如,服务机器人数据来源记录不清晰;服务机器人算法缺乏透明性/可解释性;服务机器人生产过程各环节责任人记录不清、缺乏可追溯性;服务机器人系统使用过程缺乏使用日志或日志记录不清晰;服务机器人责任相关的法规不明确,保险覆盖范围狭窄等。

2 服务机器人伦理风险评估方法的设计

2.1 文献综述

当前,学术界与产业界在进行风险评估时,大致可以分为客观视角和主观视角两种类型[15]。客观视角即 “以数据或案例说话”,通过对大量数据的搜集、统计分析,结合模型构建,建立对评价主体的理解并最终获得评估结果,侧重于定量分析。典型的定量分析方法有神经网络方法、蒙特卡洛模拟分析、聚类分析法、时序模型、因子分析法、回归模型等。主观视角则 “以主观感知为证”,带有一定的个人倾向色彩,但同时也充分利用个人的经验等隐性知识,即通过主观认知获得评价结果,侧重于定性分析。典型的定性分析方法有逻辑分析法、历史比较法、因素分析法、德尔斐法。

就人工智能伦理风险的评估而言,实践中普遍采用风险矩阵的方式进行综合评估。风险矩阵是风险管理过程中识别风险重要性的一种方法,它能从两个维度刻画特定风险 (一般来说是风险发生的可能性、严重性),进而以二维表的方式综合评估特定风险的等级。例如,新西兰政府于2020年7月发布 《算法宪章》,评估人工智能应用产生不利风险的可能性、影响规模和严重性[16]。该评估采用的基本模式是将风险发生的可能性与算法风险影响相结合,构建风险矩阵,得出风险评级。具体而言,风险发生的可能性有三个等级:不太可能、有可能和很可能;严重性程度同样有三个等级:不严重、中等严重、严重。风险影响范围大小的三个等级分别是 “孤立发生、影响中等数量的人、广泛的影响”。由此,将算法风险划分为低、中、高三种类型。我国的 《信息安全技术个人信息安全影响评估指南》 (GB/T 39335—2020)以安全事件可能性和个人权益影响程度两个要素进行综合分析,将个人信息安全事件发生的可能性分为四级:很高、高、中、低;对个人权益的影响程度也划分为四级:严重、高、中、低。综合得出个人信息安全的影响等级。

客观与主观两种视角各有优势又相互补充,本文的方法设计综合考虑两种视角,运用客观视角进行风险发生的可能性分析,运用主观视角进行风险发生的严重性分析,最后将两种视角进行综合考量,获得人工智能伦理风险的最终评价结果。

2.2 方法设计

风险的影响因素可以划分为可能性与严重性两个维度[17],服务机器人领域的人工智能伦理风险应当由伦理风险的可能性与伦理风险的严重性两个因素共同决定,且二者与整体风险大小均为正比关系,即风险大小得分=风险发生的可能性×风险发生的严重性。

严重性是该风险造成的损失总和,可以划分为以下四个等级尺度:①毁灭:造成死亡或主系统故障,需要立刻终止活动或操作;②危险:造成严重伤害,需要立刻执行正确的操作;③临界:如果人为错误、设计漏洞、程序漏洞等问题能得到合理控制,那么严重伤害、主系统故障等问题就可以避免,或者只发生轻微伤害、次系统故障等微小问题;④极小:人为错误、设计漏洞、程序漏洞等问题并没有导致或只导致微乎其微的伤害及系统故障等问题。

可能性是危害发生的概率,可以划分为以下五个等级尺度:①频繁发生:在一个周期内经常发生;②可能发生:在一个周期内多次发生;③偶尔发生:在一个周期内发生几次;④少数发生:在一个周期内可能发生,但可能性不大;⑤不太可能:发生可能性极小,基本不会发生。

风险评估的结果由严重性及可能性数据的乘积得出。因此,要计算风险大小,就要分别对可能性与严重性进行评估。在可能性的评估上,对某一风险讨论热度的高低,或者称舆论热度,可以代表对该风险的关注度大小。当某一伦理风险频频出现在公众的讨论中,则说明对这些事件的关注程度越高,事件发生的频率越高,该伦理风险发生的可能性越高。同理,对于研究经验丰富的学术界群体,我们也能够通过其论文、专利等挖掘其对伦理风险的感知度。讨论频率越高,说明风险的关注度和发生可能性越高。我们以知网和Web of Science的检索数据代表专家群体对风险发生可能性的认知,以微博、百度和谷歌这类社交媒体平台和资讯平台的检索数据代表公众的风险可能性认知。

由于可能性的评估是客观数据,而客观数据来源难以做到覆盖全面,关键词难以穷尽,因此在严重性的评估上主要考虑专家和公众的主观性观点,通过其经验积累、日常感受进行打分或提出态度倾向。采取问卷访谈形式,阐述各类伦理风险在各环节中的风险点和表现形式,由不同人群 (一般群体、互联网及相关行业工作者、相关政府机关工作者、专家学者等)基于过往经验及日常认知,对这些环节可能发生风险的大小、发生风险后影响严重性大小进行主观判断。将五大风险 (自主决策受控、隐私侵犯、加剧社会偏见或歧视、破坏社会公平、责任归属不清或失当)依次编号为i=1,2,3,4,5;将五大风险平台 (Web of Science、微博、百度、谷歌)依次编号为j=1,2,3,4,5;将各大风险对应的风险源 (数据处理、算法开发、产品开发、部署使用、制度规范)依次编号为h=1,2,3,4,5。各种符号的说明见表1。

表1 符号说明

2.2.1 可能性

可能性由公众与专家的关注程度表示,数据来源于对微博等舆情平台和知网等学术平台的关键词检索统计。由于各平台对于同一伦理风险的讨论热度不同,因而需要给平台的检索结果赋以权重,规定平台风险权重为该平台的风险相关文章或新闻数量占五大平台统计总数的比重,其中微博、百度、谷歌数据代表公众可能性认知,知网、Web of Science数据代表专家可能性认知,即:

(1)

同理,界定风险i对应的平台风险源权重为该平台的风险i对应风险源的相关文章或新闻数量占五大平台统计总数的比重,即:

(2)

风险i发生的可能性为:

(3)

风险i对应的风险源h发生的可能性为:

(4)

2.2.2 严重性

严重性由公众与专家的主观评价表示,数据来源于对两个不同人群的问卷调查结果。根据被调研者的排序与评价,得到五大风险严重性平均综合得分:

各风险的平均综合得分= (∑频数×权值)/本调研填写人次

(5)

其中,权值由选项被排列的位置决定,若有三个选项参与排序,则排在第一的权值为3、第二的权值为2、第三的权值为1。例如,一个风险调研题被填写12次,风险A被选中并排在第一位置2次、第二位置4次、第三位置6次,则A的平均综合得分= (2×3+4×2+6×1)/12=1.67。

3 服务机器人伦理风险评估方法的实践

图1所示为服务人领域人工资能伦理风险的评估过程,结合对服务机器人领域人工智能五大伦理风险的认识及其风险源的分析,本文的服务机器人领域人工智能伦理风险评估分为伦理风险评价与风险源评价两个阶段进行。两个阶段的方法相通,先分别进行可能性与严重性评价,再根据式 (2)评价风险大小。其中,可能性评价涉及的数据来自百度、微博、谷歌、知网、Web of Science五个平台,分别以 “服务机器人伦理风险” “机器人决策自主”等关键词 (包含英文以及日文、韩文、法文、德文、俄文等小语种词汇)进行检索,每个关键词在每个平台取前300条检索结果 (不足300条的以实际检索结果计算);严重性评价涉及的数据来自问卷调研数据,包括专家有效问卷71份、公众有效问卷581份。

图1 服务机器人领域人工智能伦理风险评估过程

3.1 五大伦理风险评价

首先进行可能性评价,百度、微博、谷歌数据代表 “公众可能性认知”,知网、Web of Science数据代表 “专家可能性认知”。五大平台的权重分别为21.14%、24.10%、1.48%、45.03%、8.25%,各平台的五大风险占比见表2。根据式 (3)得出五大风险发生的可能性,见表3。其次进行严重性评价,根据式 (4),并按照专家:公众=7:3的权重,得到五大风险严重性综合得分 (来自问卷统计结果),见表4。最后根据式 (5),得到五大风险大小的最终得分,如图2所示。可以看到,在服务机器人领域的人工智能五大伦理风险中,决策自主受控风险最高,侵犯隐私风险次之,二者得分遥遥领先于其他风险。权责归属不清或失当风险、破坏社会公平风险分居第三、第四位,加剧社会偏见或歧视风险最小。

图2 五大风险的最终得分

表2 各平台五大风险占比 单位 (%)

表3 五大风险发生的可能性

表4 五大风险严重性平均综合得分

3.2 五大伦理风险的风险源

首先进行决策自主受控风险的风险源可能性评价,百度、微博、谷歌、知网、Web of Science平台的权重分别为30.77%、13.61%、5.92%、17.75%、31.95%,各平台五大风险源的占比见表5。根据式 (2),得出决策自主受控风险的风险源可能性占比,见表6。其次进行严重性评价,根据式 (4),并按照专家:公众=7:3的权重,得出决策自主受控风险的风险源严重性综合得分 (来自问卷统计结果),见表7。最后根据式 (5),得到五大风险源大小的最终得分,如图3所示。可以看到,在服务机器人领域的决策自主受控风险中,算法开发最高,部署使用次之,产品开发再次,三者得分接近,且遥遥领先于其他风险源。外部制度规范居第四位,数据处理风险源最小。同理可得侵犯隐私风险、加剧社会偏见或歧视风险、破坏社会公平风险、权责归属不清或失当风险的风险源大小,如图4所示。

图3 决策自主受控风险的风险源大小

图4 风险源大小

表5 决策自主受控风险的风险源在各平台占比 单位 (%)

表6 决策自主受控风险的风险源可能性占比

表7 决策自主受控风险的风险源严重性平均综合得分

3.3 结果与分析

从服务机器人领域人工智能五大伦理风险来看,无论是风险大小的综合得分,还是风险发生的可能性、严重性得分,决策自主受控风险、隐私侵犯风险都位居前两位。从风险发生的可能性来看,隐私侵犯风险居第一位,决策自主受控风险居第三位;从风险发生的严重性来看,决策自主受控风险居第一位,隐私侵犯风险居第二位,且这两种伦理风险的大众问卷与专家问卷评价结果一致。风险大小居第三位的是权责归属不清或失当风险,其风险发生的严重性排名居第三位 (专家和公众问卷评价结果同样居第三位),但该风险发生的可能性居第四位,远低于可能性排名第二的破坏社会公平风险 (后者的风险大小排名居第四位)。破坏社会公平风险与加剧社会偏见或歧视风险在风险严重性的专家与公众问卷评价结果上稍有差异,前者的大众问卷排名高于后者,而专家问卷排名低于后者,但大众问卷和专家问卷的平均综合得分差距较小 (二者的大众问卷得分为2.65和3.06,专家问卷得分为2.92和2.51),说明这两种风险在大众眼里的区分度可能并不大,在后续的宣传科普中应当着重予以区分。

从风险源大小的评价来看,不同风险的风险源大小排序差别较大。对于决策自主受控风险而言,算法开发最值得关注,其次是部署使用 (且二者得分差距很小),再次是产品开发;外部制度规范和数据处理相对没有那么重要,得分差距与前三名彼此之间的分差相比较大。

对于隐私侵犯风险而言,部署使用最值得关注 (且可能性和严重性得分均位居第一),其次分别是算法开发和数据处理 (二者分差较小),产品开发和外部制度规范相对没有那么重要。

对于加剧社会偏见或歧视风险而言,算法开发最值得关注且远远高于其他风险源,其次是外部制度规范、数据处理和部署使用 (且三者得分接近),相对而言最不重要的是产品开发。值得注意的是,算法开发的可能性与严重性得分均位居第一位,但部署使用、外部制度规范、数据处理三者的可能性非常接近,外部制度规范、数据处理的严重性综合得分也非常接近,这也是其风险源大小得分接近的原因。

对于破坏社会公平风险而言,部署使用远高于外部制度规范。对于权责归属不清或失当风险而言,外部制度规范最值得关注 (可能性得分也居第一位,但严重性得分中的大众问卷得分居第二位),其次是产品开发 (可能性得分居第三位,严重性得分中的大众问卷得分居第一位,专家问卷得分居第三位),再次分别是部署使用和算法开发,数据处理相对最不重要。值得注意的是,部署使用的可能性得分居第二位,远高于后两名;算法开发的严重性得分居第三位,且与第二位的产品开发非常接近,其专家问卷评价结果甚至居第二位。

4 总结与展望

本文对服务机器人领域的人工智能伦理风险进行了较为深入的探讨,主要解决了两个问题:一是对该领域的人工智能伦理风险及风险源进行系统梳理;二是设计了一套通用的人工智能伦理风险评估方法,可以概括为风险和风险源大小评价 “两步走”的评价思路,并将该方法在服务机器人领域进行了实践。本研究不仅在一定程度上填补了人工智能伦理风险评价的方法空白,而且在服务机器人这一人工智能的重要应用领域将人工智能伦理风险的评价方法进行了实践,具有一定的理论和实践意义,更重要的是构建了一套系统的人工智能伦理风险评估方法,包括风险的识别、轻重缓急的判断、结果的分析。

基于本文的研究基础,特别是理论框架与模型基础、实践应用基础,下一步可以考虑对服务机器人领域的人工智能伦理风险做进一步的识别与分析,将该方法的应用范围进一步扩大,在风险识别环节尝试进一步细化风险类型,完善实践数据,对于结果分析与政策建议的衔接做进一步研究细化,同时,可以尝试将该方法应用于解决自动驾驶、计算机视觉等领域的人工智能伦理风险评价,根据评价结果提出可行性政策建议,以助力人工智能技术与应用的健康、可持续发展。

猜你喜欢
严重性伦理人工智能
严重性
《心之死》的趣味与伦理焦虑
护生眼中的伦理修养
2019:人工智能
不该被遗忘的天地
人工智能与就业
数读人工智能
下一幕,人工智能!
医改莫忘构建伦理新机制
细菌耐药性的严重性