四论以用户为中心的设计:以人为中心的人工智能

2019-12-05 04:59
应用心理学 2019年4期
关键词:人因解决方案学科

许 为

(浙江大学心理科学研究中心,杭州 310058)

1 引 言

1.1 “以人为中心的人工智能”概念的提出

随着人工智能(AI)技术的应用和发展,目前社会对AI的关注已不仅仅局限于技术,而是开始更多地考虑其他非技术的因素。2018年埃森哲(Accenture)咨询对全球25个国家的6300多名企业IT高管的问卷调查表明,新技术对社会所产生的影响呈现出5个趋势,其中之一是公民化的AI,即随着AI技术在人们工作和生活中的应用推广,AI研发应该促使AI解决方案成为负责任的、富有成效的社会成员(Accenture,2018)。

类似于核能和生化技术的“双重用途”性质,AI带来的回报与潜在的风险共存。由于AI的开发和使用是一种去中心化的全球现象,进入门槛相对较低,使得控制越加困难(Li & Etchemendy,2018)。一些利用不完整或被扭曲的数据训练而成的基于机器学习(ML)的智能系统可能会导致该系统产生有偏见性的“思考”,轻易地放大偏见和不公平等,它们遵循的“世界观”有可能促使某些用户群体陷入不利的地位,影响社会的公平性,产生社会偏见。正因为如此,一些AI项目最终未能投入使用(Guszcza,2018)。例如,2016年微软在Twitter上发布了一个AI驱动的聊天机器人Tay,计划通过与人类用户的对话交流,提高其智能程度,并可为用户带来具个性化的使用体验。Tay是模仿美国青少年女孩而设计的,但是,当Tay和人类聊天不到24小时,她就被“教坏”了,变成了一个集反犹太人、性别歧视、种族歧视于一身的“不良少女”,最终微软不得不将Tay下线。当越来越普遍的基于AI/ML的企业、政府服务等智能决策系统投入使用时,这些具有偏见的“世界观”所产生的决策,将直接影响人们日常的工作和生活。人们甚至担心AI将来可能排斥人类,人类终将失去控制,智能武器甚至可能会对人类造成灾难。

针对这些担忧和潜在的负面影响,近几年在学术界,斯坦福大学、加州大学伯克利分校、MIT等大学分别成立了“以人为中心的AI(Human-Centered AI,HAI)”的研究机构,开展一系列研究。这些HAI研究的策略强调AI的下一个前沿不能仅仅是技术,它也必须是人文的(humanistic)、合乎道德伦理的、惠及人类的;AI是增强人的能力而不是取代人。例如,斯坦福大学认为AI的研发应该遵循三个目标:在技术上达到反映以人类智慧为特征的深度;提高人的能力,而不是取代人;关注AI对人类的影响(Li & Etchemendy,2018)。在工业界,许多公司从人文AI的理念出发,提倡AI解决方案应该是负责任的、合乎道德伦理的、保护个人隐私、安全和包容的,并且分别制定了AI技术开发的指导原则,从开发流程、开发工具、开发人员培训等方面规范AI的研发工作。在专业行业学会,一些专业学会已经或正在制定行业规范。例如,电气和电子工程师协会(IEEE)正在出版“道德化的设计:将人类福祉与AI和自主智能系统优先考虑的愿景”从业人员手册(IEEE,2018)。

1.2 从人因学科的角度来考虑HAI

以上这些跨领域的努力主要是从伦理道德和技术两个方面来寻求如何推进HAI的解决方案。从人因学科(包括人因学、工程心理学、人机交互、人类工效学、用户体验等)的角度出发,HAI还应该考虑以下几方面。

1.2.1 AI的“黑匣子”问题

普华永道(PwC)咨询(2019)对1000多名已经采纳AI技术的企业高官的调查表明,61%的受访者认为创建透明的和可解释的AI是建立AI可信度、推广AI技术的重要步骤之一。作为目前AI的核心技术,ML算法模型和学习过程不透明,所输出的决策结果不直观,对于许多非技术用户来说,这些智能系统就像一个“黑匣子”(black box),在深度学习中用于模式识别的神经网络尤其如此(Bathaee,2018)。这种“黑匣子”现象导致用户对AI智能系统的输出结果和决策产生疑问,你为什么这么做,为什么会是这样的结果,你什么时候成功或者失败,我什么时候可以信任你,等等。由于AI的“黑匣子”效应所导致的AI透明性、解释性等问题,直接影响用户对智能系统的信任度和决策效率,从而影响AI的推广(Donahoe,2018;Zhou,et al.,2018)。AI“黑匣子”现象有可能在各类基于AI的智能系统的使用中发生,包括AI在金融股票、医疗诊断、工业流程监控、安全检测、就业招聘、贷款审批、法律判决、大学录取、智能监控、自主智能系统(自动驾驶车、智能机器人等)等领域中的应用。

1.2.2 AI的应用落地场景和用户体验

以往一些AI项目花费了较大的成本,由于缺乏使用价值而失败。目前AI领域就开发智能系统的瓶颈效应已达成共识:一个是AI技术;另一个是AI应用落地场景的定位(李彦宏等,2017)。智能系统的设计一定要有明确的目的,通过提供有用的(即合适的应用场景和产品功能)AI解决方案来满足用户需求,这样的智能系统才能被用户所接受,并且产生社会和经济效益。

从可用的(即易学易用)AI解决方案的角度来说,智能系统在用户体验(UX)设计上也面临着一些挑战,需要人因学科在人机交互设计等方面的参与。例如,Nielsen Norman Group(2018)对美国市场上三个顶级品牌的语音交互智能助手的UX测试结果表明,所测试的智能助手在所有6类复杂问题任务上都失败,仅在一些简单的查询任务上成功,由此可见人机交互设计的重要性。另外,近几年自动驾驶汽车已经导致了多起致命事故。例如,2016年,一辆正处在自动驾驶模式(自适应速度控制加上自动车道跟踪)状态的特斯拉自动驾驶车撞向高速公路上行驶的卡车,导致司机死亡。美国国家运输安全委员会(NTSB)的调查发现,其原因是司机过度依赖自动化和缺乏对汽车操纵的参与(NTSB,2017)。2018年,在亚利桑那州测试期间,优步自动驾驶汽车撞死了一名行人,在事故中司机未能及时发现行人,从而未能在应急状态下迅速采取人工操纵干预(Garcia & Randazzo,2018)。这些事故的发生说明了人因学科在智能系统的人机交互、情景意识等设计方面的重要性。

1.3 第三次AI浪潮的特征和人因学科的机遇

从AI技术发展的历史来看(见表1),AI在2006年左右进入第三次浪潮,重要的是AI在一些应用场景下开始满足用户的需要,开始形成一些实际的应用解决方案和商业模式,这是第三次浪潮与前两次浪潮本质上的不同:有用的AI(李开复,王咏刚,2017)。另外,在第三次AI浪潮中,除了AI技术的提升和实际应用的解决方案以外,人们开始从AI的伦理道德、“黑匣子”效应引发的AI可解释性、AI的应用场景和UX等各方面来考虑AI解决方案,这些考虑都是围绕人的因素展开。因此,我们认为目前AI正在进入一个“技术提升和应用+以人为中心”的新阶段(见表1),两者缺一不可,而这种“以人为中心”的阶段新特征与人因学科的理念不谋而合。

历史似乎在重复。上世纪80年代个人电脑刚兴起时,计算机应用产品的用户主要是程序员等专家用户,因此在设计中,程序员只考虑技术因素,不考虑可用性,这种现象被称为“专家为专家设计”(许为,2003)。目前,AI解决方案同样也面临类似的问题,许多AI研发集中在技术上,AI的“黑匣子”问题就是一个例子,AI人员为自己设计,而不是为普通目标用户考虑(Miller,et al.,2017)。如同30年前“以用户为中心的设计”(User-Centered Design,UCD)实践的兴起,今天,智能时代的新版UCD(即HAI)的实践再一次历史性地落在了人因学科的肩上,同时也为人因学科的研究和应用提供了新机遇。

1.4 问题的提出

综上所述,随着AI技术的推广,社会和用户需要HAI的解决方案。但是,目前HAI的工作主要是从伦理道德以及技术两个方面来推进,缺乏对人因工效学方面的综合考虑。同时,目前人因学科在AI研发中的学科作用还没有充分发挥。针对这种状况,人因学科应该如何提供科学支持,从而完善HAI的整体解决方案?这就是本文需要回答的问题。

为此,本文首先提出一个扩展的HAI概念模型,然后从人因学科的角度,围绕可解释和可理解的AI、有用和可用的AI等关键问题,讨论和分析目前相关的研究和应用,提出今后工作的具体建议,从而为HAI提供一个全面的整体解决方案。最后,针对HAI解决方案,总结和展望今后人因学科的工作。

表1 AI的三次浪潮和发展的阶段特征

(来源:Xu,2019)

2 一个扩展的HAI概念模型

本文提出一个扩展的HAI概念模型(见图1)。根据该模型,HAI解决方案的研发,需要从三个方面来综合考虑:

(1)伦理化设计(ethically aligned design)。从伦理、道德等角度出发,AI应该致力于解决社会偏见、维护公平和公正、避免对人的伤害等问题,利用AI来增强人的能力而不是取代人。

(2)充分反映人类智能的技术。进一步提升AI技术以达到反映以人类智能为特征的深度(更像人类的智能)。

(3)人因工效学设计。AI应该是可解释的、可理解的、有用的和可用的,充分考虑人的因素来提供符合人因工效学要求的AI解决方案。

该模型的目的就是提供满足人类需求的、可信任的、可广泛推广应用的AI解决方案,最终为人类提供安全的、高效的、健康的、满意的基于计算技术的工作和生活。

HAI概念模型中的“伦理化设计”和“充分反映人类智能的技术”的内容已在现有的HAI概念中体现,为了提供完整的HAI解决方案,扩展的HAI概念模型增加了“人因工效学设计”,并且强调了以下两个目标:①克服AI的“黑匣子”问题,为用户提供可解释和可理解的AI,从而提高用户的信任度和决策效率;②开发具有合适的应用落地场景和产品功能的(有用的)、易学易用的(可用的)满足用户需求的AI解决方案。

扩展的HAI概念模型也强调了三方面工作之间的协同互补关系。例如,如果不考虑AI对人类的影响(伦理道德等),片面地从技术上使AI“更像人类”,从长远来说,AI实际上不可能达到以人为中心的目的,最终可能伤害人类;另一方面,伦理化设计的AI强调增强人的能力而不是取代人,在实际应用中需要人因工效学设计的支持。例如,智能自动驾驶车的人机界面需要给人类驾驶员提供足够的情境意识(SA)和有效的控制界面,从而确保在应急时刻驾驶员能够快速有效地掌握驾驶控制权,近几年所发生的多起自动驾驶车致命事故充分说明了人因工效学设计的重要性。

该HAI模型也充分体现了UCD在AI研发中的设计理念,旨在促进智能时代背景下继续关注以用户为中心的设计理念。基于UCD的AI解决方案就是从目标用户的需求出发,研发AI技术,提供满足用户需求的AI解决方案。用户的需求包括对AI的伦理道德、AI的可解释性和可理解性、AI技术的应用、AI的有用性、AI的可用性等方面的各种需求,只有满足了这些用户需求的方案才是我们所追求的HAI整体解决方案。

3 可解释和可理解的AI

3.1 可解释的AI

解决AI黑匣子问题的第一步就是要打开“黑匣子”,让AI透明化。透明的AI帮助用户了解AI技术是如何工作和帮助他们做决策的。AI的透明度也具有针对性,例如,监管机构需要获得高水平的透明度,而一般用户可能只需要中等水平的透明度(Hosanagar & Jair,2018)。以往针对AI透明度的研究主要通过两种途径:对ML过程的可视化和对ML算法的解释,但是这些途径在解释ML算法时有偏差,并且主要依赖于抽象的可视化方法或统计算法,反而有可能进一步增加复杂性(Amershi,et al.,2015;Chen,et al.,2016)。

AI透明度帮助用户确定系统使用了什么算法和参数,提供了训练和最终参数(比如,深度学习中神经网络层与层之间的权重矩阵)。但是,这些算法源代码和学习参数并不提供有关智能系统的行为信息,而且许多AI系统非常复杂,决策模型在学习过程中随时间而改进,很少反映在其源代码中,仅通过查看算法和源代码是无法完全理解AI的。在许多情况下透明度并不能有效地支持用户解释智能系统的决策以及过程(Winfeld & Jirotka,2018)。因此,光靠透明度是不够的,AI应该是可解释的。

可解释的AI(eXplainable AI,XAI)除了帮助用户确定所使用的算法和参数以外,也提供了理由:机器在想什么,为什么这样想。例如,对一项根据个人行为数据来预测患有肺癌可能性的智能系统来说,透明度会告诉用户使用了哪些输入参数和算法;而XAI通过分析算法所使用的各种输入,单独和成组地测量每个输入的影响,最后报告对预测结果影响最大的输入集合。因此,透明度有助于点亮AI的黑匣子模型,而XAI则可以向用户解释为什么(PwC,2018)。

XAI越来越得到各方面研究的重视,最具代表性的研究是DARPA 2016年启动的XAI五年计划(Gunning,2017)。该计划组织了美国13所大学和研究机构,主要致力于研发一系列新的或改进的ML技术来获取可解释的ML算法模型。同时,该计划也考虑:(1)开发AI的解释用户界面(UI)模型,希望借助于新的人机交互技术(例如,可视化UI,语音对话);(2)评估现有心理学的解释理论来协助XAI的研究。该XAI项目最终计划的成果是一系列开发工具包、ML算法模型、UI软件模块等,协助未来XAI解决方案的开发。

人因学科对解释UI和心理学解释理论的应用转换工作更感兴趣。对于AI的解释UI,应综合考虑新型人机交互技术、UI交互设计方案(人机解释式对话等)、心理学的解释理论、用户心理模型等。例如,Kulesza,at al.(2015)的研究采用了用户参与、个性化、可解释智能系统的研究思路。他们采用交互式ML解释调试的原理建立了一个基于ML的智能化文件分类设计原型,系统向用户解释所做出的预测,然后允许用户通过UI的人机交互执行必要的改错更正作业,并向学习系统提供反馈,同时用户可以通过UI提供个性化学习系统的预测或建议,帮助建立起有效的用户心理模型。实验表明,基于该原理的设计将参与者对系统的理解度提高了52%,参与者的纠错率是使用传统“黑匣子”ML系统的2倍。

在评估现有心理学解释理论方面,心理学家已经开展了许多针对解释概念、表征、机制、测量、建模等方面的研究。例如,诱导性推理、因果推理、自我解释、对比解释、反事实推理、机制性解释等(Lombrozo,2012;Hoffman,et al,2017)。这些心理学研究有助于为XAI的研究开发出有效的计算模型来表征可解释的结果、构建有效的解释UI、预测和评估解释的有效性。尽管许多理论假设已在心理学实验中得到验证,但是目前还缺乏全面成熟的能够形成有效预测的解释理论,需要开展进一步的研究。DARPA也计划利用心理学的解释理论来帮助开发新的解释计算模型,同时利用这些理论来建立一个XAI有效性的测评框架(Gunning,2017)。

人们开始意识到人因学科在XAI研发中的作用。Miller,et al.(2017)的研究表明以往绝大多数XAI项目没有考虑非AI学科对XAI的价值,XAI研究人员正在为他们自己建立XAI,而不是针对预期的用户。Miller,et al.(2017)认为如果XAI采用合适的人因学科、心理学等模型,更多地关注人而不是技术,XAI的研发则更有可能取得成功;另外,XAI的UX设计应由用户需求驱动,通过UX测试来验证。DARPA的XAI计划也鼓励人因学科和AI学科之间的合作(Gunning,2017)。

DARPA的XAI研究计划现在正处于五年计划的中期,还没有成熟的结果发表,尤其与人因学科相关的研究。然而,已有研究者质疑基于可解释的AI并不能保证所有的用户可以理解,比如,数据科学家的“可解释的AI”版本对大多数人来说是难以理解的。根据UCD的设计理念,我们需要为各类目标用户提供符合他们各自需求(例如,领域知识水平)的可理解的AI。可解释AI的最终目的应该确保用户可以理解AI解决方案的输出信息(即可理解的AI),从而帮助用户提高决策效率。

3.2 可理解的AI

总的来说,目前针对可理解的AI的研究尚处于起步阶段,许多研究还停留在概念上。从UCD的理念出发,可理解的AI需要AI专家与人因学科专家的合作,结合AI技术和UX知识,根据用户的能力和需求来提供对AI智能系统输出的解释,最终达到可理解的目的。目前研究的思路主要从智能系统UI和可理解AI的建模、心理学和认知工程理论模型的应用、可理解AI的用户验证等三个方面开展。

首先,在智能系统UI和可理解AI建模方面,Zhou,et al.,(2018)针对目前基于ML的智能决策系统不考虑用户认知状态在整个人机回路中的作用的现状,提出了一个带有多模态自适应UI的ML智能决策系统概念模型。该模型通过对用户一些行为和生理测量指标的建模分析来理解用户在决策过程中的认知状态,该系统根据这些反馈的用户认知状态可以自适应地改进基于ML的决策属性参数甚至ML模型,从而使得ML更加可理解,该模型有待于实验验证。Doran,et al.(2017)认为用户的背景知识不一样,由用户自己去推断和理解系统的决策是不可靠的,因此,他们提出了一个采用推理引擎的增强型可理解的模型。该引擎可以将智能系统给出的符号输出与知识库(域)结合起来,而知识库将这些符号间的所有关系加以编码,利用知识库中的关系编码可以对智能系统的输出决策作出合理的推论。

其次,在心理学和认知工程理论模型的应用方面,选择和转化有效的理论模型可以帮助实现可理解的AI。Paudyal & Wong(2018)在一项有关伦理道德刑事情报分析和决策的研究中开发了一个基于ML的可视化刑事情报分析系统。该研究采用了Rasmussen(1985)的抽象层次结构(AH)模型,构建了一个基于AH的抽象层次结构空间,该空间表征了重要功能与道德目标之间的关系以及领域内的一些制约条件。该AH模型可以在系统开发之前定义工作领域中各种变量之间的所有因果功能关系,从而确定了不同场景中领域数据之间的解释关系,也确定了在ML的不同学习阶段中数据之间的关系,而不是遵循传统的调查分析流程。他们下一步的工作是完善基于AH模型的对ML计算过程的表征,应用语义映射等方法将领域内的关键功能关系视觉化在UI上,从而有效地支持用户的决策。

最后,从可理解性AI的用户验证的角度考虑,AI的可理解性需要实验验证其有效性。针对XAI的有效性和理解性验证,Hoffman,et al.(2018)初步提出了一个测评指标框架,包括用户对XAI的满意度、心理模型、信任度、工作绩效。DARPA的XAI研究项目虽然没有对可理解的AI有明确的定义,但是也考虑到如何来测评XAI的有效性,并且提出了一个类似的XAI有效性评价框架(Gunning,2017)。

3.3 人因学科今后在AI解释性和理解性方面的主要工作

综上所述,有关AI解释性和理解性方面的研究目前方兴未艾,不能光依赖于ML算法等技术手段,需要人因学科的参与和支持。人因学科今后的主要工作思路可以从以下几方面考虑。

首先,开展AI解决方案的UI建模和人机交互方案的工作。利用现有的人机交互技术,人因学科可以从自适应界面、界面视觉化建模、自然交互式人机对话等方面来为HAI解决方案提供有效的人机交互设计。针对以往大多数可解释和可理解AI的研究是基于静态、单向、单一信息传达式的人机交互方案,下一步需要研究允许用户通过与AI系统的交互式对话来进行探索式、双向交互式人机对话,最后设计出可理解的解释UI(Abdul,et al.,2018)。另外,通过提供用户与AI系统交互式和协同适应性的任务(例如,错误检测)来研究基于人机之间协同对话式的“探索性解释”人机交互方案。Kulesza,at al.(2015)的研究已经带有这种思路。

其次,进一步挖掘和应用转化相关的心理学理论。人因学科可以利用其交叉学科的特点起到一个中间桥梁作用,加快从理论到应用的转化,通过与AI专家的合作来构建有助于可解释和可理解AI的UI模型或者计算模型。例如,采用Rasmussen的AH模型和Vicente & Rasmussen的生态用户界面(EID)模型(Rasmussen,1985;Vicente & Rasmussen,1992)。AH各层次间内嵌着一系列目标导向(“目的-手段”)的功能关系,这些关系有助于有效地表征一个复杂工作领域内各种变量之间的因果功能系统,有可能为用户建立一个有效的对应于全工作领域的心理模型,从而为复杂领域的智能系统构建一个能够有效支持可解释和可理解AI的基于EID的UI。Paudyal & Wong(2018)的探索性研究提供了很好的启发。

再次,人因学科要发挥自己的学科特长,为测评方法、测评指标、实验设计和变量控制等方面提供支持。现有许多研究中缺乏用户参与的实验测评来验证所提出的研究方案,或者测评中缺乏严谨的行为科学实验方法(Abdul,et al.,2018),人因学科在这方面可以发挥自己的学科特长。从社会技术系统的视野出发,进一步开展用户(包括组织)对AI的信任度、AI应用接受度与AI解释性和理解性之间的关系,并且考虑其他变量的影响(比如,文化,用户知识和技能,应用领域,个体和组织决策行为,员工技能更新等)。

最后,将UCD方法融入AI解决方案的研发流程来优化跨学科的合作。例如,采用领域用户参与AI解决方案开发流程的方法(Zhou & Chen,2018;Zhu,et al.,2018)。为避免算法偏差,在ML建模、算法培训、培训目标设立、模型验证等方面开展人因学科与AI专家合作的方法,优化目前单一的AI技术手段。

4 有用的和可用的AI

4.1 有用的AI

有用的AI(useful AI)可以为AI解决方案提供满足用户需求的应用落地场景以及所需的功能,为用户提供有益的使用价值。从AI发展的历史来看(见表1),有用的AI促进了AI技术能够解决实际问题(李开复,王咏刚,2017),并且AI的应用落地场景的定位已成为影响AI发展的瓶颈效应的主要因素之一(李彦宏等,2017)。许为(2019)也在提出的智能产品功能的三维空间概念模型中,将AI应用场景定义为除了人机协同和人机融合的智能水平以外的第三个关键维度。针对有用的AI,人因学科应该起主导作用,充分发挥本身行为学科的特点和研究方法,可以从以下几方面开展工作。

首先,从社会和用户的需求出发,挖掘合适有效的应用落地场景。这些需求可以来自不同用户群体对生活、工作、医疗、娱乐等方面的多层次需求。比如,随着社会的进步,促使人们比以往更多地考虑残疾人、老年人、康复病人等特殊用户群体的需求,从而开拓了为这些特殊群体服务的一系列智能产品的应用落地场景。另外,作为AI热门课题的情感计算,在技术上正在逐步趋向成熟,目前要解决的关键问题之一是挖掘符合社会和用户需求的应用落地场景。

其次,采用有效的UCD方法来挖掘应用落地场景。现有的UCD方法主要针对非智能系统产品,智能系统的UX设计需要提升UCD方法(许为,2019)。例如,应用AI和大数据技术对实时在线上下文场景和用户行为等数据进行建模分析,来预测用户使用场景(吴书等,2016;Kleppe & Otte,2017)。此外,利用人因学科中一些有效的用户研究方法(比如,民族志法和现场情境探测法)来挖掘社会技术大环境中的用户需求、用户行为、应用场景模型等(许为,2005)。

再次,采用UX驱动的创新设计方法来挖掘用户需求和应用场景。许为(2019)根据UX驱动的三因素创新设计的概念模型,总结归纳了基于UCD用户研究、AI和大数据等技术的多种挖掘用户需求的创新设计方法。例如,通过基于对当前用户痛点的分析、基于对用户实时在线行为数据的分析和建模,基于潜在的应用场景和用户需求,或者基于用户差异化体验的需求等方法来挖掘用户需求和应用场景。

最后,将UCD方法融入智能系统的研发流程中来挖掘用户需求和应用场景。目前挖掘市场新产品的方法在许多情况下是采用传统的市场调研方法,这些收集到的用户意见或偏好信息在理解用户的实际使用场景、用户行为等方面受到很大的限制。另外,人因学科人员介入研发流程的时间往往太迟,许多情况下是在基于市场调研的产品决策作出以后(Xu,2014)。因此,人因学科人员应该在研发流程的初期,直接参与新产品定义的工作,尽早采用有效的用户行为研究方法来挖掘用户需求和应用场景,找到新产品的最佳UX落地区(许为,2017)。

4.2 可用的AI

可用的AI(usable AI)通过有效的人机交互设计为用户提供易学易用和最佳UX的HAI解决方案。在过去的30年中,人因学科针对计算技术产品的UCD实践累积了丰富的经验,形成了比较成熟的方法。针对智能系统的UX设计,首先需要从智能系统的新特征出发,提升现有UCD方法(许为,2019),然后在挖掘出满足用户需求的落地应用场景的前提下,既要开展必要的人因学科研究,也要利用人机交互技术和有效的方法开展针对智能系统的UX设计。这些工作可以从以下几方面考虑。

开展针对智能系统中新型人机关系的人因学科研究。随着机器智能中学习能力的加入,智能系统中的人机关系已经从人机交互向人机融合/人机团队合作(human-computer integration/teaming)转化(例如,Farooq & Grudin,2016)。这种人机之间的新型动态化合作关系直接影响到HAI解决方案的可用性和UX,也为可用的AI设计增加了复杂性,有一系列问题需要系统化的人因学科研究。例如,人机之间的动态功能和任务分配,动态的目标设定,人机之间决策权的分配,人机之间知识的获取和管理。另外,为了在操作中开展有效的人机合作,一方面,智能化的机器需要可理解的设计来保证人类操作员了解机器的状态;另一方面,需要建立有效的人类操作员的行为和能力模型,使得智能化的机器拥有监控人类操作员行为状态的手段,保证人机之间分享彼此的SA,同步协调彼此的任务目标和行为控制。

作为一个应用实例,当前汽车机载系统技术正在由自动化(即系统依赖于固定规则而自动执行预定任务的能力,需要时由人工操作来干预)向自主化(autonomy)过渡。自主化是系统利用AI等技术,能够在没有人工干预的情况下执行学习、推理、问题解决、自适应执行等任务的能力。在理想的全自主化状态下,系统可以在所有事先未预期设计的场景中成功执行任务。就目前社会技术系统的整体水平来说(包括技术、交通基础设施、用户信任和接受度、法律、规范等等),还没有全自动驾驶的汽车可以在没有任何人为干预的情况下能够安全地处理所有未知和动态交通环境中的驾驶场景(相当于汽车工程师协会/SAE定义的第5级全自主化水平),行业还需要很长时间来创建能够智能化“解决”所有驾驶场景任务的基于AI等技术的系统。在实现此目标之前,人与机载系统之间必然存在人机交互(即人-自主化交互,human-autonomy interaction),传统人-自动化交互中的人因学问题依然存在(例如,“自动化难题/automation conundrum”),即随着系统自主化程度的提高,人类操作员的SA越低,越不可能在需要时成功接管对系统的控制,并且人-自动化交互中存在的人因学问题可能会表现得更为严重(Endsley,2017;de Visser,et al 2018)。更重要的是,在这种人-自主化系统(autonomous systems)中,人类操作员要承担两个角色:(1)人-自主化交互中的监控员角色,其中自主化系统充当工具;(2)人-自主化团队合作(human-autonomy teaming)中的合作者角色,其中带有机器智能的自主化系统充当合作队友。这种机器从“工具”向“合作队友”的转变代表了人-自主化系统中人机关系研究和应用设计范式的重大转变,也带来了一系列人因学新问题(例如,如何确定、测量和设计人机双方之间动态化功能交换所需的信任?如何建立有效的情境模型使两者之间达到共享的SA和自主化?如何提供合适的自主化级别和选择来支持两者间的无缝转换)。近些年所发生的多起自动驾驶车致命事故说明了计算技术和工程界显然高估了当前的技术水平,低估了人因学等问题的影响。有关这方面的详细讨论将在下一篇系列文章中展开(“五论以用户为中心的设计:从自动化到智能时代的自主化以及自动驾驶车”)。

今后的工作还包括开展针对智能系统的人机交互UI研究。除了前面所讨论的针对可解释和可理解AI的研究,人因学科应该与AI领域密切合作开辟多种研究思路。例如,IBM沃森研究中心的认知环境实验室开展了基于AI的智能规划系统开发的可视化人机交互系统研究。不同于以往在UI层面上注重对系统决策结果可视化的手段,他们通过将人机融合的内部决策过程的可视化来提升人类操作员的决策效率(Chakraborti,et al.,2018)。Dudley & Kristensson(2018)则采用了非领域专家用户参与的方法。基于用户与ML之间的协同适应式学习过程,他们提出了一个结构化的交互式ML(IML)模型,同时为IML人机交互界面设计提供了一系列原则。另外,新的人机交互技术(语音、体感交互等)已经为智能系统提供了更自然的UI,人因学科可利用多模态通道间的互补性,整合多通道的交互来优化人机交互。

提升智能系统人机交互设计的思路和方法。在构建人机交互界面的概念模型和设计原型中,不同于以往首先注重UI结构和视觉等设计,可采纳Google所推崇的“AI先行”的设计思路(李开复,王咏刚,2017)。首先开展动态化的人机功能、任务的分析和分配(随着智能机器学习能力的提高),优先利用机器智能功能(智能搜索、智能推荐、实时用户行为监测、上下文场景信息监测、语音输入、人脸识别等),减少重复的人工活动,将用户的资源优化在重要任务上。例如,Xu,Furie,et al.(2019)在一项有关智能供应链解决方案的人因学研究中,在开展传统的人机交互设计之前,他们首先进行一系列人机作业和任务分析,优先考虑了智能系统的一系列功能,优化了人机功能分配,大大减少了人工作业。结果表明,新的解决方案在生产效率、业务成本、用户体验等方面都获得了非常显著的改进。另外,在智能在线系统设计中,可以利用实时用户个性化的数据建模(数字化用户人物画像等)来提供基于用户差异性的个性化功能和内容,或者提供与用户上下文使用场景匹配的实时动态化功能和内容(Sun,et al.,2017)。

开展针对智能系统UX验证测评的研究和应用。传统的系统验证测试方法假设系统本身没有学习能力来改变其行为,具有确定性和可预测性;而智能系统的行为随时间而学习发展,具有非确定性的,智能系统的验证测评是当前研究课题之一。例如,Webster et al.(2018)曾采用多种方法的组合(包括模型验证、仿真测试、用户参与的验证)在对智能机器人的系统验证中取得了较为理想的效果。智能系统带有学习和行为的特征,人因学科应该结合本身带有行为学科的特点主动与软硬件工程中传统的测试方法合作,寻找出一种更适合于智能系统的测评方法。另外,在UCD实践中,针对低保真智能产品设计原型的早期UX测评,需要采用新方法(比如,WOZ设计原型)来模拟智能系统的学习和行为,从而有效地测评机器智能的功能以及人机交互(Martelaro & Ju,2017)。

开发针对智能系统的人机交互设计标准。目前还缺乏具体系统化的针对智能系统的人机交互设计标准。IEEE现有的AI设计指南主要是从道德伦理等角度来提供指导(IEEE,2018)。针对工业界的需求,美国人因和工效学会(HFES)就自动驾驶车的人机交互设计提出了一些设计原则(HFES,2018)。国际标准化组织(ISO)也看到了这种紧迫性,作者所参与的国际标准化组织(ISO)人-系统交互技术标准专家组(ISO TC 159/SC4/WG6)正在起草智能系统中所存在的人因学问题的技术文件,然后确定开发这方面国际标准化工作的重点(ISO,2019)。

最后,人因学科要善于利用新思路和方法来支持可用的HAI解决方案,尤其是复杂领域的智能解决方案。例如,应用神经人因学(neuroergonomics)的脑电成像技术所获取的脑电成像测量指标来支持自适应智能系统的设计(Borghetti,et al.,2017);利用认知计算建模方法为智能系统提供实时的自适应人机交互方案(Cassenti,et al.,2018);采用面向情景意识的设计(Endsley et al.,2012)可以为自动驾驶车、大数据信息视觉化等人机交互设计提供人因学的指导(Sirkin,et al.,2017)。

5 对HAI概念模型中其他方面的人因科学考虑

以上主要讨论了针对HAI模型中“人因工效学设计”方面的工作,人因学科还可以为其他方面的工作做出贡献(见图1)。例如,对于“伦理化设计”,AI工程师通常缺乏将伦理道德方面的考虑应用于工程设计的正式培训,倾向于将这些考虑视为解决技术问题的另一种形式。AI界现在已经认识到伦理化AI设计需要与其他学科的合作(Donahoe,2018)。人因学科可从更广泛的社会技术系统角度(即广义的宏观工效学),采用社会和行为科学等方法来开展这方面的研究。从文化、心理、组织、社会等角度,研究“伦理化设计AI”相关因素(比如,AI公平和公正性、人类操作员的决策控制权)对用户信任、员工和组织决策、员工工作效率、人机协作策略、员工技能成长、人力资源等方面的影响,从而为HAI解决方案、相关政策和规范的制定等工作提供依据。

针对HAI模型中的“充分反映人类智能的技术”,人因学科可通过与AI领域的合作,为算法建模、训练和测试做出贡献。例如,人因学科可以利用本身跨学科的特点,帮助AI专业人员充分理解认知心理学中有关人类智能的理论模型(例如,人类信息加工的方式和策略、人类知识的表征和结构),加速将认知心理学理论应用在AI的建模和算法中。另外,提倡以人为中心的ML方法,在基于ML的智能系统的数据建模、训练、测试中,人因学科与AI人员合作,定义预期的UX目标,帮助优化ML的训练数据和算法,避免极端的算法偏差(Koene,et al.,2018)。

6 总结和展望

综合以上的讨论和分析,可以作出以下总结和展望:

第一,当前第三次AI浪潮呈现出“技术提升和应用+以人为中心”的特征,为人因学科的应用提供了一个新的历史机遇。目前人因学科在AI解决方案研发中的学科作用有待于全面进一步的发挥,并且是非常必要和紧迫的。

第二,本文提出了一个扩展的HAI概念模型。根据该模型,需要从三个方面来综合考虑HAI整体解决方案的研发:伦理化设计、充分反映人类智能的技术、人因工效学设计。针对人因工效学设计,人因学科要发挥主导作用,致力于提供可解释的、可理解的、有用的和可用的AI。同时,人因学科也可以为AI伦理化设计和技术更新提供学科支持。

第三,为支持HAI的整体解决方案,人因学科今后的主要工作包括:开展针对智能时代新型人机关系的研究,开展有效的UI建模和人机交互设计,加速相关心理学等学科理论的应用转化,制定智能系统人机交互设计的标准,提升现有的方法(应用落地场景的挖掘、UI原型设计、系统验证和UX测评等),从社会技术系统的视野进一步研究AI技术对人类各个方面的影响。

第四,人因学科专业人员要主动参与AI的研发,积极开展与AI领域的合作,增加学科影响力。同时,增强自身的AI知识,充分考虑两个领域之间流程和方法上的整合,从而促进有效的合作。

猜你喜欢
人因解决方案学科
【学科新书导览】
基于“BOPPS+对分”的人因工程课堂教学改革与实践
艾默生自动化解决方案
解决方案和折中方案
土木工程学科简介
简洁又轻松的Soundbar环绕声解决方案
智珠
一例涡桨飞机飞行事故中的人因分析与研究
“超学科”来啦
7大睡眠问题解决方案