审计智能化的伦理风险:表征、归因与治理

2021-01-29 09:00高思凡中国海洋大学管理学院
审计月刊 2021年6期
关键词:相关者伦理利益

◆高思凡/中国海洋大学管理学院

现阶段,人工智能技术正不断重构传统审计模式。人工智能产品或服务一般具有感知、思考、学习、决策等能力,审计智能化即人工智能技术与传统审计实践融合发展的过程,强调通过运用机器学习、深度学习、神经网络等人工智能技术,以提供基于算法推荐的有价值的审计决策。人工智能技术可以模仿审计人员的认知能力和行动能力,在一定程度上弥补人工取证的局限性并承担部分审计职业判断的职能,从而提高审计效率,保障审计质量。然而,不断演变的人工智能技术在催生正向效应的同时也会带来一系列的潜在风险,例如责任归属、隐私保护、算法偏见等伦理问题。在人工智能技术的持续驱动下,审计智能化的伦理风险正成为需迫切破解的关键问题。

一、伦理风险的内涵

“伦理(Ethics)”一词常常与道德(Morality)同义,用来指人们好的品格与好的行为,是调整人际交往、社会关系的行为规范的总和。伦理风险是指在人与人、人与社会等伦理关系方面由于正面或负面影响可能产生不确定事件或条件,尤指其产生的不确定的伦理负效应(陈爱华,2006)。现阶段,学者们针对人工智能技术伦理风险的研究主要集中在以下几个方向。其一,人工智能技术的伦理风险存在的客观性及治理的必要性。例如,贾开(2019)指出,人工智能技术在极大提高人类社会运行效率的同时,也带来了新的治理风险与挑战。其二,嵌入到人工智能技术不同阶段的伦理风险研究。例如,莫宏伟(2018)区分了弱人工智能阶段和强人工智能阶段的伦理风险。其三,嵌入到细分行业的人工智能技术的伦理风险研究,已有学者探讨了人工智能技术在教育、新闻、金融等行业中的伦理风险及其治理措施。不难发现,如何从更广泛的层面对人工智能伦理风险进行客观剖析及治理的研究已经势在必行且意义重大。

审计伦理是审计人员在审计实践中应遵守的道德规范,然而,纵观现有审计智能化的相关文献,学者们或从宏观视角探讨人工智能技术对审计流程、审计用工方式、审计功能、取证手段等方面产生的影响(Issa等,2016;傅钧彪等,2018;张庆龙等,2020;郑石桥,2021),或从微观视角聚焦于人工智能在审计中的具体应用路径(陈伟,2020;李磊等,2021),鲜有学者系统关注过审计智能化的伦理风险问题。鉴于此,本文将从审计视角出发,首先拟对审计智能化过程中的伦理风险现象进行描绘,再剖析其伦理风险产生的原因,最后设计伦理风险的治理对策。

二、主要表征

马克思主义实践观强调,实践的核心构成要素包括实践主体、实践客体以及实践手段等,参考实践要素的内涵和外延,可推演出审计社会实践论:审计亦为一种社会实践活动,审计实践的核心要素包括审计主体、审计客体以及审计方法等。以审计实践的三大核心要素为支撑点,可初步构建审计智能化伦理风险表征的框架,具体来说,审计主体是执行审计实践的一方,而审计智能化提出了人工智能技术在审计主体中的道德地位以及责任主体判定的命题;审计客体是指对审计对象信息负责的主体,而审计智能化一方面可能泄露审计客体的隐私,另一方面对审计客体难有公平性可言;审计方法是为实现审计目标而采取的技术手段,而审计应用人工智能技术可能带来算法偏见及技术依赖等问题。

(一)与审计主体相关的伦理风险

1.人机边界模糊

人工智能技术在深刻改变世界的同时,也逐渐模糊了人机界限,对人的主体地位产生强烈冲击,有关人工智能技术究竟将助力审计人员还是取代审计人员的讨论正愈发广泛与深刻。部分学者认为人工智能技术可以弥补审计人员的不足并给出更好的审计方案。例如,Huang和Vasarhelyi(2019)认为,机器人流程自动化技术令审计人员从重复和判断程度低的审计任务中解脱;部分学者则认为人工智能技术将更多地替代审计人员。例如,毕秀玲和陈帅(2019)基于人工智能技术设计了“审计智能+”,并将其视为一个能够独立工作的“审计人员”。尽管目前人工智能技术仍然是对人类思维、行为的模仿,停留在工具论范畴,并非真正意义上的道德实体,但未来可能出现强人工智能或超级人工智能,审计主体“数字穷人”或“机器代人”的倾向也将愈发明显,审计人员和人工智能技术边界进一步模糊将带来伦理关系的失调,如何界定二者的关系将成为难题。

2.责任归属困难

罗伯特·莫茨和侯赛因·夏拉夫在《审计理论结构》(The Philosophy of Auditing)中强调:“审计职业应对所有依赖其工作的人承担责任,并以此确立它的职业地位。”从审计行业产生和发展的历史来看,社会责任和公众利益是专属于审计行业的职业属性。例如,中国注册会计师协会(CICPA)的职业道德守则就对注册会计师提出了履行社会责任的要求:“注册会计师应当履行相应的社会责任,维护公众利益。”传统责任伦理通过锚定责任后果相对性主体以实现对过失责任的追究,在此观点下,承担审计责任的主体一般为参与审计实践的组织或个人,然而,鉴于存在“黑箱”现象的人工智能技术所带来的不确定性审计风险无法根本消除,且高度智能的算法能够智能地调整操作参数和规则,审计智能化将逐渐陷入归责性困境,对有关的审计失败开展问责时将进退维谷,即难以区分该审计失败究竟出自人工智能技术还是审计人员,继而产生责任鸿沟(Responsibility Gap),就导致无法清晰确定责任主体,使责任界定、行为监管的判定变得十分困难,最终可能丧失对相关审计责任人问责工作开展的基础。

(二)与审计客体相关的伦理风险

1.隐私保护悬置

智能审计往往涉及电子审计证据的收集与评价,一般需要获取审计客体大数据访问的相关权限,并利用审计客体部分敏感数据,这不可避免地牵扯到审计客体信息的合理使用问题,将给审计客体的隐私保护带来新的风险和威胁。例如,智能审计更容易接触到采取保密措施、具有经济价值的企业技术信息或经营信息,或部分表单中出现的姓名、证件号码、联系方式等个人信息,一方面,这将涉及商业秘密或个人隐私泄露等安全问题,可能对审计客体产生重大不利影响,例如损害个人或组织的声誉;另一方面,涉及商业机密或个人隐私的重要数据,能否被审计仍有待于商业伦理或审计伦理的进一步探讨。另外,包括黑客入侵、网络堵塞、系统崩溃等人工智能技术的安全性挑战将进一步加剧对审计客体隐私保护的威胁。

2.不公平性加剧

人工智能算法存在“黑箱”现象,以人工智能的核心技术机器学习(Machine Learning,ML)为例,机器学习技术可细分为监督学习和无监督学习,但二者都无法实现对算法过程的监督,难以对机器学习技术的运行过程进行公平性判断。无监督学习算法的不透明性令过程监督不具备可操作性,审计方恐难以理解算法模型与其运行机制;监督学习的特征提取和逻辑推理虽由人来控制,但审计方尚不具备对算法开展公平性评估的能力,由此可见,审计客体在审计智能化过程中存在天然的数字鸿沟,极易陷入信息茧房,如何打开“黑箱”体现公平性成为最大难题。

(三)与审计方法相关的伦理风险

1.算法偏见凸显

人工智能算法能够利用载有被审计方经济活动时空局部信息的数据,对时空外部的未知信息进行精确的量化测量,达到基于历史数据预测未来以及基于局部数据推测其他数据的效果,进而执行快速、明智、准确的审计决策,以此获取对审计业务更好的洞察。然而,算法的计算结果易受算法技术和数据输入两个方面的影响,从而可能产生算法偏见(Algorithm Bias)。一方面,算法由人设计,体现人的主观判断,设计人员能否公允地将伦理规则写入程序尚未可知,况且算法具有不透明性,设计人员和使用人员由于思维方式的不一致性可能导致潜在的分歧;另一方面,审计大数据记录并反映了被审计方客观存在的经济交易、行为及事项,是经济活动及相关环境的信息表征方式,其准确性和真实性也会影响整个算法决策和预测的精准度,而电子审计证据存在无形、易失、易改等不稳定特征,弱偏见可能早已存在于审计大数据之中。

2.人工智能依赖

一方面,人工智能技术兴起前,审计人员往往依赖个人主导的搜索、筛选和处理信息的方式收集、评价审计证据得出审计结论,这些都离不开审计职业道德约束、职业判断能力、职业谨慎态度和职业怀疑取向,凡此种种审计职业精神是审计职业价值的直观体现。而人工智能技术通过承担部分审计取证及审计职业判断的职能,可能令审计人员产生对人工智能技术的路径依赖,甚至依赖成瘾,这无疑会造成审计人员职业精神弱化的现象。另一方面,人工智能技术也可能导致审计人员的选择困境,人工智能技术极大强化了信息输入、处理、加工能力,但审计人员得出审计结论所需的信息是有限的,大数据与人工智能可能会对专业判断、决策分析和预测带来噪音污染或噪音干扰,令审计人员难以选择出其中最有价值的部分。

三、归因剖析

人工智能技术可视为审计行业的一把双刃剑,基于当前审计智能化过程中存在的种种伦理风险,分析伦理风险的生成机理,是厘清矛盾、解决伦理风险治理问题的重要基础。本文从人工智能技术本体、人工智能技术操作规范、人工智能技术主体三个方面对审计智能化伦理风险的原因进行分析。

(一)技术本体层面:人工智能的双重属性

理性是实践目的与实践手段的辩证统一,马克思·韦伯将理性划分为“工具理性”与“价值理性”,其中,工具理性强调效率、效益、效果的最大化,价值理性则强调实践是否符合人的伦理观。一方面,审计智能化的发展受到审计规范、审计环境、审计利益相关者态度的共同影响,审计应用人工智能技术存在固有的价值预设与偏好,然而,若一味从追求功利的动机出发强调人工智能的效能,审计智能化极易发生价值偏移。另一方面,受制于审计供给、审计成本等局限性,审计方往往以可接受风险的自我满足为首要目标,致力于以最少的工作量、最小的成本提供保证程度刚刚达到既定标准的审计服务,若不借助人工智能技术的力量,审计行业可能会持续滑坡,甚至可能被其他职业所替代。总之,若只坚持工具理性而忽视价值理性,审计智能化将丧失价值判断的基础;反之,若摈弃技术手段,审计职业的价值也难以实现最大化。人工智能技术的价值理性与工具理性之间存在内在张力,这是审计智能化的伦理风险产生的重要原因。审计智能化的理性定位,理应以审计利益相关者的核心价值追求有效抑制工具理性的过分膨胀,进而实现工具理性与价值理性的有机统一。

(二)操作规范层面:伦理规范不完善

规范是定性的信息规定,是对人行为的规定、指导或约束,伦理本质上即为一种规范,是人们行为的依据与指南,进行伦理判断需要借助一定的标准,以降低伦理关系的不确定性。未来人工智能技术的深度学习能力将持续完善,将不断冲击既有审计伦理规范,继而引发伦理冲突。审计智能化的伦理需要法律和道德的双向监督,然而,目前关于审计智能化还未有明确的标准或规范:一方面体现于人工智能技术的法律制度和监管制度不健全,因此审计智能化缺乏法律依据;另一方面体现在审计行业也缺乏对人工智能技术应用的规范,审计准则尚未明确规定应用人工智能技术,这可能令审计智能化“野蛮发展”。审计智能化的合规性问题是审计立法面临的一项重要而迫切的课题,亟需审计行业和人工智能行业携手共建相应的伦理规范框架,统一加强有关人机界限、责任归属、隐私保护、技术公平等标准的建设。

(三)技术主体层面:伦理意识薄弱

伦理意识一般指人们的伦理选择与判断,有关人工智能技术的伦理意识涉及对其合理性及价值的伦理思考,这与对技术的双重属性的把握密切相关。审计利益相关者作为审计智能化的技术主体,其技术伦理意识的强弱直接决定了智能审计的效果。然而,人工智能技术存在较强的复杂性和不确定性,而审计利益相关者的认知能力往往有限,理解人工智能技术所需要的有关计算机、算法、大数据、网络和系统安全等知识往往超出了审计利益相关者现有的胜任能力范畴,故而,审计利益相关者难以直接形成对审计智能化伦理风险理性的认知判断,进而影响相关伦理风险的评价与应对能力。

四、治理举措

(一)推进多元主体协同治理

针对审计智能化过程中出现的各种伦理风险,需要整合多方资源,维护优良的审计智能化环境。审计智能化涉及多元审计利益相关者,包括审计方、被审计方、审计服务需求方、审计服务监管方等。各审计利益相关者都负有隶属于自身的权利、责任以及审计智能化的伦理风险,而多元主体之间存在利益差异和博弈,难以形成稳定的治理系统。智能化环境下,审计利益相关者之间的潜在冲突包括:如何构建审计人员的胜任能力框架、如何报告审计业务透明度、审计方与被审计方如何信息共享、如何利用被审计方数据开发算法等。例如,智能审计业务的透明性虽然有助于审计服务监管方评价相关审计程序的合规性,但却与被审计方的隐私保护存在内在冲突。因此,在处理涉及多方审计利益相关者的伦理问题时,协同治理必不可少。审计智能化伦理风险的协同治理,应当是审计方、被审计方、审计服务需求方、审计服务监管方等各方审计利益相关者共同参与的自组织系统。协同治理强调对话与协商,共同寻找伦理风险合理的解决方案。审计利益相关者之间应加强交流与讨论,充分发挥各方的能动性,可尝试多种沟通方式如专家工作组、伦理矩阵、伦理德尔菲等以有效实现多元主体间的利益诉求(Wright,2011)。协同治理有助于各方审计利益相关者之间建立开放、包容和渐进的合作关系,这样的合作关系将进一步促进审计智能化的伦理风险治理研究的主动性、相关性和实用性。

(二)完善审计智能化的伦理规范

构建审计智能化的伦理规范是治理其伦理风险的重要措施。基于协同治理的理念,各方应共同努力,充分考虑人工智能技术对未来审计行业影响的不确定性,积极反思人工智能技术与各方审计利益相关者之间的关系,形成具有普通共识、约束力的伦理道德规范和法律法规,尝试构建以人为本的人机协同的混合智能审计伦理框架,同时可以采取一些新的监管和认证程序,分别从伦理、政策、法律三个层面推动各项规范的落地,避免将错误认知、价值偏见、错误算法等带入人工智能审计产品或服务中。伦理层面,可由人工智能专家、伦理专家、审计专家成立审计智能化伦理委员会,以审计实践为基础,制定审计应用人工智能技术的行业标准。政策层面,审计服务监管方应当根据审计实践中使用的不同类型的人工智能产品或服务制定相应的校核、验证与验收政策,明确相关人工智能产品或服务的监控与报告的控制措施,以指导审计智能化的发展过程。法律层面,一方面,应正确引导人机边界划分,并通过法律法规厘清人工智能审计产品或服务的法律主体地位,继而明确其应用中所出现的相关权利、义务和责任归属;另一方面,审计方与审计服务监管方应致力于拟定战略规划、优化配套设施,深化智能算法的治理与监管,创造健康有序的审计智能化发展环境。

(三)强化技术主体的伦理意识

规范要发挥实际作用,各方审计利益相关者需要将其内化为自身伦理意识,以此引导审计应用人工智能技术,具体来说,可通过如下途径。首先,应加强审计利益相关者的责任意识教育,各方利益相关者可以通过道德规范方式参与人工智能审计产品或服务的应用,以此加强自身对审计智能化过程中责任意识的理解,进而接受“责任伦理”,并最终转化为道德自律。其次,应增加人工智能技术伦理的宣传力度,令各方审计利益相关者熟稔人工智能技术的风险,提高审计利益相关者对人工智能技术伦理风险的理性认知力和判断力,另外,可以授权一些有资历的专业审计机构,建立人工智能审计应用的案例库,为各方审计利益相关者提供真实的伦理案例,指导其伦理思维的构建以及相关伦理规范的实际应用。最后,应加快建立适应审计智能化发展的高端复合型审计人才培养体系。审计人员须掌握一定程度的数学基础、编程技术、数据科学等知识,理解审计应用人工智能技术的内在机理与外在操作规范,减少人机分歧,努力克服算法厌恶(Algorithm Aversion),实现人机协同,是故,有必要重构高等院校的审计专业课程体系,将人工智能思维、实践能力、算法能力作为核心审计素养,这亦是控制审计智能化的伦理风险、促进审计智能化进一步创新与发展的关键所在。■

猜你喜欢
相关者伦理利益
《心之死》的趣味与伦理焦虑
校园篮球利益相关者的分类研究*
灵长类生物医学前沿探索中的伦理思考
乡村旅游开发中利益相关者的演化博弈分析——以民族村寨旅游为例
护生眼中的伦理修养
利益与西瓜
浅谈基于利益相关者的财务会计报告与管理会计报告融合
绝不能让“利益绑架科学”
利益调整要十分注重“稳”字
利益链与新垄断