大数据算法决策的问责与对策研究

2020-06-01 08:15迪莉娅
现代情报 2020年6期
关键词:问责决策算法

迪莉娅

摘 要:[目的/意义]随着人机社会的到来,大数据算法决策的应用将会越来越普遍。但是大数据算法决策与普通的人工决策有很大的差异,其问责将是政府和企业未来面临的重要难题。[方法/过程]本文探讨了大数据算法决策问责的含义、重要性和缘起。[结果/结论]在分析了其难点的基础上,从问责主体、机制、救济措施3个方面提出了完善大数据算法决策问责的对策。

关键词:大数据算法决策;问责

Abstract:[Purpose/Significance]With the advent of man-machine society,decision-making of big data algorithm will become a more and more common thing.But the decision-making of big data algorithm is quite different from that of ordinary manual decision-making.Its accountability will be an important problem for the governments and enterprises in the future.[Method/Process]This paper discussed the meaning,importance and origin of the decision making accountability of big data algorithm.[Results/Conclusion]The paper proposed the accountability countermeasures from the perspective of accountability subject and mechanism as well as relief measures based on the analysis of the difficulties of the decision-making accountability of big data algorithm.

Key words:decision-making of big data algorithm;accountability;countermeasure

2017年,国务院发布了《新一代人工智能发展规划》,对人工智能的伦理问题研究提出了明确的要求,要求展开跨学科的探索,加强前瞻性的预防和引导,以降低其带来的风险,保证人工智能的安全、可靠和可控的发展[1]。人工智能的核心是算法问题,算法的不同产生的影响和结果将会千差万别。算法可以称之为当今计算机、手机、物联网的大脑。随着大数据的发展,海量数据集的生成,单靠人类自己的力量去分析和利用数据做出决策已经成为不可能。具体而言,算法(Algorithm)是基于特定的计算模型,旨在解决某信息处理问题而设计的一系列指令序列。简而言之,算法就是计算机代码的运算。

很多政府部门和企业采用大数据的技术和方法在公共政策的制定和市场运营中依靠算法智能决策,例如:在教育、医疗、司法、保险、金融领域进行信用评分评级、趋向分析判定、内容推介和量化评价等。因此,随着大数据的集聚,越来越多的政府部门和企业将算法作为数据转化为知识及做出决策的工具,这就为算法主宰决策提供了无限增长的可能性,而这种增长带来的影响是深远的。一方面,随着人工智能、机器学习、深度学习的发展,很多决策依据一定的算法可以自动做出,代替了传统的人工决策,提高了决策的效率;另一方面,当算法成为越来越多的组织机构依赖决策的工具,那么算法不仅将重塑个人的生活,而且在大规模的社会、经济和政治进程中将发挥重要的作用,即算法它不再仅仅被看作是代码的运算,而是代表了组织在各个领域中对资源的分配、舆论的导向、社会的公平等方面起到重要的指向性作用。虽然计算机常被视为客观理性的机器,但算法是由人设计出来的,这本身就有可能具有偏见性和错误性。因此,大数据算法决策的问责成为政府和企业未来面临的难题,也成为学者们研究的重要课题。

1 文献综述

关于大数据算法问责的研究,国外有关的组织机构和学者已经从其必要性、算法决策透明化与问责、算法决策问责与法律、算法决策责任分配等方面展开了研究。

1)大数据算法决策问责的必要性。万维网基金会认为,算法决策之所以备受质疑是因为其黑箱问题,这往往将公民和消费者置于很高的风险当中,为了减少算法决策造成的伤害和歧视,需要加强大数据算法决策的问责,解决技术、伦理、知识和政策方面的鸿沟[2]。2)大数据算法决策透明化与问责。学者Paul B de Laat指出,算法的完全透明并不有助于其问责,因为透明有可能会侵犯个人的隐私,同时也会使企业存在失去竞争力的风险。因此,他认为算法可以向监督机构公开,但是向大众透明化并没有可取之处[3]。3)大数据算法决策问责的法律问题。Anton Vedder等认为,由于大数据环境的算法,只有将算法不仅仅看作數据处理的活动中,算法的问责才有可能得到重视。目前,算法的影响已经远远超过了数据保护法的范畴。在欧盟的《通用数据保护法》序言中指出,考虑到算法对自然人权利和自由的处理可能造成的风险,需要调整控制者和加工者的义务。但是该法的主体部分并没有对“义务的规制”进行详细的说明,影响了对算法问责的施行[4]。4)大数据算法决策责任的分配问题。Maja Brkan认为,大数据算法决策所产生的不良后果应该由算法的设计者,即开发商和算法的数据提供者,即算法的采纳者之间进行责任分配[5]。

目前,我国学者关于大数据算法决策的问题研究,更多的是从行业伦理规制的角度进行探讨,主要包括:1)算法在新闻领域应用中所产生的伦理问题。学者王亚妮认为,算法时代的来临极大地提高了信息分发的效率,其中的推荐算法在一定程度上减轻了信息选择的负担,但不同的算法都有其伦理风险,将会带来信息茧房、信息选择权的让渡以及主流价值导向的缺失等问题[6]。2)算法在无人驾驶领域应用中所产生的伦理问题。学者王珀认为,无人驾驶事故应急算法中,为了防止“囚徒困境”的伦理风险,认为不宜强制采用功利主义的算法[7]。3)算法在人工智能领域应用中所产生的伦理问题。学者魏强、陆平认为,新一代人工智能具有高度的自适应性,给人类带来福利的同时,也产生了隐私、安全、透明性等伦理风险[8]。

从整体来看,国外学者对于大数据算法问责已经有了较为深入的研究,虽然大数据算法伦理会涉及到责任问题,但是我国学者更多的还是从道德层面进行阐述和分析,而关于对其专门的“问责”问题研究还处于起始阶段。

2 大数据算法决策问责的含义

随着算法在各个领域的应用,算法的透明度受到了普遍关注,并由此引发了算法问责的问题。因为算法系统的自主性很强,它根据获取的数据,不断进化和学习,能够形成一套自己的体系。这种结构是开发设计者预料之外的,包括“黑箱”的存在,很难追溯到错误的根源,这就可能会给当前的伦理和秩序带来关于归责问题的挑战:到底是算法的失误,还是工作人员的错误判断?在不久的将来,责任界定、行為监管的判定可能变得十分困难,从而导致责任鸿沟问题的产生[9]。

因此,很多学者就什么是算法决策问责展开了讨论。学者Neyland D认为,问责意味着算法决策不仅需要证明其合理性而且还需承担减轻任何由其造成的负面社会影响和潜在伤害的义务[10]。Robyn Caplan认为,算法决策问责不仅指算法对社会产生影响的责任分配,如果造成了伤害,还包括相应的救治机制。虽然以上两位学者强调了问责的内容,但是问责的主体并没有阐明。美国公共政策理事会对于算法决策问责的主体做出了明确的规定,指出应用算法的机构即使对算法的结果不能做出合理的解释,但是也应该对采用算法做出的决策负责[11]。而本文认为,算法决策问责是指采纳和应用算法决策的机构在应用算法决策过程中对于社会和个人产生的不良影响所应承担的责任以及采取相应救济措施的过程。

3 大数据算法决策问责的重要性

人工智能的本质就是一种算法模型,在强大的计算能力支持下,计算机可以借助算法不断地从大数据中进行分析和学习,通过反复试错和改错来吸取经验,实现自身智能化程度的不断提高,从而帮助人类作出相应的决策[9]。未来为了促进人机社会的和谐发展,算法问责的研究和确立具有重要的意义。

1)有利于促进大数据算法决策过程的透明度。为了避免智能化决策的“黑箱”,促进大数据算法决策的数据来源、质量及算法模型的设计以及运行过程的透明度,是保证算法决策合法、公平、正义的重要意义所在,为大数据决策提供重要保障。

2)有利于促进算法决策模型的科学性。大数据算法决策模型的设计是决策者思想、理念的最好体现。通过建立算法决策问责机制,促进和指导大数据决策模型的设计必须符合客观规律,具有客观性、系统性和逻辑性,减少在算法模型设计中偏见、错误以及歧视性伤害的风险,在决策的逻辑模型、程序模型、数据处理模型和自定义模型的设计和应用当中符合公平和正义的原则。

3)有利于强化算法决策结果的责任性。决策失误的问责并不会因为是智能决策而得到规避。无论是政府或者企业,由于智能决策而造成的伤害或者歧视性的后果,作为决策者同样要承担问责。算法问责机制的构建有助于极大地提高大数据算法决策的责任性,并对决策的失误或者产生的不良后果进行追溯和纠正,提高大数据算法决策的公开、公平和正义的价值导向。

4 大数据算法决策问责的缘起

有些推荐算法决策的应用并不会产生实质的伤害性后果,但是如果将算法应用在犯罪评估、信用贷款、雇佣评估等关乎个人利益的场合,由于其并不是仅仅针对某一个人,而是采用规模化运作的方式,可能会影响具有类似情况的一群人或者某一类人的利益,所以它的影响范围会很大[12]。有人称基于数据的算法是客观和中立的,其实只是一个美丽的误会而已。早期的算法决策的数据来源和算法决策的复杂度不高,且应用领域并不广泛,对于算法的问责没有受到很高的重视。但是,随着大数据时代的来临,面临纷繁复杂的数据,很多企业和政府为了减少成本和提高效率,在很多领域采纳算法决策,对于算法所引发的不公平和歧视性的现象也得到了更多的关注。算法所产生的偏见和歧视主要来自两个方面:1)算法主体价值观歧视。这种算法歧视主要来自算法设计者自身存在偏见或者歧视,将其融入到算法中所产生的歧视性后果。2)算法系统自然获得的歧视。这种歧视一方面来自算法采用的客观数据本身就具有歧视性,另外一方面,也体现在算法在演化过程中自身获得所产生的歧视。具体表现在:

第一,嫌贫爱富性算法。算法一般经过排序、分类、关联和过滤几个步骤。排序是将排名的标准嵌入到算法中进行优先等级的划分。排序本身就是一个价值理念实现的过程。虽然大数据利用海量数据实现精细化的决策,但是也带来了另外的悖论现象,那就是通过排序和分类,虽然有助于实现用户精细化的画像,但导致穷人和富人的标签更加明显,如果被数据打上了“穷人”的标签,那么获得贷款、信用、教育等的机会就会受到很大的影响。有证据显示,在美国的金融服务领域,穷人通常受到的服务比较劣质,广告商往往将高息贷款的服务投向穷人[13]。这种算法导致“嫌贫爱富”的现象,随着自动化决策的广泛使用,有可能会加剧贫富差距和社会不公正现象的发生。

第二,性别歧视性算法。虽然信息技术秉持“技术中立”的原则,但是在系统运行中,也无法保证其不会自动修改程序,而出现歧视性的结果。据报道,亚马逊曾经开发的招聘工具具有性别歧视的现象,在进行简历的遴选时,对于简历上出现“女性”这个词就会打低分,使得女性在求职中,获得面试的机会大幅度的减少[14]。即使后来亚马逊修改了程序,也无法保证系统不会出现歧视性的结果。

第三,种族歧视和年龄歧视性算法。有数据显示,计算机对于浅色人种的误判率只有1%,对深色人种的误判率高达35%[15]。而且依据美国非政府组织机构ProPublica调查显示,Facebook在投放与购房相关的广告,排除了非洲裔美国人和犹太人。同样,Uber和Verizon Wireless这些非常有名的公司也是按照年龄和性别的不同而投放不同的招聘广告[16]。

5 大数据算法决策问责的难点

大数据算法决策有助于为民众提供实时、智能、便捷的服务,但是,由于决策主体、客体以及过程的不透明和难以解释性等原因导致决策问责的难度大幅度增加。

5.1 大数据算法决策问责主体的复杂性

无论是公共领域还是私营领域,应用大数据作决策,都会涉及到算法系统的产生过程。如果算法系统是按照组织机构的目标以及程序员依据所完成的目标设计出的算法系统,那么系统做出的决策出现不公平和歧视性的伤害,有可能是由于算法设计者的能力或者其偏见导致的错误,这种错误很容易进行查询。但是,很多大数据决策系统采用的是机器学习系统,随着系统的不断进化,这些人工智能系统就会与环境交互,经过“观察”和“思考”,具备了一定的自主学习能力,而这种能力的获得,与过去植入指令式“代码”的决策非常不同,虽然有利于人机共同创造知识,但是这种产生知识的原理、过程成为了“黑箱”,一旦决策失误,问责的主体反而难以确定。

5.2 大数据算法决策过程的透明性和可解释性难以实现

第一,算法过程的透明度是指影响算法决策的因素对使用、管理和受使用算法决策系统影响的人具备可知、可见的程度。透明度是算法决策问责的重要内容。算法决策的透明有助于加强相关利益者和公众的监督,同时也是取得公众信任的重要前提条件。因此,无论是欧盟的《通用数据保护法》还是美国即将出台的《算法问责法案》都把透明性作为问责的重要要素。虽然算法的透明度成为普遍的诉求,但是算法错误的难以监控和纠正就会导致其的不可解释性。因此,在自动算法决策中,算法的透明性成为重要的挑战[17]。但是,如果公开有关算法,很多企业和机构认为:①算法有可能是企业的机密,公开有关算法虽然有助于公众监督,但是会影响企业或者组织机构的发展。②公开算法有可能会涉及大量的个人隐私。如果说算法是“大脑”,那么数据是养料。而很多算法系统的运行离不开数据,数据中又包含了大量的个人隐私数据,因此,算法的透明和公开必然会涉及相关隐私的管理和规定。③有些算法本身就是“黑箱”,就是公开了,对于算法运行的机理也难以清楚地解释。

第二,算法的难以解释性。算法的可解释性,首先指的是面向用户而非面向领域专家和技术人员的解释权;其次,解释的内容包括整个决策的过程、输入、输出的关系、数据的来源、决策原理等方面[18]。因此,在应用算法进行决策的系统中,必须采用最终用户可以理解的语言用于解释,以便用户能够理解并获取其信任。歐盟在2018年的《通用数据保护法》中创制了自动化决策的解释权,要求每一个制定决策的算法能够证明决策的正确性[19]。如何解释自动化决策的功能、原理、模型的设计以及计算的结果成为应用机器学习和神经网络决策的难题。一方面是不可解释性,即机器学习在自主学习过程中,所做出的决策,有时候本身就存在“黑箱”,如学者Mayer Schnberger认为:深度神经网络的美丽之处部分在于它们是“黑箱”,因为它们以超越人类逻辑之外的方式工作[20];另外一方面,即使能解释,但是解释的复杂度很高,这也成为自动化决策应用和发展中的重要障碍因素之一。

5.3 大数据算法决策个人申诉的困境

申诉是指公民、法人或其他组织,认为对某一问题的处理结果不正确,而向国家的有关机构申述理由,请求重新处理的行为[21]。目前,就大数据算法决策所产生的人身伤害、财产损失,由于主体的多样性、过程的不透明性等原因,不仅难以申诉,并且目前并没有建立明确、专门的申诉机制。例如,就欧盟的《通用数据保护法》中虽然提出了建立人工智能伦理委员会,以及全自动化决策的知情—同意等权利,但是算法决策造成对当事人的伤害问题并没有明确的规定。另外,在2019年,欧盟公布的《可信赖人工智能的伦理准则》中,虽然也提出了问责的问题,但也只是从风险防控的角度提出了加强审计和最小化负面影响的要素,并没有对造成的伤害如何进行评估和救济等问题做出有关的规定。

6 完善大数据算法决策问责的对策

大数据算法决策造成的伤害,作为普通的受害人追溯起来非常的困难。因为按照民事诉讼的方式起诉到法院,依据惯例,谁起诉谁举证的原则,受害人以一己之力举证自动化决策产生的错误是很难实现的[22]。正如古德曼等人认为,要想就自动化招聘问题起诉雇主,这是一件极度困难的事情,因为岗位求职者也许永远都不会知道企业是否采用了该种技术[14]。目前,已经曝光的算法决策的伤害,通常由懂技术的专家、学者、工程师通过复杂技术的检测和评估完成。因此,算法决策问责的难题比较普通的决策而言,增加了难度。

随着人机社会的到来,构建大数据算法决策问责制度成为未来政府、企业所要解决的重要难题。无论是算法还是驱动算法的数据,都是由人设计、创建和收集的,即使算法做出了错误的决策或者出现了难以预期的结果,包括采用机器学习的方式,那么算法做出的决策也应最终由人来负责,而不应该以算法决策为借口,不承担相应的责任。

6.1 依据不同的主体清楚划分责任

虽然大数据算法决策的主体非常复杂,有人的因素,还有“机器”的因素,这就有必要清楚划分决策主体的责任,才能有助于算法决策的有效实施和确定责任的归属。

人类以语言和文字表达对问题的意见和抉择,而大数据算法的本质是以计算机的代码以及数学方式进行意见的表达和决策。决策的结果嵌入了设计者、开发者、使用者的主观选择,除了算法本身的原因以外,决策的原料—数据的全面性、准确性、完整性等因素也是影响算法的重要方面。因此,依据算法决策的目的、标准、功能、使用范围和效果,划分不同的责任主体,对算法造成对当事人的伤害进行评估和问责。①算法的设计者或者开发商。从人工智能产品来说,其本质是一种商品。那么算法的设计者和开发商是算法决策产生的重要责任人,算法设计者既包括算法的工程师也包括采纳算法的机构。②算法决策的管理者。很多企业或者政府为了提高单位的效率,购买大数据算法决策的产品,在工作中对用户造成的伤害,算法决策的管理者也需要承担相应的责任。

传统的决策问责遵循“谁决策谁负责”、“谁主管谁负责”,而作为大数据算法决策,虽然是机器做出的决策,所产生的伤害和负面影响,也需要有相应的责任人负责,因此,同样要秉承“谁设计谁负责”和“谁主管谁负责”的原则。

6.2 构建科学合理的问责机制

应用大数据算法决策,其决策的“不透明性”和“不可解释性”总是成为诟病的话题,为了促进其透明性和可解释性,构建科学合理的问责机制,有助于防止其风险的发生。

1)成立专门的大数据算法决策问责委员会。其主要职责除了对大数据算法决策存在的风险进行评估和制定相关的规则和制度以外,同时受理受到算法决策伤害的当事人申诉。如果按照传统产品造成的伤害,谁受伤害谁举证的原则,当事人很难做到。因此,鉴于大数据算法决策的高度复杂性,大数据算法决策产品所造成的伤害,需要建立由专家、学者、技术工作者共同组成的大数据算法决策问责委员会,对当事人造成的伤害进行评估、认证,为当事人出具相关证据和报告。

2)建立明确的责任标准。作为开发、采用自动化决策的机构,如果造成了歧视性、错误的决策,依据决策的影响、严重程度需要承担相应的责任。目前,由于对错误或者歧视的标准和认知程度不同,导致对于自动化决策产生负面影响的责任难以界定。例如,COMPAS是美国司法部门应用的犯罪风险评估系统就对黑人有歧视的现象,该系统的算法往往会对黑人打上高风险犯罪分子的标签,如果黑人犯罪,将会面临更加严厉的刑罚。但是,由于对算法偏差并没有统一的界定和建立相应的问责机制,导致目前很多法院依旧采用该系统而对出现的问题不用承担任何责任[23]。因此,对于算法造成的伤害需要明确设计者、开发商、应用商的责任,同时也需要划分主观故意造成的伤害,还是算法系统自然习得的伤害,依据问题的不同,制定差别化的责任标准,以便更好地预防算法所导致的不良后果。

3)加强算法的审计。加强审计是算法问责的重要方面,在欧盟的《通用数据保护法》中明确提出算法审计作为评估责任的重要手段。算法的审计既包括人工的审计,也包括AI审计,即审计内容和过程的代码化。由于算法的复杂性,在算法的审计过程中,对于算法和数据的偏差和偏见,只靠专家和技术人员的人工审计还是非常有限的,如果通过专业性的AI审计系统,科学的检查算法的学习模型,并测试训练数据和模型中的偏见,将会大幅度提高审计的效率和科学性。

6.3 制定全面救济措施

目前,对于算法所造成的伤害,普遍采用的方法是对造成伤害的企业或者平台进行罚款,例如,欧盟《通用数据保护法》中规定,违反该法的相关规定,情节严重的违规企业接受2千万欧元的罚款,或者缴纳上一财政年度全球营业额的4%,两者取其高,进行罚款,提高企业的责任感[24]。我国2018年制定的《电子商务法》第18条规定了网络平台算法个性化推荐结果的消费者保护义务,对于违反规定的企业,由相关部门责令其限期改正,没收违法所得,可以并处5万元以上20万元以下的罚款;情节严重的,并处20万元以上50万元以下的罚款[25]。从以上相关的法律规定来看,对于算法决策主体的惩戒主要以罚款和责令修正为主,但是对于算法所导致的个人消费者的伤害性救济尚未提及。因此,应用算法对个人造成的歧视、不公平交易、侵害个人合法权益的行为,需要进行原则性的规定,合理定性其行为,如果有严重侵犯个人权益的行为,可将其定性为滥用优势地位、欺诈、诱导等不当獲利和侵权行为,对于个人造成的伤害和侵权给予申诉,加强应用算法决策的企业或者政府算法监管的行为,更有助于算法决策的应用获得公众的信任[22]。

在十九大报告中,明确提出了要加强和推动互联网、大数据、人工智能和实体经济深度融合,促进我国经济和社会的繁荣发展。大数据算法决策技术在政府和企业领域中的应用将会是未来发展的重要趋势。随着大数据产业的发展,我国对利用大数据所存在的问题也开始重视起来,例如:2015年我国制定的指导大数据发展的纲领性政策《大数据发展的行动纲要》,对我国大数据应用中隐私的保护做了一定的说明,但是对于大数据应用的算法决策问责问题尚未涉及。算法问责是大数据应用中的核心问题之一,因此,需要不断加强大数据算法决策中问责问题的研究,保证算法决策能够客观、科学、透明,不断促进人机社会的和谐发展和大数据技术的科学利用。

参考文献

[1]《新一代人工智能发展规划》国发[2017]35号[EB/OL].https://wenku.baidu.com/view/752beed7c67da26925c52cc58bd631 86bdeb9204.html,2019-10-20.

[2]Algorithmic Decision-Making Based on MachineLearning from Big Data:Can Transparency,Restore Accountability?Philos.Technol,2018[EB/OL].https://link.springer.com/content/pdf/10.1007%2Fs13347-017-0293-z.pdf,2019-10-20.

[3]Algorithmic Accountability-Applying the Concept to Different Country Context,2017[EB/OL].https://webfoundation.org/docs/2017/07/Algorithms_Report_WF.pdf,2019-10-20.

[4]Anton Vedder,Laurens Naudts.Accountability for the Use of Algorithms in a Big Data Environment[EB/OL].https://lirias.kuleuven.be/retrieve/430572,2019-10-21.

[5]Maja Brkan.Do Algorithms Rule the World?Algorithmic Decision-Making and Data Protection in the Framework of the GDPR and Beyoud[EB/OL].https://techpolicyinstitute.org/wp-content/uploads/2018/02/Brkan_do-algorithms-rule.pdf,2019-10-21.

[6]王珀.无人驾驶与算法伦理:一种后果主义的算法设计伦理框架[J].自然辩证法研究,2018,(10):70-75.

[7]魏强,陆平.人工智能算法面临伦理困境[J].互联网经济,2018,(5):26-31.

[8]吴佳超.物联网技术伦理问题研究[D].天津:天津大学,2013.

[9]牟莉娜,阳杰.人工智能时代的机遇与挑战:基于算法的审计决策[J].中国内部审计,2018,(12):4-6.

[10]Neyland D.Accountability and the Algorithm[EB/OL].https://link.springer.com/content/pdf/10.1007%2F978-3-030-00578-8_3.pdf,2019-10-20.

[11]Association for Computing Machinery US Public Policy Council(USACM),Statement on Algorithmic Transparency and Accountability,2017-01-12[EB/OL].https://www.acm.org/binaries/content/assets/public-policy/2017_joint_statement_algorithms.pdf,2019-10-20.

[12]搜狐網.算法决策兴起:人工智能时代的若干伦理问题及策略[EB/OL].http://www.sohu.com/a/143165651_455313,2019-10-20.

[13]AI算法歧视在普惠金融中的悖论、阻碍与解决方案[EB/OL].http://mini.eastday.com/a/180621063628033-2.html,2019-10-22.

[14]百度网.检测到女性就打低分?亚马逊AI招聘工作被曝性别歧视[EB/OL].https://www.baidu.com/link?url=SrT5lZLs1Ra E35 ZkXbU4ZVGZfM5065Rn10B81pBDXf5AWiCu9qAU6yx41yv1J efOp eATtg_kiXfp6FyXaP0cdOhnpyOmrA86BAKlOXZmT1C&wd=&eqid=fec48db60004f238000000035d09a001,2019-10-22.

[15]雷锋网.消除人脸识别系统对不同肤色的误判,为何比登天还难?[EB/OL].http://wangid.cn/news-5003-257.html,2019-10-22.

[16]ProPublica is Wrong in Charging Racial Bias in an Algorithm[EB/OL].https://www.acsh.org/news/2018/01/17/propublica-wrong-charging-racial-bias-algorithm-12427,2019-10-22.

[17]Diakopoulos.Nicholas,Algorithmic Accountability:Journalistic Investigation of Computational Power Structures[J].Digital Journalism,2015,3(3):398-415.

[18]Principles for Accountable Algorithms and a Social Impact Statement for Algorithms[EB/OL].http://www.fatml.org/resources/principles-for-accountable-algorithms,2019-10-22.

[19]百家号.解释权条款剥夺深度学习的合法性:最严数据隐私条例今日生效[EB/OL].http://baijiahao.baidu.com/s?id=16014196283 24671330&wfr=spider&for=pc,2019-10-22.

[20]搜狐网.欧盟要求解释权,或引发与人工智能公司的冲突[EB/OL].http://www.sohu.com/a/105378337_381309,2019-10-22.

[21]百度百科[EB/OL].https://www.baidu.com/s?ie=utf-8&f=8&rsv_bp=1&rsv_idx=1&tn=baidu&wd=%E7%94%B3%E8%AF%89&rsv_pq=dc52ae88000180bd&rsv_t=6e24UCJ0VYdP1 LP387xQime4EJ3LXOix7bvqvSPkbSMx7vs9cemJpwJmeto&rqlang=cn&rsv_enter=1&rsv_sug3=1,2019-10-22.

[22]张凌寒.《电子商务法》中的算法责任及其完善[J].北京航空航天大学学报:社会科学版,2018,(6):16-21.

[23]Joan Donovan,Robyn Caplan.Algorithmic Accountability:A Primer[EB/OL].https://datasociety.net/wp-content/uploads/2018/04/Data_Society_Algorithmic_Accountability_Primer_FINAL-4.pdf,2019-10-22.

[24]CSDN博客.你准备好迎接GDPR(欧盟,通用数据保护法)了吗?[EB/OL].https://blog.csdn.net/jessica_seiya/article/details/79061 406,2019-10-22.

[25]中华人民共和国电子商务法[EB/OL].http://lawdb.cncourt.org/show.php?fid=150891,2019-10-22.

(责任编辑:陈 媛)

猜你喜欢
问责决策算法
为可持续决策提供依据
让事故问责生威
监督执纪问责如何“备豫不虞”
基于MapReduce的改进Eclat算法
“滥问责”的6幅画像
Travellng thg World Full—time for Rree
决策为什么失误了
进位加法的两种算法
对“数字脱贫”要问责
一种改进的整周模糊度去相关算法