人工智能原则的作用
——从非约束原则到普遍原则

2022-11-23 00:10新保史生余梦凝
北京政法职业学院学报 2022年1期
关键词:规制准则个人信息

[日]新保史生 余梦凝

一、AI 原则

(一)“AI 原则热潮”的到来

或许2020 年是“AI 原则热潮”年,许多企业和机构在运用AI 时,出现争先恐后公布AI 准则或者原则等倾向。在日本,不少企业和机构在广泛制定并公布沿袭总务省“AI 网络社会推进会议”[3]総務省「AI tzットpeーク社会推進会議」 (https://www.soumu.go.jp/main_sosiki/kenkyu/ai_network/index.html)。公布的《AI 研究开发原则》和《AI 利用原则》的各自AI 原则。目前,日本国内大约有十家公司公布了类似的AI 原则。所有公布的原则,都是在参照总务省AI 网络社会推进会议上制定的原则基础上,根据各自企业讨论的情况而确定的原则。今后,可能会有更多的企业会追随这一风向,随着越来越多的企业为跟上AI 原则的潮流,只是形式上公布AI 原则的现象,恐怕也会产生各种问题。在学术领域研究AI 原则的机会也会增多。可以预见,调查研究是否需要AI 原则,以及将原则的各个项目的一览表以圆圈形式进行调查的星表式定量调查或许会越来越多。调查需要什么样的原则,采用什么样的项目等,或许是AI 发展摇篮期不可或缺的研究。

(二)AI 原则的意义

在运用AI 时应该考虑并遵循的“原则”,并不是说公布了就有意义,而是因为这个原则具有必要性和重要性。也就是说,思考为什么需要这些原则、根据这些原则应该做什么,然后将其作为解决问题的策略体现出来才有意义。从“AI 原则能否起作用”的观点来看,到现在为止仍然需要反复思考制定原则的目的,以及在AI 的研究、开发及运用中,需要“最低限度必要的原则是什么”?随着AI 原则热潮的到来,要让形式上的原则得到广泛普及,作为未来的研究内容,在明确非约束性原则的定位之后,下一步是否应该考虑将这些非约束性原则作为“法定公布要件”或者“法定要件”确定为约束性规则,即考虑如何运用非约束性原则作为面向实用、实施阶段的法律规范,才能使AI 原则真正发挥作用是体现制定AI 原则的意义所在。

(三)AI 原则公布的范围及实例提示

随着AI 原则公布现象的泛滥,可能会朝着与原本制定AI 原则的意图、意义等初衷相背离的方向发展。如果仅凭AI 最受关注,从而扩大公布复制粘贴的形式性AI 原则,可能将稀释AI 原则公开的意义。其实,类似的先例在现实中已经出现。例如,有企业根据日本《个人信息保护法》制定公布的《关于处理个人信息的法定公布事项》以及基于JIS Q15001《个人信息保护管理体系》公布的《个人信息保护准则》,可以说就是上述“复制粘贴”的典型示例。现实中不难看到,一些企业将其他企业的《个人信息保护准则》原封不动地复制并公布,以此表明自己在个人信息保护方面已经采取了措施,这种将原企业名称简单地换为自己企业名称而内容几乎完全一致的现象不在少数。

虽然日本《个人信息保护法》并没有直接明确规定企业或其他组织负有公开《个人信息保护准则》或《隐私策略》的义务,但第27 条却规定企业有“公开持有个人数据相关事项等”的法定公开义务。根据2004 年4 月2 日日本内阁会议通过的《个人信息保护基本方针》第6 条第1 款第1 项“个人信息处理企业等应采取的个人信息保护措施,对外要明确个人信息处理企业的实施措施,即在推进个人信息保护方面的方式和策略(隐私策略、个人隐私声明等)”的规定,要求企业在收集、利用个人信息等过程中必须采取必要的保护措施并公开其措施准则;根据JIS Q 1501:2017《个人信息保护管理体系-要求事项》的第5.2.2 条“面向外部的个人信息保护方针”规定,也要求企业公开《个人信息保护准则》。由此可见,企业纷纷公布各自的《个人信息保护准则》是应法律规定之要求。

日本消费者委员会个人信息保护专业调查会的《个人信息保护专门调查会报告——〈个人信息保护法〉及其适用相关的主要讨论》(2011 年7 月)(以下简称《调查会报告》)提出,“企业公开《个人信息保护准则》已经处于相当形式化的状态,为确保企业个人信息处理情况的透明度,有必要探讨企业公布《个人信息保护准则》的必要性;参考美国《联邦交易委员会法》的规定,如果企业公布的准则跟实际处理情况不同,应该对其采取某种程度的处罚,即根据企业公布的内容监督其实际采取的措施,以保证公布准则的适当性及其实效性”。《调查会报告》总结了作为基本方针的隐私策略的讨论意见,指出企业基于自定的《隐私策略》而采取的持有个人数据的利用停止、委托处理的透明化、明确使用目的、获取源的具体记录等的措施,由企业自主自律是不充分、不恰当的,有必要研究其措施的进展状况以及基本策略的作用等。造成形式化的主要原因,不仅是企业不公布《个人信息保护准则》是违法的,即使准则内容与企业实际处理个人信息的情况不同,企业只要明示利用目的,或者适当地公布其他通知、公开事项等,就不会有人质疑企业自定公布的《个人信息保护准则》的适当性。《调查会报告》针对《个人信息保护法》每三年修改一次的相关修订意见,即关于“充实持有个人数据公开事项”的内容,提出可以“通过完善个人信息处理企业向持有的个人数据本人说明的制度,使本人能够切实理解并能参与到个人信息的处理过程中,同时从促进个人信息处理企业的适当处理,将个人信息处理机制、采取的措施、持有个人数据的处理方法等作为向本人说明的法定公布事项”的建议。[4]個人情報保護委員会「個人情報保護法ⅩⅣ(ⅰ)ttitf3年ごと見直し制度改正大綱」(令和元年12 月13 日)20 頁。但是,对于企业个人信息处理准则的公开,在法律修订时,也看不到如果准则等公布的内容与实际处理措施不同而对其违法性提出质疑或者处罚的修改内容。

(四)AI 原则法定公布事项的定位

在美国法中,以个人信息保护准则为主,包括AI 原则或者准则在内,规定了当公布的内容与实际操作措施不同时可以处罚的机制,这是《联邦交易委员会法》(《FTC 法》)第5 条规定的内容。以个人信息处理适用这个处罚机制为例,当认定企业公布的处理程序与实际的处理情况背离时,可以以“属于不公正或欺骗行为的交易”(《FTC 法》)第5 条进行处罚。即《FTC 法》赋予FTC 有权要求企业公开其《隐私策略》等个人信息保护措施,如果企业没有按照公布的内容采取相应措施,属于违反这一规定的行为,则有权对其进行行政处罚。根据《FTC 法》的规定,FTC 可以正式召开听证会,为中止企业的违法行为下达停止命令。在此情况下,如果企业的该行为可能会带来损害预期保护公共利益的结果,FTC 则可以发出临时停止令,或者临时或永久禁止令。如果企业的这种表里不一的行为已经造成普遍存在不公平或欺骗性现象,或者FTC 已经发布中止该行为的命令仍未获得改善,FTC 可以公布监管该行为或业务的行政处罚。如果企业不遵守FTC 命令继续实施相关违法行为,每天将被处以最高10,000 美元的民事罚款。如果企业故意违反FTC 规定,必须为每种违法行为支付10,000 美元的罚款。此外,《FTC 法》第5 条也规定了FTC 前述权限适用除外的情况,规定金融机关(银行、储蓄贷款机构以及消费者信用机构等)、公共运营商(电信运营商及洲际承运人)、航空公司、货物及仓储公司,如果有类似不公正或者欺骗行为或业务时,不适用前述规定,而适用其他法律由其他行政机关管辖。美国《FTC 法》的这些规定提示,作为法定公布事项,公开与信息处理相关的措施内容,其意义并不仅是宣布企业等机关已经采取了对信息的适当处理和保护措施,从保护个人权益的角度出发,促使企业保证以其公布的措施处理相关信息,并让其通过认识到,若不遵守诺言可能会受到法律制裁,从而迫使其自觉遵守正确处理和保护相关信息的法律法规。在日本,相关法定公布的内容、义务及程序等也是五花八门。例如有《特定商务法》《奖品表示法》规定的公布内容、《金融商品交易法》规定的公开交易说明书、交易条款和利益冲突管理措施、《金融商品销售等的法律》规定公开的劝诱方法、《个人信息保护法》规定公开的持有个人数据的相关事项以及其他以行业自律和行政机关等为对象的法律规定的公开事项等。日本的AI 原则或准则的公布不仅应该确定为法定的公布事项,还应参考美国《FTC 法》引进处罚机制。

(五)通过完善基本法将AI 原则纳入法令的事项

2015 年是AI 热潮的摇篮期,这个时期EU 的《机器人准则》(2014 年9 月)[5]Regulating Emerging Robotic Technologies in Europe: Robotics facing Law and Ethics, FP7-SCIENCE-IN-SOCIETY-2011-1,Project No.: 289092.公布,美国也召开了We Robot 国际会议等,彼时国外有关AI、机器人法的讨论日益高涨。在日本,笔者在《个人信息保护法》每三年修改一次的讨论中提出,“企业根据《个人信息保护法》制定公布各自的《个人信息保护准则》或者《隐私策略》,当其所公布的内容与实际个人信息处理措施不一致时,是否可以以处理方式不恰当将其往执法对象的方向上考虑”的意见。[6]第 105 回 個人情報保護委員会(令和元年 5 月 17 日(金))資料4 新保史生提出資料 (https://www.ppc.go.jp/aboutus/minutes/2019/20190517/)。也提出了“对于AI 原则,是否也可以考虑将单纯的非约束性原则从寻求灵活利用阶段开始,转移到法定公开事项的位置上”的建议。作为面向未来机器人共生社会所要求的基本原则,笔者参考OECD 隐私八原则,在2015 年机器人法学会成立筹备研究会上提出了“机器人法新八原则(新保试行方案)”。但是,在该筹备会上,在讨论制定AI 未来规则或者必要的法规时,笔者从共同通用意识共享的必要性出发,认为制定“AI原则”可能起到作用的新八原则试行方案却受到了质疑,反对意见认为“加强规制”可能会对技术开发引发寒蝉效应。[7]「深層断面/「法学会」設立難航?ロ(Ⅵ)「社会進出」課題多ffk、業界関係者fk(x)異論」日刊工業新聞 2016/1/18 https://www.nikkan.co.jp/articles/view/00371272。之后,随着AI 热潮的兴起,人们逐渐认识到制定AI 原则的重要性,为避免重蹈2015 年公布新八原则时的误解和担忧,笔者从着眼于新兴技术的灵活利用需要推进必要的对策措施角度,再次提出应先完善基本法律的内容,将非约束性AI 原则确定为实体规则的建议。本文是以提出试行方案为主要研究目的,建议制定《新兴技术利用推进基本法》(简称《新兴技术新法》,或“新保试案第二弹”)等基本法,以确保新兴技术振兴的基本理念为基础,将基本原则予以实定。对于开发者或者企业来说,在推广运用AI 的措施时,也可以认为这是宣传以安全、放心的AI 运用为前提措施的绝佳机会。随着人们认识到制定这样的AI 原则或者以此为基础的措施的重要性,在已经接受的重要性被重新认识的良性循环中,期待更多的企业公布基于AI 原则的措施,在推进和促进新兴技术开发方面,“AI 原则”具有重要意义。

二、AI 原则、准则等制定现状

在国际上,如果按时间顺序排列,最早的有关AI 原则或准则的系统性研究成果当属《EU 机器人准则》,这是首次尝试对机器人相关法律课题进行系统性的研究,但研究报告并未提出系统性的指导方针,其实《日本机器人法新八原则》的最初灵感是来自于2014 年的这个《EU 机器人准则》。在国际社会中,EU 有先行制定各种规则的倾向,该准则也是如此。从2014 年的这个准则[8]EU 2014 年公布的这个《EU 机器人准则》报告的制作调查费用(预算)为149 万欧元。在日本国内,类似这样的准则等委托调查报告项目超过1 亿日元的现在几乎看不到。可知,EU 在相当早的阶段就已着手对上述AI 原则的必要性做了研讨,而原则等的制定工作,直到2016年以后才正式展开。对于公共部门的规制,EU 早已采取措施,美国、日本紧随其后。从这一点来看,日本也是在相当早的阶段就开始着手讨论制定AI 原则或准则,特别是《AI 开发原则》在2017年就已公布,这与其他国家相比,也算相当领先。至此,特别是从2018 年以后,有关制定规制公共部门的AI 准则的情况迅速增加。自从隐私保护专员大会(ICDPPC)发布《数据保护原则》以来,各国已经以相当快的速度公布了各式各样的原则。其实“数据保护与隐私专员国际大会”(ICDPPC)的讨论,说到底是隐私和数据保护的讨论。挪威的《AI 与隐私》也同样属于这个领域制定的原则措施。近年来,在诸如自动驾驶、联网汽车、特定于算法的领域以及医疗保健的各个领域等采取的措施中,也已逐渐地制定了各种具体的AI 原则。针对民间领域,虽然英国工程及物理科学研究理事会(EPSRC)[9]時系列fk(x)ⅩⅢtfと、2010 年 9 月に UK Research and Innovation (UKRI)の The Engineering and Physical Sciences Research Council (EPSRC) fu、研究開発者及sh利用 者向けの5xiiiの原則及sh産業界への7xiiiのetッfjージfk(x)構成fhxvtf原則PH公表しfttìの fu、近時の AI·ロ(Ⅵ)ットPH(X)Titf原則の中でtt最初のtìのと考xii(x)xvtf。EPSRC, Principles of robotics (https://epsrc.ukri.org/research/ourportfolio/themes/engineering/activities/principlesofro botics/).已于2011 年公布了《机器人原则》,但这是与工业用机器人相关的机器人工学、机器人技术领域的原则。法国也同样公布了类似的机器人技术原则。民间领域的AI 原则制定工作的取得进展,是在人工智能研究所(AI Now Institute)于2016 年公布AI 原则之后。日本也以人工智能学会制定的AI 原则公布等为标志进入发展期。

2018 年,不仅是公共部门,各国的各种机构都在举行AI 原则制定的讨论,非营利组织、非政府组织也相继公布了各式各样的AI 原则。到2019 年,各国都在推进AI 原则制定的措施,民间企业公布AI 原则的动向是在2019 年。尽管英国的一些企业早在2017 年左右就制定了AI 原则,确切地说2019 年才是企业公布AI 原则的元年。

三、OECD AI 原则

(一)OECD《AI 理事会劝告》

经济合作与发展组织(OECD)《AI 理事会劝告》 于2019 年5 月22 日采纳了AI 原则。这是为尊重人权和民主价值、推进革新可信赖的人工智能而制定的。这个AI 原则,除OECD 的36 个成员国之外,还被阿根廷、哥斯达黎加、哥伦比亚、巴西等国家采纳。OECD《AI 理事会劝告》采纳AI原则的意义是通过发达国家之间的自由意见交换和信息交换,鉴于OECD 是以促进经济增长、贸易自由化、支援发展中国家(OECD 的三大目的)做贡献为目的,以其在国际社会的这些作用和影响力,OECD 的AI 原则与以往的个别团体和研究组织制定的AI 原则不能同言而语,预计将会对未来的AI国际合作产生重大影响。OECD 的相关研究机构,除设置有对全体活动进行研究的一般机构之外,还按照OECD 的三大目的设立了经济政策委员会、贸易委员会、开发援助委员会。OECD 的议事决定机构是理事会,由部长级人士参加的部长理事会(每年举行一次)和由常任代表主持的定期理事会(随时举行)。另外,执行委员会(每年召开两次)是讨论主要问题的机构,从OECD 的作用和国际影响力来看,AI 原则被采纳为《AI 理事会建议》的意义非常重大。

(二)OECD 理事会劝告AI 原则的内容

在OECD《AI 理事会劝告》中,为实现可信赖的AI 负责任的管理,提出了以五项互补价值为基础的原则,即(1)促进包容性发展、可持续发展和福祉。必须通过促进AI 包容性发展、可持续发展和福祉,为人类和地球带来利益。(2)以人为本的价值和公平。AI 系统必须设计为尊重法治、人权、民主主义的价值、多样性,并采取适当的安全措施(例如,根据需要使人介入成为可能),保证社会公平公正。(3)透明性和说明责任。通过确保AI 系统的透明性并实施说明责任的信息公开,人们必须理解并对抗基于AI 的结果。(4)坚固性、可靠性及安全性。AI 系统需要贯穿整个生命周期、可靠、安全、放心地运用,必须持续评估和管理潜在风险。(5)责任制。开发、部署或运用AI 系统的组织和个人必须按照上述原则负责地使其正常运转。其内容针对AI 急速发展的现状,设定了实用且灵活的标准。OECD 对于信息的处理,在隐私和数字安全风险管理等各领域采纳了理事会的劝告,而该AI 原则却被定位为是对这些既有的OECD 劝告的补充。OECD 理事会劝告的AI原则的适用范围不局限于OECD 成员国,而是旨在应用于世界各地的AI 开发。此外,根据以这些AI 价值为基础的原则,OECD 向各国政府提出了五项面对AI 的发展需要采取的应对措施,包括:(1)投资AI 的研究开发。推进对研究开发的公共和民间投资,促进可信赖的AI 创新。(2)培育AI 数字生态系统。通过共享数字社会基础和技术、数据和知识的机制,培育可运用的AI 生态系统。(3)形成实现AI 的政策环境。确保政策环境为可信赖的AI 系统部署铺平道路。人力能力建设和劳动市场变革的准备。让人们掌握使用AI 的技能,帮助劳动者公平实现就业转换。(4)可信赖的AI 国际合作。通过跨越国境和领域的合作,推进值得信赖的AI 的责任制管理。

四、EU AI 原则

(一)EU 的AI 措施动向

众所周知,欧盟(EU)在制定规则解决新问题上,各方面都走在了世界前列。例如,在个人信息保护领域,从1995 年制定的《个人数据保护指令》到2016 年制定的《通用数据保护条例》(GDPR)的转变和法律规定的升级程度,可以说是举世瞩目。此外,EU 已经开始研究AI 规制,可以预见,EU 在未来AI 规制的研究方面仍然处于领先地位。日本在AI 原则制定方面相较于其他国家来说也属于领先者,作为先行者在既要维持传统基本原则的基础上又要考虑应对AI 的发展新制度的要求,这种情况下参考EU 的制度措施非常重要,日本应该借鉴EU 的经验。EU 自公布《EU 机器人准则》以后,随着第三次AI 热潮的到来,考虑到将来运用AI 自动系统可能会产生的法律问题,研究目标已经转向针对AI、机器人、自动系统与法律的问题。2018 年3 月公布的《AI、机器人、自动系统的声明》[10]European Group on Ethics in Science and New Technologies, Statement on Artificial Intelligence, Robotics and‘Autonomous’Systems, Brussels, 9 March 2018.(以下简称《声明》) 就是对这些问题研究的总结。[11]本文書の策定に際して主に参照fhxvてⅩⅣtf文書tt、The Forum on the Socially Responsible Development of Artificial Intelligence held by the University of Montreal in November 2017, 'Declaration for a Responsible Development of Artificial Intelligence’has been developed. It is now publicly accessible on an online platform where all sectors of society are invited to comment on the text.(http://nouvelles.umontreal.ca/en/article/2017/11/03/montreal-declaration-foraresponsible-development-of-artificial-intelligence/).该《声明》鉴于AI、机器人以及“自动”技术的进步所带来的伦理问题迫切需要应对以及所引发的问题更为复杂等情况,特别对这些问题进行了研讨。其目的是寻找伦理、社会与法律问题的答案,为实现多方主体利益共赢而寻求不同举措的多举并用方式指明道路。为达到这一目标,强调集体、广泛、全面的讨论和对话非常重要,提出应该将焦点放在构成社会所需要的价值观和在社会中技术所应发挥的作用上。该《声明》的公布,标志着国际社会致力于建立共同的国际伦理和法律框架举措的开始,其对象是AI、机器人技术和“自动”系统的设计、制造、使用和管理。该《声明》提出的AI 基本伦理原则,表明了基于EU 各条约及《EU 基本权利宪章》确定的价值观主张,为将来的AI 规制展开讨论提供了基础。

(二)可信赖的AI 伦理准则

2018 年6 月,欧洲委员会成立AI 高级专家组(AI HLEG),[12]European Commission, High-Level Expert Group on Artificial Intelligence (https://ec.europa.eu/digital-single-market/en/highlevel-expert-group-artificialintelligence).2019 年4 月公布《可信赖AI 的伦理准则》[13]European Commission High-Level Expert Group on Artificial Intelligence, Ethics Guidelines For Trustworthy AI, 8 April 2019(https://ec.europa.eu/digital-singlemarket/en/news/ethics-guidelines-trustworthy-ai)(8 April 2019). (Ⅰ)イドfflイasのダウas ロードURL(https://ec.europa.eu/futurium/en/ai-allianceconsultation),(https://www.aepd.es/sites/default/files/2019-09/ai-ethics-guidelines.pdf). 最初の草案tt 2018 年 12 月 18 日に公表fhxvft。。 该准则规定了可以信赖的AI 的三个必要要件,即合法性,遵守所有适用的法律法规;伦理性,遵循伦理原则和价值观;可靠性,从技术及社会的视角观察保障。该准则的目的是提供可信赖的AI 所需的框架,但确保合法性的原则不一定限于该框架,主要目的是提出促进伦理和健全的AI 发展所必需的要素,而且该准则涵盖了所有利益相关者。值得一提的是,作为准则,重要的不仅是列出伦理性原则的一览表,而是通过社会技术系统(socio-technical system)的方法来展示这些原则在实际发挥作用时需要考虑的因素。如前所述,“原则”只不过是原则,但以列出并展示原则为最终目的,恐怕无法发挥原则的作用。EU 专家组在注意到这一问题的基础上制定了该准则,可以说是一个重大的发展。该准则由三部分构成。第一,可信赖的AI 准则的必要基础。从保障基本权利的角度提出必要的AI 伦理原则,从尊重人的自主性、防止危害、公平性、可解释性等角度探讨必要的AI 伦理原则。此外,还需要在关照未成年人和残疾人方面,从保护劳资关系等信息不对称和处于弱势地位群体的角度对AI 所带来的问题进行了探讨。从认识到可能引发难以预测的问题的基础上,留意对个人和社会可能会带来的巨大利益,同时也可能会带来巨大的影响。具体而言,或许会对民主主义、法律的支配,甚至对人类的身心健康等产生影响,为减少这些风险,需要制定适当且平衡的相关标准。第二,提出了可信赖AI 的开发、实现和运用所需的七个条件,即人类的参与和监督,技术的牢靠性和安全性,隐私和数据管理,透明度,多样性、非歧视性和公正性,环境和社会福祉,问责制。第三,在AI 系统的开发、实施或使用中采用可信赖AI 的《评估清单》[14]European Commission, EU artificial intelligence ethics checklist ready for testing as new policy recommendations are published(https://ec.europa.eu/digital-singlemarket/en/news/eu-artificial-intelligence-ethics-checklist-ready-testing-new-policyrecommendations-are)(26 June 2019).,并验证其适用的特定情况。

(三)EU AI 规制的走向

欧盟在AI 规制的研究方面,经过到现在为止的上述讨论,下一步应该是着手研究具体的规制问题。但相关研究的情况,在撰写本文时还没有看到EU 正式发布的官方信息,仅凭借EU 民间团体政策相关网站发布的信息,[15]Samuel Stolton, Commission considers facial recognition ban in AI ‘white paper’ 17th Jan, 2020(https://www.euractiv.com/section/digital/news/leak-commissionconsiders-facial-recognition-ban-in-ai-white-paper/)(updated:22nd Jan, 2020).推测EU 未来AI 规制研究的趋势。预计EU 之后公布的《白皮书》会持续关注美国和中国在AI 研究开发方面的合作关系,同时以促进基于欧洲价值观和原则的AI 研究及技术开发为目标,展示必要的规制方针内容。该规制内容大概包括:现行EU 有关AI 的政策框架;欧洲的具体政策(投资和技能提高以及中小企业对策);AI 系统开发所需的数据利用方法;将来欧洲的法律规制需要的主要观点;利益相关者的贡献和政策制定的时间轴等部分。总而言之,EU AI 规制框架的方向还是以促进新领域的创新为前提,同时在尊重欧洲的价值观和原则的基础上,以促进技术开发为目标。

对于运用AI 可能带来的新风险,在EU 现行法的框架范围内并没有涵盖所有的问题,有效的规制方法尚待研究。为此需要研究防范以下风险,即基本权利的风险(具体来说,是从歧视、隐私及数据保护的角度来看的问题)、安全及法律责任的风险。在现有EU 成员国法律框架的基础上,尚需研究能够让欧洲企业享受最大利益平衡的AI 规制框架,这个规制框架涉及以下六个方面的问题需要继续研究,即从基本权利的角度上看,《EU 基本权利宪章》不适用于仅涉及民间部门的问题,也不适用于就业、社会保障、教育、公共服务等特定领域;从产品的观点上看,EU 的产品责任相关法律适用于产品,但不适用于服务。特别是在医疗保健服务、金融服务和运输服务中运用AI 的问题;在AI 的研究开发中,由于责任主体不明确,规制只适用于开发者为企业的情况;鉴于制造物性质的变化,随着在制造物中嵌入AI,以往不需要的产品升级变得跟软件一样,随着制造物性质的变化而产生的问题;新风险的出现,有可能是因新的安全性而出现的风险;对于执法的困难性,因难以保证透明度,所以对于执法机关来说很难证明自动决策中是否存在歧视。在AI 法律义务的设置上,今后可能将重点讨论后述七个方面的问题。即确保对开发人员的问责制和透明度;确保透明度并向运用者提供信息;降低AI 系统风险的设计原则;确保AI 学习数据的质量和多样性;对开发人员进行风险评估和缓解风险的措施;针对自动化的决策,探讨人类参与的方法;产品需要采取的其他安全措施。为达到前述目的的AI 规制框架的选择,还需要研究以下五个问题,即自主措施;针对公共部门及面部认证相关问题的个别领域的应对;针对风险较高的应用,应对风险的规则;从安全性及法律责任的角度出发的应对;提出治理。

五、从非约束原则到普遍原则的启示

依据《OECD 理事会劝告》制定的《OECD 隐私准则》从1980 年公布到现在,对各国相关法律制度的建设产生了广泛影响。这从OECD 所有成员国都制定了《个人信息保护法》的情况可以佐证,而且OECD 成员国以外的其他国家,在制定或完善个人信息保护法律制度时,也都参照采纳了《OECD隐私准则》中规定的八原则,因此,将其说成世界各国相关法制的“参照系”也不为过。但是,从OECD 隐私八原则本身的法律地位看,这些原则仅为OECD 成员国相关法律完善的准则,并不具有法律约束力。

1980 年《OECD 隐私准则》公布时,OECD 的许多成员国尚未制定隐私保护法,因此,《OECD隐私准则》针对其成员国规定了四项“要求”,即在国内法的制定和完善中考虑《OECD 隐私准则》规定的原则,不得以个人隐私保护的名义阻碍个人数据的国际流通,协助执行《OECD 隐私准则》,尽快同意适用《OECD 隐私准则》的特别程序与合作。也就是说,虽然《OECD 隐私准则》无法律约束力,但要求各国在国内法中规定个人数据的国际自由流通和保护的必要程序,八原则作为通用的、普遍的原则被各国的法律制度参考或采纳,从而完成从非约束性原则到普遍原则的转变,在这一点上,这个转变具有重要现实意义。这个意义在2013 年《OECD 隐私准则》修订时的讨论中也再次引起关注。[16]2013 年的OECD 指导方针修改中,由5 部22 个项目构成的1980 年版,在2013 年修改版中虽然变更为第6 部23 项,但是指导方针整体的项目数只增加了第1 项。并且,方针的对象范围没有变更,8 原则也没有变更。另一方面,针对加盟国的“要求事项”,在上述第4 项中,①针对保护隐私和信息的自由流通,在政府内的最高水平显示领导能力并执行;②将本劝告的附属书中所示构成整体的指南通过所有相关人员(利益相关者)参与的过程来履行,③将劝告广泛地渗透到公共部门和民间领域的三个方面。鉴于各国的法律整顿已经完成,政府部门和民间领域双方在实施确保其有效性的措施的同时,也变更为要求所有相关人员(利益相关者)参与的内容。在制定规则方面,确保优先权往往与取得主导权相联系。例如,OECD 《AI 理事会劝告》制定的AI 原则等,以OECD 的影响力获得了主导权。另外,在保护个人数据方面,EU 先行采取了各种措施,从《个人数据保护指令》到《通用数据保护条例》(GDPR)以及先行实施的各种新措施而公布的准则,可以规定要求EU 以外的其他国家也要采取相应措施,以对其准则做出回应,这对其他国家相关法律的制定起到了引领和主导作用。EU 在制定AI 准则或AI 原则方面,也在不断地重复同样的模式。EU 以2014 年公布的《机器人准则》为开端,随后经过多方讨论公布了非约束性的AI 准则或AI 原则。强调在研究值得信赖的AI 准则时,重要的不仅是列出一份AI 伦理原则的清单,而是要让这些AI 原则在实际操作中能够发挥作用,即研究如何将这些非约束性原则纳入到实际规则中,让其转变成具有约束力的普遍性原则非常重要。此外,EU 在针对AI 规制的法律完善方面,仍在进行系统性的研究,为在出版的《白皮书》中公布AI 相关概念和具体内容做准备。在日本,总务省的AI 网络推进会议有关AI 的举措,也在其他国家采取行动前先行进行了研究,其成果于2016 年G7 香川·高松信息通信大臣会议[17]G7 香川·高松情報通信大臣会合 (https://www.soumu.go.jp/joho_kokusai/g7ict/index.html)(2016 年(平成 28 年)4 月)。上公布。鉴于AI 发展的趋势,随着未来有望出现的AI 原则热潮的到来,AI 原则的传播将增加社会对原则的接受度,即使是非约束性的准则或原则,在法律完善的过程中也能发挥参考作用。为确保实施法律完善后的实效性,AI 非约束性原则转换为具有约束力的普遍原则也应进入研讨阶段。

猜你喜欢
规制准则个人信息
网约车平台责任条款的识别方法——基于解释进路的正当规制
个人信息保护进入“法时代”
控制股东滥用权利规制的司法观察及漏洞填补
敏感个人信息保护:我国《个人信息保护法》的重要内容
主题语境九:个人信息(1)
民法典应进一步完善侵害个人信息责任规定
完善地方政府行政作为法律规制的思考
新审计准则背景下审计教学面临的困境及出路
内容规制
探析夹逼准则在求极限中的应用