算法推荐背景下的平台责任研究

2023-05-21 02:59吴奕浏黎昊阳
中国信息化 2023年4期
关键词:损害赔偿主体责任

文|吴奕浏 黎昊阳

人工智能时代下,在以算法推荐为工具的平台经济发展如火如荼的同时,也为法律法规带来了新的挑战与风险。由此,对算法问责进行研究尤有重要意义。纵观现有立法,意图在算法侵权中厘清平台的责任认定与承担,仍然存在着归责标准不清、责任主体识别困难、责任承担难以落实等困境。对此,应当细化规则标准、加大平台证明责任、构建完整的侵权赔偿体系,遵循从归责到主体识别,再到责任落实的逻辑标准,三位一体地完善算法推荐中的平台责任建构,最终达到治理行业乱象,引导行业有序发展的理想目标。

本文尝试对算法推荐带来的法律问题进行系统分析,结合我国平台责任的现有相关立法,探讨其不足并提出算法推荐平台问责的完善建议,力求在推动我国平台问责相关法律制度完善的同时,规范互联网平台经济的发展,促进我国数字经济的繁荣。

一、与算法责任相关的立法

我国有关算法推荐的最早立法是2019年1月1日生效的《电子商务法》。该法第18条首次对平台算法和个性化推荐进行规定,明确要求平台搜索算法应“提供不针对其个人特征的选项”。该法第77条规定了平台违反算法义务的责任,但以行政责任为主导的责任形式使消费者维权成本高,对平台而言也很难发挥有效的规制作用。

此后,2020年3月1日施行的《网络信息内容生态治理规定》中,规定网络信息内容服务平台采用个性化算法推荐技术推送信息的应当建立健全人工干预和用户自主选择机制。该款和《电子商务法》第18条类似,允许用户主动关闭个性化推荐服务,并在算法推荐的运作机制中加强了人工干预。2021年9月1日实施的《中华人民共和国数据安全法》规定,网络运营者利用用户数据和算法推送新闻信息、商业广告等,应当以明显方式标明“定推”字样,并为用户提供停止接收定向推送信息的功能。2021年9月,国家互联网信息办公室联合相关部门发布《关于加强互联网信息服务算法综合治理的指导意见》,首次明确“算法治理”概念并要求企业建立算法安全责任制度。2021年11月1日起实施的《个人信息保护法》,回应了“大数据杀熟”等社会热点问题,对救济机制、平台归责原则、损害赔偿责任和公益诉讼制度等均做出相关规定,体现出立法的时代性和本土性。

2022年1月,国家互联网信息办公室再次联合相关部门发布《互联网信息服务算法推荐管理规定》(以下简称为《规定》),并于2022年3月1日起正式实施。《规定》以互联网信息服务算法推荐活动为切入点,明确要求企业强化责任意识,对算法应用产生的结果负主体责任。《规定》为我国算法治理奠定了一定的基础,但在平台与算法责任定位、平台问责范围与幅度及归责模式等方面,并没有进一步的相关规定。总体而言,我国有关算法的现有立法普遍层级不高且较为分散,内容不够细化。

二、算法推荐背景下平台责任的认定困境

(一)归责标准不清

我国目前关于算法推荐的相关立法,虽然体现出了对于算法、平台责任的重视,但仍然存在着内容分散、不够细化等问题,对平台、算法的责任认定、规则标准并不清晰。最早出台的《电子商务法》中通过增加算法的事前监管,挣脱了传统以结果作为平台过错的判断依据的桎梏,但其中对于平台尽到义务的事前监管标准尚无规定。同时,《个人信息保护法》将平台算法造成损害的归责原则界定为过错推定责任,但如何根据不同的过错程度标准对平台进行责任认定,仍然有待明晰。2022年3月1月1日正式实施的《互联网信息服务算法推荐管理规定》虽然强化了平台责任,为应对算法推荐乱象提供了指引和规范,但在归责标准上仍然没有明确。

总体来看,我国目前立法中对于算法侵权问题的责任划分处于较为零散、模糊的状态。而归责标准作为算法纠纷中基础性的标准问题,其对于司法实践、立法导向指引等方面均具有重要意义,完善归责标准是确定平台责任的固本之基。

(二)责任主体识别困难

在涉及算法侵权案件之中,侵权行为涉及主体众多,包括算法开发者、算法使用者(即平台)、算法消费者。在某些情形下,算法开发者与算法使用者会出现重合情形,如平台自主开发设计算法并利用算法为用户提供服务。但大部分情形下,二者主体分离。同时基于算法的自主学习能力,算法消费者也通过自己的行为参与了算法的完善。从算法投入使用到侵权行为发生之时,每一环节均有可能存在不同的算法参与主体。在人工智能技术广泛应用的当今背景之下,参与算法的主体兼具复杂性与可变性,加之算法推荐所固有的黑箱特性,均为侵权主体的识别与归责认定带来了一定的困难。

不仅如此,随着人工智能时代下算法自动化趋势的加强,平台多凭借“技术中立”的特性,以其不存在主观过错进行抗辩,最终导致责任主体识别困难重重的责任鸿沟。例如,在爱奇艺诉今日头条(字节跳动公司)信息流推荐传播《延禧攻略》一案中,今日头条辩称侵权内容为算法推荐技术所为,自己并无主观过错,将侵权责任主体划归为算法自身以逃避平台责任。由此可见,在算法侵权中,责任主体的确认在自然人、法人和技术三者之中都存在着识别困境。

(三)责任承担难以落实

随着人工智能时代下算法技术自动化的发展,平台多以技术中立为借口逃避侵权责任承担。在《个人信息保护法》公开实施之后,将平台算法造成损害的归责原则界定为过错推定责任,一定程度上回应了这一问题。

然而,在责任承担上仍然难以落实。侵权损害赔偿多以填补损失、返还侵权主体因侵权行为所获利益等作为赔偿量化标准。但算法侵权因其所固有的隐蔽性、不确定性,受害人所遭受的损害结果难以确定。在财产性损失上,客观上难以统计侵权作品的推送人数与推送范围,财产性损失的量化也就无从谈起;非财产性损失上,如隐私权遭受侵犯,也存在着侵权行为造成影响范围难以确定的后顾之虞。

同时,惩罚性赔偿和精神损害赔偿在算法侵权案件中的缺位,也导致了受害人难以得到充分救济、侵权问题屡禁不止的责任困境。目前,我国立法中对于惩罚性赔偿要求严格,以消费者权益保护法为滥觞,继而在合同等领域逐步完善,但在算法侵权领域还未有所规定。然而,惩罚性赔偿对于弥补受害人损失、阻隔次生危害等方面有着重大意义;精神损害赔偿也因其加诸受害人的高门槛举证责任而难以适用。在朱某与北京百度网讯科技有限公司隐私权纠纷案中,法院因受害人无法证明其受到的实质上损害,驳回了其精神损害赔偿的诉求。精神损害赔偿的适用困难,阻碍了精神损害上侵权责任的最终落实承担,也不利于遏制侵权行为、救济受害者权益。

由此而引申出的算法侵权赔偿标准模糊,也是平台责任承担之中的最终落实问题。

三、算法推荐背景下平台责任的完善路径

(一)因地制宜,细化归责标准

对于目前在算法侵权案件中归责标准不清的问题,细化、明晰归责标准则是认定平台责任承担的破局之道。现行立法在归责方面多为统筹性、原则性立法,在具体案件适用过程中存在着归责适用不清的问题。对于不同应用场景中的风险规制、责任承担,应当因地制宜,结合应用场景的风险程度、应用特点等设置对应的归责标准体系。例如,以风险程度作为区分,对于高风险的关键算法系统,可以考虑对平台采取严格责任或者无过错责任的归责标准,并辅以更高要求的事前监管义务;对于风险适中的算法系统,则可以考虑适用过错推定责任,辅以适中的事前监管义务;对于风险较低、使用范围较小的算法系统,可以适当减轻其责任与义务。

早在2017年5月,欧洲经济与社会委员会发布了倡议建立AI监控和认证的标准系统的意见,实质上正是呼吁建立针对人工智能算法归责标准。标准是保障算法有序发展的压舱石,建立一套系统性的完整归责标准,是各国在应对算法侵权问题上的大势所趋。

(二)加大平台证明责任

目前人工智能尚未在法律上拥有责任主体地位,故确保受害人能确定到承担责任的自然人、法人主体,是责任主体识别的首要目标。在其中,可以通过事前备案和事后追责两方面,加大平台证明责任,促进责任主体识别。

事前备案中,可以考虑通过在算法从开发到实际投入使用的各个阶段的审计日志中,对各个主体的编码行为作出及时记录,并由平台对此承担证明责任,以此为责任主体识别与责任划分提供直接依据。在美国公共政策委员会发布的《关于算法透明度和责任的声明》中提及,应在系统开发和部署的每个阶段应用算法透明和可问责性的原则,使用算法决策的机构应对算法所遵循的程序和具体制定的决策进行解释。在事前监管中,可通过事前备案,为未来可能发生的责任承担纠纷提供事前保障。

事后追责中,在对算法的不同主体进行责任分配之时,可以加大平台承担的责任。其中,为保护受害者权益,可以考虑对平台、算法开发者一方实行不真正连带责任,即受害者可向任意一方主张承担赔偿责任,再由其内部进行责任分配与追偿。如此一来,将责任主体的识别责任转移到信息优势方,能够补足侵权主体与受害者在算法侵权上天然的信息不对称,能够保护相对弱势方权益,实现责权益平衡。

(三)构建完整的侵权赔偿体系

在算法侵权中,难以确定的赔偿数额、缺位的惩罚性赔偿和精神损害赔偿造成了侵权责任难以落实,受害者权益难以获得救济的困境。损害赔偿问题正是侵权责任落实的戈尔迪之结,构建完整的侵权赔偿体系势在必行。

首先,对于侵权损害赔偿数额难以确定的问题,在个案上,应明确规定受害人有权要求侵权人(即平台)提供侵权信息的来源、传播情况,以此作为计算赔偿金额的依据。如此规定也与平台在算法侵权案件中所拥有的信息优势地位相匹配,有利于降低受害者寻求权利救济的门槛。

其次,应当增设惩罚性赔偿与精神损害赔偿。如果算法相关主体明知算法存在缺陷,仍然设计、使用,造成他人财产、精神健康严重损害的,受害人可以主张惩罚性赔偿。对于惩罚性赔偿的规定同样基于算法开发者、使用者所享有的信息优势地位,向信息弱势方即受害者有一定倾斜,其存在也能震慑缺陷算法的设计与使用。

同时,在算法侵权中适用精神损害赔偿可以根据个案情形适当放宽要求。《欧盟一般数据保护条例》出台后,《爱尔兰数据保护法》以其作为依据修改了个人信息权益侵害的损害赔偿责任,明确损害为物质损害和非物质损害,在实际上支持了算法侵权中对精神损害赔偿的诉求。无独有偶,《德国联邦数据保护法》也将精神损害赔偿的“严重侵犯隐私”删去。各国立法的举措均表现出,国际上对于算法侵权中的精神损害赔偿要求存在着放宽趋势。

如此一来,通过施加平台的信息提供义务,帮助确定损害赔偿数额;再增设惩罚性赔偿,将恶性侵权责任落实到位,辅以适当放宽条件的精神损害赔偿,由此构成多位一体的完整算法侵权赔偿体系,能够确保最终的侵权责任承担落实。

四、结语

在人工智能时代下,算法作为平台经济的重要工具,其开发与使用进一步推动了数字经济的发展与变革。算法推荐的发展过程中出现的现实问题,正是法律规制回应的方向。通过了解现有立法及不足,探讨归责标准不清、责任主体识别困难、侵权责任承担难以落实的问题。对此,在司法实践和立法经验中探索前行,通过细化归责标准、加大平台证明责任、构建完整的侵权赔偿体系,递进式地探寻问责路径。遵循问题导向的逻辑链条,期以立法之进步,助力数字经济有序发展。

猜你喜欢
损害赔偿主体责任
论比例原则在知识产权损害赔偿中的适用
论自然人破产法的适用主体
使命在心 责任在肩
每个人都该承担起自己的责任
生态环境损害赔偿制度明年起全国试行
知识产权侵权损害赔偿:问题与反思
关于知识产权损害赔偿的几点思考
关于遗产保护主体的思考
论多元主体的生成
期望嘱托责任