大数据时代人工智能的法律风险及其防范

2019-12-13 12:58
法制博览 2019年22期
关键词:销售者伦理人工智能

薛 丹

贵州民族大学,贵州 贵阳 550025

人工智能的应用范围十分广泛,是推动大数据时代进一步发展的重要因素,若想充分发挥人工智能技术的价值优势,可以通过采取制定完善的制度与体系等科学手段对其存在的法律风险进行防范与改善。这要求人工智能发展方向与大数据时代前进趋势保持一致,如此方能推动人工智能在大数据时代健康稳定发展。

一、大数据时代人工智能的法律风险

(一)个人隐私侵权

人工智能共包括感知、推理、学习、行动几个环节,这些环节作用的充分发挥离不开大数据的支持,数据样本越大,人工智能提供的服务越精准,越有利于提高信息传输速率。但是在为人们生活生产带来便捷性的同时,人工智能的发展也呈现出明显的法律风险,即个人隐私泄露或侵权,主要原因是大数据时代信息价值不断提高,某些不法分子会为了获取利益而利用智能技术侵犯他人隐私,给他人造成严重的经济与名誉损失。

(二)法律伦理困境

在大数据技术支持下,网络上的信息呈现出明显的多样化、复杂化等特点,使用人工智能获取数据必然会浏览到某些不良信息,使得人们遭受法律伦理困境侵扰。这种行为与国际上规定的禁止种族歧视法律伦理内容相违背,通过调查分析得出引发该现象的原因主要有:第一,人工智能软件的数据训练算法歧视性较强;第二,人工智能无法正确且全面的理解人类语言;第三,人工智能缺乏情感思维与社会经验,认知能力与人类差距较大[1]。

(三)侵权责任承担者不明确

若想证实一件产品的价值,最好的方法就是将其应用于实际中,经过多方实验证明,人工智能会因为本身质量与不正当使用给他人造成伤害,但对于责任承担者的界定却不明确,我国并没有出台针对性法律法规,导致伤害性、侵权性等问题逐渐成为“疑难杂症”。通常情况下,需要满足危害行为、因果关系、损害后果、主观过错此四项条件,方能被判定为民事侵权,尽管人工智能可以如同人类一般“思考”,但其并不是国家承认的公民,不具备相应权利与责任,因此为了推动人工智能在大数据时代实现进一步发展,有关人员必须解决该项法律风险,明确侵权责任具体承担者。

二、在大数据时代防范人工智能法律风险的措施

(一)创建科学的多元价值目标

在大数据时代,如果想要真正提高人工智能法律风险防范力度、避免对他人信息与权益造成侵害,需要对人工智能技术的使用及基于此创造的产品进行监管,如此可以通过创建科学的多元价值目标实现。第一,确定具有正义性的普适价值目标,扩大“正义性”的适用范围,将人格、秩序、道德、法律等内容全部纳入正义价值,以此为立足点,构建人工智能法律风险防范监管机制,确保及时发现并解决算法歧视、“大数据杀熟”等恶性现象;第二,明确具有安全性的核心价值目标,由于我国的人工智能技术仍处于发展阶段,在具体应用方面存在一定的安全隐患,所以为了保证社会稳定与国民安全,有关人员应从安全角度切入,建立健全人工智能安全防范体系,对人工智能的发展进行实时监督;第三,塑造具有创新性的灵魂价值目标,创新是一个国家民族长治久安的重要内容,在坚持创新性的基础上制定发展战略,对人工智能法律风险进行防范,一方面可以增强人工智能产品性能的安全性,另一方面可以推动人工智能技术良性发展[2]。

(二)构建合理的伦理规范体系

因为建立健全人工智能法律伦理相关制度是一件长期且系统的工作,构建难度相对较大,所以为了适应大数据时代人工智能的发展,解决眼下存在的某些问题,有关人员可以先构建合理的法律伦理规范体系,对数据算法进行优化,加强人工智能软件的开发与销售的监管力度,禁止带有“歧视”色彩的软件进入市场,以此提高法律风险防范能力。第一,国家有关部门可以集合各界专业人士的力量,在中央与地方组建“人工智能法律伦理管理委员会”,制定具有统一性的《人工智能法律伦理规范章程》并确保严格执行,明确人工智能开发的法律标准、道德标准、伦理标准;第二,人工智能软件以数据算法为运行基础,若是算法存在明显的歧视性,人工智能做出的判断自然携带法律伦理风险,因此专业人员在开发人工智能软件或产品时,可以采用自动过滤敏感词汇的数据库,对数据算法进行优化,市场监管部门及有关部门应安排专业人员对产品的数据算法进行严格审查,尽力从源头遏制法律风险。

(三)建立完善的法律监管制度

针对侵权责任承担者不明确的法律风险,可以通过建立完善的法律监管制度改善,在制定制度时应对生产者、销售者、使用者的责任范畴进行明确,有利于快速找到负责人。第一,若是因为生产者引发人工智能侵权问题,可以根据《中华人民共和国侵权责任法》(以下通称《侵权责任法》)第四十三条规定“因产品存在缺陷而造成损害的,被侵权人可以向生产者请求赔偿”解决;第二,如果是因为销售者责任而引发的权益侵害问题,可以按照《侵权责任法》第四十二条规定“因销售者的过错使得产品存在缺陷,对他人造成损害的,由销售者承担侵权责任”向销售者追责;第三,若是因为人工智能使用者使用不当造成的侵权问题,需要由使用者承担责任,但需要注意的是,如果使用者为某企业或单位,则需要该企业或单位承担责任,如果不是,则由个人承担[3]。

利用法律监管制度对人工智能技术引发的法律风险进行防范,必须做好事前预防、事中管控、事后监测等工作,以此保证法律监管制度的全面性。首先,在事前构建具有较强前瞻性的风险预警机制,将由人工智能引发的法律风险划分为“特别重大”、“重大”、“一般”等几个等级,当风险突然出现或即将出现时,及时对风险进行分析、评估,制定解决或预防措施,同时发布预警信息,尽量控制风险危害程度。其次,构建人工智能实时监测平台,对人工智能技术使用情况、系统应用情况、产品开发现状等进行监控,重点监测安全性能与数据算法;建立人工智能动态评价机制,对人工智能相关产品的设计、制造、销售、使用进行动态评估,明确其风险性与危害性。最后,设立“人工智能监管委员会”,对人工智能技术相关内容进行监督管理,加强滥用技术的惩罚力度,尤其是通过算法合谋误导或欺骗他人、侵害他人隐私等行为。

三、结束语

综上所述,在大数据时代,人工智能技术作为一种先进的高新技术,对推动我国整体发展进步具有积极影响,为了保证该技术作用的充分发挥,有关人员需要明确人工智能技术存在的个人隐私侵权、法律伦理困境等问题,通过构建多元价值目标、健全规范体系、制定监管制度等方式,避免人工智能技术被滥用。

猜你喜欢
销售者伦理人工智能
《心之死》的趣味与伦理焦虑
销售者产品责任归责原则的再思考
——《民法典》删除《侵权责任法》第42条之解读
护生眼中的伦理修养
人工智能与就业
医改莫忘构建伦理新机制
比较法视野中的销售者责任
婚姻家庭法的伦理性及其立法延展