欧盟发布《人工智能白皮书:通往卓越与信任的欧洲之路》

2020-09-26 08:15王晓菲中国科学技术信息研究所
科技中国 2020年9期
关键词:高风险欧洲监管

文/王晓菲(中国科学技术信息研究所)

2020 年2 月,欧盟委员会发布《人工智能白皮书:通往卓越与信任的欧洲之路》(以下简称《白皮书》),认为面对人工智能带来的机遇和挑战,欧洲需要建立卓越且可信任的人工智能生态系统。为实现“卓越”目标,应向世界输出欧洲人工智能价值观与规则,推动公共部门应用人工智能。为实现“可信赖”目标,应构建欧洲共同人工智能监管框架,按照风险分级监管。

《白皮书》指出,人工智能同时带来机遇和挑战,因此欧洲需要构建卓越和可信任的人工智能生态系统。其中“卓越”是指能够充分吸收和发展相关技术,抓住稍纵即逝的机会;“可信任”是指能够充分应对人工智能的潜在风险。

一、欧洲人工智能发展前景分析

(一)优势:多方面能力和下一次数据浪潮

欧洲在开发人工智能潜力方面具备优势,因为它不仅是人工智能的使用者,还具备设计创新与生产制造能力。在设计创新方面,欧洲拥有卓越的研究中心和创新型企业、强大的计算设施和大量未充分利用的公共数据。在生产制造方面,欧洲在制造业人工智能应用上处于世界领先地位,在低能耗数字安全系统上具有公认的产业优势,而这两个方面对人工智能未来发展至关重要。

下一波数据浪潮将给欧洲带来新的机会。全球数据量迅猛增长,智能互联物品和边缘计算的数据存储处理量不断提高。利用该契机,欧洲可以扭转数据应用劣势,结合低耗能电子产品优势发展下一代人工智能处理器,结合神经网络优势发展工业4.0 时代的自动化工业流程和自动驾驶,结合科研优势维持人工智能算法领先地位。

(二)不足:投资与数据

欧洲需要大幅提高人工智能研究创新的公共与私人投资,弥合与北美、亚洲等主要竞争地区的投资差距。

欧洲数据基础设施建设应满足可信任人工智能需求。换言之,这些数据基础设施生成的数据可用于训练人工智能,其生成的人工智能应该符合欧洲的人工智能价值观与规则。

二、构建卓越生态系统

欧盟应构建卓越生态系统,推动公共和私人部门对人工智能的开发利用,并在以下方面加快行动:

(一)向世界推广欧洲人工智能价值观与规则

向世界推广欧盟的人工智能价值观有利于欧洲实现全球人工智能领导地位,因此欧盟的国际合作必须建立在自身价值观和人工智能规则的基础上。欧洲人工智能价值观的核心是尊重人权,包括人性尊严、多样性、非歧视、隐私、个人数据保护等方面。欧洲人工智能主要规则包括支持向上规制趋同(upward regulatory convergence)、共享包括数据在内的关键资源、建立公平的竞争环境等。其中,欧盟委员会将重点监控第三国政策是否会对数据流通形成不当限制,并通过双边贸易谈判和世贸组织解决这一问题。

(二)推动公共部门应用人工智能

人工智能应尽快融入公共领域(如政府部门、医疗、公用事业、交通服务、金融监管机构),特别是在大规模应用条件成熟的医疗和交通领域。欧盟将制定这些领域的人工智能开发、试验和应用计划,优先关注医疗、农村地区的政府和公共机构。欧盟还将制定《人工智能应用计划》,旨在将人工智能纳入公共采购范围,并利用人工智能优化公共采购流程。

(三)以人工智能推进环保

环保应成为人工智能发展重要原则。欧盟委员会应与成员国共同利用人工智能系统提高资源和能源使用效率,应对气候变化和环境恶化。

(四)加强计算能力建设

计算基础设施是人工智能发展的重要基础。欧盟委员会将通过《数字欧洲计划》投入超过40亿欧元,用以发展高性能计算、量子计算、边缘计算、云计算等基础设施。

(五)在研究、创新与投资方面形成合力

欧洲拥有众多人工智能研究与创新机构,但这些机构各自展开工作,未能形成规模效应,难以与全球领先者竞争。《白皮书》建议,研究与创新机构之间应加强合作与网络构建,以吸引人才和投资并提高水平。欧洲在某些领域具备成为全球领导者的潜力,应该成为欧洲人工智能研究创新机构共同努力的方向,如工业、健康、交通、金融、农产食品价值链、能源/环境、林业、地球观测与空间领域。此外,建设试验与测试中心同样重要,因为它们能够推动研究创新的后续开发利用。

为优化投资效果,欧盟应修订《人工智能协调计划》,将欧盟层面投资集中于单个成员国不能完成的行动领域,着重满足欠发达与农村地区的需求,并吸引其它主体的共同投资,实现未来10 年内投入超过200 亿欧元的投资目标。

(六)加强技能培训

欧洲公民的人工智能技能水平有待提高,应从监管人员、教育培训体系、伦理教育以及硕士课程几个方面着重入手。欧盟将:加强对官员的人工智能培训,基于人工智能提升管理水平;修订《数字教育行动计划》以改革教育与培训体系,通过学习和预测性分析等人工智能技术提高教学质量,并在各阶段教育中增加人工智能科普课程;建立由世界一流水平的欧洲大学与高等教育机构组成的网络,吸引全世界最优秀的科学家与教授,开展世界一流的人工智能硕士教育。

(七)推进中小企业人工智能应用

欧盟将从技术供给和融资两方面进行支持。在技术供给方面,数字创新枢纽将加强对中小企业技术支持,每个成员国应确保拥有至少一个人工智能专业水平较高的数字创新枢纽。在融资方面,欧盟将于2020 年发起总额为1 亿欧元的资助计划,通过股权融资为中小企业和初创企业提供开发创新性人工智能应用的资金。

(八)促进公私合作

欧盟委员会将在人工智能、数据和机器人领域建立新的公私合作伙伴关系,进行研究创新、投资以及与其他欧盟伙伴开展合作。

三、构建可信任生态系统

构建可信任生态系统要求建立欧洲共同人工智能监管框架,否则对潜在风险的恐惧将阻碍人工智能的发展,各成员国建立不同的监管框架将会割裂单一市场,难以形成规模效应。

(一)主要目标

监管框架以减少人工智能对社会的潜在风险为目标,特别是那些危害最大的风险:一是对个人数据、隐私保护和非歧视等基本权利的威胁,如人工智能可用于解密匿名数据,或从数据中“学会”歧视。二是对安全和法律责任制度的挑战,如自动驾驶可能造成车祸,而车祸原因可能很复杂,既有可能是算法问题,也有可能是数据或设备问题。而现有法律制度难以公平合理地追责。

(二)适用范围

监管框架应适用于一切使用人工智能技术的产品与服务,其中关于“人工智能”的定义包含“数据和算法”两大元素。该定义留出了修改空间,以适应未来人工智能技术的发展,又不至过分模糊而引起执法纠纷。为减轻监管负担,监管框架与其它欧盟法之间是“特殊法与一般法”的关系,即监管框架只规定确需专门立法的人工智能法律问题,没有涉及的部分仍由其它欧盟法规定,如消费者保护法、竞争法等,以最大程度地避免重复立法。

(三)基本原则

监管框架建立在七大基本原则上,即:由人类授权并监控,技术鲁棒性(robustness,本义指“可靠、健壮”,特指在异常和危险情况下系统生存的能力)与安全性,隐私与数据治理,透明度,多样性、非歧视与公平性,社会与环境福祉,可追责性。

(四)分级风险监管

为避免过重监管阻碍创新,监管框架将按照风险分级,对“高风险”人工智能进行更为严格的监管。风险分级标准如下:首先,以“领域”和“用途”为主要标准划分风险高低,只有都符合标准才属于高风险人工智能。例如,从领域上来看,医疗、交通、能源和许多公共领域的人工智能都属高风险。但从用途上来看,医疗预约系统错误影响较小。因此,涉及生命健康的医用人工智能属于高风险人工智能,但医疗预约系统不属于。其次,以上规定属于一般规则,但影响重大的人工智能技术除外,如用于招聘的人工智能、远程生物特征识别等侵扰式监控技术,无论何种领域和用途都为高风险。

(五)高风险人工智能监管

首先,应从如下方面对高风险人工智能进行监管,包括:

训练人工智能的数据应符合要求。人工智能的运行方式和决策很大程度上取决于训练数据,应采取必要措施确保该过程符合欧盟规则与价值观,特别是安全、非歧视、个人与隐私数据保护原则。安全和非歧视原则通常要求提高数据的代表性,如覆盖所有危险情况或少数群体。个人隐私和数据保护主要由《通用数据保护条例》和《执法指令》规定。

为追溯隐患原因并明确责任,应在合理期限内保留部分记录和数据,供监管部门在必要时查询。这些记录和数据主要包括:有关算法设计与运行的记录,特别是如何确保安全和非歧视;有关如何选取训练数据与验证数据的记录,包括数据的主要特征和选取方法;在必要时还应保留数据本身。

为负责任地使用高风险人工智能,使用者应被告知如下信息:自己正在和人工智能交互,而不是与人类互动;正在使用的人工智能系统的用途和局限。

为确保技术鲁棒性,人工智能系统(特别是其中的高风险类别)应确保:在整个生命期间内可靠且精确,或者至少能够正确反映出精确程度;结果是可复制的;能够在整个生命周期内有效应对错误或不兼容问题;不仅能够抵御公开袭击,而且能够应对更为隐蔽的操纵数据或算法的企图,并采取补救措施。

所有高风险人工智能都应接受人工监控,但监控严格程度应由用途和影响决定,包括但不限于:输出结果经人工审查确认后方可生效(如批准社保);输出结果立即生效,但之后将接受人工审查(如授予信用卡);对运行中的人工智能系统进行监控,必要时立即由人工接管(如由驾驶员决定何时由人工驾驶代替自动驾驶);在设计阶段加入对人工智能系统的限制(如在传感器信号较低时使自动驾驶汽车停车)。

远程生物特征识别应遵守特别规定。远程生物特征识别包括在公共场所进行人脸识别等技术,只能在公众利益确有需要时方可使用,且应接受严格审批。

其次,由最应解决问题的主体承担上述责任。常见的责任主体包括人工智能开发者、制造者、销售者、使用者或服务提供者,各应解决不同的问题。例如,开发者应对开发阶段的隐患负责,使用者应对使用阶段的隐患负责。

第三,高风险人工智能投入使用前应接受事前合规审查,审查内容为是否履行了上述规定。

(六)普通人工智能监管

为鼓励相关主体自觉提高人工智能安全水平,普通人工智能应用也可自愿申请“升级”监管——即达到高风险人工智能标准。作为激励,确实达到高风险标准的人工智能应用可获得监管部门标签认证,提高其在消费者心中的信誉。

猜你喜欢
高风险欧洲监管
欧洲“芦笋季”
上海市高风险移动放射源在线监控系统设计及应用
数字监管 既能“看病”也能“开方”
高风险富水隧道施工技术经济分析
欧洲之恐:欧洲可以迅速扑灭恐怖袭击,但仍做不到防患于未然
综合监管=兜底的网?
在欧洲邂逅温州人
高风险测试对英语学习的反拨效应研究
迎接高风险的用水时代——读《大水荒:水资源大战与动荡未来》
实施“十个结合”有效监管网吧