人工智能的社会影响研究

2023-03-09 04:20钱燕娜储召锋
关键词:伦理人工智能人类

钱燕娜 储召锋

(1.中国人民解放军国防大学政治学院,上海 201602;2.国防科技术大学国际关系学院,南京 211599)

人工智能(Artificial Intelligence,简称AI)技术的集成与演化,不仅通过促使人工智能技术从科学试验阶段迈入商业应用阶段,促进了生产力发展,而且通过重构社会结构、变革社会秩序,深刻影响着人们的价值观念、认知结构与生活方式。但当前社会结构与社会秩序正处于分化重构的深刻变革中,形成了诸多不稳定因素,蕴含着巨大的不确定性,使得人工智能技术的应用存在大量潜藏的可能危机。因此,面对人工智能带来的潜在风险,人类在确保美好生活品质与技术创新的双重追求下,对人工智能技术的应用加以规制更加符合法律和伦理规范。

一、人工智能的起源、概念及发展

“人类对人工智能和智能机器的梦想与追求,可以追溯到3000 年前。”[1]古代中国文献对人工智能奴仆地位的描述,和同时期的西方文学是大体一致的[2]。但与西方国家侧重关注于自动化和机械化不同的是,我国在“万物有灵”思想影响下,在农业文明和工业文明时期,对于人工智能的理解还仅停留在幻想或准备阶段,直到网络文明时期,才将人工智能转变为现实。

(一)人工智能的起源

从古至今,人类对于人工智能的研究和应用一直延续。我国古代的神话传说就描绘了一些拥有精湛技艺的工匠,他们可以创造拥有智慧和意志的人类,比如西周时代的偃师,将自己的技术献给周穆王,以此来改变周穆王的生活。因此,国内有学者认为,世界上最古老的机器人,可以追溯到东汉时期张衡发明的指南车,它的诞生标志着人类对人工智能研究和应用的开始[3]2。现代意义上的初期人工智能研究,发生于20 世纪30 年代末至50 年代,此阶段出现了一系列科学进展交汇的产物,尚未形成人工智能领域的专门研究,大体上可以分为早期的神经学研究、游戏人工智能研究、图灵测试以及符号推理研究4 个板块。

在早期的神经学研究中,诺伯特·维纳(Norbert Wiener)在“控制论”中提出了电子网络的可控性和稳定性,而香农(Claude Elwood Shannon,)则进一步探索了数字信号的特性,并利用计算理论证明它们可以被用于各种不同的计算任务。图灵(Alan Mathison Turing)也在此基础上进行了深入研究,以期更好地理解神经系统的运行机制。此外,沃尔特·皮茨(Walter Pitts)和沃伦·麦卡洛克(Warren McCulloch)提出利用人工神经元网络进行简单逻辑运算的机制,认为神经元活动因果关系的不可逆性带来了人类知识在时间和空间上的不确定性,其反映出的大脑的无知也恰是人的知识变得有用的抽象互补物。1950 年,图灵在《计算机器与智能》一书中首次指出,只要一台机器能够通过电传设备和人类进行交流,而人们又不知道它的身份,就可以断定它拥有智慧。因此,“图灵测试”成为人工智能领域第一个重要的研究课题,也是“智能”的基础。1951 年,克里斯托弗·斯特雷奇(Christopher Strachey)和迪特里希·普林茨(Dietrich Prinz)联手,利用曼彻斯特大学的Ferranti Mark 1 机器,成功地开发出一款全新的西洋跳棋程序,这标志着人工智能技术在游戏领域的重大突破,为未来的科技发展奠定了坚实的基础。随后,在20 世纪50 年代中期,数字计算机的兴起又催生了一批研究符号推理的科学家。他们坚信,机器不仅可以进行数字计算,而且可以运用符号推理,这种推理方式可能是人类思维的核心[4]130-170。随着技术的发展,符号推理已成为开发智能机器的一种重要方法。

人工智能研究领域的正式确立是在1956 年的达特茅斯会议上。这一会议由约翰·麦卡锡(John McCarthy)与香农、内森·罗彻斯特(Nathan Rochester)联合组织发起。在此会议上,麦卡锡强调,“人工智能”一词应该被用于描述学习或智能的各个方面,以便机器能够准确地模拟它们[5]。马文·李·明斯基(Marvin Lee Minsky)明确指出,人工智能的发展目标应该集中在7 个领域:一是自动计算机,所谓“自动”指的是可编程;二是编程语言;三是神经网络;四是计算规模的理论,可解释为“计算复杂性”;五是自我改进,可解释为“自主学习”;六是抽象;七是随机性和创见性。他认为,人工智能可以通过自我学习和自我调整来实现自我改善,从而提高智能的性能和效率。“自主学习”提出了抽象性、随机性和创造性的概念。1956 年的达特茅斯会议也因此被称为人工智能的诞生,它为人工智能的发展提供了一个重要的起点。

(二)人工智能的概念

学界关于人工智能的定义一直存在不同观点。在一些教材中,人工智能被定义为一种研究和设计智能主体(Intelligent Agent)的技术,用以提高人类的生活质量和效率[6]。其中,智能主体可解释为,能够通过观测周围环境并作出行动以达到目标的系统[7]。我国的《人工智能标准化白皮书(2018版)》(以下简称《白皮书》)指出,人工智能是一种基于计算机科学的技术,旨在模仿、拓展和发挥人类的智慧,使我们能够更加准确、有效地识别周围的环境,从而收集有价值的数据,并将其转化为有效的解决方案[8]。《白皮书》还指出,人工智能可以被划分为弱人工智能和强人工智能,前者可以帮助用户更好地掌握信息、提高效率,而后者需要用户提供更多的支持,才能被更好地使用。随着弱人工智能技术的飞速发展,其在语音识别、图像处理、物体分割、机器翻译等领域已经达到甚至超过人类的能力。强人工智能技术虽然还处于初级阶段,但也取得长足进展,已能够学习人类的思考,拥有自主学习能力,能够做出正确的决策,以及自我实现和自我控制。强人工智能是指真正能思维的智能机器,这样的机器是有知觉和自我意识的,可分为“类人”(机器的思考和推理类似人的思维)与“非类人”(机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式)两大类。从一般意义上来说,达到人类水平的、能够自觉适应并应对外界环境挑战的、具有自我意识的人工智能称为“通用人工智能”“强人工智能”或“类人智能”。这种强大的人工智能,不仅引发了哲学层面的激烈讨论,而且带来了技术层面的极大挑战。当前,强人工智能技术鲜有进展,美国私营部门的专家及国家科技委员会比较支持的观点是,至少在未来几十年内这一技术难以实现[8]。

尼克·波斯特罗姆(Nick Bostrom)提出了“超级智能”概念,它指的是一种比最聪明的人脑更具创新性、通识性和社交技巧的机器。其目的是让人们可以更好地理解和应对复杂的社会环境,从而提高生活质量。随着技术的不断发展,人工智能的计算和思考能力正在迅速提升,甚至可以达到“技术奇点”所描述的水平。人工智能的“技术奇点”实质上形容的是电脑智能与人脑智能实现兼容的时刻。超人工智能时代能否到来,目前仍是个极具争议的问题。雷·库兹韦尔(Ray Kurzweil)在其《奇点临近》一书中预言,“奇点”时刻会在2045 年出现,届时迎接人类的将是人工智能时代的降临和人类文明的终结[9]72。但刘成林教授指出,虽然“技术奇点论”指出了人类文明的终结以及机器可能对人类造成的伤害和破坏,但这种想象仍然存在,而且这种想象的可能性仍然非常渺茫,即使这一时刻真的到来,也会在人类的可控范围内[9]143。

(三)人工智能的发展

自1956 年起,受智能算法、计算速度、存储空间等多方面因素的制约与促进,人工智能的发展历经多次高潮和低谷,大致可分为6 个发展阶段:第一次繁荣期(1956—1976 年)、第一次低谷期(1976—1982 年)、第二次繁荣期(1982—1987 年)、第二次低谷期(1987—1997 年)、复苏期(1997—2010 年)以及增长爆发期(2010 年至今)。

1.第一次繁荣期(1956—1976 年)

1956 年,达特茅斯会议结束后即开启了人工智能的大发展时代,并持续到1976 年。这一阶段成功开发了计算机的程序功能,即能够证明几何定理,能够通过自然语言解决代数应用题、学习和使用英语等。为此,研究者们在此阶段对人工智能的发展展现了极其乐观的情绪,并纷纷预测“智能机器”将在20 年内出现。在此阶段,马文·闵斯基(Marvin Minsky)就曾预测,在未来3 到8 年内,将出现一台拥有超越人类智能的机器[4]272;同时,包括美国国防高级研究计划局在内的各个政府机构,均向人工智能研究领域投入大笔资金。

2.第一次低谷期(1976—1982 年)

直至20 世纪70 年代,一方面,随着计算任务复杂性的增大,初始计算机有限的存储能力与计算能力尚无法解决实际的人工智能问题;另一方面,尽管关于符号推理的研究快速发展,但对于诸多实务仍然无法进行形式化的表达。基于符号推理建立的模型的局限性,以及人们此前对于人工智能发展过度乐观的态度,导致该阶段人工智能研究领域现实与预测的巨大落差。因此,政府机构大量缩减甚至取消对人工智能研究领域的资助,人工智能研究进入了第一次低谷期。

3.第二次繁荣期(1982—1987 年)

1982 年,人工智能进入第二次发展高潮,“专家系统”等拥有逻辑规则推导、特定领域应对以及解决复杂问题的程序受到广泛欢迎。在这一时期,约翰·霍普菲尔德(John Hopfield)通过研究发现,“Hopfield 网络”可以以一种前所未有的方式学习、处理和分析数据[3]7。随着第二次技术革命的到来,神经网络的研究也取得巨大进步,决策树模型和多层人工神经网络的出现,让人工智能的可视化效果得到显著提升,并且打破了早期感知机的局限,为社会带来巨大变革[8]。但好景不长,这一时期只持续了短短5 年时间,人工智能领域的研究在1987 年再次陷入低谷期。

4.第二次低谷期(1987—1997 年)

类似于第一次低谷期,这一时期的“专家系统”不仅在知识能力、推理能力上存在诸多不足,而且维护费用也居高不下,其实用性仅局限于个别特定情形。1987 年,“专家系统”热潮迅速减退,随着LISP 机市场的崩溃,美国政府取消了针对人工智能的预算,日本第五代计算机项目也不得不放弃。人工智能研究领域面临着一系列的财政困境,进入了一个漫长而艰难的时期。

5.复苏期(1997—2010 年)

1997 年,IBM 公司开发的“深蓝”(Deep Blue)战胜了国际象棋世界冠军卡斯帕罗夫(Garry Kasparov),这一事件开启了人工智能的新纪元。此后,深度学习日渐受到关注,并对后续人工智能的发展起到重要的助推作用。1997 年至2010 年间,人工智能发展迅速,除IBM 公司开发了“深蓝”外,日本索尼公司推出了犬型机器人爱宝(AIBO)、美国iRobot 公司推出了吸尘器机器人Roomba、美国微软公司推出了微软机器人技术工作室(Microsoft Robotics Studio),这些成果为人工智能的发展提供了重要的支持和强大的动力。因此,这一时期,机器人模块化、平台统一化的趋势日渐显现,为后来人工智能的爆发式增长埋下伏笔。

6.增长爆发期(2010 年至今)

自2010 年起,人工智能进入爆发式增长阶段,计算机运算能力的增进、机器学习算法能力的提高以及数据要素呈指数级增长等因素是其快速发展的主要驱动力。2012 年,谷歌大脑凭借其独特的非监督式深度学习技术,在不受任何外部干预的情况下,从海量的视频数据中准确地提取出一只猫的特征,成为当时令人惊叹的成就[8]。2014 年,机器人“旺宝”现身我国第116 届广交会会展中心热情招呼访客。2016 年,阿尔法围棋(Alpha Go)在人机围棋比赛中,以4 比1 的总分战胜了当时的围棋世界冠军李世石。2020 年,美国和欧盟均发布了《人工智能白皮书》,我国也将发展人工智能技术提升到国家战略层面,并发布了《中共中央关于制定国民经济和社会发展第十四个五年规划和二〇三五年远景目标的建议》。该建议指出,应大力推动互联网、大数据、人工智能等技术与各行业的深度融合,加快先进制造业集群的发展,实现智能经济及整个经济社会的可持续发展;同时,通过构建一系列具有独特性、互补优势、结构完善的战略性新兴产业,推动新技术、新产品、新业态、新模式的发展,实现经济的可持续增长[10]。

二、人工智能对社会的影响

近年来,人工智能发展迅猛,已从一种抽象的概念变成可以实际应用的技术,并在不断深入的实践中,成为新一轮科技革新的重要引擎,是社会经济发展的强大助推器,对我们的日常生活产生深远影响。《新一代人工智能白皮书(2020 年)—产业智能化升级》指出,新一代的人工智能正在深度融合各行各业,加快数据和知识的转化,成为经济发展的关键因素,人机协同也已成为当今社会的主流生产和服务模式;同时,通过人工智能的跨界融合,人类社会可以实现更大的发展,人机协同将创造和分享作为经济生态的核心,从而不断推动产业走向更高的价值链,促进产业的智能化升级[11]。然而,人工智能的社会影响十分复杂,尽管有助于促进经济发展、改善人们的生活质量、为社会带来更大的福祉,但也很可能造成安全、法律、道德、伦理等方面的漏洞以及敏感信息的泄露等问题[12]。

(一)人工智能对社会的正面影响

时至今日,人工智能与人类社会的结合日趋紧密,其影响无处不在。迄今为止,科学技术的进步大多是围绕着人类感官进行的,都服务于人类感官的延伸以及人类对自身衣食住行以及精神的需求。人工智能作为新兴科学,也符合这一情况。在现阶段,人工智能理所应当会使我们的生活更加舒适,为我们提供更加优质的物质生活,具体来说,其正面影响主要涉及以下两个方面。

1.助推未来社会经济增长

一方面,随着技术的不断进步,人工智能已深入各行各业,成为经济结构转型升级的重要支撑。在金融领域,传统金融机构和科技公司正在努力通过人工智能改善服务架构,提高服务效率,为长尾客户提供更加个性化的金融服务,并同时降低金融风险,满足客户的需求。在教育领域,人工智能已渗透整个教学流程,并给该领域带来巨大变化。在政务服务领域,人工智能推动数字政务建设,加速政府智能化变革。在交通运输领域,无人驾驶汽车技术的发展尤为亮眼,而更加安全、快捷的无人货运和物流等新兴行业也在孕育衍生之中。在医疗行业领域,人工智能技术应用已在医疗影像、临床试验等方面全面铺开,目前,国内许多三甲医院已将医学影像智能辅助平台对接医院的信息化系统,构建标准化的人工智能产品市场准入机制,进一步加强医疗数据库建设成为后期智慧医疗的重要建设方向。人工智能的快速发展使其成为一种前所未有的技术,它不仅推动了技术革新和产业转型,而且为社会经济的进步做出了巨大贡献。

2.改变人类生产生活和思维方式

人工智能正在改变我们的生活方式。从智能手机、汽车的GPS 导航到智能管家和电子医疗顾问等,人工智能已渗透到我们生活的各个方面。人工智能GPS 导航的广泛普及便利了人们的日常出行,成为交通运输业不可或缺的一部分;GPS 在天气预报系统中的应用,提高了天气预报的准确度,更便于人们预防自然灾害,避免生命与财产的损失;机器的智能化、引擎的自动化促使人们工作效率的提高;人工智能算法驱动个性化互动体验在教育、服务等行业领域的场景化应用,提高了消费者的体验感及满意度;人工智能在医疗保健治疗等方面的应用,提高了癌症、溃疡等难治病的治愈率,改善了神经状况等疑难杂症的治疗效果;人工智能技术与社交媒体的深度融合进一步满足了人们对社交产品和服务的需求;人工智能技术已成为智能手机和体感游戏机的重要组成部分,为社交和娱乐领域带来巨大改变。

(二)人工智能对社会的负面影响

尽管人工智能技术的迅猛发展改变了人类的生产生活方式,但却给社会带来了安全、法治、伦理等方面的挑战,使得社会秩序和公共管理体制面临前所未有的考验。

1.人工智能引发的社会安全风险

首先,随着人工智能技术的飞速发展,虚假和不良信息的泛滥越来越严重,数字内容治理更为复杂。例如,一些应用软件可以利用人工智能技术实现面部的识别与编辑,从而进行深度伪造,并以此传播“以假乱真”的不良信息,严重破坏网络空间的安全和秩序。其次,人工智能技术的更新迭代以海量的数据收集、识别、处理与学习为基础,在数据收集与分析过程中极易涉及个人敏感信息,很可能导致用户隐私的泄露,侵犯用户隐私权。最后,尽管当前人工智能具有一定程度的自主学习与决策能力,但技术上还未达到尽善尽美。人工智能技术的安全控制机制并不完善,系统故障、决策失误等现象时有发生,甚至出现所谓的“机器人杀人”事件,加之人工智能武器的研发和应用,人们已经开始为人类社会的安全乃至人类的命运担心。

2.人工智能引发的法治风险

2016 年,欧盟委员会法律事务委员会向欧盟委员会提交动议,要求将最先进的自动化机器人的身份定义为“电子人”,这极大地改变了传统的民事主体制度。2017 年,沙特阿拉伯正式宣布“索菲亚”获得公民资格。2017 年,“小冰”智能机器人的原创诗集《阳光失了玻璃窗》出版,有关其诗集版权的归属引发激烈讨论。2018 年,美国发生首例无人驾驶汽车撞人致死事件,引发学术界与实务界对自动驾驶系统因系统故障、决策失误等原因引起的致人伤害或死亡的责任分配问题的激辩。算法歧视也引起了广泛关注,美国的COMPAS 累犯算法被视为最典型的人工智能算法偏见。人工智能的应用场景已遍及各行业领域,但现行法律法规关于人工智能的设计、制造、消费、使用等方面的立法尚不完善,相关主体的权利、义务及责任尚不明确。当行为无法可依时,就会导致行为人无法对其行为进行预见,法律的行为规范价值将无法实现。

3.人工智能引发的科技伦理风险

提及伦理问题,人们首先想到的是“电车难题”和碰撞选择,但伦理问题不限于此。人工智能技术的大量应用,在提高社会劳动生产率的同时,也埋下了未来人类可能出现大规模结构性失业的隐患。人机共生的科技伦理不仅涉及劳动就业问题,而且让未来人工智能是否会毁灭人类成为值得关注的问题。沙特阿拉伯授予公民身份的机器人“索菲亚”提出要结婚,就是人工智能带来的科技伦理问题,这需要从法律法规、道德伦理、社会管理等多个层面系统性地制订解决方案。

三、人工智能产生的伦理问题及其研究价值

人工智能发展到21 世纪,对现实社会的影响力与日俱增。但人工智能在给人们带来全新生活体验的同时,也为人们带来了人权、道德、责任以及代际等方面的伦理困境,而伦理制度的缺失、人类主体责任意识的淡薄以及人工智能技术发展的欠缺,则是产生这些伦理问题的主要原因。

(一)人工智能伦理问题的缘起

随着新一轮科技革命的到来,人工智能已成为实体经济、社会生活的重要组成部分,它促使了各种新的产品和服务的诞生,彻底改变了传统的经济结构,促进了经济的可持续发展,也让我们的日常生活更加便捷,但在其带来前所未有变革的同时,也给人类带来许多挑战。1978 年,日本广岛一家工厂发生了世界上第一宗所谓的“机器人杀人”事件;2016 年,Alpha Go 在人机围棋比赛中战胜了当时围棋世界冠军李世石;2018 年,美国发生了首例无人驾驶汽车撞人致死事件。这些事件均引发了针对人工智能伦理问题的激辩。凯西·奥尼尔(Kathy O’Neill)认为,人工智能、大数据等新兴技术的出现,导致了许多负面影响,比如偏见、歧视、不平等[13]。斯蒂芬·威廉·霍金(Stephen William Hawking)更是指出,完全的人工智能可能会给人类带来毁灭性的后果[14]。埃隆·马斯克(Elon Musk)认为,虽然人工智能可以被视为一个邪恶的存在,但人类无法完全掌握它[15]。当前,机器学习、深度学习等算法技术的发展,让机器可以通过自主学习获得更高的自主性,从而有可能在许多方面取代人类的角色。随着技术的不断发展,未来的人工智能将会在各个领域取得比人类更加卓越的成就,它们将会提供更加高效、精确、科学的预测与决策。这不免引起人类的反思:以算法为基础的人工智能决策能否确保结果公平;自动驾驶汽车中的“电车难题”是否违反了伦理道德;致命性自主武器是否与国际人道主义相悖;当人工智能技术发展到一定程度,并产生与人类相类似的情感抑或道德伦理观时,人机关系应当如何定义;伦理学中人的地位是否会发生变化?这一系列问题关乎人类社会的生存与发展,引起广泛关注和讨论。

(二)人工智能伦理问题的研究价值

人工智能时代,日常生活伦理构建的价值旨归依然是人的自由全面发展,其价值导向依然是社会主义道德,这是我国日常生活伦理构建的根本价值方向。

1.人工智能伦理问题研究与国家战略规划

2015 年,国务院颁布《关于积极推进“互联网+”行动的指导意见》,把“互联网+”人工智能作为第11 项重点任务。2016 年,人工智能被纳入“十三五”规划。2017 年,人工智能首次被纳入《政府工作报告》。同年,国务院印发《新一代人工智能发展规划》,以期解决当前人工智能发展中的新问题。人工智能的出现极大地改变了我们的日常生活,但它有可能重塑就业机会,也有可能破坏传统的法律规范,侵害个人隐私,并且还有可能挑战现有的国际秩序,这些都给政府运作、经济发展、社会稳定以及全球治理带来重大挑战。党的十九大报告也着重提出,要大力发展制造业,促进互联网、大数据、人工智能与实体经济的深度融合,以期达到构建制造强国的目标。这表明,政府正在大力支持和推动人工智能的发展,并将其纳入战略规划;同时,也把人工智能伦理问题放在未来智能社会的核心位置,以期达到更好的发展效果。

2.人工智能伦理问题研究与国际科技竞争主导权

目前,各国都在积极推动人工智能领域的立法并开展相关研究,试图在人工智能的革命浪潮到来之际抢占制定法律规则的先机,促使本国的法律规则能够在国际社会享有话语权与主导权。2016年,美国国家科技委员会(NSTC)发布了《国家人工智能研究与发展战略规划》和《为人工智能的未来做好准备》两份重要文件来推动人工智能的发展,并制定了7 项关键战略,以确保人工智能的安全性,并保护公众的隐私。“社会影响战略”旨在探索并确定人工智能在法律、伦理和社会领域的影响,“安全战略”则着重于确保人工智能的安全性。2017 年,我国推出《新一代人工智能发展规划》,把人工智能视为一项具有里程碑意义的国家战略,旨在推动国家经济社会发展,保障国家安全。2019 年,普京批准了俄罗斯《2030 年前人工智能发展国家战略》,提出推动俄罗斯人工智能发展的重要思想,并制定了一系列有效的政策和行动计划,旨在推动俄罗斯人工智能的发展。可见,大国纷纷加大对人工智能的投入,着力开发R&D 核心技术、培养顶尖人才、制定标准规范。要想在新一轮国际科技竞争中掌握主导权,技术研发与应用无疑是最重要的,但也需要通过多学科交叉研究,评估人工智能的社会影响,确立人工智能的伦理规则,解决人工智能遇到的法律障碍,运用政策与法律手段推动人工智能的健康发展。

3.人工智能伦理问题研究与新型社会风险的制度导向

2017 年,人工智能在围棋大战、德州扑克比赛等竞技中取得惊人成绩,“索菲娅”更是被沙特政府授予公民身份,成为第一个获得这一荣誉的机器人,并且其宣布要与人类结婚的事件,更是标志着人工智能的发展迈入了一个新的里程碑。2017 年5 月,微软发布了“小冰”原创诗集《阳光失了玻璃窗》,这标志着微软开始推动机器人技术的发展,并且为人类带来了前所未有的创新体验。2017 年,人工智能在合同分析大赛中完胜20 位美国顶级律师。科技的进步为人类带来新的福祉,但也带来新的挑战。机器人“杀人”“伤害”等恶性事件屡见不鲜。因此,为应对人工智能所引发的新型社会风险,有必要从根源出发,研究人工智能的伦理问题,为形成人工智能时代法律规范体系和风险控制机制提供导向。

(三)人工智能伦理问题的主要研究议题

从全球范围内的角度来看,“以人为本”是人工智能伦理的核心,提升人类社会福祉是其最终目标。当前人工智能伦理问题的讨论议题主要包括5 个方面:隐私保护问题、算法公平问题、结构性失业问题、自主化系统问题以及人机交互关系问题。

1.隐私保护问题

人工智能技术的更新迭代基于海量信息数据的收集、识别、处理与学习,由此会不可避免地涉及个人隐私保护这一重要伦理问题。近年来,数据的重要性越发显现,我国更是将其明确列为生产要素之一。然而,现实中,个人信息泄露情况频繁发生,用户隐私权频遭侵犯,人工智能发展与用户隐私保护之间的关系越加紧张。

早期,受限于技术,数据获取成本高且回报低,个人信息泄露通常是以“点对点”的方式发生。随着现代高新技术的发展,数据挖掘深度与广度的加深,个人信息泄露、用户隐私权被侵犯等事件大规模爆发。2018 年3 月17 日,美国《纽约时报》和英国《卫报》同时发表文章《川普的顾问是如何利用数以千万的Facebook 数据的》,揭露5 000 余万(最终确认是8 700 万)Facebook 用户数据被违法用于特朗普竞选的丑闻[16]。2019 年,英国广播公司报道,IBM 公司涉嫌未经用户授权,从Flickr 等图片分享平台收集超过100 万张照片,用于人脸识别技术的开发[17]。这一系列大规模侵犯个人隐私事件的公开,引起轩然大波。隐私权既是一项私法权利,也是一项基本人权,保障个人信息的隐私权,是人工智能时代维持文明与尊严的基本方式。2019 年,我国新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出在发展过程中,必须严格遵守相关法律法规,并对个人隐私进行有效保护,以便每一位用户都有机会获得最佳的信息,从而实现安全、可靠的人工智能。如何在推进人工智能应用的过程中有效防范隐私权被侵犯的伦理风险,是人工智能时代亟待解决的问题。

2.算法公平问题

人工智能的飞速发展对现代社会结构产生了深远影响,它在各个领域都发挥着重要作用,其模型和算法也被广泛应用于各种复杂的决策场景,如司法审判、医疗诊断、交通控制等,为社会发展提供了强大的支撑。算法是一种抽象的数学架构,它可以通过技术和程序加以实现,并且可以根据特定任务的需求进行配置,从而实现有效的结果。早期,人们普遍认为算法可以提供准确的结果,但其实它只能提供一个参考,并不能完全反映真实情况。佛瑞德·本南森(Fred Benenson)曾提出“数据清洗”的概念,即提倡通过算法、模型、机器学习等技术,改变和优化人们的日常生活,从而使人们能够真正理解和体验真实的世界;但同时,他也指出,不要因为使用数学而忽视用数据构建事物的内在主观性,算法和数据驱动的产品始终反映的是设计人员的价值选择[18]。事实上,算法公平问题并非一个伪命题,由此衍生的算法歧视、大数据杀熟(价格歧视)等现象已层出不穷。例如,近年来,美团、携程等网络平台都曾被指出存在“杀熟会员”的情况;2016 年,谷歌被曝出其图片软件将非裔美国人的照片标记为“大猩猩”等。算法伦理特别是机器学习的公平性问题,已引起世界各国政府、社会和公众的广泛关注,各国政府、各国际组织及国内外学者均以不同方式强调了算法的公平性问题。

3.结构性失业问题

人工智能技术能够通过实现自动化提高社会生产力,带来整体财富,但这也意味着相同生产率输出所必需的劳动力的减少。尽管这并不代表整体就业机会必然减少,因为在社会可用财富增加的同时,可以通过增加人们的消费需求,抵消生产率的提高。但由于自动化逐渐取代了人类劳动力,劳动力市场正不可避免地发生根本性转变,已逐渐形成“工作两极分化”的局势,即高技能的技术工作需求旺盛且薪水高昂,低技能的服务工作需求旺盛但报酬不高,而工厂和办公室的中等技能工作(大多数工作)由于相对可预测,则极有可能因实现自动化而受到挤压,这就会引起所谓的结构性失业问题。结构性失业问题背后反映出来的是能否实现分配正义的伦理问题。约翰·梅纳德·凯恩斯(John Maynard Keynes)指出,当前的失业现象正以前所未有的速度发展,被称为“技术性失业”。有学者认为,技术进步带来的失业压力并不是可怕的,反而是一种推动产业升级的重要动力,随着新技术的出现,它不仅给当前的就业带来了挑战,而且为未来的就业创造了机会[19]。但需要反思的是,创造新的就业机会的步伐能否跟上就业机会被破坏的速度;基于自由市场力量形成的新的就业机会是否能够实现分配正义?

4.自主化系统问题

自主化系统问题,是近年来国内外学者关注的人工智能伦理方面的焦点问题之一。在对“自主”的概念进行哲学辩论的过程中,“自主”是责任和人格的基础这一解释得到较广泛认可。有学者认为,责任意味着“自主”,但“自主”并非必然产生责任[20]。也就是说,自主化系统可在一定程度上具备技术自主权,且不会产生法律责任问题。人工智能的自主性与技术的发展是相对而言的,即便在人类的控制下,人工智能在一定程度上仍具有自主性,这不免令人反思“谁控制,谁负责”这一传统结论在自主化系统中的正确性。目前,自主化系统涉及的伦理问题集中在致命性自主武器与自动驾驶汽车这两类人工智能应用中。

关于致命性自主武器的伦理问题,2014 年,联合国已对此展开讨论,并在相关会议上对致命性自主武器的发展和危害表示担忧。2015 年,瑞士日内瓦的一次非正式专家会议也对是否应当限制致命性自主武器系统的发展展开过激烈讨论。2018 年,全球2 400 位学者共同签署了《禁止致命性自主武器宣言》,强调人类的生命权不容许任何机器滥用,因为机器有可能在没有任何人类干预的情况下,自由选择攻击目标,而这样的做法完全违背了道义,也破坏了人类的安全和尊严,这种情况对全球安全构成巨大的挑战[21]。总的来说,从伦理学的角度审视,倘若致命性自主武器运用于战争中,极易出现违背国际人道主义的情况,且会引发机器人武器是否应该承担责任以及如何认定责任等一系列问题。

有关自动驾驶汽车的伦理问题,学界主要讨论的是关于伦理学领域中的“电车难题”。尽管在长期的讨论中电车难题出现了一些变化或延展,但讨论的内容大致都是如下情景,即一个电车轨道上被绑了多人,其备用轨道上被绑了1 人,有一辆失控的电车飞速驶来,你身边正好有一个摇杆,你可以通过推动摇杆来让电车驶入备用轨道,杀死那1 人,救下多人,又或者你可以什么也不做,杀死多人,救下1 人,请问你会如何抉择?有学者立足于“平均人类标准”,将电车难题的形成阶段纳入观察和评判,认为无论自动驾驶汽车抑或人类在电车难题的困境下,均无法得出显而易见的答案,故而应当权衡基础性价值,以细化和扩宽现行法律框架的方式,破解自动驾驶汽车面临的电车难题困境[22]。电车难题实质上是一种思想实验,它人为地假设开发者具有完善的知识,并将选择限定在了少数、单独且一次性的情形下[23]。可见,自动驾驶汽车面临的电车难题困境本质上是道德哲学中的价值冲突问题,尽管理论界与实务界已有诸多论述,但如何从根源上解决这一价值冲突仍未达成共识,尚待进一步探讨。

5.人机交互关系问题

人机交互是一个复杂的学科,它涉及到系统与用户之间的互动,以及不同利益关系所带来的道德挑战,它不仅涉及技术问题,更涉及社会问题。在人工智能快速发展推动各种基于人工智能的应用落地的同时,人机交互关系又产生了新的问题,主要体现在以下两个方面。一是现代伦理规范是否能够接纳人类与类人机器人产生情感依恋的问题。这一问题在护理机器人中体现得尤为明显。目前,护理机器人的技术水平已经达到一定高度,但此种非人性化的护理方式引起了社会的担忧。诚然,一个老龄化的社会需要机器人的辅助,但不可忽视的是,有护理需求的人类除了追求生活的便利外,也有情感的需要。当老年人将其情感需求附着于护理机器人上,这是否为现代伦理规范所接纳?而现实生活中也已出现人类对机器人产生了类似夫妻、父母、子女等情感的例子。二是随着技术瓶颈的突破,人类将面临新的挑战,是建立一种友好的人机关系,还是被困于一种试图操纵人类的“天网”,如何在人工智能时代与机器和谐共处,如何警惕并防范人工智能对人类的威胁等问题考验着人类的智慧。人机交互关系所引发的伦理问题,已成为当前人工智能时代下亟待解决的命题,更是人类生存与发展的伦理基石。

四、结语

人工智能毫无疑问会给人类的生活带来巨大改变,为保证人工智能产业健康、可持续发展,使其成果惠及民众,有必要全面、系统地研究和预测人工智能对人类社会的影响。一方面,要大力推动人工智能技术的发展和应用;另一方面,要加强前瞻性防范和约束性引导,确保其发展安全可控。应完善人工智能技术及相关立法,优化管理并促进机制构建,营造人工智能创新发展的良好环境,开创人机合作且融合的新时代。我们每一个人都应该重视人工智能所带来的改变,并不断进行思考,这样才能有效减少人工智能带来的社会风险,从而共同推动人工智能的良性发展。

猜你喜欢
伦理人工智能人类
《心之死》的趣味与伦理焦虑
人类能否一觉到未来?
护生眼中的伦理修养
1100亿个人类的清明
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
人类正在消灭自然
医改莫忘构建伦理新机制