人工智能伦理规范建构与芬伯格的技术代码方案

2022-11-22 14:28王晓梅
伦理学研究 2022年2期
关键词:代码伦理信任

王晓梅,何 丽

人工智能信任问题是人工智能发展中的重大课题之一。2021 年7 月,中国信通院、京东探索研究院联合发布《可信人工智能白皮书》[1],指出人工智能技术风险引发信任危机,其内容涉及算法安全导致的应用风险、黑箱模型导致算法不透明、数据歧视导致智能决策偏见、系统决策复杂导致责任事故主体难以界定和数据滥用导致隐私泄露风险等五个方面。可信人工智能规范无疑是可信人工智能的重要内容,通过建构可信伦理规范以化解人工智能发展面临的信任风险是一种可行方案,但规范的建构本身依然面临深刻挑战。

伦理规范必须是可信的,这是可信人工智能框架设计的应有之义,也是其有效性的主要来源。只有充分反映并增进公众利益的规范才是可信的,才能为公众普遍接受并自觉遵守。然而,现代社会如同一个技术铁笼,新型的控制与人工智能、大数据等高新技术紧密结合,进一步扩大了技术鸿沟,影响公众参与技术规则的制定,阻碍公众利益的实现,对可信伦理规范的建构造成了挑战。芬伯格提出的技术代码是一种可信的伦理规范,是调节多方利益的动态平衡机制,其通过提升技术设计中的公众参与度避免利益格局失衡,推动伦理规范体现民主价值。

一、可信人工智能伦理规范的内在要求

人工智能的内在本质和发展趋势存在侵犯个人隐私、弱化人的自主性、模糊人的道德责任、威胁人的存在意义和价值等伦理风险[2](128)。如何规避道德风险,确保人类始终有能力控制人工智能的最终发展,成为学界和业界的一大课题,可控人工智能(Trustworthy AI)的概念因此得以提出,为其设计某种“阿喀琉斯之踵”势在必行。对人工智能可知、可管、可控的强调源自对它不确定、不可预期性和不信任的恐惧。“信任是人类及人类社会开发、推广以及利用人工智能的先决条件”[3],倘若社会对人工智能缺乏必要的信任而将其视为潜在危险,那么人工智能就不可能得到有效的推广与使用,它所能带来的经济与社会效益也将无法实现。在人们对人工智能的态度由消极防范到积极引导的转变过程中,可信人工智能的构想逐渐成形。“可信人工智能伦理框架”(Ethics Guidelines For Trustwor⁃thy AI)[3]不仅延续了在技术层面防范安全风险的传统思路,更提出了通过价值内嵌规避道德风险的伦理要求,包括技术可信(主要指技术稳健性)与伦理可信。信任原是作为主体的人对信任对象的揣度,是人对处于全知与无知之间的不确定性状态所表达的一种由衷期望或积极态度。信任一般发生在人与人之间,通过对技术进行人格化与具象化理解[4](446),亦可将信任延伸至技术中并进一步追问伦理规范的可信与否。伦理规范负荷规范(与技术)设计者的设计意图与价值理念,为技术活动提供方向引领与行为指南,直接影响技术活动的设计、生产、使用等各个环节,可信是其应有之义。

信任关涉利益。不论是心理层面的信任感,还是伦理层面的道德感,抑或作为一种理性决策,都隐含着主体对某个层面的利益维度的考究。哈丁(Russel Hardin)是专门从利益出发研究信任的学者之一。他认为在众多的信任关系中,关键要点在于包覆利益(encapsulated interest)[5](3-9)。信任只发生在主体通过满足对象的利益可以实现自身利益的条件下。信任主体与信任对象的利益相互缠绕,两者是利益共同体。利益对信任具有更强大的解释力,物质要求与精神需求最终都能被纳入其中。可信是建立在保障信任主体利益之上的。尤斯拉纳(Eric M.Uslaner)同样认为,当自己利益与他人利益不冲突时,更容易信任对方。他的工作的创新性在于进一步指出信任具有民主气质,它与社会公平之间存在联系,“通过促进平等,能间接地提高信任”[6](221),不平等会导致对群体外的恐惧和怨恨心理,“加剧了仇外和反对道德主义信任的情绪”[6](254)。换言之,利益不仅要得到保障,其分配也应彰显公平。

这一结论在可信伦理规范的讨论中同样适用。尽管伦理规范有不同的层次和种类,譬如行业规范、安全标准等存在不同的适用对象与作用范围,但针对面向全社会的人工智能技术提出的伦理规范应该面向社会公众。可信伦理规范应当合乎公众利益,引导构建平衡客观的利益格局,充分发挥人工智能等高新技术的解放作用,使人们尽可能地摆脱技术的宰制与奴役,最终实现自由全面的发展。

二、可信伦理规范建构的挑战

可信伦理规范的建构并非一帆风顺,在现实中面临一系列的挑战。信任本身所固有的不确定性问题与人们对规范可信性的质疑相互纠缠。技术、资本与知本三位一体式的深度结合不断增强优势群体在规范制定中的权威。人工智能等高新技术导致的民主技术化问题不断消解公众参与规范设计的自主性。优势群体与公众在人工智能的技术设计、研发和应用的规则制定中的权力比例失衡,公众的利益并未得到充分的、公平的表达。

信任存在风险,这种风险很大程度上源自未来的不确定性。一方面,未来的情状难以预测,信任主体始终难以掌握足够的客观依据;另一方面,践行较之承诺必然是滞后的,被信任者能否实践可信的行为并不能完全确定。因此,人们对规范的可信性提出质疑:是否真的存在一种伦理规范可以有效指引人工智能等高新技术规避所有潜在的风险?相对滞后的规范可以紧跟技术迭代的步伐吗?规范是否会限制技术发展,违背发展的初衷?[7](8)除却对伦理规范的存在论意义上的质疑,利益格局的持续失衡也是可信伦理规范建构的一大挑战。这种失衡体现在规范的制定中,表现为优势群体的话语权与决策权不断加强而公众的呼声却日益减弱。

一方面,技术、资本、知本的深度结合赋予优势群体操作自主性(operational autonomy)[8](75)与技术权力。资本家在各种可替代的合理化中实施战略性选择的权力,他们甚至在做出某种选择时不考虑习俗、惯例、工人的嗜好等外在因素,也不考虑他们的抉择将对工人家庭产生何种影响。温纳(Langdon Winner)记述的“琼斯海滩”[9](121-136)这一经典案例很好地佐证了这一点:社会的上流阶层可以自由地进入琼斯海滩,而经济弱势群体尤其是黑人却因为赖以乘坐的公共汽车高于桥梁与通往海滩的道路之间的净高而被拦截在外。“技术装置体现了某种规范共识”[10](89-91),设计者的嫌贫爱富与种族偏见作为隐藏的伦理维度渗入这项工程之中,看似简单的设计却不正当地限制了一个阶层的自由。知识鸿沟与数字鸿沟等概念表征出(高新)技术针对不同对象所产生的迥异的赋能结果。表面上似乎所有人均可从技术进步中受惠,但实际上总有一些人享受着更多的好处甚至操纵了技术利益的分配。现有的大多数技术体系都建立在等级之上,它们通过各种途径去实现资本所有者与技术专家等特殊群体的利益制度化、合法化,却回避了其他社会成员的利益诉求。资本掌控者与技术精英掌握住技术及技术的解释权也就掌握住了这种技术权力,并借此获得了一个凌驾于社会之上的位置,“使他们得以从这个位置居高临下地观察和控制社会”[8](84)。

人工智能无疑放大了这种技术权力且有破坏传统民主根基的可能。数据主义大行其道,使人类一切社会行为皆可数据化。这被应用于政治极有可能产生两种后果:西方传统的代议制民主选举被人工智能牵制、高科技巨头公司运用大数据相关技术干预政治权力。就前者而言,人工智能可依托海量数据与超级算法实现竞选方案的“精准投放”,通过满足不同个体的诉求获得普遍的支持。尽管在某种程度上提高了竞选效率,但是借助信息手段操纵民意却违背了民主选举的初衷;就后者而言,科技巨头公司或以人工智能等高新技术为政治砝码,比纯粹的财团更深层次地介入政府运作的各个方面。当公众不再具备经济与政治上的影响力量,“民众的未来只能依赖一小群精英心怀仁慈”[11](77)。通过自由的民主辩论和平等对话来达成共识或实现决策目标会被认为费时费力且成效不明显而渐次被取缔,技术专家的合理决策将代替公众意志的民主实践,所谓的技术共识背后是权力控制的真相。

另一方面,公众参与人工智能技术设计、研发和应用等规范制定的自主性几乎被消解殆尽。首先,现代技术及其所适配的规则日益渗透进社会生产生活的各个方面。为了追求流程清晰化、利益最大化,资本家与技术专家总是倾向于通过层层分工将工作简化为容易习得的机械步骤,令公众在各自的工作领域被“去除技能”而随时可以被取代。公众由于知识和能力的局限无力理解和掌握生产实际,从而丧失了在技术设计中的话语权。其次,系统信任成为公众的被动选择。伴随着经济发展与社会转型,特别是在“数字转向”(digital turn)[12](566-569)的背景下,一方面,技术正在从根本上改变我们的生活环境;另一方面,在我们没有意识到的情况下,它们也在改变我们自己[13](196-203)。广泛应用于熟人社会的人格信任已不敷使用,精细化的分工与广泛的联系增加了个体对他人的依赖,公众不得不扩大信任的储备,选择相信社会制度、规范和专业知识。这种信任是“产生于在无知或缺乏信息时的盲目信任”[14](19),其产生既非由于公众参与了社会决策的全过程,也不是因为公众拥有技术专家、社会精英所具备的知识体系与资源禀赋,而是由于公众在资本与知本方面的匮乏。尽管公众也逐渐对专家有所怀疑,却被动地陷入了不信任却又不得不信任的境地。公众面对前所未有的现代生存焦虑,选择的能动性空间被极大地压缩。人们不断总结前人经验却不断发现经验已经过时,不断学习知识却不断发现跟不上知识更新的步伐。财富不断流动,变故层出不穷,风险不期而至。作为绝对中介物的金钱被视作缓解焦虑的良药,成为现代人奋斗一生的首要目标。物质与精神的倒置使得大多数公众根本无暇顾及科技的进展和规范的制定。最后,不断走向庸俗的大众文化日渐摧毁公众的反思精神。政治、教育等公共领域慢慢以娱乐的方式出现,不断走向肤浅。人们自我反思的能力遭遇危险的退步,否定批判的精神受到来自各方的压抑,沦为单向度的人,心甘情愿地成为“娱乐至死的物种”[15](162)。

可信伦理规范不仅需要应对“是否存在”的诘问,更应该就“谁来制定”“为谁制定”等问题作出清楚的阐释。尽管资本主义社会的技术与管理发生了深刻变革,但阶层分化、利益固化等各种类型的不平等在当代并没有被解决,反而随着时间的推移愈发严重。可信伦理规范的建构任重道远。哈贝马斯曾试图通过对话来协商形成“满足每个参与者的利益的规范”[16](65),可他却将这种民主对话机制局限在技术专家与政治家之间,选择的显然是一种自上而下、单向度的直线式技术民主化道路。与之相反,技术代码则将自下而上地冲破层层结构性桎梏,在技术世界内部寻求解放的张力,找到技术与自由达成和解的可能。

三、技术代码的破局之道与解放张力

芬伯格从技术的角度对技术垄断与技术霸权下资本主义民主的伪善这一现代性病症进行了诊断,将其症结归因于“将社会中的大多数人排除在技术决策之外”[8](3),技术中浓缩着的是优势群体的利益。为此,他呼吁一种根本性的、自下而上的民主转化,“优先考虑那些被排斥的价值和表达这些价值的公众”[8](22)。只有对技术进行民主化改造,才能释放公众被忽略的利益和被压抑的潜能。为了回答技术民主化何以可能的问题,芬伯格提出了技术代码的概念。

根据芬伯格的阐释,技术代码是一种聚合了技术需求与社会需求的“技术合理性”[8](76)。在技术设计中,技术要素是必然存在的,否则不成其为技术,但那些社会要素也非常重要,一旦审美、伦理、文化等特性凝固为最终的代码内嵌于具体技术,便会成为技术的内在组成部分,这些“组成部分”到底是什么,建构主义者有时称之为“黑箱”,因为一旦技术的定义被普遍接受,人们就不会质疑技术的“内部”是什么,这使得一切合理化[10](5)。譬如,顾客在挑选冰箱时往往更重视性能与价格,却理所当然地忽略了冰箱容积等技术指标,这些技术指标的背后有现代家庭的规模大小、饮食习惯等社会文化因素的沉淀。

技术代码是动态建构的,它的生成及发挥作用的重要机制涉及两级工具化。初级工具化实际上是技术代码的解构过程,即按照有用性将技术体系中相对稳定的部分譬如自然原料、技术知识等相对中立的技术要素提取出来,使其成为价值无涉的存在,也可以将其视作一种功能化过程;次级工具化则主要在于解释和表达价值、文化与规范等。建构的过程也是现实社会中的伦理文化特质与技术要素再度融合的过程,承载着新的利益与价值的技术代码在此过程中生成。技术代码的动态建构过程使得它并非一成不变,如果资本主义的技术霸权可以在此建立,那么民主的技术设计亦可在此形成,技术代码最终的性质取决于新生技术代码所沉淀的文化特质。不难理解,资本家总是设法让技术尽可能狭窄到初级工具化上,如此才能使得技术与价值相分离,使工人沦为机器体系的某个部件,以实现高效管理和粗暴控制,“这样的带有偏见的技术代码使得设计趋向于集权化和等级制,会系统地削弱能动性和参与积极性以及交往理性”[10](87)。技术代码的生成场景和应用场景部分决定了技术的性质,社会主义的技术代码跟资本主义的技术代码不一样,它会更倾向于全面地顾及道德伦理、人和技术的可持续发展等因素,将创造机会让更多利益相关主体参与进技术决策过程,这就在一定程度上避免了技术垄断导致技术规范可信度被削弱的情况,为技术设计的民主化创造了更和谐的氛围。

技术代码具有伦理意蕴与规范属性。就理论内涵而言,技术代码与伦理规范一样,涉及价值的形成与沉淀,其解构与重构过程就是价值生成与沉淀的过程;就价值旨趣而言,技术代码的要义便在于通过唤醒公众对技术设计的参与,实现技术设计全过程民主,使技术充分反映并实现公众的利益诉求,使公众免于被技术规训与型构;就作用路径而言,技术代码的提出意味着扬弃过去认为伦理问题只产生于产品的社会使用中的看法,更加重视技术设计过程。事实上,技术与伦理的冲突在人工智能发展的各个阶段均会出现,在技术设计之始便注入价值有利于从源头规避伦理风险。简言之,技术设计的过程要突破“设计—使用”的二分法,将伦理内置于技术以及内嵌于技术设计的全过程。

技术代码的动态建构特性与自下而上的作用路径为可信伦理规范的建构提供一种新的视野。其一,动态建构的规范可有效应对技术的不确定风险。人工智能等高新技术的发展是曲折而复杂、难以被全面把控的,以不变应万变的传统思路未必持续有效,一种更值得提倡的态度是因势而变、以变制变。动态建构的规范遵循开放的设计理念,其权宜性、可修正性能在一定程度上克服传统规范相对滞后的局限,更加切合实际。笛卡尔的“权宜道德”、胡比希(Christoph Hubig)的“伦理帐篷”对此曾有过讨论,可以为现阶段的问题提供相对稳定的伦理规范和共识。当然,这些规范不是一经修订就永远不变的,我们可以根据现实需要对它加以与时俱进地修正,而修正的标准就在公众的利益诉求之中。一旦在技术使用中出现新的问题,公众即可通过次级工具化在技术设计中添加新产生的利益诉求,使现实问题得到积极回应。

其二,规范作为一种利益平衡机制可避免利益格局固化,自下而上、源源不断地释放冲破等级的张力,这就大大增强了它的可信度。在现有的利益格局中,一方面,政府、资本掌控者甚或技术专家等优势群体更有可能成为技术的既得利益者,他们的价值标准、文化元素、利益关系能更容易地渗透进技术系统中而得到较为充分的满足。而另一方面,公众因为远离技术系统而无法参与技术规范制定等过程,所以他们的价值和利益等会受到忽视、压抑。一旦他们意识到这个事实,那么技术体系内所有的操作都会失去可信度,技术的民主化也失去了它的有效性。因此,倘若想使技术的民主化有效,那么就必须对技术设计中的资本掌控者、政府管理者、技术专家等优势群体与公众的权力配比作出调整。某种程度而言,代码的沉淀、规范的制定便是利益交锋的过程,多元价值主体在其中对话交流,为潜在利益的实现提供可能,避免利益的固化,这就使得多元主体的利益趋向于达致一种动态平衡。一方面,为了充分考虑和平衡各方利益,代码需不断在多元主体之间来回理解、释义并向各主体表达,如此一来,优势群体的操作自主性越大,作为弱势群体的公众颠覆内嵌着固化利益的代码的潜力就越大;另一方面,利益的社会历史性决定了公众的利益诉求会随着社会的发展而发生变化,这就要求技术代码对现实问题作出回应。这种动态平衡过程使得技术功能是可变的,它可以强化阶级统治,也可以构筑民主体系,这就使得技术拥有了变革的张力。

结语

人工智能的可持续发展离不开社会的信任与支持,如何提升人工智能的可信度成为学界与业界共同关注的问题。可信人工智能不仅需要以技术安全为支撑,更以可信伦理规范为保障。然而,在现实的规范的制定中,名义上的公众利益往往被优势群体的利益取代,背离公平、正义等应有的价值内涵,削弱了规范的可信性。人工智能等高新技术的不确定性风险也令可信伦理规范本身的存在遭到质疑。芬伯格提出的技术代码以其动态建构的生成方式开拓了在不确定性时代构建新型伦理规范的新视野,以其自下而上的作用路径从技术世界内部寻求解放的张力,通过扩大公众参与避免了规范制定中利益格局的固化,为公众潜能的释放预留了空间,为应对可信伦理规范建构的挑战提供了学理支持。

公众可以从微观与宏观两个不同的层面参与人工智能相关技术设计[17](121-129),进而将代表自身利益的伦理、文化等元素嵌入技术代码。就微观层面而言,存在以下几种具体途径:第一,不同的利益群体可以通过技术论争寻求尽可能满足多元主体利益的技术方案(譬如环保运动中不同的利益诉求能够对抗议及政策制定起调节作用等);第二,包括技术设计者、使用者在内的多元价值主体可以参与到技术设计的全过程,展开创新对话,鼓励参与式设计,加强彼此的沟通和交流(譬如妇女参与分娩技术的设计、艾滋病人对临床治疗方案提出建议等);第三,对技术进行创造性再利用,使最初设计中未能释放的技术潜能更多地显现出来并最终实现。在宏观层面上,可以尝试技术代议制,将这些微观层面的互动成熟化、体系化。技术代议制是在传统代议制民主的基础上推演而来的,它不是选举某个特定的人物,而是将不同利益群体提出的社会的和政治的诉求集中、整合起来并将其嵌入特定的代码中,最终实现一种社会力量的平衡[17](142)。

当然,技术代码只是为可信伦理规范的建构提供一种思考进路,并不能解决所有问题。公众的利益如何有效界定?群体利益是否不该被保护?[18](155-175)公众具备参与技术设计的能力吗?技术精英会主动承担社会责任吗?这些问题都有待进一步追问与回答。但有一点是值得向往的:斯诺笔下的“两种文化”①参看C.P.斯诺著:《两种文化》,陈克艰、秦小虎译,上海科学技术出版社2003 年版。将会在全社会的共同努力下逐渐消弭,人们将从技术的束缚中解放出来,走向更加光明美好的未来。

猜你喜欢
代码伦理信任
《心之死》的趣味与伦理焦虑
《白噪音》中后现代声景的死亡伦理思考
伦理批评与文学伦理学
嘤嘤嘤,人与人的信任在哪里……
神秘的代码
一周机构净增(减)仓股前20名
重要股东二级市场增、减持明细
华语科幻电影中的“伦理性”想象
近期连续上涨7天以上的股
信任