科技风险伦理原则的构建与应用

2019-02-16 07:01张秋成
关键词:伦理学伦理原则

张秋成

(东北大学 马克思主义学院哲学系, 辽宁 沈阳 110004)

现代社会已步入风险社会。近年来随着新兴科学技术给人类健康和生存环境带来的风险日益增多,学术界对科技风险的关注和研究也呈现迅猛增长的态势。从伦理学的角度对科技风险的研究越来越引起社会的广泛重视,然而,人们却发现既有的伦理学传统却难以应对科技风险问题。近年来新兴的应用伦理学就是针对这一弊端应运而生的,但是以责任伦理学为核心的应用伦理学虽然强调尽己之责,将代内伦理扩展至代际伦理,但是若直接把它移植过来处理科技风险问题,还存在缺乏针对性和可操作性不强等缺欠。因此,目前亟需从科技风险问题所涉及的伦理因素出发,切合实际地建构合理的风险伦理原则,从而为科技风险伦理学的系统建设奠定坚实的基础。“风险”(risk)一词出现于资本主义早期。起初是指航海、探险等活动中可能遇到的危险,随着投资、借贷、保险等业务的兴起,“风险”概念被用来指称未来某时期可能会出现的经济波动和因此可能遭受的损失,至今风险概念已经被广泛应用到政治、经济、生态等领域和人们的日常生活中[1]。风险在日常语言中不具有量化的含义,它大体上与危险同义。例如,当我们谈论温室效应带来的水灾风险时,我们是指可能发生的危害。实际上我们很难确定水灾发生的概率,因为这不仅是自然事件,它还涉及到许多不确定的人为因素,如人们在温室气体排放以及是否加固堤坝等问题上采取何种决策[2]。在专业语言中,风险一词具有量化的含义,它是用确定数值表示的危险程度,即风险事件可能发生或不发生的概率。一位向医生询问治疗方案失败的风险有多大的病人,期望被告知该治疗方案在历史上失败的概率[3]。常识上讲,我们会选择风险概率较低的行动方案,但是这种做法可能导致严重的问题。试想这样一种情形:某种行动虽然风险概率较低,但是一旦风险发生,其导致的灾难是毁灭性的。这就是很多人宁可选择火车出行也不愿乘坐飞机的原因。在进行风险决策时除了需要权衡风险发生的概率和后果的严重程度以外,伦理因素也常常是必须要考虑的。

一、与科技风险有关的伦理因素

与科技风险有关的伦理因素主要有意愿、知情同意和尊重等。举例来说,核专家可以对遭受辐射的风险定量化,但却无法单独决定何等程度的核辐射是可以被允许的,因为风险决策还涉及许多伦理因素。有鉴于此,一种二元模式被提出来用以应对科技风险问题的复杂性,它是在美国国家科学院的一份1983年报告中被提出来的。该报告提出科技风险决策程序应该包含两个依次进行但又彼此相对独立的步骤:第一个步骤是风险评估,它科学地收集和评估相关信息并且以此为基础预测风险的性质和严重程度;第二个步骤是风险管理,与第一个步骤不同的是,它的特点不在于科学性,而是结合伦理因素对如何规避第一个步骤所预测的风险后果进行决策。第一个步骤主要是科技专家的工作,第二个步骤却可以是哲学和伦理学工作者的用武之地。不难发现,这种二元模式明确要求科技工作者和人文工作者进行密切合作。在第二个步骤的风险管理中,哲学和伦理学工作者的主要任务是:首先区分三类人群:可能遭受风险的人、应对风险的决策者和从风险中获益的人;接下来需要重点关注以下问题:可能遭受风险的人是否是或部分是从风险中获益的人?可能遭受风险的人在经济上或其他方面是否依赖应对风险的决策者?可能遭受风险的人能否得到有关风险的全部信息?风险的决策者是否可以从别人所遭受的风险中获益?

以上问题是构建科技风险伦理原则必须要考虑的因素。在讨论如何构建科技风险伦理原则之前,我们先要考虑几个科技风险问题所必然涉及到的伦理因素。首先,“意愿”是一个在科技风险管理中必须要考虑的因素。举例来说,吸烟所导致的健康风险对于吸烟者来说是他们自愿承担的,而住在某家尾气排放严重的工厂附近的居民所遭受的健康风险却是他们非自愿承担的。对于许多吸烟者来说,戒烟比搬到空气污染相对较轻的地方居住要更加困难。在科技风险管理中充分考虑可能遭受风险者的意愿体现了对人的尊重,人们对风险可能导致的不良后果的最大承受能力是与自身的意愿密切相关的[4](P17)。

“知情同意”也是风险管理需要考虑的一个重要因素。人们也许会想当然地认为如果获得了可能遭受风险者的同意,那么可能引发风险的行动在道德方面就是没问题的。这种想法实际上过于简单化。可能遭受风险者的同意其实并不只是对风险的不良后果的同意。一个同意做有风险的外科手术的病人其实同意了两件事情:手术可能导致的不良后果和手术成功带来的好处。他绝不仅仅同意风险的不良后果。同样地,同意从事致残率很高的工作的人实际上也是同意了两件事情:致残的风险和其它方面的好处(比如高工资)[4](P18)。这启示风险管理者要慎重对待可能遭受风险者的同意,特别是对那些会给遭受者带来严重甚至是毁灭性损失的行动要慎之又慎,即使可能遭受风险者受高回报的驱使往往会同意这样的行动。

第三个需要重点考虑的伦理因素是“尊重”。风险评估中对风险的量化类似于古典功利主义伦理学中对利益的计算方法,这种算法是不考虑个人的,缺乏对个体生命和利益的尊重。它首先把对不同的个人可能造成的风险相加在一起,然后同样把不同的个人可能从风险中获取的利益也相加,最后用利益的总和减去风险导致不良后果的总和所得到的数值,就成为风险评估的结果。如果其数值为正值,则被认为收益大于风险,值得冒风险采取行动;如果其数值为负值,则说明风险大于收益,应该放弃可能导致此种风险的行动。我们可以很容易看出这里的问题。试想有这样两个人面对同一风险,其中一个人比另一个人可能遭受的不良后果大很多,而这个人从风险中的获益却比另一个人小很多。按照前面的风险和利益计算方法,这种情况的总收益和总风险之差大致与这两人各自可能遭受的风险和从风险中获益的量都完全相等的情况相同。也就是说,这两种情况下的风险评估结果是相同的。但是我们能否由此得出结论说,在这两种情况下应对风险的决策应该没有区别呢?显然不可以,因为如果采用相同的决策将会对第一个人造成极不公平的结果,其荒谬性可以和下述情形相类比:因为你我都会同意你失去大拇指的损失要大于我失去小拇指的损失,所以我们也同样会同意如果可能,可以牺牲我的小拇指来挽救你的大拇指[4](P19)。这里的问题在于在风险评估中采用的古典功利主义伦理学对利益的计算方法缺乏对个体的尊重,没有顾及伦理因素。

毫不夸张地说,这种由于在应对科技风险问题时伦理向度的缺失所引发的困境在人们的生活实践中广泛存在。如何摆脱这一困境?伦理学对个人权利的洞见可以给我们以启示。康德的义务论伦理学有一条基本原则:永远要把别人同自己一样当作目的,而不能只当作手段,因为每个人都有同样的不可剥夺的权利。我们可以依据这条伦理原则采用如下策略来处理这种困境:面对同一风险情形,在尊重每个当事人的平等权利的前提下,对每个当事人可能遭受的不良后果和从风险中获得的利益进行单独计算,在最后进行决策时尽可能照顾到所有当事人的合法权益。这种做法目前在医学实践领域已有先例[4](P19)。

上述风险评估中常用的风险和利益量化方法还有一个严重的问题:有很多由科技风险导致的不良后果无法用其它收益来补偿,如人的死亡、物种灭绝和生态环境遭到毁灭性的破坏等。这些不良后果不但不能用经济利益来补偿,而且它们之间也不具有可比性。例如,我们无法回答多少例青少年糖尿病和一个人的失去生命相等价,我们也无法回答多少人的痛苦和死亡与某一稀有物种的灭绝相等价,因为经验证据只有与“关联理论”相联系时才显示出其价值[5]。由此可见,科技风险造成的不良后果往往十分复杂,用所谓的科学的概率计算方法给出一个量值来刻画过于简单化,更无法为合理的应对策略提供指导。这说明,在处理这些复杂的科技风险问题时,我们无法期望找到一个统一的药方来包治百病。最好的选择是借鉴伦理思想的成果对每种风险困境进行细致入微的分析和论证,对风险涉及的各方(不管是人或自然环境要素)权利和义务平等看待,力争找到统筹兼顾的解决方案。

二、 科技风险伦理原则的构建

科技风险伦理学的建设关键在于构建合理的科技风险伦理原则,然后以此为基础,制定具体的科技风险伦理准则,才能对科技风险进行伦理规约。那么,既有的伦理学理论,特别是传统伦理学能否足以应对和处理科技风险问题呢?答案是否定的。毫无疑问,伦理思想的成果很大一部分凝聚在传统伦理学中,因此传统伦理学无疑会为我们应对科技风险问题提供有益的指导和建议,但是这种作用是有限的。令人失望的是,传统伦理学因为囿于自身的特点——基本上只能处理后果确定的问题,所以仅仅局限于对其后果是确定可知的人类行动是否合乎道德提供判断和指导,而对于处理后果很难确知的科技风险问题却捉襟见肘。举例来说,假如一个人有能力救助一个落水儿童,但却因为坐视不管导致这个儿童溺水而死,传统伦理学会判定这个人是不道德的,因为他对自己坐视不管的行为后果是确知的。然而在实际的科技风险处境中,我们往往对所采用的科学技术将会产生何种后果是不能完全确知的。传统伦理学中的功利主义、义务论和契约论等流派都对如何指导人们正确行动提供了种种方案,但这些方案以我们确知行动的后果为前提,传统伦理学缺乏应对现代科技风险和不确定性问题的有效工具。有鉴于此,为了使伦理学能够成功处理科技风险问题,我们必须改造传统伦理学,使之既可以处理结果确知的行动选择,又能够有效应对结果不确定的科技风险问题。

传统伦理学很少关注风险和不确定性问题,这通常是可以理解的,因为另有一个学术分支——决策理论——来专门处理这些问题。决策理论旨在对人们如何应对风险和不确定性问题提供理性解决方案,相反,传统伦理学的目的是在行动结果大致可知的前提下对人们如何行动才算符合道德提供建议和指导。然而这种传统的区分在当代受到了严峻的挑战。当代科学技术所造成的风险和不确定性问题越来越和人类的权利、自由、平等、意愿和正义等伦理价值观念密不可分,以通过概率计算对风险和不确定性进行量化的方法为特征的决策理论,因为缺乏处理价值问题的工具已难以适应新时代的要求。决策理论只有借鉴伦理学的成果才有望走出困境。但是这不可能通过完全照搬传统伦理学理论来做到,因为正如我们前面所讲的,传统伦理学只能处理行动结果大致可知的情况。因此,面对科技风险和不确定性问题的挑战,伦理学的研究范围亟待拓宽,科技风险伦理学的建设也应该得到学界的热情关注。

前面提到,科技风险伦理学的建设关键在于构建合理的科技风险伦理原则,对如何构建合理的科技风险伦理原则可以进行一些试探性的讨论。首先要考虑的一个问题:是否有可能完全保障人们避免任何科学技术风险的权利?答案是否定的,原因在于:虽然我们每个人都是个人权利主体,都拥有免于遭受其他人危害的权利(这当然包括免于遭受非自愿承担的科技风险),但不可否认的是,在现当代社会实践中,这样的权利无法完全得到满足。理由很简单,现代社会的科技风险无处不在,我们每个人都身处其中。现代人很难脱离科学技术而生存,我们在享受科学技术所带来的生活便利的同时,也难以完全避免科学技术带给我们的风险。一个简单的例子:当某个人在其居住的城市里驾驶汽车的时候,这肯定会增加其他居住在同一城市中的人们遭遇车祸或因空气污染患某种呼吸系统疾病的风险(尽管这种风险发生的概率很小)。想象一下如果每个人都想实现完全避免这种风险的权利,并且我们的法律也会保障实现这样的权利,那大家就只好都不开车。这说明在科学技术风险无法被完全排除的现代社会,如果要完全保障人们避免任何科学技术风险的权利,就意味着我们不得不放弃使用大部分科学技术,放弃科学技术给我们的生活带来的诸多便利。可以相信,大多数人实际上是不会主张这样做的,因为这会使现代社会和现代文明发生倒退甚至成为不可能[6]。

上述分析表明完全保障人们避免任何科学技术风险的权利是不可能的,认识到这一点对于我们构建科技风险伦理原则其意义就在于它可以启示我们必须突破传统伦理学的限制,构建符合科技风险问题特点的伦理应对原则。完全保障每个人免于其他人伤害的权利正是传统伦理学的基本原则。前面已多次提及传统伦理学的原则大多只适用于行动结果确知的情形,这条原则也不例外。在上面的例子中,如果我们能够确知某个人开车上路一定会导致另外一个人的出车祸死亡或者患上严重的呼吸系统疾病,那么我们使用这条伦理原则禁止这个人开车就是正当的。但实际上对这类风险后果的确知是不可能的。由此可见,传统伦理学的基本原则很难适用于行动结果不可确知的科技风险问题,要想解决此类问题,必须构建新的基本伦理原则,这将是科技风险伦理学的重要内容。

以上述例子加以说明可能的解决方案。虽然别人开车会使我遭受风险,但是如果我开车也会同样使其他人遭受风险,那么人们会倾向于同意为了使大家共同获益(在此例中是指开车有利于人们生活更加便利),赋予每个正常人以同等的开车权利在伦理上是可以接受的。于是,我们就可以总结出这样一条应对科技风险的伦理原则:尽管每个人的同一行动都会使其他人遭受同样的风险,但是如果这样行动会使每个人同等获益,那么这种同一行动在伦理上就是适当的[4](P20-22)。

但是我们会很容易看出这条风险伦理原则除非加以适度的限制,否则在某些特殊情形中应用时会发生困难。试想如果人们遭受的科技风险后果对全社会来说极其严重,远远超过每个人从风险中的获益,甚至因此导致的后果是毁灭性的,根本无法用每个人的获益来补偿,这条风险伦理原则就会失效。为了使它更加合理,我们可以对它加上这样的限制:

科技风险伦理原则1:在风险的不良后果不超出全社会可以允许的承受能力的情况下,尽管每个人的同一行动都会使其他人遭受同样的风险,但是如果这样行动会使每个人同等获益,那么这种同一行动在伦理上就是适当的。

这里的限定条件“在风险的不良后果不超出全社会可以允许的承受能力的情况下”排除了“风险的不良后果超出全社会可以允许的承受能力”这种情况,但是这种情况恰恰是现代科学和技术负效应的最严重方面,也是当代社会人们对科技风险的最大忧虑。应对科技风险的伦理原则如果对此不予考虑就难免有避重就轻之嫌,其适用性将大打折扣。所以我们除了需要保留上述科技风险伦理原则1之外,还要建构其它能够应对“风险的不良后果超出全社会可以允许的承受能力”这种棘手情况的伦理原则。幸运的是,这方面开创性的研究成果已有先例,这就是德裔美籍著名哲学家约纳斯所提出的全球责任伦理。

“风险的不良后果超出全社会可以允许的承受能力”这种情况通常是指由于科学技术的不当使用所导致的区域乃至全球性的灾难。约纳斯指出了两种这类最严重的灾难:一是原子弹类核武器可能造成的人类一次性大毁灭;二是全球生态圈的渐进灾难。约纳斯模仿康德的绝对命令形式构建了全球伦理原则:“如此行动,以便你的行动效果与人类永恒的真正生活一致”;或以否定形式表达,“如此行动,以便你的行动效果不至于毁坏这种生活的未来可能性”;或“不要损害人类赖以持续生存的地球环境”;或用肯定形式表达,“你当前选择的意志对象中应包括人类未来的整体福祉”[7]。

从上述伦理原则来看,约纳斯的全球责任伦理学与传统伦理学相比在时间和空间两方面都极大地扩展了。在时间方面,传统伦理学局限于对人们自己和与其共存的他人负责,约纳斯的伦理学则不但要求人们对自己和与其共存的他人负责还要求对人类的千秋万代负责;在空间方面,传统伦理学的责任局限于人类社会,约纳斯的伦理学则要求人们对自然和社会负同等的责任[8]。我们可以对约纳斯的全球伦理原则进行浓缩概括,从而提炼出应对“风险的不良后果超出全社会可以允许的承受能力”这种情况的科技风险伦理原则:

科技风险伦理原则2:你当前选择的行动不要损害人类永恒的整体福祉和人类赖以持续生存的地球环境。

这条科技风险伦理原则保留了约纳斯全球责任伦理原则的精神实质和在时空两方面的扩展,把个人行动选择与人类永恒的整体福祉联系起来,禁止科技风险的不良后果超出全社会可以允许的承受能力,从而危及全人类的持续生存[9]。

三、科技风险伦理原则的实际应用

毫无疑问,任何伦理原则直接起作用的方式是首先将伦理原则内化为人们的伦理道德意识,然后在内化所得的伦理道德意识的指导下采取适当的行动,科技风险伦理原则的应用也不例外。伦理原则内化为伦理道德意识可以通过宣传、学习和教育等非强制性途径来进行。但是很明显,应对复杂的科技风险问题单纯依靠伦理道德的力量是不现实的,还需要法律法规等强制性手段作为补充,而伦理原则又恰恰是制定法律法规的重要依据和参考。

对于我们所构建的科技风险伦理原则1来说,它在实际应用中是具备可操作性的,因为在科技风险的不良后果不超出全社会可以承受的范围内,对风险情形中人们是否同等获益还是不难判断和计算的。但是对于科技风险伦理原则2来说,问题就不是那么简单了。我们前面提出的应对“风险的不良后果超出全社会可以允许的承受能力”状况的科技风险伦理原则借鉴了约纳斯的全球责任伦理原则,而约纳斯的全球责任伦理原则经常被人们指责为无法为制定相应的法律法规提供指导,如果此类指责成立,它也同样适用于科技风险伦理原则2。因此,能否有效回应这类指责直接关乎这条科技风险伦理原则和约纳斯的全球责任伦理原则能否为自己进行合理辩护和是否具有可操作性这些重大问题,需要作些试探性的讨论。

对于约纳斯全球责任伦理原则在时间方面的扩展,人们指责说,有些科技应用,比如说转基因技术,对人类健康是否有危害,如果有危害程度有多大这些问题往往在一代人身上很难给予回答,因为转基因技术的威胁很有可能潜伏相当长的时间,甚至可能几代人之后才能显现。如果科技应用的不良后果实际上还没有出现,如何谈得上为人类的千秋万代负责呢?约纳斯的伦理原则岂不是无的放矢?这的确是个很好的问题,但却不能否定约纳斯的伦理原则对此类科技风险的规约作用。近年来出现的举证转移和预防原则[10],可以在依据约纳斯伦理原则进行立法方面发挥决定性作用。举证转移改变了以往将举证责任归于风险受害方的做法,而是将之转移给风险制造方,其所依据的就是约纳斯的伦理原则。我们没出生的后代当然还不能提供证据证明前代人所制造的科技风险的恶果,但是为了规避可能危及人类子孙万代生存的科技风险并且威慑可能的此类风险制造者,我们别无其他选择,只能够强制活着的人举证他们所使用的科学技术是足够安全的,不会危及子孙后代的生存。这种把科技风险危害的举证责任从可能的受害者(我们的子孙后代)转移到活着的科学技术使用者的做法就是举证转移。预防原则说的是,对于与人类命运休戚相关的科技应用来说,只要能够合理预测或者有一些可靠证据显示出风险威胁,就要当机立断、停止对某项科学技术的使用,因为如果等待科技应用的负效应完全显露出来再采取行动,极有可能人类已经遭受灭顶之灾,悔之晚矣。对于约纳斯全球责任伦理原则在空间方面的扩展,人们指责说,科技应用主体通常是多元的,除了科技工作者以外还可以包括科技开发投资方、企业管理者和科技使用者等,即使某项科学技术的应用对自然可能或者已经造成了危害,也会因为具体责任主体无法确定而无从问责。这是一个难题,但也并不是绝对无法解决。在法律层面,这个难题可以通过追究连带责任来解决。如果具体的科技应用主体确实无法确定,我们只能追究所有涉及方的连带责任。当然我们对连带责任也不能一刀切,还需要尽量区分主次轻重,这会涉及调查取证、缜密分析和协调各方利益等许多耐心细致的工作,难度可想而知。

前面我们分别讨论了这两条科技风险伦理原则的实际应用问题,对于它们之间的逻辑关系和应用次序还需要做出明确说明。科技风险伦理原则2关系到全人类的整体福祉和持续生存,因此,它的重要性和意义要远远大于适用于普通人类成员之间的科技风险伦理原则1,从而,科技风险伦理原则2是科技风险伦理原则1的逻辑前提和可能性条件。也就是说,在应用次序上,任何科学技术活动首先要受到科技风险伦理原则2的规约,其次才受到科技风险伦理原则1的制约,这两者的先后次序不能颠倒。举例来说,近期被热议的我国基因编辑婴儿事件就是因为公然违反了这两条科技风险伦理原则的应用次序,才招致了广泛的批评和谴责。基因编辑技术是通过去除可能导致艾滋病和癌症等重大疾病的基因,达到预防和治疗的目的。从局部来看,采用这项技术对致病基因携带者来说,可能会存在导致一些后遗症的风险,并且,如果这些后遗症出现,也会对其所在的家庭造成危害,但和致病基因导致重大疾病这种概率更大的可能后果相比,显然利大于弊,因此可以认为它符合科技风险伦理原则1。但是,它却不符合科技风险伦理原则2,理由是:基因编辑技术可能引发的技术风险将会通过致病基因携带者的婚姻传递给下一代,随着基因编辑技术的持续扩散,这种技术风险将变得越来越不可控,从而严重威胁整个人类物种的安全,可能导致的对人类的灭顶之灾是不可逆的。换言之,基因编辑技术的风险危害全人类的整体福祉和持续生存,正是科技风险伦理原则2所要禁止的,这也正是我国基因编辑婴儿事件广受诟病的原因。我们对这一案例的分析充分表明,这两条科技风险伦理原则的应用应该严格遵守科技风险伦理原则2的优先原则,在遵守科技风险伦理原则2前提下,再来考察任何科学技术活动是否不违反科技风险伦理原则1,二者顺序不能颠倒,如果直接违反科技风险伦理原则2,哪怕不违反科技风险伦理原则1,也要绝对禁止。

猜你喜欢
伦理学伦理原则
《心之死》的趣味与伦理焦虑
实践音乐教育哲学中的伦理学意蕴探析
“纪念中国伦理学会成立40周年暨2020中国伦理学大会”在无锡召开
论马克思伦理学革命的三重意蕴
护生眼中的伦理修养
伦理批评与文学伦理学
无罪推定原则的理解与完善
医改莫忘构建伦理新机制
婚姻家庭法的伦理性及其立法延展
养生之道应遵守九不原则