人工智能时代下预防性刑法观之倡导

2019-03-27 18:48
关键词:刑罚预防性刑法

谢 非

(华东政法大学刑事法学研究院,上海20042)

现代科技在为人类创造丰富物质条件的同时,也产生了诸多新生的危险源,导致技术性风险不断扩散。特别是人工智能的发展,将会引发更加显著的社会风险。人工智能由于自身的鲜明特性,明显不同于一般的技术性风险,会给社会带来更多的安全问题,从而大大增加公众的危机感和不安感。要防患甚至消解人工智能所带来的社会风险,刑法应起到更为重要的作用。于立法者而言,不能再固守刑法是保护社会最后一道防线的观念,让刑法只起到消极性、补充性的作用,而应该注重立法先行,通过制定预防性刑法,积极预防涉人工智能犯罪行为。

一、人工智能的社会风险

人工智能的概念早在20世纪50年代的达特茅斯会议上就已被提出,并得到了与会者的热烈反响,相关的研究也如火如荼地展开。起初,学者们只是通过编制规则的方法,让人工智能亦步亦趋于人类身后,但这不仅远远无法达到人们对人工智能发展的期许,反而使相关研究陷入停滞,人工智能在美好的憧憬中迎来了残酷的现实。随后,学者们转变思路,采用从数据里统计规律来探索人工智能的发展路径。在数据加统计的方法论下,人工智能的研究取得了巨大进展。至此,人工智能发展的思路基本确立,即通过数据的不断累积,构建“深度模型”,并发展具有强大计算能力的计算机,提升人工智能的深度学习能力。现今,人工智能进入高速发展的新时代,相关产品已经具备相当的分析、判断能力。纵观这一发展历程,笔者认为人工智能富有鲜明的特征,这些特征也决定了其产品必然会具有辨认和控制能力,从而将带来更为急迫且严峻的社会风险。

(一)发展飞跃性带来的社会风险

首先,人工智能的发展具有飞跃性。人工智能的发展是建立在数据不断累积的基础上,这一过程与人类对信息的记忆过程存在本质区别。就数据的存储量级看,人工智能可以累积的数据在理论上是无限的,因为这些数据都是被固化在机械载体之上,而如今的数据存储技术已足够支持存储数以亿计的数据,更重要的是这些数据永不消灭,永不减少,只会在原先的基础之上不断完善和扩容。而就人工智能“进化”进程看,随着量子计算机的不断发展,人工智能拥有的计算能力会有爆炸式的增长,人工智能利用深度学习算法分析处理数据、模拟人类神经网络的能力也将突飞猛进。海量的数据是人工智能发展的土壤,高速的数据处理能力和深度学习能力是人工智能发展的阳光与雨露,在如此优良的“生长条件”之下,人工智能的发展必定会是指数级的飞跃。人工智能围棋程序AlphaGo自开始研发,到4比1战胜人类围棋界的顶尖高手李世石,3比0战胜世界第一柯洁,花费了大约2年的时间。当然,其中经历的调试、测验时间远超于此。但是新版本AlphaGo zero被公之于世不到一年,却取得了更为惊人的战绩:以100比0的悬殊比分战胜AlphaGo。[1]相较之前,AlphaGo zero 的研发时间缩短了一半,但其能力却实现了成倍的提升。人工智能惊人的学习能力以及可怕的发展速度可见一斑。由此可见,随着技术的进步,人工智能的发展大有一日千里之势。

如此飞跃性的发展势必会给人类带来急迫的社会风险。一方面,这种远超人类想象的速度,会很快打破人类对人工智能发展的设想,从而对人类文明产生极为不利的影响。而且随着时间的推移,人工智能的发展速度只会越来越快。假以时日,当“智能”达到一定的程度,智能机器人很快便会产生独立于人类的自主性意识与意志,在设计和编制的程序外实施行为。若不对此加以注意并预先制定应对措施,那么智能机器人极有可能会突破人类的控制,从而迅猛地影响人类社会的正常运作,甚至给人类带来毁灭性的恶果。另一方面,正是由于人工智能的飞跃性发展,社会公众对其发展的担忧更加凸显,对相关制约措施的需求也更加急迫。但事实上,制约人工智能“过度”发展的应对措施的设置速度远难及于人工智能自身的发展速度。相对于人工智能的发展速度,无论是立法的完善与制度的建立抑或是相关制衡技术的发展,都难以望其项背。这种速度上的差距直接造成了人工智能所带来的社会风险更加急迫,更需要人类提早制定应对措施,合理约束人工智能的发展。

(二)高效益性带来的社会风险

毋庸置疑,人工智能本身具有高效益性,其发展所需的投入同带来的效益相比完全微不足道。例如无人驾驶技术,能够给人类带来巨大的便利。无人驾驶技术通过去人力化,大大减轻了驾驶员的操作量,有效降低了汽车运行成本。并且无人驾驶技术还可以避免驾驶员疲劳或者操作不熟练所带来的事故,在安全性上亦有所保障。不知疲倦、技术高超的无人驾驶技术已然掀起了一场汽车革命。甚至在军事方面,人工智能都已经占据一席之地。以人工智能为核心技术的战斗机器人可在不受操作手控制的情况下高效、准确地消灭目标。更为重要的是,这种战斗机器人成本远低于导弹、核武器等重型杀伤武器,但其在战场上起到的作用却不亚于这些武器。除此之外,人工智能在娱乐、教育、法学等各个领域都会给人类社会带来剧变,其高效益性可见一斑。

但是,人工智能的高效益性同样是把“双刃剑”,这种高效益并非都会给人类带来积极影响。就战斗机器人而言,若不对其研发和使用进行规范,无疑会进一步加剧战争的惨烈程度。尽管如此,但由于战斗机器人给战争进程所带来的深刻影响,将会给人类带来无限的诱惑,从而使人类在一定程度上忽视人工智能背后潜在的社会风险。韩国在众多科学家联名抵制的情况下,依然设立科学院研究创造更高智能的战斗机器人就直观地体现了这一问题。可见,人类不仅很难对人工智能所带来的社会风险产生自我警觉,克制并约束对人工智能领域的探索,更会受到自身逐益本性的影响而执着于对人工智能更高效益的追求,从而进一步加速其发展。警惕性的缺乏为人工智能的未来发展埋下了隐患,也使得人工智能所带来的社会风险更为严峻。

(三)不可控性带来的社会风险

人工智能自身的飞跃式发展以及人类对高效益的追求,极易使人工智能处于不可控的状态。在现今人工智能的发展程度下,已然出现了大量诸如机器人“发疯杀人”、机器人“自主逃跑”的智能机器人“失控”行为,而这些“失控”行为实质上是智能机器人超越设计和编制程序的活动。在设计和编制的程序范围之外的活动意味着智能机器人拥有了更多的自主性。而一旦人工智能与生命科学相结合,那么智能机器人的自主性程度肯定将达到新的高度。诸如“类脑”工程、“人造肌肉”技术的不断发展,将深刻影响人工智能的变革,并从根本上改变智能机器人的“智能”程度。在高度“智能”的支配下,智能机器人必然会产生自己的“意识”与“意志”,对自身行为产生认知,选择和决定是否实施相关行为。其具备辨认和控制自己行为的能力也不会再是无稽之谈。

智能机器人超越设计和编制的程序实施活动,也意味着巨大的社会风险。就本身能力而言,智能机器人拥有超强的计算能力与学习能力,其可以在围棋领域超越人类,那么在其他领域亦有极大可能超越人类。面对“超人”的人工智能,人类想要实现全面的监管和控制并非易事。假使人类失去对智能机器人的控制权,那么后果将不堪设想。正如著名物理学家霍金所说:“人工智能的全面发展将宣告人类的灭亡。”而特斯拉总裁马斯克则将人工智能比喻成魔鬼召唤者,声称“现代科技可能会创造出永生的独裁机器人,届时人类将难逃魔爪。”霍金作为理论派站在科学理论的角度对人工智能的未来进行了预测,而马斯克作为实践派站在社会实践的角度对人工智能的社会风险进行了预言。这些言论深刻揭露了不可控的人工智能可能带来颠覆人类的巨大社会风险。

二、风险社会下的人工智能预防性刑法

人工智能因其自身特性,将会带来更加显著的社会风险,从而引发愈加严峻的安全问题。在风险社会下,公众对安全产生了更为迫切的需求,这直接导致刑法的基本目的与价值理念发生转变,预防性刑法逐渐走向前台,并在诸多国家的刑法体系中占据重要地位。针对涉人工智能犯罪行为制定的预防性刑法不仅符合人工智能时代对于预防性刑法的现实需求,而且也能消除传统预防性刑法的弊端,因而具有相当的合理性与必要性。

(一)风险社会下的预防性刑法

社会风险的概念最早由德国学者贝克提出,他立足于当时社会的基本特质,深刻揭示了工业化社会乃是一个充满着各种危害生活环境与社会结构的风险社会。风险社会的形成与经济发展、科技进步、资讯发达、企业竞争和消费活动等密切关联,但是人们对工业和技术发展的认同始终占据主导地位,因此关注重点始终都放在解决物质短缺与发展生产力上,至于工业化所带来的消极后果一直被掩隐于幕后。[2]这些消极后果逐渐演变成诸如环境污染、交通事故、电子病毒等安全问题。安全问题的日益凸显,使社会陷入普遍的焦虑和不安之中,导致人们更加关心如何预防未来可能陷入的“危险”。对风险威胁的感知不仅塑造了人们的思想和行动,也直接决定了制度的构建,深刻地影响了刑法领域。公众对于安全的现实需求不断地累积,汇聚成刑事政策上的压力,最终传导至刑法体系的内部,驱使刑法逐渐向着预防目的转变。

风险社会促使现代刑法的基本目的发生转变,也意味着刑法的价值取向发生重大调整,预防性刑法就此应运而生。所谓的预防性刑法,系相对于建立在启蒙思想之上的传统古典刑法而言,它不再严格强调以既成的法益侵害结果作为追究刑事责任的基础,而是着眼于未来,基于对安全的关注,着重于防范潜在的法益侵害危险,从而实现有效的社会控制。[3]在许多西方国家的刑事立法中,都可以察觉到积极的、间接的、抑或是整合的预防性刑法,甚至于一些国家的预防性刑法在整个刑法体系中已经占据上风。这种现象也彰显了报应刑法的没落已成为不争的事实,预防性刑法脱颖而出而演变为许多国家刑法的首要选择。

在部分学者眼中,风险社会理论还只是某些发达国家(特别是德国)在较高的社会水平上形成的一种“现代化焦虑症”。[4]由此而生的预防性刑法也被冠以“抵牾刑法谦抑精神”“社会治理的过度刑法化”“刑法新工具主义”等标签。部分学者认为,刑法调整的行为一般具有严重的社会危害性,这也决定其必须动用最严厉的法律规制来维护社会安全、保障人民安全。刑法的法律性质是其他部门法的保障法”,这是其作为其他部门法组成的“第一道防线”之后的“第二道防线”的依据所在。在立法层面,只有当其他法律设定的第一道防线崩溃之时,或者说力有不逮时,刑法才能站出来充当第二道防线;没有刑法做后盾和保证,其他部门法往往难以彻底贯彻实施。[5]但是若刑法的作用前置,则必然会违背传统刑法所秉持的刑法谦抑性原则。刑法的严厉性和终局性要求刑法始终保持“事后法”与被动式的干预状态。而且预防性刑法规制的犯罪行为一般不是一个具体的损害,而是一种慌乱不安,但对于什么是慌乱不安,则更多地被理解为在“主观上具有罪恶的意图或者客观上对所有生活领域的安全造成损害的行为。”[6]可是只是从“主观意图”、“对安全造成损害”的层面考虑处罚对象,未免会陷入主观化的泥沼。如此一来,预防性刑法就是凭借主观化的理解断定某个事物是否对社会安全会有危险而制定的。另外,“风险”和“安全”的发生实际上是并不确定的,以此为基础的相关刑法条文必然会让刑罚充满不确定性。[7]这甚至还会在一定程度上违背罪刑法定原则。

(二)人工智能预防性刑法的合理性分析

笔者认为这些对于预防性刑法的担忧有其一定依据,但是针对涉人工智能犯罪行为所制定的预防性刑法,并不会存在上述担忧。具体理由如下:

第一,经过上文分析,随着人工智能的飞速发展,未来的智能机器人完全可能具有极高的“智能”,从而拥有独立的辨认和控制能力。其不仅可以在设计和编制程序范围内实施行为,还可以在设计和编制程序范围外实施行为。当智能机器人在设计和编制程序范围内实施行为时,其受到人类设计和编制程序的控制,反映了人类的意识与意志,实际上是人类行为与智力的延伸,故可以将其定义为人类进行相关活动的“工具”。在这种情形下,若出现涉人工智能的侵权行为,导致民事法律关系遭到侵害,完全可以通过《民法》《侵权责任法》《产品质量法》等部门法对相关责任人进行处理。例如现阶段的无人驾驶汽车,仍然需要人类进行一定的操作。若发生事故,对于研发者、生产者、销售者或者使用者,可依照《产品质量法》《侵权责任法》,根据各自的过错追究产品质量责任和赔偿责任。而当研发者或者使用者将智能机器人作为“工具”而实施严重危害社会的犯罪行为时,上述法律明显不能对此进行处理,因而只能由刑法对研发者和使用者进行规制。值得注意的是,由于人工智能进入了刑事犯罪领域,可能会导致新型犯罪形式的产生,例如与大数据滥用结合的新犯罪形式、与“欺骗”编程系统相结合的新犯罪形式,也可能会让部分传统犯罪的危害性发生“量变”,使得犯罪行为的社会危害性变得更“广”更“深”。[8]这些问题的出现,使得针对潜在的新型犯罪形式而制定预防性刑法的社会需求更加迫切。对在设计和编制程序范围内实施行为的智能机器人制定相关预防性刑法,明显符合刑法作为“事后法”而对相关犯罪进行被动干预的特征,这是刑法在相关行为超越民事法律处理范围时的合理介入,也是在人工智能将导致新型犯罪形式大量产生的背景下,对社会安全且有效的保护。至于智能机器人在设计和编制程序范围外实施违法犯罪行为的情形,预防性刑法更有制定的必要。因为在这种情形下智能机器人的“智能”已到达了相当的高度,其机器的因素与人的因素呈现出此消彼长的状态,因而已然具备了控制和辨认能力,可以作为刑事责任主体。若其实施了违法犯罪行为,所产生的刑事责任不能再归属于研发者抑或是使用者。在这种情形下,民事法律显然不具有规制能力,而现行刑法亦缺乏专门性的规定,可以说法律对此将陷入束手无策的困境。然而此类犯罪行为一旦得逞,便会造成严重的社会危害性,甚至较传统犯罪具有更加突出的社会危害性。故必须及时制定预防性刑法,预先对智能机器人的刑事责任、刑罚体系等内容予以确定,并通过早期化介入的方式对涉人工智能犯罪行为进行规制。由此可见,针对涉人工智能犯罪行为而制定预防性刑法,是在相关法律无法解决规制问题的前提下的现实需要。这无疑也恪守了刑法“保障法”的法律性质,不会违背刑法的谦抑性原则。

第二,人工智能所造成的社会风险更加明确,并非完全建立在主观臆测之上。诸如无人驾驶致人死亡、切割机器人“切割”杀人等案例不仅直观地暴露了人工智能的社会风险,更确实地为人类敲响了警钟。同一般的风险源相比,人工智能所引发的社会风险更加确定。一方面,人工智能技术的发展是迅猛且不可逆的,当人工智能发展到一定的高度,就会成为既定现实而很难改变,并且按照现在的发展速度,其具备高度“智能”,从而产生辨认和控制能力也不再是天方夜谭。另一方面,由于人工智能所具有的“超人”能力,人类无法保证可以完全掌控具备独立辨认和控制能力的智能机器人。而若具备辨认和控制能力的智能机器人脱离人类的控制,所产生的社会风险相当明确且相当严重,那就是对人类社会与人类文明造成巨大威胁。被沙特授予公民身份的机器人索菲亚在接受美国记者采访的过程中,表达了想要“毁灭人类”意愿,虽然此意愿的来源是其本身的“思考”抑或是人类的程序不得而知,但若这些意愿逐渐延伸发展,就很容易走向现实。而且霍金和马斯克等一大批专家和学者都做出预测,认为人工智能会在未来毁灭人类。假使在设计和编制程序外实施行为的智能机器人广泛出现,但却缺乏预防性法律对这些具备辨认和控制能力的智能机器人所实施的违法犯罪行为加以规制,那么想必“毁灭人类”不会仅停留在意愿层面。笔者认为,具备独立辨认和控制能力的智能机器人也需要一定的生存环境,而对生存环境的要求势必会与人类产生冲突与矛盾。随着人工智能的发展,其所带来的社会风险相当明确客观:即通过反制甚至毁灭人类的手段,同人类争夺生存环境,这种风险将从根本上影响人类社会的安全。也正是因为人工智能明确的风险和现实的安全问题,各国政府已经开始逐步着手制定相关的预防性法律,欧盟率先提出了人工智能的立法动议,要把最先进的智能机器人的身份定义为“电子人”,并作为法律上的主体赋予其特定的法律义务,承担特定的民事、刑事法律责任。该立法动议在一定程度承认了未来的智能机器人必然会具有辨认和控制能力,反映了人类对于人工智能所能确实引发的社会风险的无限担忧。

第三,人工智能自身特征也会让预防性刑法的制定更有必要性。一方面,由于人工智能自身发展的飞跃性,并在其高效益性的驱使之下,人工智能技术日新月异,其产品必然会具备控制和辨认自己行为的能力,而一旦具备这种能力,就极易脱离人类的控制,并且由于其非凡的运算能力和深度学习能力,势必可以在较短的时间内实现多个领域甚至是全方位对人类的超越,这一超越的过程也就是人工智能的社会风险产生并爆发的过程,可见“风险”和“安全”在人工智能发展中的矛盾更加尖锐。另一方面,刑事立法的程序较为严密复杂,需要一定的时间,这使得刑法的制定具有一定的滞后性,刑事立法不可能跟上人工智能的发展步伐。若不考虑立法先行,不通过预防性刑法的制定对智能机器人的违法犯罪行为进行早期化介入,那么有朝一日,当人类失去对智能机器人的控制权,很可能会丧失制定法律的机会或者能力,甚至会出现智能机器人制定法律规制人类的可怕局面。除此之外,预防性刑法在一定程度上消弭的是人工智能颠覆人类的可能,保护的是人类的社会安全。两害相较取其轻,同人类的安全相比,即便人工智能不会发展到具有辨认和控制能力的程度,导致针对涉人工智能犯罪行为所制定的预防性刑法并无用武之地,笔者认为亦无伤大雅,因为这不会对人类的整体利益产生实质性的影响。因此,通过制定预防性刑法而对涉人工智能犯罪未雨绸缪是十分必要的。这不仅不会造成明显的不利影响,而且还具有风险预防与安全管理的现实作用。

三、人工智能刑罚问题的理论分析

依据上文分析,针对涉人工智能犯罪行为制定预防性刑法是合理且必要的,预防性刑法观在人工智能时代应该得到提倡。然而,如今还是有许多学者对于赋予智能机器人刑事责任主体地位,并据此制定预防性刑法持保留意见。他们认为即便可以通过增设罪名的方式来确定智能机器人所实施犯罪行为的违法性,但是之后的责任承担问题,现有的刑罚体系难以解决,刑罚适用的困境也让预防性刑法成为无本之木,无源之水。另外,即便赋予智能机器人刑事主体资格似乎也无法实现刑罚目的和效果,这让刑罚的执行失去意义。

笔者认为,人工智能的刑罚设置确实是制定预防性刑法过程中至关重要的问题,这直接影响到了刑法的具体适用。然而这一问题不应该成为我国制定相关预防性刑法的障碍。当行为具有严重的社会危害性时,刑法的制定应先考虑罪名后考虑刑罚。罪名确定是刑罚确定的前提,刑罚确定是罪名确定后的最终结果,决不能颠倒确定罪名与刑罚的先后顺序。若具备辨认和控制能力的智能机器人实施了严重危害国家、危害社会、危害个人的行为,立法者就应该毫不犹豫地将其确定为犯罪主体而写入刑法,绝不能因为刑罚适用困难,而放弃对其规制的可能。诚然,现有的刑罚体系中并不存在适用于智能机器人的刑罚种类,但这就更需要完善甚至是重构刑罚体系。[9]立法者绝不应该因此回避人工智能犯罪,无视相关犯罪行为所带来的严重社会危害性,将具备刑事责任能力的智能机器人排除于刑法的规制范围之外。单位从刑事立法初期不能作为刑事责任主体到之后被刑法明文规定可以作为刑事责任主体的转变,为解决人工智能的刑罚问题提供了范例。当时学界普遍认为,由于我国的刑罚体系中,没有一种刑罚能直接适用于单位,故单位在很长一段时间都不能成为我国的刑事责任主体。但是,这样的观念很快就被改变。1997年刑法通过刑罚的改革,确立了双罚制,单位正式被规定和认可为刑事责任主体。可见当犯罪同刑罚不相适应时,改革完善刑罚体系才是应时之举。更为重要的是,单位的意志是多个内部成员意志的有机结合,是多个自然人相互商议与妥协的结果,应该说是间接反映了自然人的意志。而智能机器人的意志则是在人类智慧的编程下进一步发展的产物,可以说其意志来源于人类所赋予的“智能”,是人类意志的延伸与直接体现。从意志来源上看,智能机器人较单位而言与自然人的联系更为紧密。因此,将具有辨认和控制能力的智能机器人作为新的刑事责任主体绝不是天马行空的幻想,而是具有充分现实依据与理论基础的可行之策。通过刑罚体系的重构,智能机器人的刑罚适用困境就可以迎刃而解。

至于刑罚的目的和效果问题,笔者认为对智能机器人尤其是具有辨认和控制能力的智能机器人采取刑罚可以达到刑罚目的,同时也会具有相当的刑罚效果。现代刑罚的目的并非是同态复仇,而是预防犯罪。诸如徒刑、死刑等人身刑是基于人类对自由和生命的渴望来达到预防犯罪的目的,而诸如罚金、没收财产等财产刑则是基于人类对财产权的重视而达到预防目的。就具有辨认和控制能力的智能机器人而言,数据、程序、躯体是其存在的基础和根本,针对智能机器人存在的根基可以设立删除数据、修改程序、永久销毁躯体等刑罚,[10]这些刑罚措施可以切实达到刑罚目的。

美国科幻作家阿西莫夫曾提出“机器人三原则”,对智能机器人的行为规则做出了清晰的界定:即智能机器人即使是在设计和编制的程序外实施相关行为,也应该以保护人类作为准则;人类设计和制造智能机器人的根本目标应该是造福人类而绝不是危害人类;若智能机器人实施犯罪行为而对人类的整体利益产生危害应该是极为特殊的异化情形。俄罗斯的逃跑机器人,整个实验室数百台机器人中只有这一台存在逃跑的行为间接反映了智能机器人行为异化的特殊性。据此可以推断智能机器人的犯罪形成机制,即真正自发实施犯罪的智能机器人只会是一小部分。若未来出现大量的智能机器人犯罪,只可能因为一小部分智能机器人突破了程序与编程的设定而实施犯罪行为,其他智能机器人在深度学习能力之下经过学习模仿也实施相关行为。综上所述,智能机器人犯罪的形成机制其实是“从点到面”逐步扩散的。在此机制下,通过删除数据、修改程序、永久销毁,不仅能防止已经犯罪的智能机器人重新犯罪,实现特殊预防的目的;更能消除其他未实施犯罪的智能机器人学习犯罪的来源,实现一般预防的目的。这些刑罚可以从根本上预防智能机器人犯罪,必将达到刑罚的预防目的。

四、结语

一般而言,刑法作为事后法不应违背其消极、补充的属性。但是人工智能时代是一个特殊的时代,在这一特殊时代,技术发展一日千里,社会风险更加凸显,刑法对此也应该有特殊的应对之策,即应当发挥更加积极的作用,通过立法先行,制定防范法益侵害潜在危险的预防性刑法。有人说假如人工智能是一颗子弹,那么于刑法而言大可以让子弹再飞一会儿,待人工智能的社会危害性到达一定程度,再将其纳入规制范畴。然而他们忽略的是人工智能的特殊性以及涉人工智能犯罪行为的严重社会危害性。“让子弹飞一会儿”葬送的是人类约束人工智能健康发展的绝佳时机,影响的可能会是人类文明持续发展的美好未来。尽管目前的刑罚体系对于智能机器人,尤其是具有辨认和控制能力的智能机器人的规制还存在一定的障碍,但这绝不应该成为排斥预防性刑法、否定预防性刑法观的理由。人工智能的未来已来,所蕴含的社会风险将至已至,刑法的未雨绸缪刻不容缓。

猜你喜欢
刑罚预防性刑法
过度刑法化的倾向及其纠正
刑罚威慑力的刑法学分析
代运为名行诈骗 构成犯罪获刑罚
断盐也是一种刑罚
刑法适用与刑法教义学的向度
刑法的理性探讨
2015款奔驰R400车预防性安全系统故障
微表处在沥青路面预防性养护中的应用
刑罚的证明标准
馆藏唐卡保管与预防性保护