具身性、认知语言学与人工智能伦理学初探

2020-02-25 07:02杨媛媛
商丘职业技术学院学报 2020年2期
关键词:伦理学图式语言学

孙 阳,杨媛媛

(西南石油大学 外国语学院,四川 成都 610500)

随着人工智能技术的崛起,人们对人工智能投入了大量的关注。在伦理学中,人工智能的伦理学考量也开始逐步走入相关学者的视野,人工智能伦理学作为一个新型的学科开始进入研究中。人工智能伦理学可以分为机器人伦理学和机器伦理学两大部分。机器人伦理学主要侧重点是以机器人为主体进行规范性的研究,而机器伦理学主要侧重点是人类研究的人工智能在行为上是否具有伦理性。两个部分是相互联系不可分割的。两者主要的差别就是研究主体的不同。但是,在目前人工智能伦理学的研究范畴中,语言语义在人工智能伦理学中一直处于边缘化的地位,所以,具身性的人工智能伦理学研究是非常必要的。

一、伦理学的具身性研究

具身性是认知哲学中的一个专业性术语,它的主要含义是:人类认知的大多数特征都是在人类生物学的基础上的“身体组织”创造的,是和身体之外的笛卡儿的精神实体的衍生物相互区分的。那么,结合这个观点,我们可以将具身性的伦理学这样理解:伦理学所提及的主要内容,在很大程度上是作为伦理主体的人类肉体的特征进行塑造的,也就是说,伦理学在研究的过程中必须和生物学的相关内容相互结合,不能进行纯精神领域的研究。

在目前的研究范围中,人们并没有充分注意到人工智能制品因为生物体征的不同而存在着较大的伦理风险,而这种风险却是客观存在的[1]。举个例子来说,阿西莫夫的三大定律就体现出了这样的危险性特点,某种强制性的代码被输入到机器人中来危害人类。从这一过程来看,给机器人配备了一个“身体”而使其成了一个与机器伦理无涉的边缘性问题。在这个过程中,人工智能的操纵专家就可以选择一定的程序来扮演一定的角色,甚至可以直接在机器中植入代码。那么问题就出现了,为什么自然选择能够做到的事情,人类却自己做不到呢?经过长时间的研究,答案是显而易见的。首先,自然选择的机制是符合大自然规律的,并不是很神秘,但是,一些特定性的历史演化中的一些细节却是难以被事后复原的,这种描述是相当抽象的。那么,我们可以将自然选择机制想象成一个设计师。该设计师对人类伦理代码的编制是按照从下到上进行设计的,但是,在机器伦理代码的编制路线中却是从上到下的,两个路径并不相似。其次,大自然的自然选择过程并不是仅仅由一次就能够完成的,而是经过了长时间的生存竞争才形成的,而在机器伦理学的设计流程中是试图采用一劳永逸的代码编制工作来杜绝发生一切的伦理性风险。显然,这种情况是不可能存在的。最后,在自然选择的过程中要将基因编码的形式保存下来,在激烈的生存竞争中,这些代码必须在生物体的内部才能够展现出其生物的价值[2]。从这个特点来看,遗传代码本身就具备一定的具身性的指向。从上述的分析中我们可以看出,大自然的自然选择过程中选出的基因编码组合本身是不带有语义内涵的,而赋予其语义的过程则是人类在后续的观察过程中进行的事后描述。也就是说,伦理规范是很难摆脱机器伦理编制的具身性特点。

二、认知语言学的具身性特点分析

认知语言学的很多技术性的概念是具备具身性特点的,其中最具典型性的就是认知图式。图式的主要意思就是形状,而在认知语言学中,图式也可以表述为一系列语例中的共通性在得到相关的强化所获得的一些抽象性的模板。在认知语言学中,这些抽象性的模板是按照意向式的结构进行的,其本身是具备一定的可视性特点的,它与人工智能的具身性特点有着一定的重合。

在面对人工智能机器人的问题中,为了防止机器人对人类做出不利的行为,机器伦理学家需要阻止完整意义上的语义智能和与人类空间尺度不同的身体构造结合在一起,也就是说可以建造出一些和人类空间尺度不同的机器人,但不赋予其高级的语义功能,也不赋予其独立的决策能力,或者说在建造机器人的时候需保证它与人类有着非常大的差异性,而且这类机器人不能比人类高级太多[3]。此外,我们还可以将一些灵活智能的机器人和一些比较低端的机器人组合起来,让高端的机器人来操控低端的机器人,让两类机器人具备一定的组合临时性,这样他们比较容易被操控。但是,需要注意的是,要禁止将这两类机器人临时组合起来并且长久地催生某种对人类不利的认知图式,要防止机器人不受人类控制之后对人类做出不利的事情。在目前的发展过程中,对人工智能的伦理学研究依然还处于一种争论的状态中,我们可以将认知学的相关内容融入人工智能的伦理学研究之中,以期获得更合适的结果。

三、当前人工智能伦理学研究中关于具身性研究的缺陷分析

从目前我国学术范围内的研究情况来看,人工智能的伦理学研究依然还是非常不完善的。就目前各国的研究情况来看,人工智能伦理学的研究主要还是依靠官方的力量进行,其背后有着非常强的动机性,并不是从科学发展的逻辑出发的。举个例子来说,某国家对人工智能伦理学的研究,主要是为了研发出能够自动开火的战争机器人,而完全不顾其他问题的存在,甚至在欧盟会议中,也曾经讨论过将民权的准则赋予机器人的问题。从上述两个例子的描述来看,这已经远远超过了目前人工智能的研究范围,而且有着非常明确的指向性问题。从目前伦理学的研究进度来看,认知语言学的一些学术性的问题还没有被人工智能的编程作业完全消化,现在所沿用的人工智能系统的语义表征的实际能力并没有任何道德规范来衡量,无论是在民用还是军用上,伦理学都是无法对人工智能进行约束的。在目前学术界,对人工智能的讨论异常激烈,甚至一些学派提出了人工智能的威胁论学说,而且还制造出了一系列的恐慌。导致讨论两极分化的原因,还是人们并没有将人工智能的相关内涵理解透彻,也没有将人工智能所研究的语义学与语言哲学的相关问题理解完全,他们没有从认知语言学的本质出发,忽略了身体图式对伦理规则的影响[4]。例如一些国家研究的机器人是否能够自动开火的问题,问题的本身就是属于没有内涵的东西。但是,从伦理学的特点来说,如果战争机器人具备全面的语义智能能力,那么也具备了其传感中获取数据进行转换的能力,而且还具备从复杂的情报环境中进行决策的能力,也就是说战争机器人具备了道德上的修养,它能够如我们期待那般在需要的情况下才能开火。在当前的学术界研究范围中,关于其具身性的研究并不是很充足,而且关于该问题的发散性研究也并不是很完善,甚至一些哲学家开始提出具身性的人工智能途径,但是,在他们所提出的范畴中,其主要的技术路线和认知语言学并没有多大的关联性,而且也没有将哲学中具身性的一些特点延伸到人工智能伦理学的理论之中。在近几年的研究中,要使机器人的道德决策机制更加接近于人类的思想,从而设计出关于相关技术的内容,就需在未来的构建中以身体图式的主要内容来构建人工智能的伦理学理论,这是一条比较具有实践意义也是非常新颖的道路。在未来的发展中,我们可以构造出人工智能与计算机编程作业相互结合的技术路线图,并且将其付诸实践,以便人工智能技术更好地为我国的发展做出贡献。

四、认知语言学的具身性对人工智能伦理学的启示

在认知语言学的学术研究中,有很多较为抽象的技术性概念,其中最核心的就是“认知图式”。该内容能够形象地表述出认知语言学“具身性”这一特点。在概念中,图式主要指的是在一系列的语境之中找出共同点之后进行语义的强化后获得的一些抽象性模板,图式的展现过程呈现出一种循序渐进的过程。这样的概念图式也印证了“该概念在使用的过程中也同样具有相同的身体性经验”这一观点:身体从某一个起点出发,移动身体后沿着既定的路线,进入到容器之中,成为容器的容纳物之一。在这个图式的展示内容中,管辖区域是一个非常重要的概念,而且与具身性有着密不可分的联系。管辖区域是一个范围名词,也就是认知主体的主要注意力是关注在语义网络中能够覆盖的范围之内的,其中管辖区域和核心主体位置较近的地方被称为直接管辖区域,注意力最远的地方被称为最大的管辖区域。从目前认知语言学的研究成果来说,“辖域”生动地展示了具身性的特点。从哲学的角度来说,任何辖域最终都需要明显的边界存在,但是辖域的边界却又是依赖于主体视野的大小。但是,从另外的一个角度来说,主体视野的大小最终却取决于身体的特性[5]。为了更好地理解这一概念,我们可以类比比较熟悉的小说《格列佛游记》,其中大人国和小人国就是属于辖域范畴。对于大人国的居民来说,他们眼中所看到的人类房屋恐怕只有黄豆那样的大小;而小人国的居民眼中所看到的房屋却非常庞大。从认知的角度来看,房屋的大小以及生活的范围也就是上述的辖域概念。不同辖域的人以他们眼中所看到的事物来进行辖域范围的描述,而人工智能伦理却也确实与认知心理学的内容相联系。

认知语言学和伦理学、人工智能伦理学有着内在的相通性。首先需要我们肯定的是,伦理学所研究的世界观中,社会规则以及社会个体在自身发展的过程中本身就是一种身体图式的过程。举个例子来说,在某一块空地上竖着一块上面写有“此地禁止入内”的牌子,这句话中的“入内”一词就是表达出了一个身体图式的过程。反过来说,如果我们将这些身体图式的预设去掉,那么就会产生一些滑稽可笑的效果,例如:永远不能用口水来淹死大象,永远不能占领银河系以外的空间……这种滑稽的表现方式也从侧面证明了认知语言学和伦理学具有相同的研究思路,具体可以这样描述:伦理学所研究的内容,从本质上来说,是某种世界中存在的物体,需要通过一些方式进行直接或者间接的包装,而这种包装并不是脱离了现实生活需求的臆想物。

我们将上述的研究思路推广到人工智能伦理学之中,那么就会产生一些问题:既然没有任何科学的依据来证明大人国和小人国尺度上的智能机器人无法被制造出来,那么我们在实践过程中就无法保证机器人所具备的认知图式和人类的认知图式能够保持一致,也无法确认两者之间是否具有合拍性。如果这种合拍性在机器人的研究过程不能够被保证的话,那么我们也就无法保证建立在机器人身上的伦理规范能够与人类所拥有的伦理规范相符合;那么我们也更无法保证机器人是否会对我们的生活产生攻击性。

在未来的研究过程中,如果实现了全面人工智能,那么就意味着人工智能已经具备了人类所有的语言智能,其中还应当具备包含身体图式的相关破解能力,那么我们就可以这样来理解,在机器人的世界里,他们所使用的符号均需和外部环境产生明显的勾连性,并且还需有灵活的互动功能,还需对特定符号的语境进行把握和控制,而身体图式则恰恰是一个最佳的中介。从这个角度来看,大多数的哲学家是认同人工智能未来发展的,而且也开始寻找一些合适的编程和描述来体现认知语言学的原则。如果自然人和机器人在身体图式上存在较大差异的话,那么两者之间的沟通和转译所需要的成本就非常高昂。举个例子来说,如果狗也懂得人类语言的话,那么在它们的认知中,“爬”这个词语所具有的身体图式和人类的身体图式是有着很大差别的,而这种差异性也就使得机器人在沟通的过程中无法理解人类所具有的身体图式。即使在未来的发展过程中,一些机器人的语言功能已经达到了能够理解人类身体图式的地步,但最终所推导出来的人类社会规范也还是具有一定的抽象性的,而且这种社会规范也还是和机器人所生存的环境有着很大的差异性,所以很难要求机器人能够严肃地对待人类社会的规范。

综上所述,结合认知语言学具身性的特点,对人工智能伦理学的启示可以有以下三个方面的内容。首先,我们可以尝试着建立和人类空间尺度不同的机器人,但是,不能够对其赋予较强的语言功能,保证他们不能独立地做出决策。也就是说,这样的机器人并不是很智能,就是在某一领域中能够重复地劳动,并且听从人类指挥,其智能程度不能够达到身体图式所给予的内部表征。其次,如果在未来的发展中,我们需要将机器人赋予一定的灵活性能,那么就应当保证机器人的精神、身体界面和人体之间没有较大的性能差异。也就是说,机器人应当和人类比较同步,既不能超过人类太多,也不能落后人类太多。从伦理学的论述来看,就是在机器人的硬件构造上,让机器人产生对其他机器人特别是人类的需求。通俗地来说,就是机器人必须依赖人类才能生存下去,令其与人类形成一种紧密的联系。最后,在人工智能的使用中,一方面,我们可以开发一些专业性的人工智能,主要负责某一方面的内容。通俗地来说,这类机器人比较愚笨;另一方面,我们则可以开发一些高智商的机器人,让高智商的机器人来操纵愚笨的机器人,但是,在操作运行的过程中,高级机器人的自身认知图式中的类人性特征不能够受到破坏。从整体上来说,过于聪明的人工智能并不能对人类造成威胁。只有太聪明的人工智能与超强的外围硬件设备的组合,才能构成对人类的威胁,那是因为和人类不同的身体图式本身就能够塑造出一个和人类不同的语义网络,那样人类的道德规范就很难附加于其上,就会造成很大的威胁。因此,在设计过程中,我们要保证高智商的机器人和人类的主流社会没有广泛的接触,从而保证社会安全。

猜你喜欢
伦理学图式语言学
实践音乐教育哲学中的伦理学意蕴探析
山东汉画像石铺首衔环鱼组合图式研究
体认社会语言学刍议
“纪念中国伦理学会成立40周年暨2020中国伦理学大会”在无锡召开
《复制性研究在应用语言学中的实践》评介
论马克思伦理学革命的三重意蕴
《神经语言学和心理语言学视角下的二语习得》述评
伦理批评与文学伦理学
图式思维在现代室内装饰设计中的应用
从驱动-路径图式看“V+上/下”的对称与不对称