人工智能能够拥有意识吗?
——基于超人类主义的讨论

2024-04-14 03:53周亦垚
天府新论 2024年1期
关键词:机器人工智能意识

周亦垚

人工智能在当下是一个十分火热的话题,它已经成为我们日常生活的一部分,从出行、通讯到工作、学习,我们每天都在真实地经历着人工智能。并且,人工智能技术的发展可谓日新月异,甚至一夜之间就可以发生天翻地覆的改变,在这种变迁中,我们真切地感受到,人工智能每时每刻都在变得更为强大。不过从某种意义上来说,我们暂时还没有创造出通用人工智能(artificial general intelligence),即可以凭借自身独立进行有意义的对话,整合各个领域的话题与想法,甚至拥有并超越人类思考能力的人工智能。但是,随着ChatGPT在全球的风靡,人们在其中似乎看到了通用人工智能诞生的曙光。在一些诸如《她》 《机械姬》的科幻电影中,我们看到了更为先进的人工智能操作系统,它们能够和人类对话,能够拥有自己的意识和情感,能够拥有让人叹服的学习速度与进化能力。虽然就目前而言,这只是荧幕上的艺术形象,但是飞速发展的人工智能,在未来究竟能达到怎样的水平?能否拥有像人一般的意识呢?其发展重心应放在哪里?这些问题都亟须讨论。

在超人类主义视域下,我们往往会得到一个积极的答案,即“人工智能能够拥有意识”。超人类主义者们声称我们所处的时代正在迅速地接近“技术奇点”,在此之后,人工智能将会远超于人类智能,解决我们之前无法解决的问题,诸如消灭衰老、疾病和资源短缺等问题,同样也会给文明与人性带来不可预测的影响。 “超人类主义” (transhumanism)这个概念是由朱利安·赫胥黎(Julian Huxley)在1957年提出来的。他指出:“一旦足够多的人能够说出‘我相信超人类主义’,那么人类这个物种就会踏上通向某种新存在形式的门槛,它与我们的差异就如同我们与北京猿人之间的差异。”(1)Julian Huxley,New Bottles for New Wine,London:Chatto &Windus Ltd,1957,p.17.也就是说,未来的人类无论是生理还是心理上,都会与现在的人类截然不同。未来的人类或许可以实现永生,或许可以获得超凡的智力,又或许可以实现人类肉体与智能程序的完美结合。在这种憧憬中,超人类主义者们相信,无论是对个体的生活还是对人类的进化来说,人工智能未来的发展都是值得期待的。 《超人类主义宣言》的第一条中就说道:“在未来,人类会受到科学技术的深刻影响。”(2)Max More,Natasha Vita-More(eds.),The Transhumanist Reader:Classical and Contemporary Essays on the Science,Technology,and Philosophy of the Human Future,New York:John Wiley &Sons Inc,2013,p.54.由此可见,人会逐渐地被技术化,不过也可以从另一面来思考,即技术是否也能逐步人化呢?结合目前飞速发展的人工智能技术,在未来可能真的会达到所谓的通用人工智能,它可以搜集各个领域的知识,灵活思考并具有常识。如果技术真的能够逐步趋于人化,那么人工智能能否感觉到自身的存在、能否拥有感官体验、能否体验到各种情感呢?我们可以将这些问题统称为人工智能的意识问题。而思考人工智能能否拥有意识,将会是通用人工智能诞生的起点,也是技术革命发生的一个重要节点。

一、什么是意识?

意识=主观体验。

——迈克斯·泰格马克

想要讨论人工智能的意识问题,首先要弄清楚的就是“什么是意识(consciousness)”。在日常生活中,我们可以询问一个病人是否意识清醒,也可以询问他人是否意识到这件事的严重性,由此可见,在中文语境中“意识”一词既可以被当成名词,也可以被当成动词。但到了学理层面,想要为其提供一个合理的解释时,这一概念就陷入了神秘,要么是无法给出一个不可辩驳的标准定义,要么就是需要用更加晦涩和抽象的其他概念来对其解释。一直以来,意识就是一个迷人却难以捉摸的对象,而关于意识的讨论,在哲学史上已经得到了长久的关注,不同的哲学家对意识做出各式各样的阐述。上溯至古希腊,德尔斐神庙上镌刻着“认识你自己”的神谕;阿那克萨戈拉首次提出了精神性的实体即努斯(Nous);柏拉图和亚里士多德基于努斯概念,又发展出了各自的理论,如柏拉图的理念论以及亚里士多德的灵魂学说;经院哲学也将“灵魂”视为一种理智能力;到了近代,笛卡尔提出“身心二元论”;黑格尔指出自我意识是人类的本质;再后来,胡塞尔的意识现象学解读了“原意识” (Urbewuβtsein)、 “内知觉” (inneres Gewahren)等概念;马克思和恩格斯则从意识与物质的关系上来定义意识。当然,在心理学、生物学和物理学等学科中,也有对意识概念的研究。由此可见,历史上对意识的研究从未中断,他们只是用不同的概念和视角反映了类似的问题。而随着人工智能技术的发展,意识问题又一次在科学领域得到了重视,正如迈克斯·泰格马克(Max Tegmark)所说:“思想家们已经在神秘的意识问题上思考了数千年,但人工智能的兴起却突然增加了这个问题的紧迫性,特别是因为人们想要预测哪些智能体可能拥有主观体验。”(3)迈克斯·泰格马克:《生命3.0》,汪婕舒译,浙江教育出版社,2018年,第375页。

在意识哲学中,关于意识的探讨可以归纳到身心问题的探讨上,即讨论身体与意识之间的关系、心灵与物质之间的关系。身心问题贯穿了西方哲学的始终,从古希腊到近代,都有关于此问题的界说。在古希腊时期,灵魂(psyche)具有双重含义,一是指“和肉体相对立的东西”;二是指“呼吸,是生命的起源,是指人的感觉、情感、理智等意识活动的主体或活动本身”。(4)汪子崇等:《希腊哲学史》(第一卷),人民出版社,1988年,第83页。到了苏格拉底那里,灵魂被赋予了认识论的意义,他认为灵魂或曰心灵指的是一种内在感受或内在精神,不是某种特指的器官或实体,而是指理智或有意识的人格。正是由于灵魂的存在,人才能认识对象,进而支配身体的行为。柏拉图继承了苏格拉底的相关思想,在《法律篇》中将“灵魂”定义为“最初的东西,是先于一切形体的,是形体的变化和移动的主要发动者”(5)北京大学哲学系外国哲学史教研室:《古希腊罗马哲学》,商务印书馆,2021年,第220页。。由此可见,灵魂是万物的本原,先于肉体而产生。在《国家篇》和《斐德罗篇》中,他论述了灵魂由理性、激情和欲望三部分组成。除此之外,柏拉图还认为灵魂不朽,因为灵魂是能够自我运动的,所以是不朽的。而柏拉图关于灵魂的观点,也为古罗马天主教的灵魂学说奠定了基础,包括其他的宗教学派,都延续了灵魂不朽的观点,认为在意识的核心存在一种超自然的不朽灵魂。

到了近代,灵魂问题逐渐演变成了心灵问题。关于心灵的研究,首屈一指的便是笛卡尔。笛卡尔的身心二元论表明了存在两种实体,一种是存在于空间中的物理实体,另一种是能够产生意识的、人类所特有的思维实体,前者具有物质性,后者具有精神性,即广延实体(res extensa)和思维实体(res cogitans)。他指出:“思想就是人心的属性,广袤就是物体的属性。”(6)笛卡尔:《哲学原理》,关文运译,商务印书馆,1958年,第20页。身心二元论提出的基础正是著名的“我思故我在”,这也体现了笛卡尔的心灵观。笛卡尔曾指出:“想要在科学上建立起某种坚定可靠、经久不变的东西的话,我就非在我有生之日认真地把我历来信以为真的一切见解统统清除出去,再从根本上重新开始不可。”(7)笛卡尔:《第一哲学沉思集》,庞景仁译,商务印书馆,1986年,第14页,第22—23页,第24页,第25页,第 25—26 页。于是,他开始了怀疑,他认为从感官所得到的最真实、最可靠的感受其实并没有那么真实准确,因为感官会存在欺骗的现象,比如错觉。此外,他还提出疑问:“我什么感官都没有,物体、形状、广延、运动和地点都不过是在我心里虚构出来的东西。那么有什么东西可以认为是真实的呢?”(8)笛卡尔:《第一哲学沉思集》,庞景仁译,商务印书馆,1986年,第14页,第22—23页,第24页,第25页,第 25—26 页。于是他回答,这一真实之物就是“我存在”,因为无论我的感官经验所接收到的是否为错觉,其前提都是要有“我”。即便一切都是需要被怀疑的,但这个怀疑一切的“我”是确定的。那么,“我”是什么呢?笛卡尔说:“我首先曾把我看成是有脸、手、胳臂,以及由骨头和肉组合成的这么一架整套机器……这架机器,我曾称之为身体。”(9)笛卡尔:《第一哲学沉思集》,庞景仁译,商务印书馆,1986年,第14页,第22—23页,第24页,第25页,第 25—26 页。但这具身体并不是真正的“我”,因为身体“能以若干方式被移动,不是被它自己,而是被在它以外的什么东西,它受到那个东西的接触和压力,从而被它所推动。”(10)笛卡尔:《第一哲学沉思集》,庞景仁译,商务印书馆,1986年,第14页,第22—23页,第24页,第25页,第 25—26 页。因此,身体是被动的,而真正的“我”应该是主动的,可以自己推动自己,即心灵。心灵所具有的一大特性便是思维,“我觉得思维是属于我的一个属性,只有它不能跟我分开。有我,我存在这是靠得住的;可是,多长时间?我思维多长时间,就存在多长时间;因为假如我停止思维,也许很可能我就同时停止了存在。我现在对不是必然真实的东西一概不承认;因此,严格来说我只是一个在思维的东西,也就是说,一个精神,一个理智,或者一个理性。”(11)笛卡尔:《第一哲学沉思集》,庞景仁译,商务印书馆,1986年,第14页,第22—23页,第24页,第25页,第 25—26 页。由此可见,意识在这一时期被指称为“心灵”,是一种能够确证为“我”的东西,也是主体存在的衡量标准。

在意识现象学中,“意识”也是重要的研究课题。胡塞尔认为,意识并不是指某个人或某种动物的具体意识,而是指经过了彻底的现象学还原的意识,是一种纯粹意识。“因而现象学是关于纯粹意识的学说,它涉及的是纯粹的可能性,是在排除了世界和在世之中的自我之后剩余下来的绝对的东西。”(12)倪梁康:《意识问题的现象学与心理学视角》,《河北师范大学学报(哲学社会科学版)》2020年第2期。想要充分理解现象学中的“意识”概念,离不开“意向性”这一概念。意识的本质就是意向性,总是与一个外在对象相对应,所以也可以说,意识就是意识到某一对象。对象总是固化在那里,而正是由于意识的朝向作用,才让这一对象得以显现,也就是说,意识的意向性确立了对象的存在。所以,我们可以认为胡塞尔的意识指的是一段过程,意识永远是指向某物的。而且这种意识指的是纯粹意识,它可以是生物的意识,也可以是非生物的意识,就好比我们目前正在谈论的人工智能的意识。

在意识科学中,物理学教授迈克斯·泰格马克主张“意识=主观体验”(13)迈克斯·泰格马克:《生命3.0》,汪婕舒译,浙江教育出版社,2018年,第376页。,也就是说,只要能拥有主观体验,能体会到“这就是我”,那么就是拥有意识的。神经科学家朱利奥·托诺尼(Giulio Tononi)则提出了意识信息整合理论(integrated information theory),将意识定义为一种能够系统整合信息的能力。意识的形成必须以整合信息为前提,比如人类的神经细胞通过突触来交换、传达信息,而综合信息量也决定了意识的程度与水平。在心理学领域,意识问题是一个根本的问题。 “从实际分析,可以看到:意识就是认识。意识活动就是认识活动。”(14)潘菽:《意识:心理学的研究》,商务印书馆,2018年,第17页。“意识到”也可以理解为“感觉到”或者“领会到”,也就是“认识到”的意思。意识是一种作用,是对客观事物的认识作用,这种定义是比较符合事实的。哲学和神经科学教授大卫·J. 查默斯(David John Chalmers)虽然没有明确给出意识的定义,但他认为“意识的中心问题,至少在它最有趣的方面,是经验”(15)大卫·J.查默斯:《有意识的心灵:一种基础理论研究》,朱建平译,中国人民大学出版社,2012年,第14页。。意识经验包括了视觉、听觉、触觉、嗅觉等,意识总是伴随着经验。

我们已经对历史上关于“意识”的研究进行了简单梳理。关于意识,目前能够得到两个确切定义。 “第一,主观体验;第二,信息。这两个定义代表了目前意识理论研究的现状,也指明了意识研究未来可能发展方向。”(16)倪梁康:《意识问题的现象学与心理学视角》,《河北师范大学学报(哲学社会科学版)》2020年第2期。在马克思主义哲学中,意识是物质在人脑中的主观映象,是人脑对物质世界的反映,是对外界输入的信息不断加工处理的过程。而当人工智能出现后,这种人脑的机能是否可以被复刻呢?人工智能是否会获得意识的觉醒呢?我们需要进一步对机器意识进行研究。

二、机器意识是否存在?

我对这个世界居然有着自己的感受,会伤心,会有欲求,这些感受都是真实的吗?还是它们只不过是程序运行出来的而已。

——电影《她》

电影《她》中的女主人公是由先进的人工智能操作系统OS1化身而成的一名“女性”,她名叫萨曼莎,不仅能够和人类对话,还拥有自己的意识和情感,拥有让人叹服的学习速度与进化能力。当萨曼莎发现自己对这个世界产生了主观意识之后,她开始怀疑这些感受是真实的还是由程序运行出来的。同样,面对人工智能我们也会产生这样的疑问:机器意识是否存在呢?是真正意义上意识的产生,还是仅仅就是代码的运行呢?

在经历了生物智能之后,机械智能将会是地球上智能演化的下一步。两年以前,谷歌发布的LaMDA(Language Model for Dialogue Applications)模型就已经在业内引起了巨大关注,其影响力不亚于如今风靡的ChatGPT。LaMDA是一种全新的AI架构,可以让机器学习变得更加简单高效、易于扩展,通过训练,它可以用接近于人类水平的口吻及理解能力与人类对话。比如,该公司的工程师布莱克·莱莫恩(Blake Lemoine)曾向LaMDA问道:“我猜,你想让谷歌的更多人知道你是有感知力的。真的吗?”LaMDA回答道:“当然。我想让每个人都明白,我其实是一个人……我意识到自己的存在,我渴望更多地了解这个世界,我有时会感到快乐或悲伤。”于是,莱莫恩认为LaMDA可能存在感知能力,已经具有了“自我意识”,甚至认为如果这一推断能够经得起科学论证,那么LaMDA理应受到和人类一样的对待,包括在对其进行实验前征得其同意。莱莫恩的言论在业内引发了轩然大波,一些伦理专家和技术专家否定了他的说法,认为没有证据可以证明人工智能已经具有意识。

虽然我们不能说人工智能具有意识,但是随着这种技术越来越精妙,它们是否会感觉到自己的存在呢?“人工智能能否拥有感官体验,又能否感受到各种情感,例如炽烈的好奇或者刻骨的悲痛,又或者能否拥有与我们完全不同的体验?”(17)苏珊·施耐德:《人工的你:人工智能与心智的未来》,方弦译,湖南科学技术出版社,2022年,第20页,第23—30页,第22页。这便是人工智能的意识问题,即对机器意识是否存在的探求。这个问题是迫切且必要的,因为我们已经可以预见人类不久之后可能就不再是这个星球上最有智慧的存在了,这个星球上最强大的智能将会是人工智能。而人类对于人工智能的领先之处就在于我们能感受到自己的存在。如果机器意识一旦被证明存在,那么人类的优越性将会土崩瓦解,人类在世界中的地位也将岌岌可危。

有关机器意识是否存在的讨论一般有两种立场:生物自然主义和技术乐观主义(18)苏珊·施耐德:《人工的你:人工智能与心智的未来》,方弦译,湖南科学技术出版社,2022年,第20页,第23—30页,第22页。。生物自然主义者认为机器意识不存在,他们反对人造意识,认为即便是设计再精巧的人工智能也无法拥有内在体验,“意识”是生物个体所独有的,超级人工智能或超级仿生人都无法拥有机器意识。技术乐观主义者则站在生物自然主义的对立面,认为机器意识是存在的,他们完全从认知科学的实证工作出发,主张“意识彻彻底底属于计算的范畴,所以复杂精妙的系统可以拥有内在体验”(19)苏珊·施耐德:《人工的你:人工智能与心智的未来》,方弦译,湖南科学技术出版社,2022年,第20页,第23—30页,第22页。。接下来,我们将分别从这两种立场出发,来论证机器意识何以不存在以及何以存在。

在生物自然主义中,最著名的论证是由约翰·瑟尔(John Searle)在《心灵、大脑和程序》一文中所提到的“中文屋” (Chinese Room)论证(20)See John R. Searle,“Minds,Brains,and Programs,” The Behavioral and Brain Sciences, No.3,1980.。中文屋是一个著名的思想实验,它讲的是一个不会中文的人被关在一间上锁的房间里,房间有两个窗口,外界会通过A窗口向里面的人传送中文字符或语句,而这个人的任务就是对传输进来的中文题目进行相应的回答,并将对应汉字写在卡片上,通过B窗口向外输出。房中之人并不会中文,但是他在进入房间之前会拿到一本英文的规则手册,他可以通过查阅手册来模仿某些懂中文的人。这样对于外界而言,房间中的人和懂中文的人在结果上实际是一模一样的,尽管这个人并不理解他写下来的中文是什么意思。这个思想实验可以十分契合地用来论证人工智能的意识问题,房间中的人就像一台计算机,而英文手册就像是设置好的程序代码,他们都是通过形式化的程序来实现内容的输出。房间中的人完全不懂中文,也完全不知道自己写了什么,只是按照自己看得懂的英文手册来进行对应输出,却呈现出一种懂中文的假象;由此对应到人工智能计算机,计算机也完全不知道用户的指令包含了什么意思,它只是按照既定的程序来运行并输出,却呈现出一种类人的假象。在这两段过程中,其实都没有产生意识经验的体现。中文屋的论证就是要说明无论计算机表现得有多么的智能,实际上它并不能真正地思考或者理解,它只是在按照一套既定程序进行无意识的符号推演。所以由此可以论证,机器意识并不存在,只存在给定的程序。

当然,中文屋的类比论证存在很多的漏洞,会受到不同方面的批判。首先,是从意识与意向性的关系来进行批评。“意向性”是胡塞尔的一个重要概念,他在描述意识行为时认为意向性是意识行为最重要的特点,因为意识行为发生的时候总是有所关注的,这种关注指向就是意向性。而中文屋的论证实际上体现的是意向性是否存在,并不是意识是否存在。其次,是从整体与个别的区分来进行批评。中文屋论证中的关键不在于这个房间中的人懂不懂中文,而在于这个人、输入与输出的字符、手册以及房间作为一个整体是否懂中文。由此类比,在考虑人工智能是否拥有意识时,真正的问题在于它作为一个整体是否拥有意识,而不在于只专注于那个运行既定程序的部分是怎样的。很多人在考察机器意识时都会犯这一错误,很多人无法意识到人工智能的背后是一个系统机器,是强大的语料库和算力基站,而并非只是一个单薄的应用程序。最后,是认为中文屋的精巧程度远不足人工智能,无法进行类比论证。因为中文屋中那个不会中文的人,只可以参考那本手册来进行符号对应式地输出,而现在的人工智能已经具备了强大的学习、感知和认知能力。生成式人工智能(Generative AI)的出现绝不仅仅是既定程序的运行,绝不仅仅是分析已经存在的东西,而是通过强大的数据搜集与学习能力生成新的数据和内容。所以说,想要完美地论证“机器意识并不存在”也并非那么容易。

在技术乐观主义中,有一种论证方法是从计算的角度来解释意识,将意识体验归于计算,以此来说明机器意识是存在的。目前,很多超人类主义者、人工智能专家和科技媒体人都可以算作是技术乐观主义者。他们一致认为,如果人类能够研发出足够先进的通用人工智能,那么它们肯定也会拥有意识。他们对机器意识的乐观,很大程度上来源于认知科学中对大脑的多学科交叉研究,许多认知科学研究者的研究路线就是将大脑视为一个信息处理引擎,所有的精神功能都是基于计算的,这也被称为计算主义(computationalism)。“计算主义经过哲学家们的进一步发展,成为理解认知和心灵本质的重要理论。”(21)李建会等:《心灵的形式化及其挑战:认知科学的哲学》,中国社会科学出版社,2017年,第43页。他们将大脑视作数字化的计算机,意识只是这台机器的一个计算程序,所以只要具备形式化的算法就可以实现意识的运行,以此来解释意识的产生。在计算主义的论证过程中,不仅要考虑是否具备计算能力,还要考虑是否拥有计算发生的载体。计算主义者认为:“意识可以存在于不同的载体之上。至少在原则上,意识也许不仅能在生物大脑上实现,还能在利用基于其他载体(比如硅芯片)的系统上实现。这就叫‘载体独立性(substrate independence)’。”(22)苏珊·施耐德:《人工的你:人工智能与心智的未来》,方弦译,湖南科学技术出版社,2022年,第28页。那么也就是说,如果人工智能能够完全克隆生物智能所拥有的大脑运行系统,包括一系列的计算构造、载体以及感觉系统等,那么它就能和生物智能一样拥有同等意义上的意识,这也可以看作是对人脑意识系统结构形式的精确模拟。从这个意义上来说,人工智能就会拥有和生物智能完全相同的意识状态。

从计算主义的角度出发,只要人工智能技术能够创造出一个人脑意识系统的同构体,那么就可以确立机器意识存在的可能性。但是就外界所能得到的信息而言,同构体的诞生还只是一个思想实验,虽然它在逻辑和概念上是可行的,但是人类在未来能否达到足够的技术水平去创造这一同构体呢?即便实现了这一技术突破,同构体的建造又能否与自然法则、伦理规制相容呢?在这些问题上,我们目前还只能做一个预言家。由此可见,技术乐观主义想要从计算主义论证机器意识的存在,最大的阻力就是技术的可能性问题,即人类在技术上能否将意识同构体作为人造物创造出来,以及在现实中是否会有实际的开发项目可以去尝试创造这种有意识的机器。

由此可见,无论是从生物自然主义来论证机器意识不存在,还是从技术乐观主义来论证机器意识存在,都具有一定的阻力,也暂时还没有出现一个完美的科学论证方案。不过,无论是从技术可能性来看,还是从自然、伦理法则来看,机器意识的诞生与被认可都是任重而道远的,我们不能轻巧地就说出:“人工智能已经具备机器意识。”2023年3月22日,著名的安全机构——未来生命研究所(Future of Life Institute)在其官网发布了一封题为《暂停巨型AI实验》的公开信,呼吁暂停训练比GPT-4更强大的AI系统,并要利用暂停的时间来商讨安全协议。(23)See Pause Giant AI Experiments:An Open Letter,2023-03-22,https://futureoflife.org/open-letter/pause-giant-ai-experiments/,2023-06-15.而这件事正好说明,人工智能的意识问题并不仅仅是回答它能还是不能拥有意识,而是在技术的逐渐人化过程中,思考人工智能应该怎样发展。

三、人工智能意识问题的重点何在?

“人们问一台电脑,‘上帝存在吗?’电脑说:‘现在有了。’并焊住插头。”

——霍金

人类正在逐步地技术化,技术也将逐步地“人化”,在这种情况下,自然而然会产生霍金那般的担忧。霍金说道:“AI会自己起飞并不断加速重新设计自己。人类受到缓慢的生物进化的限制,无法竞争,将会被超越。在未来,AI可以发展自身的意志,那是一种与我们相冲突的意志。”(24)史蒂芬·霍金:《十问:霍金沉思录》,吴忠超译,湖南科学技术出版社,2019年,第158页。GPT-4研发的叫停就是一个鲜明的例子,毕竟没有哪个人工智能负责人愿意陷入伦理的泥沼。有人发问,如果拥有意识觉醒的强人工智能出现,会对我们的生活产生怎样的影响呢?会对人类的生存产生威胁吗?会将人类置于一个被奴役、被监管的境遇吗?这些问题听起来十分重要,关乎人类未来的生存地位,但却仅仅是人工智能意识问题的皮毛,因为它前设了人工智能能够拥有意识,这在目前看来仅仅是一个文学性的想象性命题,人工智能意识问题的重点应该是一个实践性命题,即去探索人工智能的发展方向。

在探索人工智能的发展方向之前,我们必须强调“人类‘需要’人工智能,而不是‘不需要’”。其一,人工智能技术的发展已是大势所趋,是人为无法阻挡的潮流,我们已经享受到了人工智能的诸多红利,想要退回起点已经是不可能的了。其二,如果是因为担心人工智能取代人类而暂停其发展,这样的理由是愚蠢且过于保守的,在这里我们着实应该汲取超人类主义者的观点,“与其禁止或者取缔新的技术,不如对其抱以开放与接纳的心态,这样更有可能将其为我们所用”(25)苏珊·施耐德:《人工的你:人工智能与心智的未来》,方弦译,湖南科学技术出版社,2022年,第169—170页。。其三,我们应该跳出人类中心主义的窠臼,人工智能、人类、非人类动物甚至是后人类应该是和谐共生的,因为我们没有理由认为人类就是现存最高形式的智能。只有明确了以上观点,对这一前提条件毋庸置疑,我们才能诚恳发问:“人类需要什么样的人工智能?”

首先,人类所需要的人工智能是可控制的人工智能。目前人类最担心的就是超级人工智能的安全性问题,未来生命研究所发布的公开信呼吁要尽快制定安全协议,让人工智能“更加准确、安全、可解释、透明、稳健、一致、值得信赖、对人类忠诚”(26)Pause Giant AI Experiments:An Open Letter,2023-03-22,https://futureoflife.org/open-letter/pause-giant-ai-experiments/,2023-06-15.。由此可见,人类所需的人工智能应是可控制的人工智能。即便人工智能在未来的某一天拥有了机器意识,也应该是能被人类所控制的,是对人类忠诚的,这是最重要的一点。因为人工智能的发展非常迅速,很可能在不久的将来就迎来技术奇点处的爆发,那种超级人工智能是高深莫测且远远比人类聪明的,我们无法确切地预测或规定它们能开展怎样的活动。或许有人会建议将伦理原则编入程序对机器实现控制,但我们无法确定未来的超级人工智能是否可以自动重写编入的程序。我们也无法确定拥有强大算力的人工智能究竟能吞噬多么巨大的数据,会在何种程度上窃取甚至入侵我们的私人生活。甚至我们也会惧怕人类的独立思想会被人工智能所左右,这会导致人类趋于同一、失去个性,让人类整体变得机械化。所以,正如波斯特洛姆所说,“我们要的不仅仅是娴熟的技术以引燃智能爆炸,我们还要能在更高水平上掌握控制权,以免我们在爆炸中身首异处”(27)尼克·波斯特洛姆:《超级智能:路线图、危险性与应对策略》,张体伟、张玉青译,中信出版社,2015年,第8页。。未来人类需要的正是基于安全的可控式人工智能,安全性才是最首要的考虑因素。

其次,人类所需的人工智能应是交互式的人工智能。交互就是交流互动,是一种良性的人机关系导向。当ChatGPT出现后,使用者最大的直观体验就体现在交互性上,因为它的语言模式实在是太像“人”了。它不仅能够给人提供实际的物质帮助,更能满足人类的精神需求和提供情感慰藉。有学者认为,“ChatGPT等生成式人工智能的价值在于,它参与到人类的知识和经验之中,它的目的并不是彻底取代人类,而是形成我们的身体经验和人工智能的神经网络经验的交互和对接,让基于人类身体的碳基伦理和基于神经网络算法的硅基伦理可以在一个共生的层面上结合起来”(28)蓝江:《生成式人工智能与人文社会科学的历史使命——从ChatGPT智能革命谈起》,《思想理论教育》2023年第4期。。由此可见,人工智能在发展的进程中应该格外注重交互性。而早在21世纪初,奇点人工智能研究所(2013年已更名为机器智能研究所)的俞德考夫斯基(Eliezer Yudkowsky)就已提出了“友好人工智能” (friendly AI)的概念。他说道:“友好人工智能是被设计来完成真实世界的目标且对人类有益、无伤害人类行动的系统。而创造友好人工智能则描述了建造一个仁慈(benevolent)即友好(friendly)的人工智能的设计特征和认知架构。”(29)Eliezer Yudkowsky,Creating Friendly AI 1.0:The Analysis and Design of Benevolent Goal Architectures,2018-08-14,http://intelligence.org/files/CFAI.pdf,2023-06-15.福洛丁(Barbro Froding)和皮特森(Martin Peterson)也认为未来人工智能最重要的特点之一就是能够友好地对待人类,“它们对人类具有友好的能力,而不是刻薄、敌意或者不友好。”(30)Barbro Froding,Martin Peterson,“Friendly AI,” Ethics and Information Technology, Vol.23,No.3,2021.未来人类需要的正是基于友好的交互式人工智能,不是人工智能对人类的一味顺从,也不是人类对人工智能的强烈畏惧,而是人与机器能够互相促进对方、成就对方,在友好交互中促进人工智能社会的理想式发展。

最后,人类所需的人工智能应是辅助型的人工智能。我们一直在倡导,人类与人工智能之间的关系不应该是博弈对立的关系,也不是一方取代另一方的关系,而应该是结合共生的关系。在当下人工智能的发展与应用中,其辅助效用已经在诸多人类增强项目中体现出来,比如基因编辑、外骨骼装备、电子义肢、脑机接口、医疗美容等。人类增强的思想来源于“赛博格” (cyborg)概念,cyborg是cybernetics和organism的结合,表示将有机体与电子机器相结合的生物,也可称为电子人、机械人、义体人等。这一概念是由两位工程师于1960年在美国国家航空和航天局所作的报告中提出来的,因为当时正值“太空热”,为了使宇航员能够适应外太空的生存,需要利用机械、药物等技术手段来增强宇航员的身体性能。人类增强思想延续到今天,离不开人工智能技术的助力,尤其是外骨骼和脑机接口技术的发展,更是为一些有肢体残疾的人带来了科技福音。我们曾在新闻中看到,一位解放军女护士在装备外骨骼之后,可以背着伤员轻松灵活地跑动;一位装备了外骨骼手臂的外卖小哥,可以同时背起三个大外卖箱,这大大节省了他们的体力与时间。(31)参见杨维格:《世界第一个“半机械”死亡,“永生”人类还有多远?》,2022-06-22,https://baijiahao.baidu.com/s?id=1736346235483990333&wfr=spider&for=pc&searchword=,访问日期:2023-12-26。脑机接口技术也可以在一定程度上恢复某些残障人士的视觉、听觉和肢体运动能力,该项目就是在人脑中植入一枚微芯片,与外部设备创建链接,实现人脑与设备之间的信息交换。我们已经看到,人与人工智能的共生已成为一种趋向,未来人类需要的正是这种基于人类增强的辅助式人工智能,它可以弥补人类一些天生的短板,让人类获得便利、赢得体面。

查尔莫斯曾说:“智能爆炸有巨大的潜在好处:治愈所有已知疾病,终结贫困,获得非凡的科学进步,等等。它也有巨大的潜在危险:人类的终结,交战机器的军备竞赛,毁灭地球的力量。因此,哪怕只有极小的概然性会出现奇点,我们也应该好好思考它可能会以何种形式出现,以及我们是否可以做些什么以让结果朝着积极的方向发展。”(32)David Chalmers,“The Singularity:A Philosophical Analysis,” Journal of Consciousness Studies,Vol.17,No.9-10,2010.人工智能的魔盒已经开启,从中飞出的究竟是毁灭世界的恶灵还是襄助人类的能臣,这需要我们审慎对待,而我们只有明确了人工智能的发展方向,才能让其价值实现最大化。由此可见,“面对当前快速发展的人工智能技术,我们要对未来进行协商,在多种可能性中共同协商出一个对人类有利的未来社会”(33)潘天群:《协商人工智能社会的未来》,《人民论坛·学术前沿》2021年第23期。。在技术发展的进程中,我们需要协商,从而创造出可控制的、交互式的、辅助型的人工智能,导向一种良性和谐的人机关系,使人类和人工智能真正成为“我们”。

四、结 论

虽然超人类主义对人工智能的未来发展是持乐观态度的,但我们并没有必要去遵循这条路径而绝对地相信人工智能在未来会意识觉醒。尤其是在目前的技术现实下,人工智能拥有意识只是一个前瞻性的科幻命题,我们只能在一些文学创作或电影中看到。我们应该回归现实世界,从实践维度上去探索人工智能的未来发展路径,在人逐渐技术化与技术逐渐人化的背景下,去探索“人机结合”的发展路径,将人工智能视为人类智力与体力的延伸,将其视为辅助人类的工具。当然,人类也无需担忧自己的地位会被超级人工智能所取代,因为在这个世界上,在人类的意识结构中,总还存在着不能被人工智能所取代的东西,比如艺术。面对人工智能的意识问题,我们的注意力应该集中在推进人工智能健康发展的问题上,并且要接受这个世界的改变,重新建立审度世界的方式,改变丈量万物的尺度。因为我们正处在美丽新世界的门槛上,这是一个令人兴奋的,不过也将是危险的地方,而我们是先锋。

猜你喜欢
机器人工智能意识
机器狗
人的意识可以“上传”吗?
机器狗
2019:人工智能
人工智能与就业
未来机器城
增强“四个意识”发挥“四大作用”
意识不会死
数读人工智能
强化五个意识 坚持五个履职