人机融合智能的若干问题探讨

2023-08-06 16:00刘伟
人民论坛·学术前沿 2023年13期
关键词:人机交互人工智能智能

【摘要】“非存在的有”和智能之间没有直接关系,但智能可以被用来探索“非存在的有”。“非存在的有”和人机功能分配之间也没有直接关系,但人机功能分配可能会受到“非存在的有”的影响。情感与人机功能分配关系紧密,人机功能分配需要考虑情感因素。在探索“非存在的有”方面,人类和人工智能都可以发挥作用。情感在人机交互中扮演着重要角色。为了适应更加复杂的任务和环境,需要通过创新和发展来扩展机器人的能力。

【关键词】非存在的有  智能  人工智能  情感  人机交互  人机功能分配

【中图分类号】H0-05/TP18                  【文献标识码】A

【DOI】10.16619/j.cnki.rmltxsqy.2023.14.006

引言

“非存在的有”是一种哲学概念,通常被用于对应“存在”的概念。它指的是那些不存在于我们所熟知的现实中,但却具有某些潜在的存在性的事物或概念。这些“非存在的有”可能是抽象的、理论的、想象的、虚构的,等等。例如,数学中的虚数是一种“非存在的有”,因为它们不存在于实际的物质世界中,但在数学上却是有用的,可以用来解决某些问题。同样地,幻想中的形象,如孙悟空、圣诞老人、独角兽、龙等,也是“非存在的有”,它们并不存在于我们的现实世界中,但却在文学、艺术和文化中有一定的存在。简而言之,“非存在的有”不存在于我们所知道的现实中,但是可能存在于其他维度,例如,我们的想象之中。

智能是指一种能力或者能够表现出某种智能的实体或系统。“非存在的有”和智能之间没有直接的关系,然而智能可以被用来探索“非存在的有”。人类的智能可以用来推理、创造、想象和研究一些不存在于我们现实世界中,但却具有潜在存在性的事物或概念。例如,科学家们利用智能推理和创造力来研究黑洞、暗物质、多元宇宙等一些“非存在的有”。

人工智能也可以被用来研究“非存在的有”。例如,通过虚拟现实技术,人工智能可以创造出一些虚拟的世界和生命形式,来探索和研究那些不存在于我们现实世界中,但却具有潜在存在性的事物或概念。

人机功能分配是指将任务和功能分配给人类与机器人的过程。“非存在的有”和人机功能分配之间没有直接的关系,然而人机功能分配可能会受到“非存在的有”的影响。例如,在某些任务中,机器人可能需要具备一些超出我们现实世界已经存在的能力,这些能力属于“非存在的有”。在这种情况下,我们需要通过创新和发展来扩展機器人的能力,从而使其能够适应更加复杂的任务和环境。

情感与人机

情感的本质是人类感知和体验世界的一种基本方式,是一种主观、内在的体验和反应。情感涉及人类的情感体验、情绪反应、情感表达和情感调节等方面。情感的本质是由生理机制、个体生命经历、文化和社会背景等多种因素决定的。情感可以是积极的,如喜悦、兴奋、爱、幸福等,也可以是消极的,如愤怒、恐惧、忧虑、悲伤等。情感可以对人的行为产生影响,影响人的选择、决策等。情感也是人类交往和社会关系的重要因素,情感的表达和理解是人类沟通和交流的基础。总的来说,情感是人类生命和文化的重要组成部分,对人类的生存和发展具有重要意义,对人机功能有效分配也具有不可忽视的作用。

情感与人机功能分配关系紧密。情感是人类与环境交互的重要组成部分,包括情绪、态度、信念等方面。在人机交互中,情感的存在对于用户体验和使用效果有着重要影响。因此,人机功能分配需要考虑情感因素,以便更好地满足用户需求和期望。例如,情感识别和情感生成技术可以帮助计算机更好地理解和回应人类的情感需求,从而提高用户体验。同时,在人机交互中,人类和计算机的功能分配也需要考虑情感因素,以便更好地满足人类的情感需求。因此,情感与人机功能分配是相互影响、相互促进的。

情感可以影响人类理性的判断和决策,主要表现在以下几个方面。其一,信息选择偏差。情感会使人们更倾向于选择与自己情感偏好相符的信息,而忽略其他信息。例如,一个人对某个品牌有好感,就容易忽略该品牌的缺点,且对同类竞品的优势视而不见。其二,认知偏见。情感会影响人们对信息的认知和理解,使其产生认知偏见。例如,一个人对某个人有情感偏见,就容易将该人的行为解释为支持自己观点的证据,而忽略其他解释。其三,决策偏差。情感会影响人们的决策偏好和风险承受能力。例如,一个人对某项投资有情感偏好,就容易将该投资看作低风险、高回报的选择,忽略其潜在的风险和不确定性。其四,行为反应。情感会影响人们的行为反应,使其作出不合理的行为。例如,一个人因情感上瘾,就可能不顾后果地追求某种行为或物质,而忽略自己的健康和生活质量。因此,情感与人类理性之间的关系需要相互协调和平衡,才能使人作出更明智的判断和决策,从而使情感对人机功能分配起正向调节作用。

道德物化与人机

道德物化的本质是将道德概念或价值视为实体化、有形化的实际物体或物品,为其赋予实物的属性和价值。这种物化过程可能导致人们将道德价值看作是一种可以交易、买卖、占有或控制的商品或资源,从而削弱或扭曲了道德本身的意义和价值。道德物化可能会导致人们在道德决策和行为中更多地考虑利益和权力的因素,而忽视道德的本质和目的,从而导致不良后果。道德物化的本质是一种对道德概念和价值的误解和扭曲,需要通过教育和宣传等途径加以纠正和避免。

若将人道德物化,看作物品或工具,则忽视了人作为个体的尊严和价值。人机功能分配是将人和机器分别赋予不同的任务和功能,以实现更高效的生产和服务。道德物化与人机功能分配的关系在于,当人机功能分配不当或不合理时,就可能导致道德物化的问题。例如,将人仅仅看作机器的一部分来完成某项任务,忽视了其作为有感情、有思维、有尊严的人的本质。因此,正确的人机功能分配应该考虑人的尊严和价值,避免道德物化的问题。

人机的主客观混合输入过程

实现客观事实与主观价值的混合输入,需要采用一些特定的技术和方法。其一,自然语言处理技术。自然语言处理技术可以帮助机器理解人类语言的含义和语境,识别其中的实体、情感和观点等,并将其转换成结构化的数据形式。其二,机器学习和深度学习技术。机器学习和深度学习技术可以通过训练模型来识别和理解人类语言中的含义和情感。其三,人机交互界面设计。在人机交互界面设计中,可以采用一些交互式的方式,如问答、评分、评论等,让用户输入他们的主观评价和观点。其四,数据可视化技术。通过数据可视化技术,可以将客观事实和主观价值以可视化的方式呈现出来,让用户更容易理解和分析数据。例如,使用图表、热力图等方式来展示数据等。

客观事实与主观价值的混合输入,需要结合自然语言处理技术、机器学习和深度学习技术、人机交互界面设计和数据可视化技术等多种技术和方法。在人机功能分配过程中若处理不好主客观混合输入,则极易产生数据来源不可靠、数据处理不当、数据缺乏背景信息、数据过于庞大或数据分析不到位等现象,进而可能造成“数据丰富,信息贫乏”的不足与缺陷。

人机的主客观混合处理过程

实现基于公理的处理与基于非公理的处理融合,同样需要采用一些特定的技术和方法。其一,逻辑推理技术。逻辑推理技术可以用于实现基于公理的处理,通过推理得到新的结论,并在此基础上进行决策。逻辑推理技术可以利用公理化语言描述问题,并通过逻辑规则进行推理,从而实现基于公理的处理。其二,机器学习和深度学习技术。机器学习和深度学习技术可以用于实现基于非公理的处理,通过学习数据和模式识别来进行决策。机器学习和深度学习技术可以利用数据驱动的方式进行推理,从而实现基于非公理的处理。其三,规则库管理。规则库管理可以用于管理基于公理的处理的规则库。规则库包含一组规则,用于对问题进行描述和解决。规则库管理可以对规则库进行维护、更新和扩展,以适应不同的问题和应用场景。其四,集成算法。集成算法可以将基于公理的处理和基于非公理的处理融合起来,利用不同的算法进行集成,从而得到更准确的结果。集成算法可以利用不同的处理方法来解决问题,从而提高处理的准确性和效率。

恰如其分地实现基于公理与基于非公理的处理融合,需要结合非逻辑/逻辑推理技术、机器学习和深度学习技术、规则库管理、集成算法、人类有效的“算计”(谋算)等多种技术和方法。这样可以充分利用不同的处理方法来解决问题,从而得到更准确的结果。

人机的主客观混合输出过程

实现人机融合的输出,需要考虑人类与机器之间的交互和决策融合。基于逻辑的决策通常是基于规则的,例如,機器学习模型的预测结果。相对应,基于直觉的决策则更多是基于个人经验和感觉的,例如,医生根据病人的症状和体征作出的诊断。针对这两种不同的决策方式,可以采用以下方法实现人机融合的输出。

其一,将逻辑决策和直觉决策进行分离,分别由机器和人类进行处理和决策,然后将结果进行融合。这种方法需要一个可靠的决策融合算法,以确保最终的输出结果是准确和可信的。其二,将逻辑决策和直觉决策进行融合,让人类和机器一起进行决策。这种方法需要一个可以协同工作的系统,以便人类和机器可以共同分析和决策。例如,可以使用机器学习算法来分析数据,然后将结果呈现给人类,让后者作出最终的决策。其三,将逻辑决策和直觉决策进行交替使用,让人类和机器轮流进行决策。这种方法可以提高决策的多样性和灵活性,以适应不同的情况和环境。例如,可以让机器先进行分析和决策,然后将结果呈现给人类,让后者进行进一步的分析和决策。

总的来说,基于逻辑的决策和基于直觉的决策都有优点,也存在局限性。将它们融合起来,可以充分利用人类和机器的优势,提高决策的准确性和效率。

人机的主客观混合反思/反馈过程

在人机混合智能中,人和机器的反思与反馈可以通过多种方式融合,从而实现更加智能化和高效化的决策与行为。人的反思和机器的反馈可以通过以下方式融合。

数据分析。机器可以通过分析大量数据,提供反馈和建议;人可以通过分析这些反馈和建议来反思自己的决策与行为,从而不断优化自己的决策和行为。

交互式学习。人和机器可以通过交互式学习来相互补充和提高,机器可以通过学习人的反思和决策,提供更准确和有效的反馈与建议,人可以通过学习机器的反馈和建议,不断提升自己的决策和行为能力。

反馈循环。人和机器可以建立反馈循环,通过不断的反馈和调整,实现最优化的决策和行为。人可以通过反思机器的反馈和建议,作出相应的调整和改进;机器也可以通过分析人的反馈和行为,提供更加精准和有效的反馈与建议。

人机与深度态势感知

人类的态势感知能力是通过大脑感知、处理和解释来自外界的各种信息形成的。这些信息包括视觉、听觉、触觉、嗅觉、味觉等感官信息以及周围环境的温度、湿度、气压等物理信息。大脑的神经元通过对这些信息的处理与组合,形成了对周围环境和自身状态的认知与理解,从而使人类具备了对不同情境的适应能力和决策能力。这种能力与人类的生存和社会交往密切相关,因此在人类的进化过程中逐渐发展和完善。

机器的态势感知能力是通过传感器、计算机视觉、语音识别、自然语言处理等技术来实现的。传感器可以收集外部环境的物理量,如温度、湿度、气压、光线等,同时也可以收集机器自身状态的信息,如速度、位置、姿态等。计算机视觉可以通过图像处理技术对图像和视频进行分析,从而识别物体、人物、场景等信息。语音识别和自然语言处理可以将语音与文本转化为可处理的数据,从而实现对语音和文本的理解和分析。通过这些技术的组合,机器可以对周围环境和自身状态进行感知、判断和分析,从而实现对各种情境的适应。这种能力在自动驾驶、智能家居、智慧城市等领域中有广泛的应用。

人机融合中的态、势、感、知四个过程是相互关联的,它们之间是不断转换的。其转换过程如下。

态 → 势:态是指人的状态、状况,势是指实现这个态的动作趋势或操作取向。在人机交互中,用户的态被转换成了对软件或设备的操作势,比如,用户想要打开一个应用程序,这个态就被转换成了对鼠标或键盘的操作势。

势 → 感:势可以产生反馈,这个反馈就是感。用户的操作势会产生与之对应的感,比如,在点击鼠标时,会感觉到鼠标下面的按钮被按下了。

感 → 知:感是指感觉和感知,知是指理解和认知。用户的感觉和感知会被转换成对软件或设备的理解与认知,比如,用户通过触摸屏幕感知到了应用程序的界面,然后对这个界面进行理解和认知。

知 → 态:知是指对事物的认知和理解,态是指人的意图或目的。用户对软件或设备的认知和理解会影响他们的意图和目的,从而形成新的态。比如,用户在对应用程序进行认知和理解后,可能形成了新的意图和目的在应用程序中添加一些新的功能。

概而言之,人机融合中的态、势、感、知四个过程是相互关联的,通过不断的转换和交互,用户可以与软件或设备进行有效的交互和沟通。

综上所述,“非存在的有”指的是想象中的不存在于物理世界的事物。对于人机融合智能来说,这个概念的出现和想象可能会促进人类对科技和自身的思考与探究;可能会激发人类对机器智能和人类智能的探讨和对比,从而促进科技创新和发展。此外,人们对于人机融合智能的想象也可能会影响人们对于未来的展望和期待,进而可能会产生各种不同的社会和文化影响。虽然“非存在的有”本身并没有直接的影响,但是它可能会激发人们的想象和创造力,推动科技的发展和人类的进步。

人机与伦理困境

人机混合智能中,AI的潛在危害包括以下方面:首先,由于AI系统的复杂性,一旦出现故障或错误,可能导致系统失控,甚至产生灾难性后果;其次,AI技术的发展可能导致许多工作被机器人或软件程序替代,从而导致失业率上升和社会不稳定因素;再次,AI技术可能会收集和分析大量个人数据,存在侵犯个人隐私的风险,并可能导致数据泄露和网络攻击;又次,人工智能武器可能会导致无法预测的后果,从而对人类和环境造成损害和破坏;最后,AI系统可能会受到人为因素的影响,例如,偏见和歧视,从而导致不公平和不平等。具体到当前以ChatGPT为代表的人机混合智能,有三个方面的伦理问题需要特别予以关注。

一是,人工智能可从大量数据中学到意想不到的行为。这主要是通过机器学习算法来实现的。机器学习算法可以从大量数据中提取出规律和模式,然后根据这些规律和模式来预测、分类、聚类等。在这个过程中,如果数据集足够大并且具有代表性,那么AI就可以从中学习到新的、以前没有预料到的行为或模式。这种能力被称为“数据驱动的创新”,可以让AI在处理数据时自主发现新的知识和洞见,并且可以将其应用到更广泛的领域中。

二是,人工智能生成技术的不断突破,可能导致普通人难以辨别信息真伪。人工智能生成技术可能使得虚假的照片、视频和文字充斥世界,从而带来严重的后果和影响,如虚假信息会让人们对社会和政府的信任降低,从而导致社会信任危机;虚假信息可能会被用来操纵选民的思想和行为,从而影响政治选举的结果;虚假信息可能会让消费者作出错误的决策,从而影响企业和市场的运作;虚假信息可能会被用来实施诈骗,从而导致个人隐私泄露和财产损失。因此,我们需要采取措施来防止虚假信息的传播,比如,开发更加高效的辨别虚假信息的技术,建立更加严格的信息监管机制,等等。

三是,许多技术大厂将因为竞争被迫加入一场无法停止的技术争斗。技术竞争既有积极的推动作用,也可能产生一些负面的影响,可能会导致以下局面:其一,不断扩大投资:为了保持竞争优势,技术公司需要持续地投资于研发和创新,不断推出新产品和服务。这将导致公司不断增加投资,财务风险亦随之增加。其二,技术附庸风雅:某些技术公司可能会过度关注竞争对手的动向,而忽视了自身的技术优势和发展方向。其三,技术标准化:竞争激烈的技术市场可能会导致技术标准的分裂,从而引发产品之间的兼容性问题。其四,用户体验下降:某些技术公司为了赢得竞争,不断推出不成熟的产品和服务,从而导致用户体验下降。

ChatGPT:一个人机智能的初级产品

从人机环境系统智能的角度看,ChatGPT就是一个还没有开始“上道”的系统。“一阴一阳之谓道”。ChatGPT的“阴”(默会隐性的部分)尚无体现,而“阳”(显性描述的部分)也还停留在人类与大数据交互的浅层部分。简而言之,ChatGPT基本无“道”可言。暗知识、类比、隐喻等这些看似不严谨、无逻辑的东西绝非仅凭理性思维推理就可以得到,而这些非逻辑、超逻辑(至少当前逻辑很难定义)的东西恰恰是构成人类智能的重要组成部分。或许,这也不仅是ChatGPT的缺点,整个人工智能领域又何尝不是如此呢?

粗略地说,人工智能技术就是人类使用数学计算模拟自身及其他智能的技术,最初是使用基于符号规则的数学模型建立起的机器智能(如专家系统),其后是借助基于统计概率的数据连接处理实现机器学习及分类,下一步则是试图借助有/无监督学习、样本预训练、微调对齐、人机校准等迁移方法实现上下文感知行为智能系统。这三类人工智能技术的发展趋势延续了从人到机再到人机、人机环境系统的研究路径(符号-联结-行为融合主义路径),其中最困难的部分(也是ChatGPT的瓶颈)是智能最底层的一个“神秘之物”——指称的破解问题,这不仅是自然语言与数学语言的问题,更是涉及思维(如直觉、认知)与群体等“语言”之外的问题。

智能领域研究中最困难的不是如山一般堆积的各种数学公式,而是最基础最原始的概念剖析和理解,这与黎曼、戴德金、高斯强调“以思想代替计算”的数学原则,即数学理论不应该以公式和计算为基础,而应该总是以表述清楚的一般概念为基础,并把解析表达式和计算的工具推给理论的进一步发展,有着异曲同工之妙。鉴于此,分析ChatGPT也不例外,下面将从数据、推理(算法)、指称的交互等方面分别阐述。

从数据的角度看,ChatGPT不具备智能的本质特征。小样本小数据解决大问题,才是智能的本质。在许多场景中,交互双方的意图往往是在具有不确定性的非完备的动态小数据中以小概率出现并逐步演化而成的,充分利用这些小数据,从不同维度、不同角度和不同颗粒度猜测对手的意图,从而实现“知己(看到兆头苗头)、趣时(抓住时机)、变通(随机应变)”的真实智能,这完全不同于机器智能所擅长的对于大数据可重复、可验证规律的提取。人类智能还擅长使用统计概率之外的奇异性数据,并能够从有价值的小数据中全面提取可能的需要意向,尤其是能够打破常规、实现跨域联结的事实或反事实、价值或反价值的猜测。ChatGPT中的GPT代表生成式(G)-预训练(P)-变换模型(T),就是一种大数据+机器学习+微调变换+人机对齐的程序模式,该智能体行为的依据是数据的事实性泛化,但其实完全忽视了泛化形成的行动价值,而这种泛化形成的行为结果常常是错误的、乃至危险的,例如,在对话中出现各种无厘头“胡说”现象,而想要准确翻译相声、莎士比亚的笑话,甚至指桑骂槐、意在言外就更不可能做到了。

从推理逻辑的角度看,ChatGPT不具备智能的本质特征。把智能看成计算,把智能看成逻辑,这两个错误是制约智能发展的瓶颈和误区。事实上,真实的智能不但包括理性逻辑部分,也包括非/超逻辑的感性部分,而构成人工智能基础的数学工具只是基于公理的逻辑体系部分。ChatGPT的核心就是计算智能、数据智能,其所谓的感知、认知“能力”(准确地说应该是“功能”)是预训练文本(以后或许还有音频、视频、图像等形式)的按需匹配组合,既不涉及知识来源的产权,也不需要考虑结果的风险责任,虽然ChatGPT算法中被设置了伦理道德的门槛约束,但其可能带来的专业误导危害依然不容小觑,尤其是在对未知知识的多源因果解释、非因果相关性说明方面。

ChatGPT系统的“自主”与人类的“自主”不同。一般而言,ChatGPT的自主智能是在文本符号时空里进行大数据或规则或统计推理过程,这种推理是基于数学计算算法“我”(个体性)的顺序过程;而人类的自主智能则是在物理/认知/信息(符号)/社会混合时空里基于小数据或无数据进行因果互激荡推导或推论过程,这种因果互激荡是基于“我们”(群体性)的过程。西方的还原思想基础是因果关系,东方的整体思想基础是共在关系(共时空、共情)。进一步而言,ChatGPT的计算是因果还原论,其知识是等同的显性事实知识;算计是共在系统论,其知识是等价的隐性价值知识。这里的推导/推论包含推理,等价包含等同,价值包含事实、但大于事实。

智能的关键不在于计算能力,而在于带有反思的算计能力。算计比计算强大,在于其反事实、反价值能力,如人类自主中常常就包含有反思(事实反馈+价值反馈)能力。事实性的计算仅仅是使用时空(逻辑),而价值性的算计是产生(新的)时空(逻辑);计算是用符号域、物理域时空中的名和道实施精准过程,而算计则是用认知域、信息域、物理域、社会域等混合时空中的非常名与非常道进行定向。

从指称的角度看,ChatGPT不具备智能的本质特征。ChatGPT这类生成式AI不同于以往大多数的人工智能,此前大多数AI只能分析现有数据,但是生成式AI可以创作出全新的内容,例如,文本、图片,甚至是视频或者音乐。但与人类相比,ChatGPT的局限性包括:有限的常识和因果推理(偏向知识而非智力)、有限的自然语言和逻辑推理、缺乏在现实世界中的基础(没有视觉输入或物理交互)、性能不可靠且无法预测,等等,其中最主要的一个缺点就是不能实现人类的“指称”。

维特根斯坦在其第一部著作《逻辑哲学论》中对世界和语言进行了分层描述和映射,即世界的结构是:对象-事态-事实-世界,而人类语言的结构是:名称-基本命题-命题-语言,其中对象与名称、事态与基本命题、事实与命题、世界与语言是相互对应的。比如,一个茶杯,在世界中是一个对象,在语言中就是一个名称;“一个茶杯放在桌子上”,在世界中是一个事态,反映茶杯与桌子两个对象的关系,在语言中就是一个基本命题,该基本命题是现实茶杯与桌子的图象;“一个茶杯放在桌子上,桌子在房间里面”,在世界中是一个事实,反映茶杯与桌子、桌子与房间两组对象的关系,在语言中就是一个命题,该命题是现实茶杯与桌子、桌子与房间的图像。世界就是由众多的事实构成的,语言是由命题构成的,这样世界的结构就与语言的结构完美地对应起来了。但是后来,维特根斯坦发现这个思想有问题,即仅仅有世界与语言的对应结构是很难反映出真实性的。于是在他去世后发表的另一本著作《哲学研究》中又提出了三個概念,即语言游戏、生活现象、非家族相似性,这三个概念提出了在逻辑之外的“指称”问题,也就是他所谓的“不可言说的”、“应保持沉默”之物。实际上,他发现了人类思维中存在着“世界”、“语言”之外物:言外之意、弦外之音。这与爱因斯坦描述逻辑与想象差异的名言——“Logic will get you from A to B. Imagination will take you everywhere”(逻辑会把你从A带到B。想象力会把你带到任何地方)一语极其相似。同时,从人机环境系统的角度来看,这也印证了极具东方智慧的一句名言:“人算不如天算”,也即:人只有智能的一部分,而不是全部。

对于人类智能的不足,维特根斯坦虽然意识到了,但没有提出恰当的解决办法——他的学生和朋友图灵却想到了一个办法,若把人类的理性逻辑与感性指称进行剥离,那么就可以通过数学的形式化系统对人类的智能进行模拟。当然这种模拟会丢失很多东西,比如,感性、直觉,等等,但为了实现初步的人工智能体系,也只好忍痛割爱了。这样一来,在有规则、复合逻辑的领域(如围棋对弈、文本浅层处理等),人工智能与机器就可以代替人类。

从意识的角度看,ChatGPT不具备智能的本质特征。ChatGPT在词语的打标基础上实现了篇章上下文的打标、不少逻辑的打标、人机共同的打标,其核心在于依赖自注意力机制来计算其输入和输出的表示的Transformer转换模型,实现了更快、更强的计算,但它依然没有触及人类大脑最深奥的问题:如何产生意识?或许,某种意义上说,意识就是“交互”,无论内在的交互,还是外在的交互,都是人机环境系统的态势感知事实与价值的算计,而不仅仅是简单的事实打标计算。事实常常是一阶的,而价值往往是二阶或高阶的;一阶对的,在二阶或高阶里面却不一定对,比如,“地震了就跑”这个事实是对的,但如果具体到老师,那么“地震了要先组织学生跑”才是正确的,只顾自己跑就是不对的。世界上所有的知识都是有范围和背景的,离开这些范围和背景,知识的内涵外延会发生很大的变化,甚至可以相反。我们不但需要在已知中发现未知,有时候还需要在未知中发现已知,在这些方面ChatGPT基本上还无能为力,更进一步讲,数字人(如电影《流浪地球2》中的Moss)能够通过摄像头对客观事实环境进行感知、识别、反应是可能的,但能否产生主观价值是以目前科技和数学工具水平还远远解决不了的难题。能否实现以有限反映无限、以应然反映必然、以客观反映主观应是检验一个系统智能高低的标志之一,ChatGPT也不例外。

智能中的“意识”不是一个物理概念,不是一个数理概念,也不是一个单纯社会学概念,而是一个依靠客观事实与主观价值共同建构起来的思想层面的文化交互概念产物。我们在物理上生活在同一个空间里,在社会学意义上生活在相互交往的网络中,但并不意味着我们生活在同一个文化意义体系中。从西方二元对立的形而上学哲学转向二元互动的形而中学思想,从而将世界真理的基点从绝对上帝或存在(being,客观的“是”)转向生成变化、生生不息的道体(should,主观的“义”),这无疑将成为中国学术界为“地球村”探索智能基础的新开端。总之,智能不是人工智能,也不仅仅是西方科技计算能够实现的,需要加入东方智慧中的算计,才能形成具有深度态势感知的人机环境系统智能体系——属于人类的文明财富。

只有把情感注入某个事情中,才能看到灵魂,对于人如此,对于智能体而言,也很类似。毕竟文明不但需要科学技术的进步,还需要人文艺术的滋养。目前来看,ChatGPT中显露出的情感成分还仅是与之交互者在特定对话环境下自发内生出来的情感因素。

再识人机智能,倡导“智能向善”

2023年以来,ChatGPT再次掀起了人工智能的研究热潮。但在现有数学体系和软硬件的设计模式基础之上,人工智能在智能水平和能力范围上与人类智能相比仍存在极大差距。究其原因,人类智能和机器智能之间还存在无法跨越的界限:人工智能是逻辑的,人类智能却未必是逻辑的。依赖于“符号指向对象”的机器只能在封闭环境进行形式化计算,人类却可以实现开放环境中的意向性算计。在这种背景下,实现人机优势互补、倡导“智能向善”显得尤为重要。

哲学家休谟认为:“一切科学都与人性有关,对人性的研究应是一切科学的基础。”任何科学都或多或少与人性有些关系,无论学科看似与人性相隔多远,它们最终都会以某种途径再次回归到人性中。从这个角度来看,人工智能“合乎伦理的设计”很可能是黄粱一梦。伦理对人而言都还是一个很难遵守的复杂体系,对机器而言就更加难以理解。在人工智能领域,“合乎伦理设计”或许是科幻成分多于科学成分、想象成分多于真实成分。

当前的人工智能及未来的智能科学研究存在两个致命的缺点,即把“数学等同于逻辑”和“把符号与对象混淆”。人机混合的难点和瓶颈也因此在于(符号)表征的非符号性(可变性)、(逻辑)推理的非逻辑性(非真实性)和(客观)决策的非客观性(主观性)。

智能领域真正的瓶颈和难点之一是人机环境系统失调问题,具体体现在跨域协同中的“跨”与“协”如何有效实现的问题,这不仅关系到解决各种辅助决策系统中“有态无势”(甚至是“无态无势”)的不足,还涉及许多辅助决策体系“低效失能”的溯源。也许需要尝试把认知域、物理域、信息域构成的基础理论域与陆海空天电网构成的技术域有机地结合起来,才能为真实有效地实现跨域协同打下基础。

智能不是人脑(或类脑)的产物,也不是人自身的产物,而是人、物、环境系统相互作用的产物。正如马克思所言:“人的本质不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和。”事实上,真实的智能同样也包含着人、物、环境这三种成分,而随着科技的快速发展,其中的“物”逐渐被人造物——“机”所取代,简称为人机环境系统。平心而论,人工智能要超越人类智能,在现有数学体系和软硬件的设计模式基础之上,基本上不太可能,但在人机一体化或人机环境系统中却是有可能的。人工智能是逻辑的,智能则不一定是逻辑的。智能是一个非常辽阔的空间,可以随时打开异质的集合,把客观的逻辑与主观的超逻辑结合起来。

未来数字世界中,人与机器如何分工?人与机器的边界又将如何划分呢?实际上,当前人机关系主要是功能分配,人把握主要方向,机处理精细过程,而未来的人机关系可能是某种能力的分工,机也可以把握某些不关键的方向,人也可以处理某些缜密的过程。

人机混合智能是人工智能发展的必经之路,其中既需要新的理论方法,也需要对人、机、环境之间的关系进行新的探索。随着人工智能的热度不断加大,越来越多的产品走进人们的生活之中,但是,强人工智能依然没有实现。如何将人的算計智能迁移到机器中去,这是一个必然要解决的问题。我们已经从认知角度构建认知模型或者从意识的角度构建计算-算计模型,这都是对人的认知思维的尝试性理解和模拟,期望实现人的算计能力。计算-算计模型的研究不仅需要考虑机器技术的飞速发展,还要考虑交互主体即人的思维和认知方式,让机器与人各司其职、混合促进,这才是人机混合智能的前景和趋势。

科技向善对西方而言是个有问题的提法,科技是物质世界的客观存在,向善则是伦理道德的必然要求,从客观存在能否推出必然要求,这是目前西方仍在争议的话题。

科技本身没有对错善恶之分,能利人利己,也能害人害己;而设计、开发、使用、管理、维护、运行的人会有对错善恶之分。科技向善本质是指“人”的向善。故在监管上需要坚持伦理先行的理念,建立并完善人工智能伦理问责机制,明确人工智能主体的责任和权利边界;在研发上需要确保先进科技手段始终处于负责可靠的人类控制之下,预防数据算法偏见产生,使研发流程可控、可监督、可信赖;在使用上需要确保个人隐私和数据安全,预先设立应急机制和兜底措施,对使用人员进行必要培训,等等。

党的二十大报告指出,中国积极参与全球治理体系改革和建设,践行共商共建共享的全球治理观,坚持真正的多边主义,推进国际关系民主化,推动全球治理朝着更加公正合理的方向发展。作为人工智能领域的先驱者之一,中国正在用实际行动为人工智能全球治理体系注入东方智慧,展现了大国形象和担当。2021年9月,中国国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,强调应将伦理融入人工智能全生命周期,并针对人工智能管理、研发、供应、使用等活动提出了六项基本伦理要求和四方面特定伦理规范。2022年3月,中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》,提出应加快完善科技伦理体系,提升科技伦理治理能力,有效防控科技伦理风险,不断推动科技向善、造福人类,实现高水平科技自立自强。2022年11月,中国裁军大使李松向联合国提交《中国关于加强人工智能伦理治理的立场文件》,从构建人类命运共同体的高度,系统梳理了近年来中国在人工智能伦理治理方面的政策实践,积极倡导以人为本、智能向善理念,为各国破解人工智能发展难题提供了具体解决思路,值得国际社会高度重视与深入研究。

参考文献

金观涛,2019,《系统的哲学》,厦门:鹭江出版社。

刘伟,2023,《ChatGPT:一个人机环境系统交互的初级产品》,《中国社会科学报》,3月7日。

刘伟,2021,《人机融合——超越人工智能》,北京:清华大学出版社。

刘伟,2019,《追问人工智能:从剑桥到北京》,北京:科学出版社。

B. Manuel; B. Lenore, 2020, "A Theoretical Computer Science Perspective on Consciousness," Journal of Artificial Intelligence and Consciousness, 18.

D. Lee, 2020, Birth of Intelligence: From RNA to Artificial Intelligence, UK: Oxford University Press.

L. Segal, 2001, The Dream of Reality: Heinz VonFoerster's Constructivism, Berlin: Springer Science & Business Media.

M. A. Boden, 2016, AI: Its Nature and Future, UK: Oxford University Press.

R. Collobert; J. Weston; L. Bottou; M. Karlen; K. Kavukcuoglu; P. Kuksa, 2011, "Natural Language Processing (almost) from Scratch," Journal of Machine Learning Research, 12.

S. Wintermute, 2010, Abstraction, Imagery, and Control in Cognitive Architecture, Michigan: University of Michigan.

責 编∕桂 琰

刘伟,北京邮电大学人机交互与认知工程实验室主任、博导,媒体融合生产技术与系统国家重点实验室特聘研究员。研究方向为人机混合智能、人机交互、认知工程、用户体验、人机环境系统工程、分析哲学、未来态势感知模式与行为分析/预测技术。主要著作有《人机融合——超越人工智能》《追问人工智能:从剑桥到北京》等。

猜你喜欢
人机交互人工智能智能
人工智能与就业
人机交互课程创新实验