人工智能教育焦虑:成因与化解

2023-01-02 14:27陈祥梅宁本涛
当代教育科学 2022年9期
关键词:数据安全使用者学习者

●陈祥梅 宁本涛

人工智能技术作为信息科技的高阶发展,为推动教育领域的改革与创新发展提供了坚实的技术基石。2019 年,中共中央、国务院印发的《中国教育现代化2035》强调“加快信息化时代教育变革”,人工智能教育已成为实现规模化教育与个性化培养有机结合的重要技术手段。技术赋能教学、技术促进学习的呼声不绝于耳,然而人工智能技术给教育领域带来变革希望的同时,亦存在人工智能数据滥用、过度依赖人工智能教育等现象,引发人工智能教育焦虑。人工智能教育产品研发过程中潜在的偏见使教育领域面临多重风险与焦虑[1],以及人工智能教育存在将自定步调重复学习视为个性化学习的隐患等[2]。然而当前学术界关于人工智能教育焦虑的系统论述研究尚不完善,本研究旨在分析人工智能教育产生的消极现象、探究背后的本质成因并提出相应的缓解对策,以期为人工智能教育的理性发展和科学应用提供些许参考。

一、人工智能教育焦虑

人工智能热潮带来教育新的发展业态的同时,也引发了人工智能教育焦虑。Wang 指出人工智能焦虑是一种抑制人类与人工智能发生交互作用且表现在整体情感上的焦虑[3]。Johnson 认为人工智能焦虑是由于人们对人工智能发展方向的不明确而产生的一种紧张和恐慌情绪[4]。参考相关学者定义,本研究将人工智能教育焦虑界定为人工智能技术在教育领域应用过程中产生的焦虑情绪。人工智能教育焦虑主要表现在以下几个方面。

(一)数据安全焦虑

在使用人工智能教育产品时,人工智能技术需获取、存储、管理和应用使用者的数据,在此过程中经常出现人工智能教育数据的泄露、侵权、盗用甚至被利用的现象[5],以及因违背伦理道德所产生的教育数据伦理风险[6],引发人们对人工智能教育的数据安全焦虑。如《2022 人工智能教育蓝皮书》研究结果显示,学校管理层愿意积极推进人工智能教学应用,但对人工智能技术在教育应用中可能导致师生的个人信息泄露或被监视等问题较为担忧,以及近年来频繁出现的以“教育创新”之名监控学生的现象。学生穿戴智能芯片校服,学校和家长可实时动态了解学生的位置,并能够进行轨迹分析,存在违背道德伦理的隐忧。人工智能教育数据安全焦虑表面上是一种焦虑情绪,本质上反映的则是当前新技术挑战旧有教育数据管理体系、相关技术应用不规范和人工智能教育伦理观念的缺失导致对人工智能教育数据的滥用,以及因教育问题的复杂性和教育对象的特殊性,教育的人本价值秩序在使用人工智能技术的过程中可能会被弱化的问题。

(二)依赖误导焦虑

人工智能技术提供了便利、精准和个性化的服务,人工智能算法为学习者“量身定制”个性化学习方案,人们的使用体验较好并逐渐对人工智能技术产生了信任和依赖。但人工智能技术并没有人类预想的“完全可信”,使用者在技术方便中不自觉地产生依赖甚至被误导,个人思辨能力逐渐缺乏[7]。人工智能算法的个性化推荐已被发现存在推荐内容同质化的问题,人工智能基于用户的行为和兴趣习惯来为特定群体做精准的内容投放将会导致特定群体同质、群体间异质现象严重,最终导致“群体极化”现象[8]。推荐给学生的学习资源同质化,学生接受的信息会被限制在算法的提供范围内,这将会在一定程度上窄化学生的思维、价值观等,抑制学生的多元化发展。且个性化学习方案是在算法标准化的运行机制下产生的。依托大数据算法的规模化、标准化的个性化,是“真个性化服务”,还是一种“伪个性化的标准化服务”[9]?抑或是个性化学习方案是否能有效促进学习者的全面发展?这些悬而未答的疑惑,引发人工智能教育依赖误导焦虑。

(三)偏见歧视焦虑

近年来,人工智能教育领域频繁出现人工智能技术刻板评估教师、忽视残障学生、教育违规收费、性别歧视、学生家庭歧视和学生成绩评估偏见等现象[10]。人工智能技术基于教育大数据采用算法进行分析,从而对不同特征群体的使用者采用不同的策略,产生偏见或歧视倾向或行为,或导致大规模的群体偏见歧视,使群体感知到非公平的对待,从而产生人工智能教育焦虑情绪。人工智能教育偏见歧视主要来源于设计者和算法的偏见歧视,其背后的内在机理在于算法研发者的偏见和歧视行为会在算法的推断与执行过程中不断加以强化,并最终通过人工智能教育产品的应用潜移默化“植入”使用者的头脑中,从而固化或改变其行为选择[11],导致偏见歧视行为的恶性迭代。人工智能技术的发展使得为不同特征的学习者提供相适应的教学支持成为可能,但是当人工智能偏见和歧视进入教育领域,带来的可能将是“教育偏见歧视”,而非“因材施教”[12]。

(四)人工智能学习焦虑

人工智能时代的到来,引发了人工智能学习的热潮,人工智能相关课程逐渐得以普及[13]。人工智能教育逐渐呈现低龄化发展趋势,从高中教材到小学教育,甚至幼儿编程都可以看到人工智能的身影。给幼儿学习者开展复杂的人工智能编程培训是否有必要,这一问题虽未有定论[14],但相关研究也表明幼儿学习者通过学习人工智能教育,可以锻炼他们的思维和逻辑能力,激发其探究的好奇心和创造力,提升幼儿学习者的信息素养[15]。家长希望自己的子女“不输在起跑线上”,有更多的技能可以“傍身”,争相参加校外教育培训机构针对低龄儿童推出的人工智能教育课程班,导致人工智能教育的低龄化现象越来越严重。人工智能教育低龄化是否符合教育身心发展的基本规律?幼儿学习者是否达到编程所需的英语、数学和阅读门槛基础[16]?这一系列悬而未决的问题均指向当前人工智能教育课程领域幼儿学习者开展人工智能教育的适切性问题以及由适切性问题引发的人工智能教育课程标准界定不一、课程内容缺乏合理性等诸多现实问题。

二、人工智能教育焦虑的成因分析

焦虑现象背后折射焦虑情绪本因,只有透析焦虑现象背后的本质,才能“对症下药”,找到应对人工智能教育焦虑之法。人工智能教育四重焦虑的具体成因分析如下。

(一)人工智能教育数据的滥用

当前,新技术挑战旧有教育数据管理体系、相关技术应用不规范以及人工智能教育伦理观念的缺失导致对人工智能教育数据的滥用,由此引发人工智能教育数据安全焦虑。首先是人工智能技术对旧有教育数据管理体系的挑战。人工智能技术与相应的教育数据管理体系和管理制度等方面相比发展较为迅速,很多教育互联网企业在用户数据隐私的红线边缘徘徊。相关教育数据安全管理体系和管理制度的不完善[17],导致数据侵权、滥用和盗用现象屡见不鲜,引发使用者人工智能教育数据安全焦虑。其次是相关技术应用不规范。大部分人工智能教育产品硬性要求读取用户个人隐私信息,使用者不开放权限将无法使用该项教育服务。甚至部分人工智能产品在未经使用者授权同意的情况下自动获取使用者个人数据。为体验到更加精准和个性化的人工智能教育服务,使用者必须让渡一部分的隐私权给人工智能技术。在让渡隐私权的过程中,使用者产生人工智能技术隐私侵犯的焦虑,担心私人信息被监控甚至被利用。最后是人工智能教育伦理观念的缺失。开放教育数据的挑战很大一部分原因在于观念层面。教育问题不同于其他领域问题,不同于工业领域生产、技术领域等的升级。教育的对象是人,更加注重人本价值取向追求[18]。随着人工智能技术更多的应用于教育领域,琳琅满目的人工智能教育产品竞相亮相,冲击着原本的人、技术、数据和伦理之间的关系。

(二)人工智能技术的过度依赖

对人工智能技术的过度依赖引发人工智能教育依赖误导焦虑。首先,感受世界的视角影响和决定了我们对世界的判断。人工智能技术的感知系统远没有达到精准描述和再现世界的程度。人工智能技术依然缺乏很多维度的“触角”,数据获取维度的不全面性将加剧人工智能误导,引发人工智能教育误导焦虑。其次,教育追求的是人的更好发展,但人更好发展的标准涉及价值观。不同对象因其成长背景、环境不同对其自身发展标准界定不同,甚至有些界定之间本身存在冲突。因此用统一标准化的算法去衡量所有学习者的更好发展,引发人们对人工智能教育同质化、绝对化的焦虑。最后,人工智能技术依据学习者的学习特征提供个性化学习方案,学习者的学习体验较好。按理说,这是一种非常理想化的学习方式,但这或许是一种假象。学习者在技术方便中不自觉地越来越依赖人工智能技术[19],个人思辨能力逐渐缺失,引发人工智能教育依赖焦虑。人工智能技术刻意屏蔽了算法程序中认为与学习者不匹配的知识与内容,而屏蔽掉的部分或许是学习者缺乏和需要得到强化的部分,从而导致学习者的全面发展受限。再者,基于人工智能技术捕捉到的学习者即时反馈信息并对其调整学习方案,关注的只是学习者的短期情况,而长远的关于人的价值观、责任感和理想信念等的形成,人工智能技术则无法触及。

(三)设计和算法的偏见歧视

人工智能教育偏见歧视焦虑主要来源于设计者偏见和算法偏见。一方面,人工智能教育产品在设计开发时便被植入了设计者和开发者的偏见。负责开发教育智能产品的设计团队以技术人员为主,偏见的一部分来自开发团队自身教育理论经验不足、片面采集数据和忽视特殊受众群体。在设计人工智能相关教育产品的过程中,并未考虑到在认知和注意等方面存在障碍的学习群体,这些群体被人工智能教育忽视和边缘化。人工智能教育应用产品在设计之初便带入了设计人员的偏见,而算法的不断强化将会导致迭代的偏见。另一方面便是人工智能算法导致的偏见[20]。如上文所述算法会存在误导问题,也会导致偏见问题。人工智能教育获取使用者的数据类似于工厂需加工的“原材料”,“原材料”在进入工厂时便被加上了设计者的偏见。算法类似于工厂的机器,机器运行加工原材料时也被添加了算法工程师的偏见。如英国A-Level 和GCSE 考试事件便是算法导致偏见的例子,由于这两个事件产生的社会负面影响过大,已被专业人士剖析并有后续的解决措施。而大部分情况下由于人工智能技术相关算法如神经网络一般缺少解释性[21],以及其内在的运行机理缺乏透明度等问题,很多使用者受到歧视和偏见的问题并不会被发现。

(四)教育过度竞争的焦虑

由于教育的人力资本效应以及我国义务教育优质资源的不均衡,家长迫切希望自己的子女可以获得更好的教育,有更多的技能可以“傍身”,教育过度竞争和教育“内卷”现象愈演愈烈。“内卷”一词出自格尔茨《农业的内卷化》,用来表达一种“不经济而劳累”的模式[22]。在当前技术快速发展的时代,编程能力是从升学自主招生到高考再到未来就业的核心竞争力之一,校外编程培训课程受到家长的青睐。有调查显示,在中小学生校外培训课程中,除艺术类和体育类校外培训课程外,计算机编程类课程选择的人最多[23]。且近年来人工智能学习者的低龄化趋势明显,很多的幼儿园学生开始接触计算机编程课程,引发人工智能教育学习焦虑。人工智能教育低龄化是否符合教育身心发展的基本规律?“编程”是否能真正促进儿童的个体发展?这些疑问当前学术界暂未有明确的定论。再者,当前人工智能教育课程在教材标准和设计方面存在诸多问题。传统学科教育如数学、化学和物理等经历了多年的积淀和改革,无论是从教材标准还是从课程设计方面都较为科学和规范。人工智能技术本身属于一个新兴技术,人工智能教育课程目前在规范性和系统性等方面仍需进一步完善,这也给人工智能学习者的学习带来较大的挑战。

三、人工智能教育焦虑的化解对策

随着人工智能技术在教育场景中的深度应用,如何缓解人工智能教育焦虑,更好地收获人工智能教育红利,是当前亟待解决的现实问题。基于四重人工智能教育焦虑的深度剖析,我们提出如下有针对性地缓解人工智能教育教育焦虑的对策。

(一)构建与算法时代相适应的教育数据安全治理体系

教育与人工智能技术相互融合形成了一种全新的教育形态,新的教育形态势必挑战旧有的教育治理体系,应构建与算法时代相适应的教育数据安全治理体系。首先,完善相关人工智能数据安全保护制度。教育数据获取必须征得使用者的授权同意,随着当前调用数据的开源化和多元化趋势,这一点尤为重要。必须保证人工智能技术对使用者教育数据采集获取、调用及管理等过程的规范性。尤其禁止以商业盈利化目的对教师和学生数据滥用的行为,保障使用者的个人隐私权,消除使用者教育数据隐私侵犯的焦虑。其次,开发和应用新兴技术保障使用者数据安全。应用新兴的数据安全技术,如联邦学习法、区块链等,保障人工智能教育的数据安全。如谷歌公司于2016 年首创的一种基于机器学习的联邦学习法,学习者通过联邦学习可以将个人隐私信息保留到本地数据库。人工智能技术在调用数据时,只需调用本地联邦学习下构建的经处理后的个人隐私数据的模型、参数等,不直接调用使用者个人隐私原始数据,从而从根本上杜绝了人工智能教育数据隐私外泄的风险[24]。最后,构建以人本价值为取向的数据服务伦理秩序。在隐私保护政策制度和先进数据技术无法施展的区域,用人工智能伦理规约的方式助力数据安全风险治理,消除使用者教育数据伦理安全焦虑[25]。人工智能技术只是一项技术,人类对技术所做的努力是为了人和社会更好地发展。基于教育对象的特殊性和教育内容的复杂性,要求必须构建“以人为本”的人本价值取向的人工智能社会。

(二)建立人与技术协同合作双向赋能的人机协同关系

人工智能技术为人们提供教育便利的同时也存在人们逐渐对人工智能技术产生依赖、人类与机器主客易位以及人工智能技术对人类产生误导等诸多问题,引发人工智能教育焦虑。应从增强技术手段、强化人机协同机制以及理性运用人工智能技术等方面缓解人工智能教育依赖误导焦虑。首先,应加大人工智能技术获取数据的前端传感研究力度。感受世界的视角影响和决定了我们对世界的判断。从人工智能技术数据收集的维度方面来说,当前人工智能技术的感知系统远没有达到精准描述和再现世界的程度,依然缺乏很多维度的“触角”。加大对人工智能技术前端传感研究投入,以获取更加全面多维的数据,更好地服务使用者。其次,人类智能和人工智能相结合,彼此扬长避短更好发挥人工智能技术的作用,并促进其逐渐形成一种人与技术交互式的、日益融合的关系。人类智能和人工智能各自擅长的领域不同,两者之间协同合作、相互作用、双向赋能产生整体效应,其发挥的效能大于等于“人类智能”和“人工智能”单独作用时发挥的能效之和[26],从而缓解人工智能教育依赖误导焦虑。最后,理性运用人工智能技术。尊重人类自身身心发展的教育规律,牢牢把握住教育决策权、选择学习方案的自主权。用辩证发展的眼光运用该项技术,不完全依赖于人工智能技术,不让人工智能技术成为人类发展潜能的限制性因素。

(三)从人的全面发展视角界定教育算法的使用规则

为更加充分、广泛和深度地将人工智能技术运用于教育领域,激发人工智能技术更好服务教育的潜能,缓解人工智能教育技术的偏见歧视焦虑,应从人的全面发展视角探讨人工智能教育核心算法的使用规则。首先,提高研发团队对教育基本理论和教育规律的认识和理解,将更多的教育概念融入算法框架中。教育算法必须以教育理论为依据[27],坚持以人的全面发展为导向。人工智能教育产品研发团队需引入多种角色,引入教育领域专家学者为人工智能教育产品的研发提供理论指导,引入教育智能产品的实际使用者反映用户实际需求,从而在人工智能教育产品的设计开发源头上避免偏见歧视的进入。其次,完善人工智能技术运用于教育领域的准入机制、监管机制和退出机制。在产品发布之前需经过多轮审查和试验,加强人工智能应用产品关于偏见和歧视等方面的检测和评估。对无法促进人全面发展的人工智能教育产品不予发布,提前规避人工智能教育的歧视偏见问题。对于已经发布的人工智能教育应用需不定期进行筛查检测,将存在严重偏见和歧视问题的教育产品及时下架修改。及时发现人工智能教育产品存在的偏见歧视问题并予以纠正,缓解人工智能教育焦虑。最后,培养师生正确的人工智能应用观。人工智能应用或产品只是教育的辅助手段和工具,师生作为使用者需要有自己的主观判断能力。人工智能技术不一定是完全智能的,也存在着偏见和错误,人工智能决策得出的结果可以作为判断的参考,但切忌盲目相信和依赖人工智能教育,沉浸迷失在算法给出的答案中。

(四)以“新课标”规范引领人工智能教育课程建设

面对教育“内卷”,不少校外教育培训机构针对低龄儿童推出人工智能教育课程,人工智能学习低龄化趋势明显。加之当前人工智能课程领域存在内容缺乏合理性、标准界定不一等诸多问题引发人工智能教育学习焦虑。2022 年4 月,教育部发布《义务教育信息科技课程标准(2022 年版)》,人工智能教育进入“新课标”。在新的背景下,需以“新课标”引领人工智能教育课程发展,多方齐心协力,共建、共研、共同探索面向未来的人工智能教育课程,提升人工智能课程规范的科学性。首先,需依据不同年龄层面和不同学段的学习者认知特点开展人工智能教学。人工智能的学习需要学习者有一定程度的知识储备,具备相关信息技术、数学和英语等基础知识。因此在进行教学之前需对学习者的人工智能学习基础做一定的测试和评价,基于学习者的认知和知识水平开展相应的人工智能教学,符合人的身心发展规律,不可拔苗助长。其次,需制定专门的人工智能课程标准。尽管在区域层面已有很多学校开设机器人课程、编程等人工智能相关课程[28],但在课时、课程内容和开设年级等方面缺少国家的统一标准。最后,需加强人工智能教育教材建设。当前,人工智能课程教材和内容已初步规范化,但仍存在教材质量参差不齐、版本繁多等系列问题。且存在部分教材并未做到难度循序渐进以及未充分考虑到学习者的认知水平。因此,需以“新课标”引领人工智能教育课程建设,缓解人工智能教育学习焦虑。

猜你喜欢
数据安全使用者学习者
设计让您在喜爱的虚拟世界中自由奔跑
我国5G数据安全保护供给不足,“四步”拉动产业发展
你是哪种类型的学习者
十二星座是什么类型的学习者
云计算中基于用户隐私的数据安全保护方法
青年干部要当好新思想的学习者、宣讲者、践行者
建立激励相容机制保护数据安全
新型拼插休闲椅,让人与人的距离更近
大数据云计算环境下的数据安全
抓拍神器