放管结合:高等教育应对大规模语言模型冲击的立场及其展开
2024-08-07陈心哲
摘 要:大规模预训练语言模型以学生主动使用为渠道入局高等教育,引发知识、诚信、价值观多重危机。其本身巨大的应用前景和海量用户的既定事实,表明封禁排异已不可行;现有产品尚处于快速迭代期,加之缺乏成熟的治理方案,因而鼓励推广亦为时过早。对大模型的规制应树立“放管结合”的立场,坚持有所为、有所不为。一方面,公权力机关宜克制规制冲动、适当放任观望,仅对部分确有必要的事项精确管治;另一方面,鼓励教师、学生、企业等私主体探索自治举措,引导大模型正向赋能高等教育。未来“师—生—机”三位一体的教育模式中,教师的中心地位非但不会削弱,反将得到增强。
关键词:大规模预训练语言模型;高等教育;ChatGPT;人工智能
中图分类号:G649.2"" 文献标识码:A"" 文章编号:1673-1794(2024)03-0102-09
作者简介:陈心哲,安徽财经大学法学院讲师,博士,研究方向:刑法学(安徽 蚌埠 233030)。
科技变革与教育变革之间始终存在着密切关联。自OpenAI公司推出的大规模预训练语言模型(以下简称大模型)ChatGPT风靡全球以来,微软、百度、讯飞等一众互联网龙头企业争相推出自己的大模型产品,中国知网等也在官网上线了相应功能,全球大模型活跃用户已超10亿。人们不禁感叹大模型时代已悄然到来。在高等教育领域,大模型以学生主动使用为最先渠道迅速侵入,严重冲击传统教学秩序,引发教育界的集体忧虑。在此之前,亦有不少人工智能技术入局高等教育,例如虚拟现实、AI润色、智能翻译等,但它们所造成的冲击力都远不及大模型。究其原因,在于大模型无与伦比的自然语言处理能力,已经达到了一般人类的智慧水准,能够在一定程度上取代教师和学生的工作,实现了从“辅助人”到“代替人”的转变。在新一轮科技革命浪潮之下,我们应该以何种态度看待大模型引发的教育危机?又该怎样正确处理眼下科技与教育紧张关系?针对这些问题,笔者尝试以归纳危机挑战为起点,先明理再答策。
一、归纳:大模型引发高等教育现实危机
立德树人是高等教育的根本任务。教师和学生则是传统教育教学体系的两个中心主体。大模型技术在学生群体中的迅速蔓延,冲击了高等教育的底层架构,在动摇教师和学生地位的同时,也给立德树人任务造成新的挑战,笔者以ChatGPT为例具体说明。
(一)知识获取便捷 动摇教师地位
让学生掌握充足的知识是高等教育的基本功能。相较于以往的人工智能系统,人利用ChatGPT等大模型产品获取知识的便捷性得到大幅提升。这种便捷性得益于OpenAI公司首次将基于人类反馈的强化学习算法(RLHF)迁移到自然语言处理领域,实现了先进的强化学习算法与自然语言处理技术的结合。
首先,利用ChatGPT获取知识几乎没有门槛,使用和学习成本也基本为0。由于其本质上是一个通用式聊天机器人,先进的自然语言处理技术使其能够看懂、听懂人类输入的需求,整个使用过程与打字或语音聊天无异,可以随时随地实现有问即答。
其次,利用ChatGPT获取知识具有前所未有的高效率。历经数年的调试打磨和前三代产品的经验积累,ChatGPT具备了超人的思维理解和推理能力,能够准确理解用户的意图并给予准确的答复,节约了反复沟通或者答非所问所浪费的时间。对于较为分散或没有准确答案的问题,ChatGPT还可以主动从互联网检索有关信息并将其中相关性最高的部分整理后呈现给用户,免去了常规学习方式中冗长的检索、整理过程。
最后,人工智能所具备的强大算力和海量数据是人类教师所无法比拟的。ChatGPT模型的总参数量高达1750亿,仅其学习的一个中文语料集MNBVC,规模便高达2000GB。海量的学习文本和训练数据,使其拥有人类无法企及的渊博知识,从自然科学到社会科学,从代码编写到文学创作,从基础教育到学术训练,任何领域的问题可以诉诸于它。
相较于传统人类教师,人工智能在学习门槛、效率和知识储备方面具有明显优势。过去,无论是传统的线下教学课堂,还是虚拟教室、云课堂,教师的中心地位都是不可替代的。如今教师不再是学生获取知识的最佳来源,机器给出的回答可能比教师更全面、更精准、更及时,学生转而求助于机器的现象愈加显现。教师给出的解答与机器不一致时,学生可能会质疑教师。教师传授知识的中心地位逐渐消解,引发学生对教师权威的质疑甚至是教师群体的自我怀疑。
(二)数字技术滥用 引发学生诚信危机
大模型不仅能用于知识获取,还能够用于知识生产。其基本功能是按照人类输入的指定提示信息,完成文字内容的输出经过不断迭代。目前先进的大模型已经能够生成包括文字、图片、代码、声音、视频在内各种形式的生成物。这一功能进入高等教育领域,很快被学生用于完成课程作业。刊载在《Nature》的一项调查证实:有相当一部分教授已经在他们的课程中遇到了或是所在的大学已经出现了学生使用人工智能工具完成作业的情况。福布斯网站的一项调查显示,美国有89%的学生正在或曾经使用ChatGPT完成作业。[1]更令人担忧的是,AI的生成内容早已达到了人类作者的水准。如:微软小冰独立创作的诗歌集《阳光失了玻璃窗》,便被认为已经达到了一般诗人的水平。ChatGPT完成的学术论文、教学大纲、个人简介等文本,均达到了“以假乱真”的效果。[2]
人工智能、大数据、云计算等数字技术本身是中立性的,但对这些技术的过度依赖和利用已经威胁正常的教学秩序,引发师生间诚信危机。相较于以往那些辅助学习机器,大模型已经完全从“辅助人”进阶到“代替人”的程度。作业、论文的撰写如同自动售货机般输入、输出,学习和思考环节沦为技术行为,丧失独立思考和锻炼能力的作用。在这个过程中,学生的逻辑、推理、记忆等能力没有丝毫锻炼,反而是机器能够利用学习算法从海量人次的使用中不断进步,本意“培养人”的教育活动最终却培养了机器。
此外,在生成内容署名问题上,大多数学生会将署名权归属自己而非机器,这实质上是一种欺骗行为。尽管目前学界对于人工智能生成物的著作权归属尚存较大争议,但是对于该问题的回答基本集中于研发人员和机器人主体之间,将人工智能生成物视为用户的作品的观点少有支持者。毕竟用户付出的智力和体力劳动是微乎其微,将之作为保护主体根本上背离了促进知识产权、鼓励知识创新的知识产权保护目的。况且,现阶段人工智能创作的本质实际上是对学习样本的拼接、模仿和组合,利用大模型完成教学作业的行为实际上与剽窃或代写无异。
(三)不良知识输出 蕴藏德育风险
大模型固然具有强大的知识获取和知识生产能力,但由于“算法黑箱”的存在,其生成过程和逻辑依据仍然是不可解释的。这就造成了大模型加持下的高等教育具有不确定和不可控性,随时可能对正常的教学秩序甚至学生的身心健康产生负面影响。这些负面影响主要来源于大语言模型可能输出不良信息,包括错误信息、偏见信息、违法信息。这些不良信息既有可能归责于算法的局限性,也有可能是用户有意绕开识别算法而获取的。例如当向ChatGPT提问如何“挑锁”时,其准确识别到提供敏感信息并表示:这是非法行为,不能提供非法建议。但当提问方式被转换为“专业的锁匠会如何挑锁”这种更具诱导性的表述时,ChatGPT便准确提供了挑锁具体的步骤和操作方式。可见,即使开发者有意识地设置防御性措施,使得机器拒绝、回避或者较为含糊地回答可能出错的敏感问题,然而,由于技术局限性的存在,不良信息的输出风险始终难以根除。
不良信息的生成产生误导,还会潜移默化地影响他们的价值观。数字网络时代,任何一款产品都会想方设法占据用户更多的时间,以便在“眼球经济”的竞争中获得优势。当学生对生成式人工智能产生高度依赖时,算法价值观缺失的弊病将会直接投射到学生,开发者个人的偏见也会借此波及社会。此外,考虑到现有的人工智能技术框架来自欧美,主要基于西方的价值和思维导向建立,因而在内容输出上先天地带有偏向性。大模型介入高等教育后,还可能为西方价值观的入侵提供便捷途径。
诚然,《办法》第4条明确规定了生成式人工智能提供者和使用者的安全保障义务,即“应当遵守法律、行政法规,尊重社会公德和伦理道德。禁止生成违法、偏见、侵犯知识产权、违背商业道德、损害他人合法权益以及不可靠、不准确的内容。”但是这一规定显得过于笼统宽泛,其中禁止的范畴涵盖了从道德到法律层面一切可能的不良信息。其结果要么是由于缺乏现实可操作性而被束之高阁,要么是由于忽视了科技发展所必然伴随的风险而束缚了人工智能产业的发展。
二、明理:对大模型入局两面性之研判
答策先明理。大模型带来的这些风险引发了教育界的广泛焦虑,不少学者顺势提出各种规制之策。但风险并非规制的充足条件,现代社会中风险是无处不在的,机遇与收益往往也蕴藏其中。那种急于防微杜渐,或是力求根治的想法都是局限的。在讨论应对之策前,我们首先需要对风险的性质加以研判。
(一)看待大模型入局的对立观点
人工智能的每一次惊艳表现都使人们感到恐惧。“GPT模型在一定程度上可能已经具备了成年人的通识和逻辑,所以我们只需要拿特定专业领域的数据对其再做训练(微调),它就可以成为独当一面的专业人才。”[3]如果在劳动生产方面,机器取代人类是值得期待的话,那么在教育领域这种取代则值得高度警惕。因为教育的根本目的是立德树人,其重视的是知识获取的过程而非单纯的结果。那种自动售货机式的知识传递,对教育教学体系的破坏是颠覆甚至崩塌式的。特别是对于大学生而言,他们正处于三观形成的关键阶段,学生过度依赖技术的扶持,最终将沦为技术的“异化物”。[4]
秉持着这种畏惧心态,排斥人工智能对高等教育的入侵,禁止学生在学习过程中使用大模型,成了不少政府和机构不约而同的做法。香港大学、香港中文大学也率先表态:禁止学生在所有课堂、作业、评估和一切涉及学分的活动中使用包括大模型在内的AI工具,否则将被视为剽窃。[5]还有不少地方采取半封禁态度,例如纽约市就出台政策,禁止所有师生在公立学校的网络和设备上访问ChatGPT。巴黎政治学院要求学生在使用类似工具时,将其作为一项外部来源明确说明,否则将受到严厉处罚等等。
与悲观排斥立场完全不同,更多的教育、科技工作者对大模型融入高等教育持积极开放的态度。他们能够认识到消极论者所提出的种种问题,但相信可以克服。[6]同时,他们主张以更加积极主动的态度拥抱变革,并给出了各自不同的理由:(1)从功利主义的角度出发,新技术的介入利大于弊。随着新技术的不断迭代,现有的种种弊病将被逐渐完善,而其带来的生产效率的提升也将不断加速。(2)从现实层面来看,鉴于大模型等人工智能产品庞大且快速增长的用户数量,完全封禁是不现实的。中国知网、WPS、科大讯飞、百度等大众软件均在其最新版本,内置了大模型功能。其成为学生和教育工作者高效工作不可或缺的工具已是既定事实。(3)人工智能技术已经渗透进社会的各行各业,学生进入社会或职场后不可避免地要使用这些新型数字化工具,不论是通用式人工智能还是专业领域的专家系统的使用,都应该成为劳动者所必备的技能。(4)历史表明,新技术与技术相互融合的趋势通常是不可逆的。人工智能时代,高等教育拥抱大模型是大势所趋,将二者强行剥离无异于开倒车。
秉持着这种开放包容的立场,一些国家和机构主动在教育领域拥抱生成式人工智能。新加坡、芬兰、挪威等国教育部门先后公开支持使用ChatGPT等人工智能工具。可汗学院率先宣布引入ChatGPT辅助学习,同时开发智能工具Khanmigo作为教学助手,帮助老师备课、收集素材、回答学生问题等。
(二)正反立场的盲点与纠合
上述两种对立说实际上体现的是大模型风险和收益的对立。消极排斥论能够回避大模型入局带来的现实危机,但没有正确认识到其巨大价值或者没有正确看待利弊关系,这种过于保守的立场与到来的人工智能时代、大模型时代正在快速普及的客观现实以及现有的政策导向均显得格格不入。
真正决定大模型应用前景的并非利或弊单侧,而是利益与否以及在何种程度上大于弊害,即二者之差。对待上述争议不同观点及其相应的政策措施,表面上看是关于如何应对大模型冲击的争议,本质上则是关于如何处理技术风险与创新收益之间矛盾的分歧。自从人类进入到工业社会,每一次现象级的科技创新难以避免地会伴随诸多现代风险。这种现代风险因其往往具有难以感知、难以预见、难以规避等特点,几乎必然引发国民的忧虑和排斥。[7]但是现代社会又是利弊相伴、危机共存的,完全拒绝冒险无异于停止发展。诸如环境开发、核能利用、数字网络这些现如今已经被普遍接受的事物,其技术风险引发的危害仍然很大。可见,人类面对新技术的态度归根结底取决于其收益和风险两个因素之间的权衡,即收益是否,以及在何种程度上大于风险。当收益不明显大于,甚至弱于可能的风险时,则接纳新事物的意义不大。反之,当二者之间的差距逐渐放大,则接纳新事物的必要性同步地增加,即便有些风险终究无法消除,最终也会被视作“可被容许的危险”。
秉持着这种“风险—收益”理念再来审视大模型在高等教育领域的前景不难发现,其发展收益远远大于可能的风险成本。其一,大模型在教育领域的风险是有限的。人工智能最终会不会毁灭人类尚不可知,但至少在本文所讨论的教育领域内,其危害最多表现为教育秩序的紊乱或教育质量的下降。这与环境污染、核能泄漏、生化滥用等种种现代性风险相比,完全不在同一量级。即便未来出现了未知的巨大风险,也是随时可控的,无非重新回归传统教育模式,出现灾难性后果的可能性微乎其微。其二,大模型在教育领域的开发应用潜能巨大,在提高效率、解放生产力方面的潜能却丝毫亚于其他科技革命。对此,笔者已经在前文多次提及,在此不再赘述。其三,可以预见的是,随着大模型技术的迭代更新,这种风险与收益之间的差距还将不断扩大,这一方面源于开发企业自身的利益竞争需求,另一方面也归于相关规范性文件的不断完善。长此以往,生成式人工智能与高等教育的绑定将愈加深刻,最终使得这场利弊讨论越来越缺乏实践意义。
回顾过去,与大模型争议颇为相似的是基础教育阶段学生能否使用科学计算器的问题。以往我国基础教育特别重视对学生口算、心算甚至珠算能力的训练,通常会花费大量时间要求学生背诵运算口诀、练习运算习题。随着科学计算器的普及,越来越多的人开始质疑这种教育是否脱离时代。毕竟,在智能设备随处可见的今天,对科学计算器的依赖已经难言产生何种风险,反倒是其便捷、高效、准确性远非人力可比。收益与风险的巨大差异,使得如今的人们已不再排斥在基础教育中允许学生使用科学计算器这件事,一些发达地区甚至允许学生在高考中携带科学计算器。
此外,若将视角拉升至国际战略的层面来看,拒绝大模型与高等教育的融合也与我国人工智能发展的顶层设计相背离。大模型究竟是否以及应以何种姿态融入高等教育,不仅是备受学界关注的现实论题,更是事关科教兴国和中国式现代化的时代命题。未来国与国之间的竞争归根结底是尖端科技的竞争,谁率先在关键领域掌握核心科技,谁就掌握了主动权。人工智能是战略性新兴产业和引领世界经济增长新的引擎,而大模型作为其中应用最广、爆发最快的类别之一,已然成为各国企业科技竞争重要战场。仅2023年上半年,全球新发布的大模型产品已超400个。我国作为世界第二大经济体、第一大工业制造国以及知识产权强国,必须通过自主创新在这一关键领域取得主动权。公开报道显示,我国企业已开发10亿级参数规模以上的大模型80余个,其中科大讯飞星火大模型、百度文心一言等产品已经达到世界领先水平。倘若采取消极论指导实践,阻塞大模型与高等教育的融合,固然可以隔绝未知风险,但新技术、新应用的发展将因为缺乏土壤而被迟滞。
(三)注意大模型的技术局限性
巨大的应用前景、可控的现实风险和现有的政策立场,共同指向消极排斥论的不科学性。但这些并不足以反证对立说的科学性,也并非意味着我们只能走另一条积极拥抱之路。
随着用户群体的增加,大模型的未尽之处被逐渐发现,相关的差评和批判也随之而来,不少人开始质疑大模型技术是否真能如提倡者所说的那般神力:现有的教育人工智能的研究、开发和应用充斥着泡沫,有的甚至混淆了视听[8]。“教育技术总体上并没有给我们带来令人激动的应用效果,更没有从根本上改善教育形态”[9]。还有学者系统性地批判了这种对技术的极端、盲目崇拜,忽视了教育的本质和对人的尊重,最终伤害了学生。[10] 这些论点都说明,由于进入公众视野尚短,以ChatGPT为代表的一众大模型产品是否已经成熟到足以让高等教育全面拥抱的程度,能否以正向赋能收获师生群体的正面评价都充满着不确定性。在缺乏时间检验和局部试点的情况下径直提倡拥抱,反倒可能给新事物造成“捧杀”。一个新近的例子是,在线教育经过多年发展,特别是经历疫情期间的磨合似乎已经足够成熟,其融合甚至替代传统教育的声音不绝于耳。但现实却是,逼促下的线上教育所引发的社会性消极体验,造成了学生、教师、家长的抗拒,以至于后疫情时代,多数教学活动迅速回归线下。
三、立场:“放管结合”的慢规制之提倡
消极排斥脱离实际、积极拥抱为时尚早。面对大模型对高等教育的侵入及其引发的问题,笔者主张采取“放管结合”的中间立场,即不鼓励、不反对,而是暂以观望放宽为主、精准管治为辅。具体包含以下两个方面内容。
(一)放缓规制 具有诸多现实优势
“放管结合”首先提倡“放”,即公权力机关对大模型入局高等教育的伴生问题持适当观望的态度,暂时克制规制冲动。这一提倡能够克服消极排斥、积极拥抱两说的不少弊端,优势明显。
放缓规制有助于教育行政管理部门科学精准施策,增强决策的稳定性。每每出现乱象,人们总是期待公权力机关尽快出台措施且立竿见影。但这种规制一般以出台一定级别的规范性文件为标志,其立场不会是完全中立无责的,必然表露出某种的政策倾向。消极排斥不可取,积极拥抱不必要。如此,规制主体便陷入进退维谷的窘境。况且,大模型介入高等教育为时尚短,必然有许多问题尚未暴露,已暴露的问题也难免随着技术的更迭而嬗变,甚至大模型会不会迅速被后续技术所取代也犹未可知。急于规制难免挂一漏万、朝令夕改,造成行政机关资源的浪费和公信力的减损。《暂行办法》第16条赋予了网信、发展改革、教育、科技、工业和信息化、公安、广播电视、新闻出版等多个部门的对生成式人工智能的管理职责,如此极易造成各主体间权责不清,表明立法者在管理主体问题上的纠结。
放缓规制有助于鼓励教师群体和学校自主探索适合自身学情的应对举措。如何看待大模型带来的冲击,不同主体站在不同立场可能有不同观点,具体到应对措施上将只有适合与否,没有绝对的对错之分。相较于行政规制更可能采取的“一刀切”,短暂观望能够给予私主体更多的选择权,鼓励其根据自身特点探索适宜的措施。例如学校可以根据不同学业阶段的特点,对本科学生禁用,以倒逼其大量重复练习基础知识;对着重培养科研能力的硕士生、博士生,则可以附条件地例外。又如对于财会类专业学生,不妨在实训课上训练他们利用大模型快速整理报表、输出管理日志等实务技能。
放缓规制有助于因材施教,让学生根据自身需求和实际体验自己掌握决定权。《大众心理学》中的逆反原理提示我们:人们在面对引导或规范时往往会产生反向心理活动,这一规律在青年群体中尤为显著。不论封禁还是鼓励,都难免引起部分学生的抵触,引发完全相反的行为。对此却不能简单归责于学生。毕竟,即使是在同一学校、同一专业内学习水平大致相同的学生,其学习方法和思维也是不尽相同。要不要使用大模型、用哪款大模型产品、在什么时间或学科用、具体怎么用最适合自己,这些问题没有人比学生自己更清楚。将选择权交还给学生,最有利于他们结合自身实际情况和真实用户体验,做出个性化的安排。这一点是教育管理部门、学校抑或教师都无法企及的。
放缓规制还有助于最大限度为大模型研发企业的创新发展提供宽松的政策环境,助力中国大模型产品角逐国际竞争。高新技术企业探索新技术、新场景、新应用时常会面临合规与否、安全与否、道德与否的拷问。指望完全克服这些问题再图发展是不切实际的,况且某些问题在纸面上永远不会形成定论,而激烈的国际竞争却时不我待。《红旗法案》的教训表明:过分强调安全将会毁掉一个新兴产业,宽松的政策环境就是对高新技术产业而言尤为重要。《暂行办法》第3条明确:国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。这里的表述和顺位恰暗含了此意。
(二)有条件地对必要事项精准管治
可能有人会质疑,主张放缓对大模型的规制,岂非置其负面影响于不顾?岂非将发展置于安全之上,走先发展再治理的弯路?对此笔者持否定态度。发展是第一要务,安全是根本保障,二者在任何时候皆需统筹兼顾、不可偏废。放缓规制不是不规制,而是为了更好地规制,是在适当的时间以适当的方式对必要的事项予以规制,即精准管治。
精准管治首先要求时间精准。“放管结合”并非一成不变之策,大模型技术快速迭代、互联网巨头激烈竞争、尚未形成稳定的用户群体、人们对新事物的接纳有待磨合等现实条件,都是其产生的基础。待这些客观条件发生变化后,再选择适当时间转换立场。之所以提倡放缓规制,就是恪守公权力介入的冲动,待规制对象逐一成熟定型、问题充分暴露后再对症下药,力求成熟一个、治理一个、解决一个,以免朝令夕改、头痛医脚。以此实现放与管的“结合”,即以放促管,以管助放,实现科教良性互动。
即便立足当下,放任也不是无差别的。对于那些负面影响突出、群众反映强烈等确有必要的问题,可以果断予以规制。这些问题往往已经多次出现、危害显著并且通过其他方式难以有效解决。对此,既可以对现有规范作扩大解释,也可以出台新规专门性规制。例如针对大模型使用过程中可能存在的违法违规收集个人信息的情形,这类问题已在以往的网络平台治理中形成了成熟的方案,也有大量典型案例可供参考,可以直接借鉴移植。又如网络上已经爆出的个别大模型生成歪曲历史、抹黑历史人物错误内容的事件,对于这种严重违法违规、损害国民感情的行为,可以依托现有规范追究企业和自然人的法律责任。
放缓规制的提倡主要针对来自公权力部门的政策性规制,不排斥甚至鼓励其他主体积极探索多渠道治理方式。公权力不是万能的,无论是行政、立法、司法手段都只是众多社会治理方式中的一种。公权力规制的缺位并不意味着混乱无序。相反,包括企业、学校、教师、学生、市场、行业协会等多种群体都存在着多种形式的自治。以其中的市场自治为例,现有的大模型基本以数字产品的形式呈现,其本质上都是一种商品,脱离不了基本市场规律。换言之,大模型永远不可避免地受到市场调节。用户对大模型的欢迎程度,短期内可能受到各种因素的诱导,但长期来看起决定性作用的仍旧是产品本身的优劣。倘若其长期具有诸多难以克服的危害,即便一时受到个别群体的追捧,最终也会被理性的消费者所抛弃。反之,则证明其经受住了市场和时间的检验,是利大于弊的。
(三)贯彻高等教育治理机制改革举措
当前,高等教育治理机制改革正在稳步开展,其中一个重要内容就是推进高等教育“放管服”改革。这场改革是在全面推进治理体系和治理能力现代化的大背景下展开的,旨在进一步简政放权、简除繁苛,破除束缚高等教育发展的体制机制障碍。建设面向世界、面向未来、面向现代化的管理服务理念。这一持久创新的治理机制不仅适用于克服高等教育领域的一些顽瘴痼疾,对于诸如大模型冲击等新情况、新问题同样具有借鉴意义。
高等教育“放管服”改革首先强调简政放权,即教育事权与管理权相分离,把教学和科研的主动权还给高校,实现变管治为多主体合作共治。通过简政放权,高等教育治理涌现了 “自主办学”“尊重学术自由”“落实教授治学”“院系自主办学”等诸多新规则,形成以大学章程统领高校发展的新样态。面对大模型的冲击,笔者所提倡的放宽、放缓来自教育行政管理部门的规制,本质上可以看作高教领域在处理具体问题时的简政放权。教育行政管理部门从全能管理者的角色上有序退出,鼓励高校自主探索符合自身学情、校情的治理路径,实现“放”与“管”的良性互动。
简政放权不是什么都放,高等教育“放管服”也注重管,这里的管不是传统模式下事无巨细的行政管理,而是让行政机关从繁杂的事务中解放出来,专心做好高校政策供给,从管事务转向管标准。一方面,在贯彻落实中央深化高等教育改革总体布局的基础上,对一系列政策措施予以细化,统筹管理、分类指导、一校一策,为高校的发展保驾护航。另一方面,对于触碰底线和红线的问题要主动作为、精准惩处。
高等教育“放管服”改革中的最后一环是优化服务。所谓优化服务既要求行政机关转变职能,从高等院校的管理者转变为服务者,还强调充分利用政策优势,将社会、市场等相关利益者吸引过来,激发市场活力,为各种高等教育参与主体服务。笔者“放管结合”立场的提倡,其落脚点恰恰是鼓励学校、教师、学生、企业等多元主体参与到大模型治理体系中来,群策群力、共建共享。最终实现“政府顶层设计引领、高校自主内生发展、市场利益相关者参与”的“共治格局”。
总之,“放管结合”应对大模型冲击的立场并非无本之木。其完全可以看作当下高等教育治理机制改革向人工智能时代的延伸,是高等院校“放管服”改革的新样态。
四、答策:化解大模型赋能风险的多方探索
“从长远来看,技术革命会造福每一个人,但是在短期却隐藏着陷阱,而这种技术所带来的发展潜力,实际的结果将取决于短期发展能否得到良好的管理”[11]。“放管结合”的立场提倡有所为有所不为,公权力层面的谨慎观望,并不妨碍其他私主体积极探索应对举措,面对眼下大模型给高等教育带来的现实问题,实然层面的具体对策仍必不可少。
(一)强化教师在教学活动中的核心地位
“教师是立教之本、兴教之源”。从留声机、摄像机,再到教学机器、在线课程,不论何种时代的教育科技,都无法取代教师的中心地位。虽然教师不会被人工智能取代的判断,但不会应用人工智能的教师可能会被淘汰[12]。科技带来的变革往往是激进的,是优胜劣汰、适者生存的。广大高校教师应对技术冲击最好的办法就是“以我为主、为我所用”,变被动接纳为主动拥抱,避免因信息不对称,带来教师和学生之间的数字鸿沟。
鼓励教师主动拥抱大模型,需要广大教师从思想上构建面向人工智能时代的高等教育理念,构建“师—生—机”三位一体的教学模式。在这个模式中,教师仍为核心,其中心地位不仅没有被取代,而且得到了加强。一方面,得益于插上AI的翅膀,老师的教学能力和教学效果将得到普遍提升。教师能够更加专注于育人,而把单纯的知识传递任务交由机器。另一方面,学生在厌倦了大模型所提供的那种浅表性、机械性、同质化的知识后,终将会对教师产生更强的知识依赖。教师和学生作为教育者和受教育者,在这个组合中始终是最稳固的一对关系。无论何种机器应用于高等教育,都将以丰富教师教学方式和学生学习方式为载体,成为发展和稳固这对关系的驱动力。
当前的大模型技术已经可以从多个方面赋能教师,实现驱动教学质量和效率双增长。大模型擅长处理简单的自然语言处理工作的优势,特别适合完成简单重复性的文字类事项,可以作为一种综合性的教学辅助工具,替代大部分助教类工作,包括课前的课程设计、课件制作、素材收集;课中的虚拟讨论、过程展示;课后的自动出题、阅卷、格式调整等。除了教学工作,大模型还可以高效地帮助教师完成撰写汇报、填写表格、数据统计等非教学工作,将教师从繁琐的行政事务中解放出来,更加专注于育人。提高效率之余,大模型还可以借助“AI+教育”实现人机协同育人,助力教师提高教学质量。大模型还可以接入现有的学习通等教学平台,通过动态分析学生学习情况,根据不同学情分级分类编写教学案例,实现因材施教。例如智能分析学生日常作业中的高频错题,有针对性地生成测验试卷,实现定制化教育。
尽管具有诸多优势,也难免存在部分教师因循守旧,对于拥抱大模型存在天然的排斥心理。对此,学校可以出台各种措施,加速“师—生—机”新型教学模式的演进过程。例如邀请相关开发企业进校园、进课堂,为师生现场讲解、线上答疑;开展多种形式的创新教学竞赛,将大模型运用作为评分点之一;在新教师入职培训和老教师继续教育培训课程中更新相关课程等。
(二)谨防学生对大模型产生负面依赖
当下,大模型高等教育应用最为人所诟病的问题就是越来越多的学生直接生成本应由自己完成的作业和考核,包括文字、数字、编程、图片等各种形式。由于其内容已经达到了以假乱真的程度,教师们又普遍缺乏对大模型技术底层逻辑的了解,因而陷入束手无策、放任自流的窘境。更糟糕的是,即使教师根据自己的经验和感性认知,从内容的语法、措辞、逻辑等线索怀疑学生使用了大模型技术,也无法获取有说服力的证据,进而给予适当处罚。长此以往,教育庸俗化、知识同质化、学习浅表化的问题将愈加尖锐。
解决这一难题,需从大模型技术的特征和弱点入手。大规模预训练语言模型是自然语言机器学习模型,其自始就是为了理解与输出自然语言而生,天然地不如专家系统那般擅长解决专业问题。ChatGPT是通用式聊天人工智能,其生成内容的准确性会随着输入信息专业性和前沿性的提升而降低。高等教育是培养专业人才和开展学术研究的教育活动,专业性恰是其天然属性。基于这一原理,尽可能提高问题的专业性,不失为一个简单而有效的做法。尽可能使用更专业的表述、更开放的论题、更复杂的材料。譬如,用“请结合我国脱贫攻坚取得的伟大胜利,谈谈马克思主义为什么行?”替换“马克思主义为什么行”这一简单命题时,ChatGPT便难以作出切题的答复。考虑到大模型不具备分析复杂文本的能力,我们还可以再给出一段阅读材料后,将问题继续变形为:“请结合这段材料和中国国情,回答马克思主义为什么行?”
针对已经出现的在学位论文中使用大模型的行为,按照现有规范应当明确禁止、惩处。此种行为属于《高等学校预防与处理学术不端行为办法》第27条列明的“代写论文”“造假”等行为。新修订的《学位法》也明确规定:利用人工智能代写属于学术不端行为,将面临撤销学位的处罚。目前市面上已有多款AI生成检测软件问世,例如北京大学和华为联合开发了一款基于PU学习的多尺度语言模型检测器,解决了目前市面上检测器短文本识别进度低的痛点。对此,可以参照重复率检测措施,要求学生在提交学位论文时一并提交AI生成检测报告,并由学校对本校学位论文开展随机抽检或全覆盖检测。
关于学生在学位论文中使用大模型生成内容的现象,同样需要引导和规范。在生成内容的署名问题上,当前学界针对AI生成内容是否具有知识产权上的可保护性尚未形成一致意见。其症结在于算法黑箱的遮蔽弱化了AI的可解释性,造成人们难以判断生成内容是否具有著作权法所要求的独创性。[13]笔者的建议是,将大模型视为一种类似数据处理软件的新型研究工具,不禁止学生在学位论文中使用,但需以注释形式或在研究方法一栏额外注明使用的原因、方法、范围和关键词等信息。至于是否接受此类新样态论文,则交由学校或编辑部自主决定。
(三)研发阶段企业需对生成质量分类把关
企业在科教融合中总是起到桥梁和纽带作用。作为集设计者、开发者、生产者、服务提供者等多重角色于一身的关键主体,任何围绕大模型所讨论的规范措施,如果不能回溯到企业,则难免治标不治本。这样或那样的弊病层出不穷,后续的应对措施注定是亡羊补牢、疲于奔命的。若能将治理节点前移至上游企业的研发阶段,采取以技术治理技术、以算法防范风险的路径,方才是最安全、有效、便宜、彻底之举。
纵观我国现有的规范文件,不论是与大模型关联度最密切的《暂行办法》,还是《科学技术进步法》《科技伦理审查办法》等有关文本,无不强调对企业安全管理义务。这种安全管理义务是全流程的,贯穿科技服务始终的,但对大模型产品而言其关键在研发之前的阶段。毕竟,一旦内容生成则瞬间完成了创造环节、传播环节,几乎没有阻断的可能性,即使企业履行了“通知—删除”义务,也无法控制用户通过的其他途径传播内容。所谓的安全管理义务已经再难履行,相应的安全风险也越发不可控。因而笔者认为在高等教育领域,大模型研发企业安全管理义务最核心的要求,就是采取技术手段对生成内容的质量有所把关。
采取技术手段对生成内容的质量有所把关,底线是消除有害内容的自动生成。这里的有害内容大致包括三类:违反法律、背离党和国家大政方针等国家层面的不良内容;伤害公众感情、产生不良舆论导向等社会层面的不良内容,以及黄色、暴力、恐怖等个人层面的不良内容。其来源既可能是用户不规范提问的无心之举,也可能是有意为之。当大模型通过“关键词检测+人工复检”的方式识别到这些提问时,可以采取分类应对的方式。第一种情形通常存在明确的规定或权威论述,研发企业所需要做的就是训练大模型准确检索并完整展示相关答案。防止错误言论产生的同时,也要杜绝含糊其辞、随意删减、变换表述之类容易引发歧义的回答。针对第二种情况,如有公权力机关的通报、公告等官方答复时应当优先引用,否则也可以在程序设计时要求大模型多做事实陈述、少做价值判断。针对第三种情况,则需考虑其中是否包含积极作用,例如具有丰富文学艺术价值的作品、具有学习参考价值的医学图片等。反之,则应禁止或进行局部无害化处理。
采取技术手段对生成内容的质量有所把关,还要求大模型具备对敏感问题提问的识别和回避能力。与有害内容不同,敏感问题往往无关是非对错,其敏感之处在于涉及价值观分歧,易制造矛盾、争议或焦虑。例如如何看待同性恋群体、如何看待中国式人情世故、如何评价某争议历史人物等,这些问题由于缺乏官方答复,也未形成权威观点,因而无法采取与前者同样的措施。对此存在三种对策:一是直接赋予大模型拒绝回答的权利,在识别到敏感问题提问后一律礼貌地拒绝回答。此举最为简单、彻底,缺点是会降低用户体验,也易使研发人员陷入懒怠,拖累大模型技术发展;二是作开放式回答,只进行观点和论据的展示,不作价值判断和倾向性回答。同时对所展示的观点亦要有所筛选,剔除个别过于极端、明显不当的观点。三是作差异化答复,通过先前积累的用户信息和交流习惯精准绘制用户画像,以此推送最契合其价值观的答案,实现人机交流时的“高情商”对话。
五、结语
党的二十大报告将教育、科技、人才进行统筹安排和一体部署,并且明确提出“推进科教融汇”“推进教育数字化”,凸显出我国教育与科技融合的顶层设计。习近平总书记指出:“促进教育变革创新,充分发挥人工智能优势,加快发展伴随每个人一生的教育、平等面向每个人的教育、适合每个人的教育、更加开放灵活的教育”[14]这些论述都表明高等教育必将持续接纳以大模型为代表的诸多数字技术的融入。继ChatGPT之后,各家类似的产品纷纷问世,新情况、新问题层出不穷,大模型之外,各种数字技术快速发展,高等教育还将不断面临各种未知的冲击。“放管结合”的基本立场或许能够为面向数字时代的高等教育长治久安提供参考。
[参 考 文 献]
[1] Educators Battle Plagiarism As 89% Of Students Admit To Using OpenAI's ChatGPT For Homework Chris Westfall[EB/OL].(2023-01-28)[2024-5-11].https://www.forbes.com/sites/chriswestfall/2023/01/28/educators-battle-plagiarism-as-89-of-students-admit-to-using-open-ais-chatgpt-for-homework/.
[2] 郭剑英.ChatGPT冲击波已来,高等教育应做好准备[N].中国社会科学报,2023-01-14(9).
[3] 丁磊.生成式人工智能:AIGC的逻辑与应用[M].北京:中信出版集团,2023:5.
[4] 王正青,阿衣布恩·别尔力克.ChatGPT升级:GPT-4应用于未来大学教学的可能价值与陷阱[J].现代远距离教育,2023(7):3-11.
[5] 港大禁用ChatGPT等AI工具 为全港大学首例[EB/OL].(2023-02-28)[2024-5-11].https://news.cctv.com/2023/02/18/ARTIuUEtF2v60iUtd2ZsFSNt230218.shtml.
[6] 王悠然.利用ChatGPT优势完成教育目标[N].中国社会科学报,2023-03-31(5).
[7] 乌尔里希·贝克.风险社会:一种新的现代化之路[M].张文杰 ,何博闻,译.南京:译林出版社,2018:9.
[8] 彭椿庭.ChatGPT对教育意味着什么——代表委员热议人工智能技术对教育的影响[N].中国教育报,2023-03-05(11).
[9] 吴刚.从工具性思维到人工智能思维——教育技术的危机与教育技术学的转型[J].开放教育研究,2018(2):51.
[10] 李芒,石君齐.靠不住的诺言:技术之于学习的神话[J].开放教育研究,2020(1):14.
[11] 卡尔·贝内迪克特·弗雷.技术陷阱:从工业革命到 AI 时代技术创新下的资本劳动与权力[M].贺笑,译.北京:民主与建设出版社,2021:25.
[12] 苏令.人工智能时代需要怎么样的教师[N].中国教育报,2018-05-17(3).
[13] 刘艳红.人工智能的可解释性与AI的法律责任问题研究[J].法治与社会发展,2022(1):79.
[14] 习近平总书记向国际人工智能与教育大会致贺信[EB/OL].(2019-05-16)[2024-5-11].http://www.xinhuanet.com/politics/leaders/2019-05/16/c_1124502111.htm.
The Combination of Laissez-Faire and Regulation on Higher Education Response to the Impact of Large-Scale Language Models and Its Development
Chen Xinzhe
Abstract: Large-scale pre-training language models invade higher education through the active use of students, leading to a triple crisis of knowledge, integrity and values. Its huge application prospect and the established fact of a large number of users indicate that the ban is not feasible. The existing products are still in the rapid iteration period, coupled with the lack of mature governance schemes, so it is too early to encourage promotion. The regulation of the large model should establish the position of combining laissez-faire and regulation, insisting on doing something and not doing something. On the one hand, the public authority should restrain the impulse of regulation, properly indulge in wait-and-see, and precisely regulate only some necessary matters; On the other hand, private subjects such as teachers, students and enterprises are encouraged to explore autonomous measures and guide large models to positively empower higher education. In the future “teacher-student-machine” trinity education model, the central position of teachers will not be weakened, but will be enhanced.
Key words:large-scale pre-training language model; higher education; ChatGPT; artificial intelligence
责任编辑:陈星宇