APP下载

前言

2021-11-23郑庆华

计算机研究与发展 2021年12期
关键词:图谱样本注意力

以深度学习为代表的人工智能取得突破性进展,然而海量的参数与复杂的处理机制,使得人类很难追溯与理解推理过程,导致这类端到端的黑箱学习方法不可解释,造成“知其然,不知其所以然”.由此引发人们对算法可信性、公平性产生质疑,甚至造成伦理、法律等问题,影响了黑箱人工智能方法在无人驾驶、精准医疗、智能交通等高风险决策工程中的大规模应用.可解释性问题是打开黑箱人工智能方法、构建新一代人工智能理论的关键问题之一.可解释智能学习方法既要给出结果,同时也能提供计算推理过程所形成的证据链.

本期专题得到同行的广泛关注,通过公开征文收到36篇高质量投稿稿件和1篇特邀稿件,这些论文涉及可解释的机器/深度学习模型、决策过程及预测结果的解释、符号规则与深度学习的融合等多个主题研究,阐述了可解释智能学习方法及其应用的重要研究成果,展示了其与多领域深度融合的发展前景.本专题的审稿严格按照期刊审稿的要求进行,特邀编委先后邀请了20余位相关领域的专家参与评审,历经初审、复审、终审等阶段,最终遴选出8篇高质量的论文入选本专题.内容涵盖了可解释智能方法在无人驾驶、智能拆解、在线学习、智慧医疗、就业推荐、智能问答等方面的应用,在一定程度上反映了当前国内学者在可解释智能学习方法的代表性应用.

小样本学习旨在从极少的几个样本中学习样本特性,张玲玲等作者的论文“基于对比约束的可解释小样本学习”提出一种基于区域注意力机制的小样本分类网络INT-FSL,旨在揭示小样本分类中的2个关键问题:1)图像中哪些关键位置的视觉特征在决策中发挥了重要作用;2)这些关键位置的视觉特征能体现哪些类别的特性.此外,作者还尝试在每个小样本元任务中设计全局和局部2种对比学习机制,利用数据内部信息来缓解小样本场景中的监督信息匮乏问题.实验结果表明INT-FSL模型不仅能提升当前小样本学习方法的分类性能,还具备良好的过程可解释性.

无人驾驶系统综合了软件和硬件复杂的交互过程,深度强化学习常常被应用于无人驾驶系统决策中.然而,在面对没有经验的场景和复杂决策任务时,基于黑盒的深度强化学习系统并不能保证系统的安全性和复杂任务奖励函数设置的可解释性.王金永等作者的论文“面向无人驾驶时空同步约束制导的安全强化学习”提出了一种形式化时空同步约束制导的安全强化学习方法.首先,提出了一种形式化时空同步约束规约语言,接近自然语言的安全需求规约使奖励函数的设置更具有解释性.其次,展示了时空同步自动机和状态动作空间迁移系统,保证强化学习的状态行为策略更加安全.然后,提出了结合形式化时空约束制导的安全强化学习方法.论文通过无人驾驶汽车在高速场景变道超车的案例对方法进行了验证.

建立完善的动力电池回收利用体系是我国新能源汽车高质量发展需要突破的瓶颈问题之一,研究和发展智能化、柔性化、精细化的高效拆解技术是其中的重要环节.任伟等作者的论文“基于神经符号的动力电池拆解任务与运动规划”基于神经符号学理论对动态环境中动力电池的拆解任务进行研究,设计并实现了一套任务和运动规划系统,并基于该系统实现了在复杂多变的拆解工作环境中动力电池连接约束件的智能拆解.

知识追踪任务通过建模用户的习题作答序列跟踪其认知状态,进而预测其下一时刻的答题情况,实现对用户知识掌握程度的智能评估.刘坤佳等作者的论文“可解释深度知识追踪模型”提出了一个可解释的深度知识追踪框架.首先引入习题的上下文信息挖掘习题与知识点间的隐含关系,得到更有表征能力的习题与知识点表示,然后建模用户答题序列获得其当前知识状态,并以此学习个性化注意力,进而得到当前习题基于用户知识状态的个性化表示.最后,对于预测结果,依据个性化注意力选择一条推理路径作为其解释.孙建文等作者的论文“基于多层注意力网络的可解释认知追踪方法”提出一种基于多层注意力网络的认知追踪模型.通过挖掘题目之间多维度、深层次的语义关联信息,建立一种包含题目元素、语义和记录等3层注意力的网络结构,利用图注意神经网络和自注意力机制等对题目进行嵌入表示、语义融合和记录检索.特别是在损失函数中引入提升模型可解释性的正则化项与权衡因子,实现对模型预测性能与可解释强度的调控.

深度学习是当前医疗多变量时序数据分析的主流方法,但是临床辅助决策关乎病人生命健康,需要模型具有足够的可解释性.马连韬等作者的论文“Dr.Deep:基于医疗特征上下文学习的患者健康状态可解释评估”提出了一种多通道健康上下文表示学习方法,将各变量的时序特征分别编码,利用多头去协同的自注意力机制学习不同特征之间关联关系;通过基于压缩激励机制的特征跳连编码,提升模型对最新病情变化的敏感性.实验表明,Dr.Deep在重症监护患者脓毒症预测、新冠肺炎重症患者出院时间预测等任务中相比业界方法性能有提升,且可以针对不同患者的不同指标自适应学习其重要性作为可解释性的关键因素.

基于协同过滤和隐因子模型的大学生就业推荐方法对推荐结果的可解释性需求不够友好,朱海萍等作者的论文“基于互惠性约束的可解释就业推荐方法”设计并构建了基于互惠性约束的可解释就业推荐方法.通过引入注意力机制与模糊门机制,提取并自适应聚合学生与就业单位双向的偏好与需求,缓解“能力失配”问题;并提出一种面向就业意图和就业特征的推荐解释方法.

知识图谱问答中,自然语言问句结构与知识图谱结构之间的语义匹配是一个具有挑战的研究问题.孙亚伟等作者的论文“基于图匹配网络的可解释知识图谱复杂问答方法”提出一种基于图匹配网络的知识图谱复杂问答方法TTQA.首先,通过语法分析方法构建一个与知识图谱无关的未定查询图;然后,依据未定查询图和给定的知识图谱,构建一个与知识图谱相关的已定查询图,通过结合预训练语言模型和图神经网络技术,再利用注意力机制,从而得到更加丰富的结构匹配表示,用于已定查询图预测.实验结果表明TTQA生成的未定结构图和已定查询图增强了问答系统可解释性.

承蒙各位作者、审稿专家、编辑部各方面的全力支持,本专题得以顺利出版.在审稿过程中难免出现不尽人意之处,希望各位作者和读者包容谅解,同时也请各位同行不吝批评指正.期望本专题的出版能给广大相关领域研究人员带来启发和帮助.

猜你喜欢

图谱样本注意力
基于图对比注意力网络的知识图谱补全
“植物界大熊猫”完整基因组图谱首次发布
让注意力“飞”回来
规划·样本
图表
人大专题询问之“方城样本”
随机微分方程的样本Lyapunov二次型估计
A Beautiful Way Of Looking At Things
“官员写作”的四个样本
中国知名官方智库图谱