APP下载

少样本学习

2020-12-16张艺超侯艳杰陈君华

关键词:类别标签分类

张艺超,侯艳杰,陈君华,唐 轶

(1.中国科学院 西安光学精密机械研究所光谱成像技术重点实验室,陕西 西安 710119;2.中国科学院大学,北京 100049;3.太原卫星发射中心,山西 太原 030027;4.云南民族大学 云南省高校物联网应用技术重点实验室,云南 昆明 650500)

近年来,由于计算设备不断更新,ImageNet等[1]大规模数据集的不断涌现,以及卷积神经网络(convolutional neural network,CNN)[2]等先进的模型和算法层出不穷,人工智能在很多领域的做到了和人类能力相近的程度,甚至在一些任务上已多次击败人类.虽然人工智能发展飞速,但其在执行任务之前仍然需要一些重要的先决条件,其中之一就是对数据量的要求.现有人工智能大多需要在大量的数据中学习先验知识,如果数据匮乏,将会大大影响其性能.人类具有可以迅速将他们学到的东西迁移到新任务的能力[3].例如,已经在之前学习过猫特征的人类,可以利用少量的描述轻松将知识迁移到对老虎的识别上.人类可以将他们过去学到的东西与新的样本结合起来迅速推广到新的任务.而现有人工智能却很难做到这一点,其仍依赖于大规模数据.

因此如何能适应样本数量少的情况,成为减小人工智能与人类差距的重要研究方向.为了从有限的监督信息中学习以获得在新任务上的泛化能力,出现了一种称为少样本学习(few-shot learning,FSL)的新机器学习问题[4-10].当只有1个有监督信息的样本时,这时的少样本学习也被称为单样本学习(one-shot learning,OSL)问题[11-12].

能否进行少样本学习可以作为其是否为真正意义人工智能的检验标准.它首先适用于那些人类已经容易理解的任务,以便像人类一样充分学习.字符识别一个最简单的例子[13],其中要求计算机程序分类,解析并生成新的手写字符.为了处理这个任务,可以将字符分解成可在字符之间迁移的较小部分,然后将这些较小的部分聚合成新的字符.这是一种像人类一样学习的方式.当然,少样本学习推进了机器人技术的发展,其目标是开发可以复制人类行为的机器,以便在某些情况下取代人类,例如视觉导航等[14].

另外,对数据的标注常常需要花费大量的人力及时间成本,少样本学习还可以帮助减轻工业用途中收集大规模具有监督信息数据的负担.人类可以轻松识别数万类别的数据,其中为机器收集每个类别的足够图像是非常费力,甚至无法办到的.少样本学习可以帮助减少这些数据密集型应用程序的数据收集工作,例如图像分类[15]、目标跟踪[16]、图像检索[17]、手势识别[18]、图像字幕及视觉问题回答[19]以及语言建模[20]等任务.当模型和算法成功实现少样本学习时,自然也可以应用于具有大量样本的数据集,高效的学习效率使得其能够更好地利用数据,更高效、准确地完成学习任务.

1 少样本学习概况

1.1 定义与问题描述

一般来说,基于少样本学习的分类任务中,具有3个数据集:训练集,支持集和测试集. 支持集和测试集共享相同的标签空间,但是训练集具有自己的标签空间,该标签空间与支持/测试集不相交.如果支持集包含每个C个独立的类别,每个类别K个标记样本,则目标域的少样本学习问题则被称为C类别K样本(C-way K-shot)问题.

在仅有支持集的情况下,其实也可以训练分类器,为测试集中的每个样本分配1个类别标签.但是,由于支持集中缺少有标签样本,这种分类器的性能通常不令人满意.主要原因是深度模型结构中存在大量参数,而在样本数量很小的情况下,极易出现过拟合问题.因此,大多数旨在对训练集进行训练以提取可迁移的先验知识,从而能够对支持集进行更好的少样本学习,更成功地对测试集进行分类.

1.2 相关学习问题

少样本学习相关学习问题包括:半监督学习、样本不平衡学习、迁移学习以及元学习.这些学习问题都与少样本学习密切相关,甚至具有交叉、包含关系,在核心原理以及任务的数据特征上具有共通之处.

1.2.1 半监督学习

半监督学习[21-22]通过经验E学习输入x到输出y的最优映射,在经验E的学习过程中,数据包括有标签的和无标签的样本.通常无标签的样本数量很大,而标记样本相较于有监督信息的样本来说,规模很小,这样就面临数据不平衡问题.一般来说,很多方法首先对输入x的空间上的无监督数据进行聚类,然后将聚类分离,构造决策边界.用这种方法学习可以比单独使用少样本的有标签数据有更好的准确性.另一种流行的半监督学习的特殊情况是主动学习,它选择有信息的无标签数据来寻找输出y.

1.2.2 数据不平衡学习

不平衡学习[23]通过经验E学习,其输出y的分布严重偏斜.输出y的值很难获取,样本个数太少时,就会发生这种情况.它被训练以及测试用于寻找所有可能的输出y.相比之下,少样本学习训练时只需要少量样本就可以训练y,而可能将其他y作为先验知识来帮助学习,并且利用少样本便可预测输出y.

1.2.3 迁移学习

迁移学习[24]将从具有充足监督信息的源域和源任务中学习的知识迁移到监督信息有限的目标域和目标任务,其利用到了源域与目标域数据或源任务与目标任务间的相关性.它已用于跨域推荐、跨时间段、跨空间问题.域自适应是1种迁移学习,任务相同但领域不同.与少样本学习密切相关的另一个迁移学习问题是零样本学习[25](zero-shot learning,ZSL).少样本学习和零样本学习都是迁移学习中的极端情况,因为它们需要迁移从其他任务或领域学到的先验知识.少样本学习在先验知识的帮助下设法从有限的训练样本中学习,而零样本学习用来自其他数据源的先验知识来构造假设h,或者自行构造监督信息,可以识别没有提供监督的新任务.由于缺少监督信息,因此类之间的联系是从其他数据源中提取的.它适用于很难获得监督样本或成本昂贵的情况.例如,在图像分类中,这种关系可以由人注释,或者从文本语料库中提取或从词法数据库中提取.

1.2.4 元学习

通过任务T的数据集和元学习器跨任务提取的元知识来提高任务T上的性能P被称作元学习[26](meta-learing)或“学习如何学习(learn to learn)”.在这里,学习发生在2个层次:①元学习器学习跨任务的通用信息,可以被称作为元知识;②一般学习器使用元学习器与特定于任务的信息快速概括新任务T.其主要应用于学习优化算法,强化学习和少样本学习问题.简单来讲,元学习器给出映射的大概轮廓,再通过一般的学习器学习到具体的映射,可以说少样本学习是元学习在有监督问题上的一个应用.

1.3 主要应用场景

现有工作主要涉及计算机视觉应用,如字符识别和图像分类.这是因为视觉信息容易获取,在多样本学习中得到了广泛的检验.有许多成熟的技术可以转化为少样本学习.此外,视觉信息的表现也很容易被人类理解.例如,给一个人少量生成图像样本,让人类决定它是否像真的.目前,字符识别和图像分类的两个基准数据集Ominiglot和miniImageNet已经获得了很高的精度,几乎没有什么空间可以改进.因此,可以探索更多的计算机视觉应用,如图像检索、目标跟踪、手势识别、图像字幕和视觉问答.细粒度分类也是现在少样本学习的一个重要应用,其能够在一个大类中对更细化的样本进行分类.

除了计算机视觉应用外,其他领域也开始逐渐使用少样本学习方法的思想.在人工智能的另一大分支自然语言处理中,也出现了少样本翻译[27]和少样本语言建模[28]的应用.另外,通过在新环境中从有限的经验中强化学习来指导机器人行为和人工智能与人类进行游戏对战也开始引起人们的广泛注意.

2 基于迁移学习的少样本学习方法

如章节1.2.3中介绍,迁移学习主要解决跨域学习任务,在源域中学习丰富的先验知识,在目标域中进行诸如分类、识别等任务,这与大多数少样本学习问题的目标高度吻合.对于少样本学习,由于目标域中的样本数量很少,因此从源域中学习到一个好的先验就显得格外重要.主流迁移学习方法分为2大类,其中包括基于域自适应的少样本学习方法以及基于转导推理的少样本学习方法.

2.1 基于域自适应的少样本学习方法

基于域自适应的少样本学习方法,分别是基于深度域自适应的少样本学习方法以及基于移动语义迁移网络的少样本学习方法.2种方法都致力于解决源域与目标域间产生的域漂移问题,为后续如何更好地利用域自适应方法解决少样本学习问题提供了一定启发.

2.1.1 基于深度域自适应的少样本学习方法

Ganin和Lempitsky[28]提出了基于深度域自适应的少样本学习方法.该方法可以在源域中的大量标记数据和目标域中的大量未标记数据上进行训练.随着训练的进行,该方法促进了深层特征的出现,这些深层特征是:①区分源域上的主要学习任务;②关于域之间的转换是不变的.该方法通过在前馈模型中增加几个标准层和一个简单的新的梯度反转层,就可以实现这种域自适应行为,并且使用标准的反向传播训练生成的增强架构.该方法对深度学习的框架没有特定要求,使用任何深度学习框架都可以轻松实现该方法.

图1为深度域自适应的模型结构示意图[28],图中绿色部分为深层特征提取器,蓝色部分其深层标签预测器,两者共同构成一个标准的前馈体系结构.通过添加通过梯度反转层连接到图中红色标出的特征提取器中的域分类模块来实现无监督域自适应,该梯度分类器在基于反向传播的训练过程中将梯度乘以某个负常数.否则,训练将以标准方式进行,并将对于源域样本的标签预测损失和对于所有样本的域分类损失最小化.梯度反转可确保使两个域上的特征分布相似,从而产生域不变特征.

图1 深度域自适应方法框架

2.1.2 基于移动语义迁移网络的少样本学习方法

Xie等[29]提出了一种基于移动语义迁移网络(moving semantic transfer network,MSTN)的少样本学习方法.先前的域自适应方法通过对齐源域和目标域之间的全局分布统计信息来解决此问题,但是这样做的缺点是会使得样本中所包含的丰富语义信息被忽视,例如,目标域中背包的特征可能会映射到特征附近源域中的汽车上.在文献[29]中,作者提出了移动语义转移网络,该网络通过对齐有标签样本的源质心和伪标签的目标域质心来学习未标记目标样本的语义表示.预期将同一类别但不同领域中的要素映射到附近,从而提高目标分类的准确性.另外,作者还设计了移动平均质心对齐方式,以补偿每个小样本批次中不足的类别信息.具体网络结构如图2所示.

图2 移动语义迁移网络结构

图2为移动语义迁移网络结构示意图[29],值得注意的是,该结构除了标准的源分类损失,还使用了域对抗性损失来对齐2个域的分布.与以前的仅在域级别匹配分布的域自适应方法不同,该方法在类级别匹配分布并在语义上对齐特征,而无需任何目标域标签,可以做零样本学习.使用质心对齐来指导特征提取器在对齐域中保留目标域中样本的类信息,设计的移动平均质心解决了小批次处理可能不足以覆盖每个训练步骤中所有类分布的问题.

2.2 基于转导推理的少样本学习方法

转导推理方法在遇到训练样本的数量远小于测试样本的情况,性能比归纳推理要出色很多,转导推理能利用无标签测试样本的信息发现聚簇,进而可以更准确地进行分类.

2.2.1 基于传播语义迁移的少样本学习方法

Rohrbach等[30]提出了基于传播语义迁移的少样本学习方法.该方法将迁移学习与半监督学习进行了扩展,以利用没有或只有几个有标签的新类别的无标签样本.提出的方法“传播语义转移”主要有3个贡献:①通过结合外部知识,例如通过语义属性的中间层,将信息从已知类别转移到新类别;②利用了新类别的流形结构.更具体地说,将迄今为止仅用于半监督学习的基于图的学习算法调整为零样本和样本学习方法;③通过将基于原始特征的表示替换为中间的基于对象或属性的表示,来改进此类图结构中的局部邻域.

图3为语义传播网络核心思想示意图[30],该结构主要利用语义知识迁移、少样本及其样本间的相似性来进行更准确地预测.该方法利用无标签样本数据分布中的相似性,将语义知识的传递扩展到转导推理.该方法不仅可以进行零样本学习,并通过使用训练后的属性和类别模型将数据映射到低维语义输出空间中,改进了原始特征空间中的局部邻域结构.

图3 语义传播网络核心思想示意图

2.2.2 基于标签传递的少样本学习方法

Liu等[31]提出了1种转导推理传播网络(transductive propagation network,TPN).该网络是一种新颖的用于转导推理的元学习框架,该框架可对整个测试集进行单一样本分类以缓解数据量少的问题.通过利用数据中流形结构的图形构造模块将标签从有标签样本传播到无标签测试样本.提出的转导推理传播网络是一种端到端网络,同时学习特征嵌入的参数和图形构造.

图4为标签传播网络的结构示意图[31],该网络由4部分组成:①用卷积神经网络嵌入特征;②生成示例参数以利用流形结构的图的构造;③标签传播,将标签从支持集传播到查询集;④损失生成步骤,计算传播的标签和上的真实结果(groundtruth)之间的交叉熵损失,以共同训练框架中的所有参数.

图4 标签传播网络的结构

3 基于元学习的少样本学习方法

基于元学习的少样本学习方法,分为基于梯度的元学习方法及基于度量学习的元学习方法,这2类方法从不同角度实现了少样本学习的目的.

3.1 基于梯度的元学习方法

基于梯度的元学习方法最具代表性的是Finn等[32]提出的1种模型无关元学习(model-agnostic meta-learning,MAML)方法.在此方法的基础上,出现了一些衍生模型,其中包括Kim等[28]提出的基于贝叶斯模型的MAML方法(Bayesian MAML)以及Xu等[29]提出的基于概率模型的MAML方法(probabilistic MAML).这些方法都致力于利用更好的梯度下降让模型具有快速适应新任务的泛化能力.

3.1.1 模型无关元学习方法

Finn等[32]提出了1种模型无关元学习(model-agnostic meta-learning,MAML)方法[32].该方法使得可以在小量样本上,用很少的迭代步骤获得很好的泛化能力.在面对新任务时,该模型是容易进行微调(fine-tune)的,在这个过程中不需要为元学习增加新的参数.该方法无需关心模型的形式,不需要对模型做出任何假设,直接用梯度下降来训练学习器.

核心思想是学习模型的初始化参数使得在一步或几步迭代后在新任务上的精度最大化.它学的不是模型参数的更新函数或是规则,不局限于参数的规模和模型架构.它本质上是为了学习一个好的特征使得可以适合很多任务(包括分类、回归、增强学习),并通过微调来获得好的效果,图5是MAML核心思想的示意图.

图5中表示任务1的梯度方向,表示任务1的参数.文章提出的方法,对模型类型没有任何要求,可以用于学习任意标准模型的参数,并让该模型能快速地适应新任务.文章认为在学习过程中的中间表达更加适合进行迁移,神经网络的内部特征就是一种比较有代表性的中间表达.一般情况下,在进行新任务时,需要基于梯度下降策略在新的任务上进行微调.该模型希望能从之前任务上快速地进行梯度下降至新的任务,并且不会出现过拟合现象的模型.力求找到一些对任务变化敏感的参数,使得当改变梯度方向时,微小的参数改动也会产生较大的损失,通过这样达到减少微调时迭代次数的目的.

图5 MAML示意图

3.1.2 贝叶斯模型无关元学习方法

Kim等[33]在MAML的基础上提出了1种贝叶斯MAML(Bayesian MAML),由于模型本身的不确定性,学习从一个小样本数据集中推断贝叶斯后验是实现鲁棒元学习的重要一步.这篇文章中提出了1种新的贝叶斯MAML方法.该方法将基于梯度的元学习与非参数变分推理结合在1个概率框架中.与以往的方法不同,该方法在快速自适应过程中,能够学习简单高斯逼近之外的复杂不确定性结构.在元更新过程中,采用了1种新的贝叶斯机制来防止过拟合.与MAML相同,它仍然是1种基于梯度的方法.它是第1个适用于包括强化学习在内的各种任务的贝叶斯模型无关元学习方法.实验结果表明,该方法在正弦回归、图像分类、主动学习和增强学习等方面均具有较好的准确性和鲁棒性.

3.1.3 概率模型无关元学习方法

Xu等[34]提出了1种基于概率模型的MAML方法(probabilistic MAML),该方法可以从模型分布中为新任务采样模型.用于少样本学习的元学习方法需要获得先前任务和经验的先验,以便从少量数据中学习新任务.但是,少样本学习中的一个关键挑战是任务模糊性:即使可以从大量先前的任务中元学习到强大的先验知识,但用于新任务的小数据集也可能太含糊而无法获取单个模型用于准确的任务.该方法扩展了MAML,可通过梯度下降适应新任务,以结合通过变分下界训练的参数分布.在元测试时,该算法通过一个简单的过程进行自适应,该过程将噪声注入梯度下降.而在元训练时,对模型进行训练,以使这种随机自适应过程从近似模型后验中产生样本.

本文将MAML重新定义为图模型推理问题,其中变分推理可以提供一种原理性和自然性的模型,用于对不确定性和歧义性进行建模.本文方法能够在元测试时对少样本学习问题采样多个潜在解决方案.

3.2 基于度量学习的元学习方法

本小节主要介绍4种基于度量学习的元学习方法用于少样本学习任务,其中包括:基于孪生网络[35](siamese neural networks)、匹配网络[15](matching networks)、原型网络[29](prototypical networks)及关系网络[37](relation network)的少样本学习方法.

3.2.1 基于孪生网络的少样本学习方法

Koch等[35]提出了1种基于孪生网络(siamese neural networks)的少样本学习方法.本文方法采用独特的结构对输入之间的相似性进行排名.对网络进行适当调整后,便可以利用其强大的判别功能,将网络训练出的预测能力迁移至新数据中,包括未知分布中的全新类别.

孪生网络是1个双路的神经网络.在最上层通过样本之间的距离来判断样本是否属于同一类别.本文使用常用优化方法对从源数据采样的对进行训练,利用深度学习框架,提供了1种不依赖于特定域知识的方法,可以利用源域中的大量样本及目标域中少量样本达到很好的分类结果.

3.2.2 基于匹配网络的少样本学习方法

Vinyals等[15]提出了1种基于匹配网络的少样本学习方法.之前的分析曾提到,如果将一般的深度模型直接用于少样本分类问题,很容易造成过拟合,因为深度学习模型中,常常具有成千上万的参数.因此Vinyals等[15]设计了1种非参数学习方法,其主要的贡献体现在建模以及训练过程中的创新上,神经网络中的非参数结构使网络更容易适应相同任务中的新训练集.

图6为匹配网络的结构示意图,本文除了定义了适合单一样本学习的模型和训练标准方面做出的贡献外,还通过定义可用于对ImageNet和小规模语言建模的其他方法进行基准测试的任务做出了一定贡献.

图6 匹配网络的结构示意图

3.2.3 基于原型网络的少样本学习方法

Snell等[36]提出了一种基于原型网络(prototypical networks)的少样本学习方法.提出的原型网络适用于少样本及零样本学习.本文详细分析了模型中使用的基础距离函数.该方法将原型网络与聚类相关联,以证明在以布雷格曼散度计算距离(例如平方欧几里得距离)时,将类均值用作原型是合理的.作者在实践中发现距离的选择至关重要,在该方法中选用欧几里得距离效果远胜过更常用的余弦相似度.

图7为原型网络核心思想示意图.原型网络学习一个度量空间,在这个空间中,可以通过计算到每个类的原型所表示的距离来执行分类.

图7 原型网络核心思想[36]

3.2.4 基于关系网络的少样本学习方法

Sung等[37]提出了1种2分支关系网络(relation net,RN),该网络通过学习将查询图像与少量有标签样本图像进行比较,从而执行少样本识别.首先,嵌入模块生成查询和训练图像的表达.然后,由关系模块比较这些嵌入,以确定它们是否来自匹配的类别.嵌入和关系模块均是端到端元学习的,以支持少样本学习.其结构中包括一个可学习的非线性比较器,而不是固定的线性比较器.该方法相较以前的方法更简单和更快(没有采用微调策略).提出的策略还可以直接推广到零样本学习.

图8为关系网络结构图,主体结构分为嵌入模块和关系模块.提出关系网络学习用于比较查询项和样本项的嵌入和深度非线性距离度量.通过训练对网络进行端到端训练可以调整嵌入和距离度量,从而实现有效的少样本学习.

4 实验

首先对少样本学习常用数据集合评价指标进行介绍,然后展示一些主流少样本学习方法在分类任务上的实验结果并加以分析.

4.1 数据集和评价指标

Omniglot数据集[38]是由Brenden Lake及其合作者在MIT通过Amazon的Mechanical Turk收集的,提供标准的基准,以进行手写字符识别领域中的少样本学习.Omniglot涵盖来自50个样本字母范围,从成熟的国际语言到鲜为人知的方言.它还包括一些虚构的字符集,例如Aurek-Besh和Klingon.每个字母中的字母数量从大约15个字符到最多40个字符不等.Lake将数据分为40个字母背景集和10个字母评估集.背景集用于通过学习超参数和特征映射来建立模型,而评估集仅用于测试少样本分类性能.

图8 关系网络结构图

miniImageNet数据集[15]是ImageNet的用于少样本图像识别的子集数据库.它由从Imagenet中随机选择的100个类别组成,每个类别包含600个样本.多数少样本学习方法在实验过程中,均依据Ravi和Larochelle[34]使用的类划分,其中包括64个训练类,16个验证类和20个测试类,所有图像大小均调整为84×84像素.

评价指标则采用传统的分类精度对各方法的少样本学习性能进行评估.

4.2 实验结果与分析

通过对测试集中随机生成的 1 000 多次分类结果进行平均,计算了Omniglot数据集上少样本学习分类的准确性.对于1样本和5样本实验,每类分别批处理1幅和5幅查询图像,以便在测试过程中进行评估.结果显示在表1中.Omniglot数据集上在比较了孪生网络、匹配网络、原型网络、模型无关元学习方法及关系网络的分类性能.

表1 Omniglot数据集上少样本分类性能

Omniglot数据集上进行实验的6种方法均为基于元学习的少样本分类方法.可以从表1中看出,多种少样本学习方法在数据量很小的情况下,都表现出了不错的分类性能.在20类5样本的实验中,未经过微调的孪生网络模型的分类精度为96.5%,经过微调的孪生网络模型的分类精度为97.0%,具有记忆机制的孪生网络模型的分类精度为98.6%.可以看出针对于孪生网络模型来说,微调操作以及记忆机制都为性能的提升提供了一些帮助.未经过微调的匹配网络模型的分类精度为98.5%,而经过微调的匹配网络模型的分类精度为98.7%,微调操作使其分类性能取得了微小的提升.原型网络、模型无关元学习方法及关系网络的分类精度分别为98.9%、(98.9±0.2)%及(99.1±0.1)%.其中,关系网络表现出了最优异的性能,并且没有使用微调操作.

另外,miniImagenet数据集上少样本分类性能展示在表2中,遵循大多数现有的少样本学习工作采用的标准设置,进行了5类别的1样本和5样本分类.5类别1样本实验中包含15个查询图像,而5类别5样本实验则包含10个查询图像.这意味着在一个训练批次中有15张5×5+15×5=80张图像用于5类别1样本实验.将输入图像的大小调整为84×84.所有模型是从头开始进行端到端训练的,具有随机初始化功能,没有其他训练集辅助学习.在miniImagenet数据集上,比较了匹配网络、原型网络、模型无关元学习方法、关系网络及基于转导推理的标签传播模型的少样本分类性能.

表2 miniImagenet数据集上少样本分类性能

从表2中各方法的分类性能中可以看出,在miniImagenet数据集上进行少样本分类难度要比在Omniglot数据集上大很多,因为miniImagenet数据集上的样本更加多样,这说明了虽然现有少样本学习方法已经展现出一定效果,但是其性能仍有很大上升空间.其中,匹配网络、原型网络、模型无关元学习方法及关系网络为基于元学习的少样本学习方法,在5类别5样本的实验中,分类精度从(55.31±0.73%)到(65.32±0.70%).而基于转导推理的标签传播模型是基于迁移学习的少样本学习方法,分类精度达到69.43%,基于转导推理的标签传播模型取得了最优效果.

5 结语

少样本学习(few-shot learning,FSL)是重要的机器学习问题,可促进真正人工智能的发展.在本文中,对各类少样本学习方法进行了全面而系统的回顾.首先就诸如半监督学习、数据不平衡学习、迁移学习和元学习之类的相关学习问题讨论了与少样本学习的相关性和差异.另外,本文进行了广泛的文献综述,并通过全面比较将其归类为不同类别.迁移学习主要解决跨域学习任务,在源域中学习丰富的先验知识,在目标域中进行诸如分类、识别等任务;元学习通过元学习器学习跨任务的通用信息,可以被称作为元知识,基于梯度的元学习方法及基于度量学习的元学习方法,这2类方法从不同角度实现了少样本学习的目的.希望能够对解决少样本学习问题提供一些启发,并有一天实现真正意义上的人工智能.

猜你喜欢

类别标签分类
分类算一算
分类讨论求坐标
无惧标签 Alfa Romeo Giulia 200HP
数据分析中的分类讨论
不害怕撕掉标签的人,都活出了真正的漂亮
教你一招:数的分类
标签化伤害了谁
服务类别
基于多进制查询树的多标签识别方法
论类别股东会