中国科技核心期刊      中国指挥与控制学会会刊     军事装备类重点期刊
理论研究

关于迁移学习中的负迁移方向研究

  • 李永盛 ,
  • 何佳洲 ,
  • 赵国清 ,
  • 刘义海
展开
  • 江苏自动化研究所, 江苏 连云港 222061

李永盛(1992—),男,河南上蔡县人,硕士研究生,研究方向为迁移学习,视频目标检测等。

何佳洲(1966—),男,博士生导师,研究员。

Copy editor: 胡前进

收稿日期: 2019-10-16

  修回日期: 2019-12-03

  网络出版日期: 2022-05-10

The Research on Negative Transfer in Transfer Learning

  • LI Yong-sheng ,
  • HE Jia-zhou ,
  • ZHAO Guo-qing ,
  • LIU Yi-hai
Expand
  • Jiangsu Automation Research Institute, Lianyungang 222061, China

Received date: 2019-10-16

  Revised date: 2019-12-03

  Online published: 2022-05-10

摘要

迁移学习在面临小样本数据时,具有很好的处理效果,是当前人工智能研究的热门方向之一。然而迁移学习在实际应用中,发现存在着很多问题,其中特别是负迁移现象,使得迁移学习的效果不佳。先介绍了迁移学习的概念和研究现状,然后提出解决负迁移问题的三个方向,包括多源领域数据学习、增加目标领域的样本数量、减少领域间的数据分布差异,并且依据这三个方向汇总了改善负迁移的相关研究工作。最后展望了其他一些关于改善负迁移问题的方向,为后人深入研究负迁移问题时提供一些参考。

本文引用格式

李永盛 , 何佳洲 , 赵国清 , 刘义海 . 关于迁移学习中的负迁移方向研究[J]. 指挥控制与仿真, 2020 , 42(4) : 28 -33 . DOI: 10.3969/j.issn.1673-3819.2020.04.006

Abstract

When faced with small sample data, transfer learning has a good processing effect, which is one of the hot research directions of artificial intelligence.However, it is found that there are many problems in the practical application of transfer learning, especially the negative transfer phenomenon, which makes the transfer learning effect not good. In this article, we firstly review the concept of transfer learning and the research status, and then put forward three directions to solve the problem of negative transfer, including multi-source domain data learning, increasing the number of samples in the target domain, and reducing the data differences between domains. And we summarize the related research work to improve negative transfer based on the three directions.Finally, some other directions on improving negative transfer learning are looked forward to, which can provide some references for future generations to further study negative transfer.

迁移学习能高效准确地处理小样本数据得到广泛地研究和使用。传统机器学习要求有大量的新数据,同时必须满足新旧数据同分布。这种要求是非常苛刻的,在实际应用中,企业面临的是如何处理小数据,并且往往也无法满足新旧数据同分布的条件。此时企业面临一个难题,该如何使用旧数据和新数据。与传统机器学习相比,迁移学习可以允许两个新旧数据之间有较大的差异,并且在新标注数据较少情况下,它仍然可以获得良好效果[1]

1 迁移学习

简单地说,将在旧领域上的知识运用到新领域上,帮助新领域进行训练学习,这就是迁移学习。通常,把旧领域叫作源域,用字母Ds来表示;把新领域叫作目标域[2],用字母DT来表示。源任务是指机器已经掌握的相对于新任务不同的数据集,用字母Ts表示;目标任务是指机器要学习的新任务的数据集,用字母TT表示。Pan J等人[3]根据两领域间相似度,分成归纳迁移学习、无监督迁移学习和直推式迁移学习,如表1所示。Lu等人[4]根据迁移学习技术的发展,将迁移学习分为四类:基于神经网络的迁移学习、基于贝叶斯的迁移学习、模糊转移学习和基于计算智能的迁移学习。
表1 传统学习与迁移学习的对比
学习方式 Ds&DT Ts&TT
传统学习 相同 相同
归纳迁移学习 相同/相关 相关
迁移学习 无监督迁移学习 相关 相关
直推式迁移学习 相关 相同
迁移学习是近些年来的研究热点之一,目前已在较多方面取得研究进展。Dai等人[5]针对文本处理问题,提出了一种基于聚类的分类算法,在共享相同词特征的不同领域之间,进行知识迁移,提高了传统学习算法的分类性能。Zhu等人[6]在图像处理方面,提出了一种异构迁移学习方法,把图像上的标签信息作为图像和文本之间的桥梁,从而达到更好的图像分类效果。Zhou等人[7]在智能规划方面,提出了一种迁移学习框架TRAMP,通过建立目标域和源域之间的结构映射来迁移知识。宋鹏等人[8]在语音情感识别方面,提出一种基于特征迁移学习的跨库语音情感识别方法,通过最大均值差异嵌入MMD描述不同数据库之间的特征分布相似度,同时通过半监督判别分析方法SDA进行特征降维,实验表明能有效提高语音情感识别率。

2 负迁移

本文将负迁移定义为:已有的经验知识会影响新知识的学习。如何解决负迁移问题,是在研究迁移学习中不可回避的问题。在学者们研究工作的基础上[9-36],根据迁移学习的特点,把改善负迁移的方法分为三类。
1)增加有效的源域知识数量。迁移的有效知识经验越丰富,学习效果就会相对越好。因此,可以考虑通过综合更多有效的源域一起学习,进而改善迁移学习。本文中,介绍的方法是多源域数据学习[9-19]
2)增加目标领域的样本数量。迁移学习就是为了解决小数据样本,但是由于训练学习样本数量少,会容易导致迁移失败。如果能够大量增加样本数量,那么就可以改善负迁移。本文中,主要介绍了两种方法,即多任务学习[20-24]和生成对抗网络学习[25-27]
3)减少领域间的数据分布差异。数据分布差异大小是影响迁移学习的根本原因。通常认为,数据分布差异越大,负迁移现象就会越严重。解决数据分布差异问题,一方面通过度量领域间的相似性,选择数据分布差异小的源域;另一方面,可以将源域和目标域的数据,先进行一次特征提取,从而减少数据间的差异,然后再进行知识迁移。本文中,主要介绍了两种方法,即稀疏字典学习法[28-33]和图正则化迁移学习[34-36]

3 研究负迁移的相关工作

3.1 多源领域数据学习

根据源领域的个数,迁移学习分为单个源领域和多源领域。单个源领域的经验知识总是有限的,有时不能足够有效地给予目标领域学习帮助,因此可以想到结合多个源领域的知识,帮助目标域完成任务,从而使得迁移学习结果变得更加可靠。
根据Sun等人[9]的研究,可以将多源域迁移学习划分为两大类。1)将不同源域训练学习得到的分类器进行加权组合,典型算法有MCC-SVM算法[10]和A-SVM算法[11];2)进一步考虑对无标签目标数据的利用,典型算法有DAM[12]和DSM[13]等。
近几年,学者们进行了许多关于多源域的迁移学习研究。Yao等人[14]提出了两个新算法MultiSource-TrAdaBoost和 TaskTrAdaBoost,实验结果表明随着源域数量的增加,负迁移大大减少。Gao等人[15]提出了一种多模型局部结构映射方案,根据目标样本的分布特性来设置来自多个源领域的学习模型的权重。Luo等人[16-17]提出了一致性正则化框架,进一步地挖掘多源域数据的内部信息。季鼎承等人[18]提出了基于域与样例平衡的多源迁移学习方法,其思想是把域和样例两个层面进行双加权平衡,然后加入到迁移学习的目标函数中。刘振等人[19]提出了一种基于多重相似性的多源域迁移学习方法,先从域-域和样本-域这两个层面刻画目标域和多个源域的相关性,然后根据平滑性流形假设,实现从源域到目标域的知识迁移。

3.2 增加目标领域的样本数量

3.2.1 多任务学习

在单任务学习中,如果用于训练的样本数据数量有限,则容易出现泛化能力差的结果。1994 年, Caruana[20] 提出了多任务学习。多任务学习的前提是假设不同任务的样本数据具有相似性,而单任务学习只使用了单个任务的样本数据,那么多任务学习使用了它们所有的样本数据,等于扩大了训练数据集,并且还可以平均多任务之间各自的噪声差异,大大提高了泛化能力。由于多任务学习的目的不一定都一样,所以不能简单地视为合并成一个新任务,它本质上是属于多任务联合学习。图1显示的参数共享机制是多任务深度学习中比较常见的一种方式。如果多个任务间有相关联的数据信息,那么多任务学习是有效的,反之会影响原来的学习效果。
图1 多任务深度学习中的参数共享机制
Ben-David 和 Schuler[21]研究了多任务学习中具有共同特征的相关任务集,提出了生成框模型以及误差界限。2005年,Carroll 和 Seppi等人[22]提出了度量任务相似性的指标,比如时间、策略覆盖、Q值和奖赏结构等。2008年,Mahmud 和 Ray[23]采用贝叶斯的观点来计算任务相似度,很好地解决了任务相似度的度量。Zheng等人[24]提出了一种多任务学习算法,先假设潜在特征空间的学习是相似的,采用交替优化方法进行迭代学习特征映射和设备的多任务回归模型,并证明了其有效性。
目前的多任务学习是狭义的,因为它们需要结合专业知识,来设计任务之间的信息交互迁移形式。而广义的多任务学习,应该是在数据差异性很大时,仍能实现有效迁移。

3.2.2 生成对抗网络学习

为了便于理解生成对抗网络学习,先举一个简单的例子。假设有一台印钞机负责生成假钞,同时另外一台验钞机负责鉴别钞票的真伪。若验钞机能鉴别出假钞,则印钞机进行修改;若验钞机鉴别假钞失败,则验钞机进行修改。如此往复循环,在两台机器的对抗中,印钞机的造假能力越来越高,验钞机的鉴别能力越来越强,最后形成的效果是印钞机可生成以假乱真的假钞。那么,由此联想到小样本数据问题,既然样本数量少是关键因素,那么能否有一个生成模型可以像印钞机生成假钞那样去伪造样本数据?基于这种对抗的学习思想,生成对抗网络便产生了。
生成对抗网络GAN,是由Goodfellow等人[25]提出的生成模型,如图2所示。
图2 生成对抗网络结构
GAN由生成器G和判别器D组成。把从某个分布中采样的随机噪声z作为生成器G的输入,生成器G努力拟合真实数据x的分布,期望能够欺骗判别器D。然后把真实数据x和生成数据G(z)一起输入判别器D,让判别器D区分样本数据来源于哪个部分。它们进行相互对抗学习,然后不停地迭代更新,直至达到判别器D无法准确地区分生成样本和真实样本为止。在此期间不需要做任何近似推理,也无须采样过程,它是直接进行新样本的采样。通过生成对抗网络学习,可以获得大量近似真实数据的样本,解决了如何生成有效样本数据的难题,从而弥补了目标领域中样本数据少的不足。另外,生成器不是简单地复制真实样本数据,由于它是从随机噪声产生的,所以也增加了生成样本的多样性。
臧文华[26]提出了两种对抗迁移学习算法。一种是基于残差的对抗迁移学习算法RAN,利用对抗的方法对齐两个域的特征,同时分类器能自适应,得到区分性更好的特征。另一种是基于特征和标签的联合分布对抗迁移学习算法FLAN,利用对抗学习匹配两个域之间的联合分布,增强了特征的区分性。满子健[27]将生成对抗网络GAN和变分自编码器VAE结合起来,利用迭代学习训练促使生成器去学习真实图像的数据分布,能明显改善生成图像的质量及多样性。

3.3 减少领域间的数据分布差异

3.3.1 稀疏字典学习法

稀疏表示理论,基于其优秀的数据特征表示能力和对数据特征的自动提取,在许多领域取到了较好的效果。稀疏字典是稀疏表示理论中的关键部分[28],直接影响稀疏编码的性能。
面临大数据时代,实现大规模数据的迁移是一件棘手的事情,因为海量的数据里面包含了大量的冗余信息,既含有有用信息也含有无用信息。而稀疏字典学习方法[29]可以将海量数据压缩为字典,那么字典代表了数据中最本质的基本信息,此时再进行知识的迁移就会变得容易。它先在目标领域的数据字典中找出判别性的原子,再根据初始目标聚类中心,从源领域中找出与目标判别性原子相似的特征知识,将其迁移到目标字典中,增强目标字典的判别性。若结合多源域学习,则可进一步降低负迁移的可能性。
学者们已经对稀疏字典学习方法进行了诸多研究。Chen等人[30]提出了一种基于深度卷积神经网络的视觉情感分类方法,是从网络照片的标签中自动挖掘原子信息,作为检测图像情感的有效统计线索,取得了显著效果。Wright等人[31]基于稀疏表示方法,提出了一种通用的基于图像的目标识别分类算法,为解决人脸识别中的特征选择问题提供了新的方法。Ma Y等人[32]详细介绍了稀疏信号表示和计算机实际之间的相互作用,并在自然图像分割方面进行应用,实验结果显示降低了错误率。崔鹏等人[33]结合稀疏编码和背景差分进行行人检测,提出了一种新的迁移学习框架,通过稀疏编码对所有样本进行权重分配,实验结果比其他传统方法取得了显著提高。

3.3.2 图正则化迁移学习

研究分析数据时,通常会得到数据的统计信息和几何信息。简单来讲,数据的统计信息[34]是指对数据的描述性统计,比如数据的样本均值或方差等。而数据的几何信息[35]与数据里面嵌入的流形有关,它是描述数据的内在分布。它们是从不同的角度来关注原始数据,在描述原始数据信息时具有相互补充的作用。所以将数据的统计信息和几何信息结合起来,可以提高潜在因子的平滑性,进而改善迁移学习。
基于数据的统计信息和几何信息两方面的考虑,Mingsheng Long等人[36]提出了一种图形正则化迁移学习GTL。图正则化联合矩阵分解框架如图3所示,其中 D s表示源域, D t表示目标域。以源域 D s为例, G s u表示源域的特征图,用来保持特征空间的几何结构,而 G s v表示源域的样例图[37],用来保持样例空间的几何结构。 U s D s的隐含语义,则特征聚类矩阵 U s = [ u * 1 s , , u * c s ]中的每列 u * i s代表一个隐含语义; V s D s的类别表示,样例类别矩阵 V s = [ v * 1 s , , v * c s ]中的每列 v * i s表示一个样例类别。因此, U s V s是由源数据矩阵在特征空间与样例空间协同聚类形成的[38] H表示两域共享的U和V结构关联,如图3所示。
图3 图正则化联合矩阵分解框架
众所周知,非负矩阵分解技术[39](NMF)是处理多维数据的有效工具之一,在聚类处理方面有着极大地优势。而GTL,它是一种通用的模型框架,可以使用多种矩阵分解模型,如NMF和Semi-NMF[40],都能容易地集成到GTL框架中来解决迁移学习问题。另外,在每个领域内进行图正则化,可以保持各自领域内的几何流形结构不被领域外的知识结构破坏。
关于迁移学习,当源领域和目标领域的差异足够大时,Qiang Yang等人认为需要保留源域和目标域的几何结构。这样即使两领域间传递的公共因子相冲突,也不会破坏目标域的几何结构。在GTL[36]里,通过保留跨域的统计信息来提取共同的潜在因素,同时通过保留每个域的几何信息来细化潜在因素,从而缓解负迁移。

4 结束语

在实现对小数据集准确高效的学习方面,迁移学习有着天然的优势,是推动未来人工智能发展的重要技术,但负迁移的出现引起了学者们的广泛关注。在本文中为了解决负迁移问题,我们从源域、目标域、领域间数据分布差异三个方面展开分析,提出多源领域数据学习、增加目标领域的样本数量、减少领域间的数据分布差异等三个方向,并汇总了改善负迁移的相关研究工作。
随着对迁移学习的研究深入,下面方向在改善负迁移现象方面值得未来进一步研究。
1)寻找更好的度量领域间相似度的方法。在源域中无效数据样本的训练知识,在迁移时就会引起负迁移。通过相似度将源领域的数据划分为有效数据和无效数据,只把有效数据迁移到目标数据集中,增加目标数据集的数量,从而减弱负迁移。目前已经有人提出了一些相关算法,如Boosting算法[41]、TCSBoost算法[42]等,但这些算法都还有各自的局限。
2)多线索学习。之前考虑的迁移学习,大多是从一个源域到目标域,或者从多个源域到目标域,而忽视了对目标域数据的多方面研究。换个角度,是否可以考虑多线索地学习目标域的数据?根据集成学习思想,可以将最终的目标任务划分成若干个与目标任务相关的次任务,然后分别通过迁移学习得到每个次任务对应的单分类器,再通过权重策略将若干个单分类器整合得最终所需的目标任务的学习结果。罗娟等人[43]提出了基于迁移学习的多线索植物识别方法,先通过对植物的花、果、叶、株等进行学习得到四个单器官学习模型,然后通过组合这四个单器官学习模型得到植物最终的识别结果,实验证明识别准确率得到了显著提升。
3)多步传导式迁移学习。目前的迁移学习是指从领域A迁移到领域B,这是单步的迁移。而现实中有些迁移只能是先从领域A到领域C,再从领域C到领域B,它并不是简单地从领域A到领域B,而是多步传导的。由此可推,从源域到目标域的学习,是否也可以找到一个或多个中间层,使得它们既可以考虑到源域,又可以考虑到目标域?
4)层次型的迁移学习。卷积神经网络CNN最早由LeCun[44]提出,在此基础上,又陆续出现了AlexNet、ZF-Net、VGGNet、GoogleNet、ResNet、DenseNet[45]等。如今的深度学习,其神经网络可以多达几十层。经研究表明,卷积网络前几层提取的是基础特征,越往后提取的特征就越抽象。因此它表明不同层次的网络具有不同的迁移能力。在迁移源域的知识时,可以只迁移源域中前几层网络的卷积参数到目标域,而后面几层的网络参数通过小数据来训练学习得到。层次型的迁移学习已经在文本分类和图像识别方面获得了成功应用。
[1]
Patel V M, Gopalan R, Li R, et al. Visual Domain Adaptation: A Survey of Recent Advances[J]. Signal Processing Magazine, IEE, 2015(3): 53-69.

[2]
Fernando B, Habrard A, et al. Unsupervised Visual Domain Adaptation Using Subspace Alignment[A]. IEEE, 2013: 296-2967.

[3]
Pan J, Yang Q. A Survey On Transfer Learning[J]. Ieee Transactions On Knowledge And Data Engineering, 2010(10): 1345-1359.

[4]
Lu Jie. Transfer Learning Using Computational Intelligence: A Survey[J]. Knowledge-Based Systems, 2015(80): 14-23.

[5]
Dai Wy, Yang Q. Co-Clustering Based Classification for Out-of-Domain Documents[C]. In: Proceedings Of The 13th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. ACM, 2007: 210-2 19.

[6]
Zhu Y, Chen Y. Heterogeneous Transfer Learning for Image Classification[C]. In:Twenty-Fifth AAAI Conference on Artificial Intelligence, 2011:1304-1309.

[7]
Zhou Hh, Yang Q. Action-Model Acquisition for Planning Via Transfer Learning[J]. Artificial Intelligence, 2014(212): 80-103.

[8]
宋鹏, 郑文明, 赵力. 基于特征迁移学习方法的跨库语音情感识别[J]. 清华大学学报(自然科学版), 2016, 56(11):1179-1183.

[9]
Sun S L, Shi H L, Wu Y B. A Survey of Multi-Source Domain Adaptation[J]. Information Fusion, 2015, 24 (C): 84-92.

[10]
Schweikert, Gabriele. An Empirical Analysis of Domain Adaptation Algorithms for Genomic Sequence Analysis[C]. In:Advances in Neural Information Processing Systems, 2009:1433-1440.

[11]
Yan J, Yan R. Cross-Domain Video Concept Detection Using Adaptive Svms[C]. In:Proceedings of the 15th ACM International Conference on Multimedia.ACM, 2007: 188-197.

[12]
Duan L, Xu D, Tsang I W. Domain Adaptation from Multiple Sources: A Domain-Dependent Regularization Approach[J]. IEEE Transaction on Neural Networks and Learning System, 2012, 23(3): 504-518.

[13]
Weston, Jason. Inference With The Universum[C]. In:Proceedings of the 23rd International Conference on Machine Learning. ACM, 2006: 1009-1016.

[14]
Yao Y, Doretto. Boosting for Transfer Learning With Multiple Sources[C]. In:2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. IEEE, 2010: 1855-1862.

[15]
Gao J, Fan W, Jiang J, et al. Knowledge Transfer Via Multiple Model Local Structure Mapping[C]. In:Proc. Of The 13th ACM Int’L Conf. On Knowledge Discovery and Data Mining. New York: ACM Press, 2008: 283-291.

[16]
Luo P, Zhuang Fz, Xiong H, et al. Transfer Learning from Multiple Source Domains Via Consensus Regularization[C]. In:Proc. Of The 17th ACM Conf. On Information and Knowledge Management. New York: ACM Press, 2008: 103-112.

[17]
Fuzhen Zhuang, Ping Luo, Hui Xiong, et al. Cross-Domain Learning from Multiple Sources: A Consensus Regularization Perspective[J]. IEEE Transactions on Knowledge And Data Engineering, 2010, 22(12):1664-1678.

DOI

[18]
季鼎承, 蒋亦樟, 王士同. 基于域与样例平衡的多源迁移学习方法[J]. 电子学报, 2019, 47(3):692-699.

DOI

[19]
刘振, 杨俊安, 刘辉, 等. 基于域相关性与流形约束的多源域迁移学习分类算法[J]. 计算机应用研究, 2017, 34(2):351-356.

[20]
Caruana R. Learning Many Related Tasks at the Same Time With Backpropagation[C]. Advances in Neural Information Processing Systems. 1995: 657-664.

[21]
Shai Ben-David, Reba Schuller. Exploiting Task Relatedness For Multiple Task Learning[J]. Lecture Notes in Computer Science, 2003, 2777(1): 567-580.

[22]
Carroll J L, Seppi K. Task Similarity Measures for Transfer In Reinforcement Learning Task Libraries[C]. Proceedings 2005 IEE International Joint Conference on Neural Networks. IEEE, 2005, 2: 803-808.

[23]
Mahmud M M, Ray S. Transfer Learning Using Kolmogorov Complexity: Basic Theory and Empirical Evaluations[C]. Advances in Neural Information Processing Systems, 2008: 985-992.

[24]
Zheng VW, Pan SJ, Yang Q, et al. Transferring Multi-Device Localization Models Using Latent Multi-Task Learning[C]. In: Fox D,Gomes CP, Eds. Proc.Of The Aaai.Aaai Press, 2008: 1427-1432.

[25]
Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative Adversarial Nets[C]// Advances In Neural Information Processing Systems, 2014: 2672-2680.

[26]
臧文华. 基于生成对抗网络的迁移学习算法研究[D]. 成都:电子科技大学, 2018.

[27]
满子健. 基于迁移学习的生成对抗网络算法改进与应用[D]. 徐州:中国矿业大学, 2019.

[28]
Patel V M, Chellappa R. Sparse Representations, Compressive Sensing and Dictionaries for Pattern Recognition[C]. The First Asian Conference on Pattern Recognition. IEEE, 2011: 325-329.

[29]
Lecun Y, Bengio Y, Hinton G. Deep Learning[J]. Nature, 2015, 521(7553): 436-444.

DOI

[30]
Chen T, Borth D, Darrell T, et al. Deepsentibank: Visual Sentiment Concept Classification with Deep Convolutional Neural Networks[J]. Computer Science, 2014, 65(5): 1087-1095

[31]
Wright J, Yang A Y, Ganesh A, et al. Robust Face Recognition Via Sparse Representation[J]. Ieee Transactions on Pattern Analysis and Machine Intelligence, 2008, 31(2): 210-227.

DOI

[32]
Wright J, Ma Y, Mairal J, et al. Sparse Representation for Computer Vision and Pattern Recognition[J]. Proceedings of the IEEE, 2010, 98(6): 1031-1044.

DOI

[33]
崔鹏, 赵莎莎. 基于稀疏编码和背景差分的迁移学习行人检测算法[J]. 光电子·激光, 2018, 29(9):1012-1020.

[34]
Ding C, Li T, Peng W. Nonnegative Matrix Factorization and Probabilistic Latent Semantic Indexing:Equivalence Chi-Square Statistic, and A Hybrid Method[C]// AAAI. 2006, 42: 137-143.

[35]
Cai D, He X, Han J, et al. Graph Regularized Nonnegative Matrix Factorization for Data Representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 33(8): 1548-1560.

DOI

[36]
Mingsheng Long, Jianmin Wang, Guiguang Ding, et al. Transfer Learning with Graph Co-Regularization[J]. IEEE Transactions on Knowledge and Data Engineering, 2014, 26(7): 1805-1818.

DOI

[37]
Cai, Deng, et al. Graph Regularized Nonnegative Matrix Factorization for Data Representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 33(8): 1548-1560.

DOI

[38]
龙明盛. 迁移学习问题与方法研究[D]. 北京:清华大学, 2014.

[39]
Lee D D, Seung H S. Learning the Parts of Objects by Non-Negative Matrix Factorization[J]. Nature, 1999, 401(6755):788-791

DOI

[40]
Ding C H Q, Li T, Jordan M I. Convex and Semi-Nonnegative Matrix Factorizations[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2008, 32(1): 45-55.

DOI

[41]
Kim, Tae-Kyun, Roberto, et al. Making a Shallow Network Deep: Conversion of a Boosting Classifier Into a Decision Tree by Boolean Optimisation[J]. International Journal of Computer Vision, 2012, 100(2): 203-215.

DOI

[42]
Ryu D, Jang J I, Baik J. A Transfer Cost-Sensitive Boosting Approach for Cross-Project Defect Prediction[J]. Software Quality Journal, 2017, 25(1): 235-272.

DOI

[43]
罗娟. 多线索植物种类识别方法研究[D]. 陕西杨凌:西北农林科技大学, 2019.

[44]
Lecun Y, Bottou L, Bengio Y, et al. Gradient-Based Learning Applied to Document Recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.

DOI

[45]
Huang G, Liu Z, Van Der Maaten L, et al. Densely Connected Convolutional Networks[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 4700-4708.

文章导航

/