【摘要】:本书4.2节介绍的深度神经网络微调是最简单的迁移方法,它针对目标域数据和任务,对利用大规模源域数据训练好的网络模型进行参数调整,使之适应于目标域。为了解决不同域之间数据分布的不一致性[即域偏移]问题,一系列深度神经网络自适应迁移方法[31-34]被提出。不同的自适应迁移方法具有不同形式的域适应损失。下面介绍几种经典的神经网络自适应迁移方法。
本书4.2节介绍的深度神经网络微调是最简单的迁移方法,它针对目标域数据和任务,对利用大规模源域数据训练好的网络模型进行参数调整,使之适应于目标域。微调迁移实现简单、计算高效,但无法处理源域数据和目标域数据分布不同的情况。为了解决不同域之间数据分布的不一致性[即域偏移(domain shift)]问题,一系列深度神经网络自适应迁移方法[31-34]被提出。这些方法的基本思想是在神经网络中设计增加自适应层,将源域与目标域的数据分布尽可能靠近以减少域偏移,从而提升模型迁移效果。在设计自适应层时,首先需要分析神经网络的哪些层适合进行自适应迁移,即设计网络结构。其次需要制订具体实施迁移的自适应策略,即设计训练网络的损失函数。以面向分类任务的卷积神经网络为例,通常选择网络的后几层进行迁移,因为在前几层学到的特征可以认为是与任务无关的通用特征,其本身就具有良好的可迁移性。随着网络层次加深,后几层网络更偏重于学习任务特定的特征(special feature),其可迁移性较弱。训练网络的损失函数通常由分类损失和域适应损失组成:
其中,Xs为源域数据;Ys为源域数据标注;Xt为目标域数据;λ为平衡两类不同损失的系数。Lc(Xs,Ys)表示在源域数据中的分类损失,通常为交叉熵损失。LA(Xs,Xt)表示使源域数据分布和目标域数据分布尽可能靠近的域适应损失,是网络具有自适应能力的关键所在。不同的自适应迁移方法具有不同形式的域适应损失。下面介绍几种经典的神经网络自适应迁移方法。(www.daowen.com)
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。
有关迁移学习基础及应用的文章