理论教育 反向传播开集域适应方法在多个任务上取得性能优势

反向传播开集域适应方法在多个任务上取得性能优势

时间:2023-07-01 理论教育 版权反馈
【摘要】:从表5.7中可以看出,在3个迁移任务上,反向传播开集域适应方法均取得了比开集支持向量机方法更好的性能,尤其在域偏移更大的SVHN→MNIST任务上获得了33.6%的提升,充分验证了反向传播开集域适应方法的有效性。表5.8为开集域适应方法在Office-31数据集上以AlexNet网络为基础网络的性能。表5.9语义差异匹配开集域适应方法及其对比方法在I2AwA数据集上的性能[19]表5.10语义差异匹配开集域适应方法及其对比方法在I2WebV数据集上的性能[19]

反向传播开集域适应方法在多个任务上取得性能优势

1.常用数据集

为验证开集域适应方法的有效性,通常使用数字分类与图像分类任务进行实验。对于数字分类,常用数字图像数据集有MNIST数据集[22]、USPS数据集[23]与SVHN数据集[24]。对于图像分类,常用数据集是Office-31数据集[8]。上述数据集均在本书第4章中进行了阐述,不再赘述。

语义差异匹配开集域适应方法在小规模数据集I2AwA和大规模数据集I2WebV上进行了实验。I2AwA数据集的目标域是用于零样本学习的AwA2数据集[25],由50个动物类别组成,总共有37 322幅图像,每个类别平均有746幅图像。根据文献[25]中提出的划分,40个类被视为已知类别,其余10个类被视为未知类别。通过谷歌图像搜索引擎收集了40个已知类别的图像并手动去除噪声,构成有2 970幅图像的源域。I2WebV数据集的源域来自ILSVRC-(6)2012,其中有1 000个类别,总共包含1 279 847张图像,目标域是WebVision数据集的验证集[26],共有5 000个类,由294 009张图像组成。

2.实验结果

在数字分类任务上,反向传播开集域适应方法进行了以下3个迁移任务:①SVHN→MNIST:SVHN数据集为源域,MNIST数据集为目标域;②MNIST→USPS:MNIST数据集为源域,USPS数据集为目标域;③USPS→MNIST:USPS为源域,MNIST数据集为目标域。该实验采用开集支持向量机(OSVM)[27]作为基准方法进行对比,结果如表5.7所示。从表5.7中可以看出,在3个迁移任务上,反向传播开集域适应方法均取得了比开集支持向量机方法更好的性能,尤其在域偏移更大的SVHN→MNIST任务上获得了33.6%的提升,充分验证了反向传播开集域适应方法的有效性。

表5.7 反向传播开集域适应方法在数字分类任务上的性能[17,27] 单位:%(www.daowen.com)

在图像分类任务上,迭代分配变换开集域适应方法与反向传播开集域适应方法都在Office-31数据集上进行了实验,选取与Caltech-256数据集[11]共享的10个类别作为源域与目标域的共享类别,按照字母顺序,第21~31个类别被用作目标域的外部类别,第11~20个类别被用作源域的外部类别。Office-31数据集共包括3个域:Amazon(A),Webcam(W),DSLR(D)。以其中一个域为源域,一个域为目标域,共构建了6个迁移任务:A→W,W→A,D→A,A→D,W→D,D→W。表5.8为开集域适应方法在Office-31数据集上以AlexNet网络为基础网络的性能。从表5.8中可以看出,迭代分配变换开集域适应方法取得了更好的性能,因为在反向传播开集域适应的设定中源域没有属于外部类别的样本,分类任务难度更大,所以其性能比迭代分配变换开集域适应方法略低。

表5.8 开集域适应方法在Office-31数据集上以AlexNet网络为基础网络的性能[13,17]

语义差异匹配开集域适应方法在I2AwA数据集以及I2WebV数据集上进行了实验。该方法通过图卷积网络将已知类别的分类策略传播给未知类别,所以与zGCN[28]、dGCN[29]等同样利用图卷积网络生成未知类别分类器参数的零样本学习方法进行了对比。表5.9、表5.10分别为语义差异匹配开集域适应方法及其对比方法在I2AwA数据集以及I2WebV数据集上的性能,分别包括属于共享类别的目标域样本的分类准确率(表中的“共享类别”)、属于外部类别的目标域样本的分类准确率(表中的“外部类别”)以及目标域所有类别的分类准确率(表中的“所有类别”)。从表5.9和表5.10中的数据可以看出,语义差异匹配开集域适应方法表现出最好的性能。此外,由于缺少目标域外部类别的相应标注数据,外部类别的性能远低于共享类别的性能。

表5.9 语义差异匹配开集域适应方法及其对比方法在I2AwA数据集上的性能[19]

表5.10 语义差异匹配开集域适应方法及其对比方法在I2WebV数据集上的性能[19]

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈