在有标签训练数据稀缺的情况下,利用不可见类的属性生成不可见类的视觉特征是一种很有前景的数据增强方法。为了学习CNN特征的类别条件分布,这些模型依赖于图像特征和类别属性对。因此,它们无法利用大量的没有数据样本。在文献[26]中,Xian等在一个统一的特征生成框架中处理零样本和少样本学习问题,在归纳式和直推式学习设置下都可以操作。他们结合了VAE和GAN的优势,建立条件生成模型VAE-GAN,并通过无条件判别器学习没有标签图像的边缘特征分布。
Xian等在5个广泛使用的零样本学习数据集中验证了VAE-GAN模型,即Caltech-UCSD-Birds(CUB)、Oxford Flowers(FLO)、SUN Attribute(SUN)和Animals with Attributes2(AWA2)、其中,CUB、FLO和SUN是中等规模的细粒度数据集。AWA2是一个粗粒度的数据集。最后,他们也在大规模细粒度ImageNet数据集上评估了该模型。
Xian等提出的消融研究中,在归纳式和直推式两种学习设置下都使用GAN、VAE或VAE-GAN,实验结果如表4.4所示,结论如下。在归纳式情况下,VAE-GAN比GAN和VAE更有优势,ZSL条件下GAN和VAE分别为59.1%和58.4%,VAE-GAN为61.0%。在训练集(即直推式迁移学习设置)中加入没有标签的样本对所有生成模型都是有利的。在直推式条件下,GAN和VAE的处理效果相似,ZSL的处理效果分别为67.3%和68.9%。他们提出的VAE-GAN模型取得了最好的结果,即在ZSL中71.1%和在GZSL中63.2%,这证实了VAE和GAN学习的特征是起到互补作用的。
表4.4 在CUB上不同生成模型的效果[26](www.daowen.com)
表4.5给出了VAE-GAN和最新模型比较的结果,Xian等在ZSL和GZSL设置下的4个零样本学习数据集上,将VAE-GAN与最近表现最好的方法进行了比较。在归纳式ZSL设置中,他们的模型无论有无微调都优于所有数据集的最先进水平。具有微调特征的模型建立了新的最先进水平,即在CUB上72.9%,在FLO上70.4%,在SUN上65.6%,在AWA2上70.3%。对于直推式ZSL设置,UE-finetune[27]的值为72.1%,优于他们没有微调的模型的71.1%。然而,当他们对模型进行微调后,该模型在直推式ZSL设置中达到了新的最先进的水平,即在CUB上82.6%,在FLO上95.4%,在SUN上72.6%,在AWA2上89.3%。
表4.5 VAE-GAN和最新模型的比较[26] 单位:%
在GZSL设置中,可以观察到在特征生成的方法中,即模型CLSWGAN[28]、SEGZSL[29]、Cycle-CLSWGAN[30]比其他方法获得更好的结果。原因如下,通过特征生成的数据增加可以产生一个更平衡的数据分布,这样学习分类器就不会偏向于可见类。尽管UEfinetune不是一个特征生成方法,但由于该模型使用了额外的信息,取得了很好的效果,即它假设没有标签的测试样本总是来自不可见类。然而,经过微调的模型分别在CUB、FLO、SUN和AWA2上得到77.3%的调和均值(H)、94.1%的H、47.2%的H和87.5%的H,显著高于所有前人的研究成果。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。