Note - Adversarial Dropout Regularization

Title

Saito, Kuniaki, et al. “Adversarial dropout regularization.” ICLR-18.

Motivation

现有的对抗domain adaption方法只将不同领域样本的特征区分开来,不能保证特征具有可判别性,因此当样本特征位于分类边界附近时就会失效。原来的对抗domain adaptation方法包含两个空间,一个是任务的分类空间,另一个是领域特征的空间,判别器只能在领域特征空间区别特征,因此生成器的生成的特征也仅仅是领域可判别,而无法保证分类可判别。当目标领域样本处于分类边界附近时,模型仍然会失效。而处于分类边界的样本,对分类边界的变化应当是很敏感的,这可以直接反映在概率分布的变化上。远离分类边界的样本,概率分布相对稳定;靠近分类边界的样本,概率分布容易随着分类边界的变化产生明显改变。

Notes

模型由特征提取器G和分类器Classifier组成,与之前工作不同的是,Classifier同时还作为判别器Critic。首先对G(x)G(x)应用2个dropout,得到判别器的两个概率分布p1p_1p2p_2,接着Critic最大化其差距,G最小化其差距,从而促使生成器生成领域不变的特征。靠近边界的样本对分布变化最敏感,所以d(p1,p2)d(p_1,p_2)会比其他样本更高。在混合领域样本的对抗训练中,Critic能够检测靠近边界的样本,G则为了欺骗Critic,将这些样本推离边界,从而生成具有判别性的领域不变特征。

训练过程:

  1. 用标准分类损失更新G和Classifier:

maxG,CL(Xs,Ys)=Exs,ys(Xs,Ys)k=1KyslnC(G(xs))\max_{G,C} L(X_s,Y_s) = \mathbb{E}_{x_s,y_s \sim (X_s,Y_s)} \sum_{k=1}^K y_s \ln C(G(x_s))

  1. 训练Critic检测靠近分类边界的样本,同时保证学习到源领域判别性特征:

minCL(Xs,Ys)Ladv(Xt)\min_C L(X_s,Y_s) - L_{adv}(X_t)

Ladv(Xt)=ExtXtd(p1,p2)L_{adv}(X_t) = \mathbb{E}_{x_t \sim X_t} d(p_1, p_2)

因为使用了dropout,所以相当于是对每个样本xtx_t,随机选择2个领域分类器Critic_1和Critic_2来得到p1p_1p2p_2

  1. 训练G,将样本推离分类边界:

minGLadv(Xt)\min_G L_{adv}(X_t)

Results

作者在图片分类和目标分类的无监督领域自适应任务上实验,效果显著。

Thoughts

利用dropout,将每次drop后的结果视为不同网络的输出。