新知一下
海量新知
6 3 0 1 8 5 0

【GAN优化】如何选好正则项让你的GAN收敛

有三AI | 三人行,必有AI 2019/09/16 12:43

今天讲述的内容还是GAN的训练,也是最后一期,做几个简单的小实验,告诉大家怎么给GAN加正则项,使得你的GAN尽可能收敛。其实今天的内容本来还是与动力学结合很紧密,但是考虑到复杂的数学内容可能有害无益,我就将数学部分都删除了,只展示最直观的结果。




作者&编辑 | 小米粥

上一期我们说了关于GAN收敛的这样一件事情:如果矢量场v的雅可比矩阵的特征值的实部为负数,且学习速率足够小,则GAN会局部收敛到纳什均衡点。假设学习速率确实足够小,单纯考虑特征值的问题。在纳什均衡点,特征值的实数部分能否出现负数?这件事情是与目标函数息息相关的,因为雅可比矩阵的一般形式如下:

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

不难料想,如果生成器和判别器的目标函数f和g选取得当,上述矩阵的特征值的实数部分确实有可能为负数。今天用一个小实验来盘点一下,到底哪些GAN,哪些目标函数可能收敛。

1. Dirac-GAN

我们将使用一个极其简单的Dirac-GAN模型作为测试对象,在一维空间中,训练数据只有一个点,其位置固定在x=0;生成器只包含一个参数θ,生成样本的位置在x=θ,如下图所示:

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

判别器为一个简单的线性函数与激活函数复合的形式

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

包括一个参数φ ,其中f为激活函数。通过选择不同的激活函数f(t)可对应于不同的GAN形式,使用Sigmoid函数

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

可获得原始形式,而选择

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

可以得到WGAN的形式。Dirac-GAN的纳什均衡点为(0,0),即生成的样本与训练数据重合。

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

接下来,我们依次观察不同的GAN能否收敛到均衡点。需要说明,实际情况远远复杂于Dirac-GAN,样本不只是一维也不可能只存在一个样本点,我们只是通过它来直观说明一些问题,得到一些启示。

2. 标准GAN与WGAN

2.1 标准GAN


标准GAN即Goodfellow首次提出的GAN的标准形式,其损失函数的表达式为:

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

在Dirac-GAN中,对应的损失函数成为:

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

相应的动力学系统:

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

采用梯度下降法发现其并不收敛:

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

2.2 WGAN


WGAN改进了概率分布之间的距离的度量,其损失函数的表达式为:

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

在Dirac-GAN中,对应的损失函数成为:

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

这里有一个简化处理,假设当训练到一定程度时,φ处于0附近,其值自然小于1,满足Lipschitz限制。若只要关心其收敛情况,这样的假设是合理的。相应的动力学系统:

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

采用梯度下降法则发现其并不收敛:

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

其实,与简单的Dirac-GAN的实验结果一致,无论是标准形式的GAN或者WGAN,从理论上证明,发现在纳什均衡点(0,0),其特征值为f'(0)i和-f'(0)i,均不包含实部。根据之前的理论,参数轨迹确实不应该表现为收敛,而且可以进一步证明,它在(0,0)附近的轨迹表现为“圆”,缺乏向纳什均衡点靠拢的“向心力”。


可以说,现在的问题不是选择什么样的f(t),不是用fGAN或者WGAN的问题了,而是如何调整目标函数,也就是如何添加正则项,从而能解决特征值实部为负数的问题。

3. WGAN-GP

采用惩罚项的WGAN-GP是一种解决1-Lipschitz限制的软方法,其损失函数的表达式为:

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

在Dirac-GAN中,对应的损失函数成为:

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

相应的动力学系统:

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

采用梯度下降法则发现其也不收敛,说明这个正则项加的“不太好”。

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

4. 一致优化

一致优化是一种理论上比较“有保证”的GAN,具体内容在上一期进行过详细描述,以标准的GAN+一致优化正则项为例,其损失函数的表达式为:

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

在Dirac-GAN中,对应的损失函数成为:

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

相应的动力学系统:

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

结果有点复杂,但是确实在Dirac-GAN中精确收敛至(0,0):

新知达人, 【GAN优化】如何选好正则项让你的GAN收敛

正如上一期所说,实际情况中必须保证学习速率要足够小,而且要比较好地控制超参数,才可能收敛。

5. zero centered gradient

所谓zero centered gradient与WGAN-GP非常相近,就是添加正则项使判别器对输入的梯度接近一个常数,只不过在WGAN-GP中我们选择常数为1,而这里选择常数为0。(至于为何选择0,这里不展开,以后有机会补充。)再细分下来,又包括两种添加正则项的方法,一种是在真实数据上施加惩罚项,另一种是在生成数据上施加惩罚项。


如果选择在真实数据上施加惩罚项,则其损失函数的表达式为:

如果选择在生成数据上施加惩罚项,则其损失函数的表达式为:

无论如何,其在Dirac-GAN中,对应的损失函数均表示为:

相应的动力学系统:

采用梯度下降法则发现其收敛:

这一个简单将1改为0,使结果产生了巨大的变化,其实这一改变也正是Wasserstein散度的理论结果,注意这不是WGAN中的Wasserstein距离


综上,我们可以带有启发性得说,如果你的fGAN或者WGAN训练过程不收敛,试一下一致优化正则项或者zero centered gradient正则项吧。


[1] Mescheder L , Nowozin S , Geiger A . The Numerics of GANs[J]. 2017.

[2] Mescheder L , Geiger A , Nowozin S . Which Training Methods for GANs do actually Converge?[J]. 2018.

总结


这篇文章用了一个非常简单且直观的Dirac-GAN进行实验,首先说明了标准的GAN或者WGAN是无法收敛到纳什均衡的,需要添加正则项。接下来,WGAN-GP也无法收敛,而一致优化正则项和zero centered gradient可以实现收敛,这为我们提供了很好的启示。


有三AI夏季划进行中,欢迎了解并加入,系统性成长为中级CV算法工程师。


转载文章请后台联系

侵权必究

更多“GAN”相关内容

更多“GAN”相关内容

新知精选

更多新知精选