在DCGAN中,判别器的激活函数可以使用Leaky ReLU,而不采用Sigmoid的原因是以下哪个?
A: 生成器的任务重,减少计算量。
B: 增加生成样本的多样性。
C: 防止判别器在训练过程中发生梯度消失。
D: 判别器的任务是分类,而不是生成假样本。
A: 生成器的任务重,减少计算量。
B: 增加生成样本的多样性。
C: 防止判别器在训练过程中发生梯度消失。
D: 判别器的任务是分类,而不是生成假样本。
举一反三
- 下面两个图分别是生成对抗网络中判别器训练阶段和生成器阶段的原理图,则 [img=777x268]18032cb9fced3c9.png[/img] 图1[img=833x290]18032cba0e1812d.png[/img] 图2 A: 图1是训练判别器 B: 图1是训练生成器 C: 图2是训练判别器 D: 图2是训练生成器
- 生成对抗网络主要包含两个部分:生成器和判别器网络。
- 生成对抗网络(GAN)的判别器要区分真样本和假样本,因此GAN是一种监督学习算法。 A: 正确 B: 错误
- 训练神经网络时,以下哪种激活函数最容易造成梯度消失: ( ) A: tanh B: sigmoid C: ReLU D: leaky ReLU
- 下列关于无监督式学习模型的描述不正确的是( )。 A: 用生成方法生成的模型是生成模型 B: 深度信念网络模型是由多个感知机堆叠而成的 C: 用判别方法生成的模型是判别模型 D: 生成对抗网络模型是由生成器和判别器组成的