AlexNet 这项工作的贡献有:( )。
A: 在训练的时候使用 Dropout 技术有选择地忽视单个神经元,以避免模型过拟合
B: 覆盖进行较大池化,避免平均池化的平均化效果
C: 使用修正的线性单元(ReLU)作为非线性激活函数
D: 使用 GPU NVIDIA GTX 580 减少训练时间
A: 在训练的时候使用 Dropout 技术有选择地忽视单个神经元,以避免模型过拟合
B: 覆盖进行较大池化,避免平均池化的平均化效果
C: 使用修正的线性单元(ReLU)作为非线性激活函数
D: 使用 GPU NVIDIA GTX 580 减少训练时间
举一反三
- 以下哪个不是AlexNet的创新点? A: dropout B: Relu激活函数和重叠池化 C: 双GPU训练 D: 共享权重
- 以下哪个是AlexNet的创新点? A: 共享权重 B: dropout C: Relu激活函数和重叠池化 D: 双GPU训练(分组卷积)
- AlexNet相对于LeNet,其显著的变化是 A: 使用了更多的卷积层 B: 使用最大池化代替了平均池化 C: 使用比5*5更大和更小的卷积核 D: 使用了ReLU代替了Sigmoid激活函数 E: 在全连接层使用了丢弃法(dropout) F: 使用了数据增强技术
- 下面关于池化的描述中,正确的的说法有哪些? A: 池化方法也可以自定义 B: 池化在CNN中没有增加可训练的参数,但减少较多的计算量,加快模型训练时间 C: 在人脸识别中采用较多池化的原因是为了获得人脸部的高层特征 D: 池化的常用方法包括最大化池化、最小化池化、平均化池化、全局池化
- 下面关于池化的描述中,错误的是______。 A: 池化在CNN中可以减少较多的计算量,加快模型训练 B: 池化的常用方法主要包括最大化池化和平均化池化 C: 池化之后图像的尺寸没有变化 D: 池化方法可以自定义