AlexNet是第一个现代深度卷积网络模型,首次使用了很多现代深度卷积网络的技术方法,模型特点不包括
A: 采用的非线性激活函数:ReLU
B: 防止过拟合方法:Dropout,数据扩充(Data augmentation)
C: 多GPU实现,LRN归一化层的使用
D: 引入1×1的卷积核,在不影响输入输出维度的情况下,引入非线性变换,增加网络的表达能力,降低计算量。
A: 采用的非线性激活函数:ReLU
B: 防止过拟合方法:Dropout,数据扩充(Data augmentation)
C: 多GPU实现,LRN归一化层的使用
D: 引入1×1的卷积核,在不影响输入输出维度的情况下,引入非线性变换,增加网络的表达能力,降低计算量。
举一反三
- AlexNet模型的特点在于()。 A: 首次应用ReLu激活函数 B: 在卷积层中应用Dropout C: 首次应用了局部响应归一化 D: 使用GPU进行加速运算
- 对于AlexNet的描述,以下正确的是( )。 A: 使用两台GPU B: 有5层卷积层 C: 有3层全连接层 D: 使用relu激活函数、dropout理论
- 深度学习算法中,网络模型通过数据学习的是() A: A.网络深度 B: B.卷积核尺寸 C: C.激活函数 D: D.参数
- 下面哪些关于卷积神经网络的说法是错误的? A: ReLU非线性激活函数的收敛速度比Sigmoid快一些 B: 在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力 C: 激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数 D: 输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
- 有关卷积神经网络的说法哪个是正确的? A: 卷积核越大越好 B: 不同卷积层或同一卷积层只能用一种大小的卷积核 C: 在卷积层之前使用池化操作,可以减少卷积层参数量 D: 类似AlexNet网络使用的分组卷积可以增加卷积层的参数量