• 2022-07-01
    GoogLeNet中1X1卷积核的作用是控制输入的通道个数,减少卷积操作参数,还能起到shortcut的作用
  • 内容

    • 0

      以下有关卷积神经网络的说法,哪些是错误的? A: 卷积核中的取值在训练过程中不会发生变化。 B: 共享权重大大减少了参数的个数,降低了网络的复杂度。 C: 增加卷积核的大小和通道的个数,可以提升特征获取的能力,但同时速度可能会降低。 D: 卷积核变大会减少网络需要优化的参数。

    • 1

      假设输入图像矩阵为X,卷积核为K。使用valid卷积方式进行卷积运算,其移动步长为1,计算卷积结果。[img=460x124]17e449c0431f5ec.png[/img]

    • 2

      卷积神经网络中某一层使用的He权重初始化与以下哪些参数有关? A: 卷积核的高 B: 卷积核的宽 C: 前一层特征图的大小 D: 卷积核的个数

    • 3

      神经网络卷积运算的本质是____________,卷积核的参数实际上就是神经元输入的____________。

    • 4

      现有一个两层的卷积神经网络,第一层是常规的卷积层,输入输出的通道数为3和64,卷积核大小为3×3;第二层是分组卷积层(group convolution layer),分为4组,输入输出通道数为64和32,卷积核大小为3×3。则该网络的参数个数为()