• 2022-06-04
    以下有关卷积神经网络的说法,哪些是错误的?
    A: 卷积核中的取值都是事先人工设计的,在网络的训练过程中不变化
    B: 共享权重大大减少了参数的个数,降低了网络的复杂度
    C: 通过增加卷积核的大小和通道的个数,可以提升卷积神经网络特征获取的能力
    D: 卷积核越大,即感受野越大,网络需要优化的参数越少,训练速度越快
  • A,A,D

    举一反三

    内容

    • 0

      有关卷积神经网络的说法哪个是正确的? A: 卷积核越大越好 B: 不同卷积层或同一卷积层只能用一种大小的卷积核 C: 在卷积层之前使用池化操作,可以减少卷积层参数量 D: 类似AlexNet网络使用的分组卷积可以增加卷积层的参数量

    • 1

      在卷积神经网络中,有些参数不能通过网络学习得到,需要自己定义,也就是我们常说的超级参数。以下属于超级参数的有( ) A: 卷积核的宽 B: 卷积核的高 C: 卷积步长 D: 其余全都是

    • 2

      以下关于卷积神经网络,说法正确的是 A: 卷积神经网络只能有一个卷积核 B: 卷积神经网络可以有多个卷积核,但是必须同大小 C: 卷积神经网络可以有多个卷积核,可以不同大小 D: 卷积神经网络不能使用在文本这种序列数据中

    • 3

      卷积神经网络中同一卷积层的所有卷积核是权重共享的。

    • 4

      在卷积网络中,卷积层的参数是卷积核和偏置,池化层没有参数,因此在误差反向传播时只要优化卷积层的参数。