• 2022-06-04
    下面哪些关于卷积神经网络的说法是错误的?
    A: ReLU非线性激活函数的收敛速度比Sigmoid快一些
    B: 在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力
    C: 激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数
    D: 输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)