• 2022-07-27
    以下说法正确的是哪些?
    A: 使用ReLU做为激活函数,可有效地防止梯度爆炸
    B: 使用Sigmoid做为激活函数,较容易出现梯度消失
    C: 使用Batch Normalization层,可有效地防止梯度爆炸
    D: 使用参数weight decay,在一程度上可防止模型过拟合