• 2022-07-22
    为什么最好的mini-batch的大小通常不是1也不是训练集总样本数m,而是介于两者之间 ?
    A: 如果mini-batch的大小是1,那么你需要遍历整个训练集后才能更新一次参数
    B: 如果mini-batch的大小是m,就是批量梯度下降。你需要遍历整个训练集来更新参数
    C: 如果mini-batch的大小是1,那么你将失去mini-batch将数据矢量化带来的的好处
    D: 如果mini-batch的大小是m,就是随机梯度下降,而这样做经常会比mini-batch慢
  • 举一反三