常用的损失函数有那些()
A: 均方差
B: Sigmoid.交叉熵
C: Softmax交叉熵
D: Sparse交叉熵
E: 加权Sigmoid.交叉篇
A: 均方差
B: Sigmoid.交叉熵
C: Softmax交叉熵
D: Sparse交叉熵
E: 加权Sigmoid.交叉篇
举一反三
- Softmax回归进行多分类的非线性函数和损失函数分别是什么? A: Softmax函数 B: Sigmoid 函数 C: MSE损失 D: 交叉熵损失
- 4 常见的损失函数包括( )。 A: 错误率 B: 交叉熵 C: Sigmoid D: 均方误差
- 以下选项中不可以做为神经网络中激活函数的是( )。 A: ReLU B: Softmax C: Sigmoid D: 交叉熵函数
- 线性回归最常用的损失函数是()。 A: 、均方误差 B: 、交叉熵损失 C: 、二元交叉熵损失 D: 、负对数似然损失
- logistic 回归进行二分类的非线性函数和损失函数分别是什么? A: ReLU函数 B: Sigmoid 函数 C: MSE损失 D: 交叉熵损失