7_交叉熵_softmax_损失函数loss_分析
文章目录一、softmax二、损失函数loss1、均值平方差2、交叉熵3、损失函数的选取三、softmax 算法与损失函数的综合应用1 验证softmax_cross_entropy_with_logits包含softmax函数2 验证非标准one_hot的交叉熵 结果对于错误分类不明显3 验证labels = [2 , 1] 即 001 与 0104 验证loss = tf.reduce_sum(tf.nn.softmax_cross_entropy_with_logits(labels=labels, logits=logits))5 验证loss_2 = -tf.reduce_sum(
用户评论