1. 首页
  2. 数据库
  3. 其它
  4. 7_交叉熵_softmax_损失函数loss_分析

7_交叉熵_softmax_损失函数loss_分析

上传者: 2021-01-16 12:21:38上传 PDF文件 356KB 热度 11次
文章目录一、softmax二、损失函数loss1、均值平方差2、交叉熵3、损失函数的选取三、softmax 算法与损失函数的综合应用1 验证softmax_cross_entropy_with_logits包含softmax函数2 验证非标准one_hot的交叉熵 结果对于错误分类不明显3 验证labels = [2 , 1] 即 001 与 0104 验证loss = tf.reduce_sum(tf.nn.softmax_cross_entropy_with_logits(labels=labels, logits=logits))5 验证loss_2 = -tf.reduce_sum(
用户评论