tf.nn.softmax_cross_entropy_with_logits函数
tf.nn.softmax_cross_entropy_with_logits函数在TensorFlow中计算分类问题交叉熵损失函数时会用到。
这个函数的返回值不是一个数,而是一个向量。如果要求最终的交叉熵损失,我们需要再做一步tf.reduce_sum操作,即对向量中的所有元素求和。
让我们以具体示例来说明tf.nn.softmax_cross_entropy_with_logits函数是怎样工作的:
#--coding:utf-8-- """ @author:taoshouzheng @time:2019/3/25 20:29 @email:tsz1216@sina.com """
import tensorflow as tf
"""定义计算图中的计算"""
