TensorFlow tf.nn.softmax_cross_entropy_with_logits的用法
文件大小: 56k
源码售价: 69 个金币 积分规则     积分充值
资源说明:在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None) 除去name参数用以指定该操作的name,与方法有关的一共两个参数: 第一个参数logits:就是神经网络最后一层的输出,如果有batch的话,它的大小就是[batchsize,num_classes],单样本的话,大小就是num_classes 第二个参数lab
本源码包内暂不包含可直接显示的源代码文件,请下载源码包。