你好,第十二章多gpu并行训练,感觉输入4个gpu的数据是一样的,并没有真正起到作用,求解答
你好,第六章6.5.2迁移学习老师报错误ValueError: Rank mismatch: Rank of labels (received 2) should equal rank of logits minus 1 (received 2).
150 页,第5行。10x10x16下(5x5+1)=41600 应该是10x10x16下(5x5x6+1)= 241600。这个问题还挺重要的,无论对错请详细解释。
145页,图6-13。右边右下角数字不是0吧,应该是-2吧。不知道对不对,请指教一下
P60中print (sess.run(y,feed_dict={x:[[0.7,0.9]]}))的结果为什么每次都不一样啊?
你好,第十二章多gpu并行训练,感觉输入4个gpu的数据是一样的,并没有真正起到作用,求解答
你好,第六章6.5.2迁移学习老师报错误ValueError: Rank mismatch: Rank of labels (received 2) should equal rank of logits minus 1 (received 2).
cross_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(labels=ground_truth_input, logits=logits)
150 页,第5行。10x10x16下(5x5+1)=41600 应该是10x10x16下(5x5x6+1)= 241600。这个问题还挺重要的,无论对错请详细解释。
145页,图6-13。右边右下角数字不是0吧,应该是-2吧。不知道对不对,请指教一下
P60中print (sess.run(y,feed_dict={x:[[0.7,0.9]]}))的结果为什么每次都不一样啊?