• 粉红豹

    第5章最佳样例mnist_eval程序,while循环的条件为True是否死循环?在运行时,验证集只在29001号模型上运行,并没有像书上的例子那样,在不同的模型上进行验证。并且程序明显陷入死循环,跳不出来。而且我感觉这个验证程序是不是最好是在训练过程中穿插进行?而不是把模型训练完了之后,在进行验证?

    粉红豹发表于 2017/11/15 10:00:14
    • NSGUF

      在书上131页,文字第一行中写“每次运行都是读取最新保存的模型”,从这句可看出如果等等训练完之后在验证不成立,到最后只会有一个最新保存模型,你可以在运行训练的时候打开保存模型的文件夹,查看保存模型情况,每次回保存最新的5个

      NSGUF发表于 2017/11/29 15:34:11
    • NSGUF

      所以可以同时进行,反正是死循环,不会有遗漏

      NSGUF发表于 2017/11/29 15:34:54
    • 粉红豹

      @NSGUF 谢谢,我开了两个运行窗口,同时运行就没问题了。还是我刚接触不会用的问题。

      粉红豹发表于 2017/12/31 12:21:40
  • julinfn

    5.5节tensorflow最佳实践样例程序运行不通,前向传播“mnist_inference.py”代码提示“Variable layer1/weights already exists, disallowed”,遂将inference函数中的variable_scope函数的reuse都设为True,这时出现“Variable layer1/weights/ExponentialMovingAverage/ already exists, disallowed. Did you mean to set reuse=True in VarScope? ”

    julinfn发表于 2017/11/12 23:57:09
    • NSGUF

      这是因为你已经运行过一次了,所以应该是编辑器记得这个变量,用cmd运行就不会

      NSGUF发表于 2017/11/29 15:24:59
    • lailai

      @NSGUF 除了在cmd中运行没有其他方法了吗?比如删除存在的变量

      lailai发表于 2018/1/4 16:14:31
    • 12321

      @lailai 程序里加一行tf.reset_default_graph()在最开始就ok了

      12321发表于 2018/11/26 20:24:49
  • ancientcc

    tensorflow实现LeNet-5模型,它指出,本书第6章LeNet-5模型结构的前向传播过程(mnist_inference.py)加上第5章的(mnist_train.py)去识别mnist字符会有不收敛问题。而且进一步指出,原因是书中设的基础学习率(LEARNING_RATE_BASE)0.8太大了,得改为0.01。经过自个代码验证,我的情况基本和他差不多,即0.8时不收敛,0.01时会改善。——无论怎么说呢,我们只能是个例,想听你们对这问题怎么看?

    ancientcc发表于 2017/11/12 10:20:53
    • 2120160767

      我的在0.8的时候也没法收敛,loss降到2左右就下不去了,改成0.01后就可以了。不过有趣的是P127页的样例程序,在学习率0.8时就没问题。看来普通神经网络收敛时的权值要显著大于CNN收敛后的权值啊。估计这儿作者改代码的时候应该只是想当然地改了改,没有实际运行。。

      2120160767发表于 2018/3/1 21:50:39
  • 李雪峰

    老师您好,第四章的图4-7的第一层与第二层节点间,weight的权重下标感觉有问题,W(x,y),x代表后一层神经元的序号,而y代表前一层神经元的序号,现在图中第一层和第二层的标记有误,第二层和第三层正确,不知道我的理解是否正确,感谢指正。

    李雪峰发表于 2017/11/8 10:32:38
  • 恒易一

    请问基础特征提取,也就是输入层的数据准备 有什么相关的资料吗

    恒易一发表于 2017/11/6 20:24:12
  • 1
  • ...
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • ...
  • 16