4.1.1线性回归代码,使用原始的GradientDescentOptimizer()算法执行没问题,换成Adagrade Method或其他的就报错:FailedPreconditionError (see above for traceback): Attempting to use uninitialized value Variable_1/Adagrad [[node Adagrad/update_Variable_1/ApplyAdagrad (defined at D:/Project/SFS_Tensorflow/line_book.py:16) = ApplyAdagradT=DT_FLOAT, update_slots=true, use_locking=false, _device=”/job:localhost/replica:0/task:0/device0”]] 代码是直接下载的源代码,在优化函数处直接换的。 不知道是什么原因
4.1.1线性回归代码,使用原始的GradientDescentOptimizer()算法执行没问题,换成Adagrade Method或其他的就报错:FailedPreconditionError (see above for traceback): Attempting to use uninitialized value Variable_1/Adagrad
0”]]
[[node Adagrad/update_Variable_1/ApplyAdagrad (defined at D:/Project/SFS_Tensorflow/line_book.py:16) = ApplyAdagradT=DT_FLOAT, update_slots=true, use_locking=false, _device=”/job:localhost/replica:0/task:0/device
代码是直接下载的源代码,在优化函数处直接换的。
不知道是什么原因
这本书是我最近啃完的四本里面最通俗易懂的,原理讲解清楚,代码简洁不突兀,非常适合初学者,感谢张老师🙏,期待老师下一部作品
整体来说,本书讲的非常好,详细讲解了神经网络原理,推出具体细节等,但是关于TFRecord的讲解,有点突兀,突然加入这个东西,感觉有点难以消化。