p98的倒数第二行regularaztion是拼写错误的,应为regularization!
读者朋友您好,谢谢您的反馈,该问题将在重印时修改。
页码:54 • 行数:12 • 印次: 1
表3-2中的“平均分布”应改为“均匀分布”
读者朋友你好,谢谢你的反馈,该问题将在重印中修改。谢谢~
你好,在第8章“循环神经网络”里的“使用循环神经网络实现语言模型”代码中,作者说在测试时不需要使用截断,但却将EVAL_NUM_STEP设置为1,这样一来输入就变成了单个字/词,失去了上下文信息。按照我的理解,num_step是为了防止梯度消失问题的,但在测试时则是不必要的;保存在num_step的文本中的内容是一份完整信息,batch_size表示这样的完整信息的个数,即每一轮测试的完整语料数量。如果num_step设置为1则变成单字的输出了,失去了LSTM原本的作用。请解释一下,谢谢。
读者朋友你好,你所提出的问题,小编已经转告负责此书的编辑,编辑近期会予以回复。
读者朋友你好,以下是作者的反馈,希望会对你有所帮助: 是没有问题的,代码有些复杂,但大意就是虽然把steps设置为1了,但是在测试的时候init_state不会被重置(只有在每一次过新的epoch时初始状态才会被重置,而不是每一步都重置初始状态),所以不会影响lstm的使用。
第41页的代码我这里运行报错:TypeError: init() got an unexpected keyword argument ‘shape’请问这个错误应该怎么解决啊。
读者朋友,你好,小编会根据你所提出的问题请负责此书的编辑与你联系并解答你的疑问。
读者朋友,你好,这个应该是版本问题,可以在本页面下载资源处下载对应版本的代码~
“题,同时也解决了忘记调用Session.close函数而产生的资源泄” 这里少了个“漏”字。
读者朋友你好,小编已将您所提出的勘误告知图书编辑,具体负责该图书的编辑会核实勘误并及时处理,感谢您的购买和仔细阅读。
读者朋友您好,谢谢您的反馈,该问题将在重印中修改。谢谢~
p98的倒数第二行regularaztion是拼写错误的,应为regularization!
页码:54 • 行数:12 • 印次: 1
表3-2中的“平均分布”应改为“均匀分布”
你好,在第8章“循环神经网络”里的“使用循环神经网络实现语言模型”代码中,作者说在测试时不需要使用截断,但却将EVAL_NUM_STEP设置为1,这样一来输入就变成了单个字/词,失去了上下文信息。按照我的理解,num_step是为了防止梯度消失问题的,但在测试时则是不必要的;保存在num_step的文本中的内容是一份完整信息,batch_size表示这样的完整信息的个数,即每一轮测试的完整语料数量。如果num_step设置为1则变成单字的输出了,失去了LSTM原本的作用。请解释一下,谢谢。
第41页的代码我这里运行报错:
TypeError: init() got an unexpected keyword argument ‘shape’
请问这个错误应该怎么解决啊。
“题,同时也解决了忘记调用Session.close函数而产生的资源泄” 这里少了个“漏”字。