这本书上的代码和其提供GitHub上的代码又是不一样的。你这个根本不匹配 对应。
你好,书中源码和github源码的差异在这里做一下说明: 1、首先书中源码以及配套源码的实现逻辑,都与书中对算法的讨论和推导一致。 2、过长的源码和注释换行可能会影响阅读体验,所以成书的时候对长变量做了缩短处理;部分过长的注释,也拆分为多行。 3、书中的源码,尽可能只保留和算法逻辑对应核心函数、或核心算法片段。不过多讨论类、对象、方法的封装逻辑。目的是保持书籍的内容精炼且不偏离算法的本质。 书中所有实例的结果指标都是真实日志,你可以在自己的环境复现出来;此外,对框架OOP工程封装感兴趣的同行,可以通过阅读源码+观察执行过程理解封装逻辑,同样欢迎交流指正。
请问电子版什么时候上市?
目前不清楚具体日期。
公式(7.7)是不是错了?
你好,沿时间步反向传播的误差的确应该是$\delta h_{t+1}$,感谢你指出错误。 这边会更新至勘误表 https://github.com/AskyJx/xDeepLearningBook
后续会有上电子版的计划吗?
一般会有
@孙学瑛 非常期待电子版出来,家里纸质书太多了,还是电子书方便。
例子里没有相应的数据,chapter2_nn_mnist.py # 训练数据path_minst_unpack = ‘d:\0tmp\04_dataset\MNIST\MNIST_data_unpack’
你好,MINIST数据集可以从http://yann.lecun.com/exdb/mnist/下载到本地解压缩,修改path_minst_unpack指向本地路径即可运行。 第二章有上述步骤的简要介绍,前言部分给出的源码说明,也可以找到书中各章所需的全部数据下载链接。https://github.com/AskyJx/xDeepLearningBook
这本书上的代码和其提供GitHub上的代码又是不一样的。你这个根本不匹配 对应。
请问电子版什么时候上市?
公式(7.7)是不是错了?
后续会有上电子版的计划吗?
例子里没有相应的数据,chapter2_nn_mnist.py # 训练数据
path_minst_unpack = ‘d:\0tmp\04_dataset\MNIST\MNIST_data_unpack’