第四章-3.正则化-代码Github源代码部分plt.scatter(data[:,0], data[:,1], c=label, cmap="RdBu", vmin=-.2, vmax=1.2, edgecolor="white")修改后plt.scatter(data[:,0], data[:,1], c=np.squeeze(label), cmap="RdBu", vmin=-.2, vmax=1.2, edgecolor="white")
plt.scatter(data[:,0], data[:,1], c=label, cmap="RdBu", vmin=-.2, vmax=1.2, edgecolor="white")
plt.scatter(data[:,0], data[:,1], c=np.squeeze(label), cmap="RdBu", vmin=-.2, vmax=1.2, edgecolor="white")
作者您好,我是北航在读的研二学生,我叫周鹏,今天刚开始看这本书,下面是我对书中的一点疑问或者建议:在书中第8页,您举了个例子:设计一个系统来识别不同颜色不同型号的汽车,有两种方法:1.设计的模型中,每一个神经元代表着“颜色+型号”如果有N种类颜色,M种类型号,那么按照这种设计模式确实是NM的神经元2.设计的模型中,一部分神经元代表“颜色”,一部分神经元代表“型号”按照这种设计模式,确实是M+N个神经元但是您接下来用这个例子引入了“让神经网络及宽度的方向从宽度走向了深度”,我觉得不妥。原因如下:1.不管是MN个神经元作为设计模型1的输入层,还是M+N个神经元作为设计模式2的输入层,都只是神经网络输入层表示的方式不同,如果我们默认第一个隐藏层神经元的个数是200个,那么按照设计模型1,我们可以得到第一层的权重W1的大小为(MN,200),同理,按照设计模型2,我们可以得到第一层的权重W1的大小为(M+N,200),所以设计模型2的参数个数为{(M+N)200+200}个,设计模型1的参数个数为{(MN)200+200},我们可以得到当M和N满足一个不等式{(1/N + 1/M)<1 }的时候,我们总是能得到模型2的参数个数是小于模型1的。2.我猜测您的意思应该是想从全连接神经网络引入卷积神经网络,但是有瑕疵,神经网络并不像卷积神经网络一样每一层都有一个提取不同特征的功能,而是偏向于拟合。3.您举的这个例子可以从 我上面的原因分析来导出一个结果:全连接神经网络的参数太大,所以我们需要用卷积神经网络,卷积神经网络可以从输入的数据中分特征提取,每一个特征放在“深度”的一层。如果是我理解错误的话,还希望作者您可以把您写这段话的思路跟我解释一下,谢谢您。18811746117@163.com
图中右下角,有“绘图区”字样,应该去掉。
v = tf.get_variable("v", initializer=tf.zeros_initializer(shape=[1])) 应该为 v = tf.get_variable("v", initializer=tf.zeros_initializer, shape=[1])
而且一个张量的结构 且 改为 是
第四章-3.正则化-代码
Github源代码部分
plt.scatter(data[:,0], data[:,1], c=label, cmap="RdBu", vmin=-.2, vmax=1.2, edgecolor="white")
修改后
plt.scatter(data[:,0], data[:,1], c=np.squeeze(label), cmap="RdBu", vmin=-.2, vmax=1.2, edgecolor="white")
作者您好,我是北航在读的研二学生,我叫周鹏,今天刚开始看这本书,下面是我对书中的一点疑问或者建议:
在书中第8页,您举了个例子:设计一个系统来识别不同颜色不同型号的汽车,有两种方法:
1.设计的模型中,每一个神经元代表着“颜色+型号”
如果有N种类颜色,M种类型号,那么按照这种设计模式确实是NM的神经元
2.设计的模型中,一部分神经元代表“颜色”,一部分神经元代表“型号”
按照这种设计模式,确实是M+N个神经元
但是您接下来用这个例子引入了“让神经网络及宽度的方向从宽度走向了深度”,我觉得不妥。
原因如下:
1.不管是MN个神经元作为设计模型1的输入层,还是M+N个神经元作为设计模式2的输入层,都只是神经网络输入层表示的方式不同,如果我们默认第一个隐藏层神经元的个数是200个,那么按照设计模型1,我们可以得到第一层的权重W1的大小为(MN,200),同理,按照设计模型2,我们可以得到第一层的权重W1的大小为(M+N,200),所以设计模型2的参数个数为{(M+N)200+200}个,设计模型1的参数个数为{(MN)200+200},我们可以得到当M和N满足一个不等式{(1/N + 1/M)<1 }的时候,我们总是能得到模型2的参数个数是小于模型1的。
2.我猜测您的意思应该是想从全连接神经网络引入卷积神经网络,但是有瑕疵,神经网络并不像卷积神经网络一样每一层都有一个提取不同特征的功能,而是偏向于拟合。
3.您举的这个例子可以从 我上面的原因分析来导出一个结果:全连接神经网络的参数太大,所以我们需要用卷积神经网络,卷积神经网络可以从输入的数据中分特征提取,每一个特征放在“深度”的一层。
如果是我理解错误的话,还希望作者您可以把您写这段话的思路跟我解释一下,谢谢您。18811746117@163.com
图中右下角,有“绘图区”字样,应该去掉。
而且一个张量的结构 且 改为 是