p150 页,卷积层过滤器尺寸5x5 ,深度为什么是6 不应该跟输入保持一致 是1吗?
这个深度为6是指filter的个数吧?
下载的代码怎么用?不是.py文件啊?
第六章 6.5.2迁移学习部分,在将原始的RGB图片整理成模型需要的输入数据的时候。随着运行时间的增加,处理速度越来越慢,最终造成内存不够,运行崩溃。这种情况下,在网上搜索猜测应该是再循环中不停的加入新的节点导致,请问一下该如何避免呢?This problem really exists, hope author takes seriously!!!!!!
请问你是如何解决的
请问有python3版本的代码吗?
第8章的预测sin函数中的数据处理部分的问题,dynamic_rnn输入的维度是[batch_size, seq_length, num_of_vec],这里应该将第3个维度num_of_vec设置成1,而不是把seq_length的维度弄成1。seq_length设为1之后,相当于rnn的times步数只有一步,这个时候循环神经网络就相当于是一个前项的全连接神经网络了(这个时候由于只是一个前项的神经网络,训练的速度应该很快,实际运行中也是这样的);num_of_vec扩展为1的时候,就相当于nlp里面一个字变成向量之后的维度是1,这样这个问题就跟nlp的问题对应起来了。这个时候rnn循环的times的步数是seq_length步(这个时候就是rnn,所以训练的速度就很慢,实测也是很慢)。这样改完之后,奇怪的是效果还没有原来的好,不知道是为什么,难道这个问题全连接的前向网络的效果本身就比rnn好吗…感觉好奇怪啊
p150 页,卷积层过滤器尺寸5x5 ,深度为什么是6 不应该跟输入保持一致 是1吗?
下载的代码怎么用?不是.py文件啊?
第六章 6.5.2迁移学习部分,在将原始的RGB图片整理成模型需要的输入数据的时候。随着运行时间的增加,处理速度越来越慢,最终造成内存不够,运行崩溃。这种情况下,在网上搜索猜测应该是再循环中不停的加入新的节点导致,请问一下该如何避免呢?
This problem really exists, hope author takes seriously!!!!!!
请问有python3版本的代码吗?
第8章的预测sin函数中的数据处理部分的问题,dynamic_rnn输入的维度是[batch_size, seq_length, num_of_vec],这里应该将第3个维度num_of_vec设置成1,而不是把seq_length的维度弄成1。seq_length设为1之后,相当于rnn的times步数只有一步,这个时候循环神经网络就相当于是一个前项的全连接神经网络了(这个时候由于只是一个前项的神经网络,训练的速度应该很快,实际运行中也是这样的);num_of_vec扩展为1的时候,就相当于nlp里面一个字变成向量之后的维度是1,这样这个问题就跟nlp的问题对应起来了。这个时候rnn循环的times的步数是seq_length步(这个时候就是rnn,所以训练的速度就很慢,实测也是很慢)。
这样改完之后,奇怪的是效果还没有原来的好,不知道是为什么,难道这个问题全连接的前向网络的效果本身就比rnn好吗…感觉好奇怪啊