卷积神经网络(LeNet) 讨论区


#63

我也遇到了这个问题 不知道原因是什么


#64

你解决了吗


#65

learning_rate改小点试试


#66

是的 我也是这么解决的 非常感谢


#67

[06:30:55] c:\jenkins\workspace\mxnet-tag\mxnet\src\imperative./imperative_utils.h:90: GPU support is disabled. Compile MXNet with USE_CUDA=1 to enable GPU support. 这个错误,怎么解决。


#68

请问池化层在反向传播中的链式求导是怎么算的?选取池化区块中的最大值,怎么求导?


#69

本章的开头提到:“对于大尺寸的输入图像,使用全连接层容易导致模型过大。假设输入是高和宽均为1,000像素的彩色照片(含3个通道)。即使全连接层输出个数仍是256,该层权重参数的形状也是3,000,000× 256:它占用了大约3 GB的内存或显存。”
3,000,000× 256不是3MB吗?怎么是3GB?


#70

请问 哪位能指点一二:
1、最后一个池化层(1, 16, 4, 4) 怎么变为 120 的 全连接层 ?
2、全连接层的120 变到 84 和 10 是怎么来的?


#71

3,000,000是3M,还要乘以256个float,float是4个bype。
所以是1024个3M,就是3个G了。


#72

确实,learning_rate改小一点就可以了