深度卷积神经网络(AlexNet) 讨论区


#83

batch_size改小可能会很慢


#84

不改batch_size的我试过运行不出来,我看帖子里有人说要改小,我才尝试改小。但是还是没有运行出来


#85

如果只用CPU的话可以再试试mkldnn,运行速度可能会提升

https://zh.mxnet.io/blog/mkldnn


#86

请问下,各位大神,为什么要使用resize拉伸图片呢?


#87

请问为什么要使用resize拉伸图片呢?


#88

AlexNet 这一节代码跑不通,看了大家所有讨论,还是不能解决。
这一节的内容对初学者来说是没办法搞定的。
这是我遇到的第一个痛点。


#89

AlexNet怎么写成了AlextNet …


#90

2018年12月10号
resize为224依旧会存在内存超出的问题


#91

多谢指正!


#92

如果改成多小可以fit你机器上的内存?


#93

GPU 1080ti , 显存:11178MiB , batch_size:256

alexnet:

  1. resize 96 正常
  2. resize 112 正常
  3. resize 为150 时out of memery, 在更改batch_size 为128之后可以训练,最高占用10105MiB显存
  4. resize 200 则out of memery

vgg-11:

  1. resize 为96 ,训练正常
  2. resize 为150 时out of memery, 在更改batch_size 为128之后可以训练,最高占用10129MiB显存,在训练过程没有出现显存不足的问题
  3. resize 为200则out of memery

#94

感觉还是在代码里稍微说明一下:

“如出现out of memory错误信息,可适当改小resize的值”

比较好


#95

或者你能帮我们提交这样的一个改动,成为本书贡献者吗?

比如在代码上加一行注释就可以了


#96

:grinning:
好哒


#97

已提交pr :grinning:


#98

1.根据https://zh.diveintodeeplearning.org/chapter_convolutional-neural-networks/channels.html 第一个图, 我的理解是不共享,(256, 96, 5, 5), 但是具体实现是否共享参数就不知道了。
2.应该是相加


#99

CPU 跑不出,修改resize出错,请问应该怎么修改?其他代码没变,用了@xiaoming 贴的代码,还是出错。谢谢

resize 128, MXNetError: Shape inconsistent, Provided = [4096,6400], inferred shape=(4096,1024)
resize 96, MXNetError: Shape inconsistent, Provided = [4096,6400], inferred shape=(4096,256)


#100

问题:学习率太大会导致无法收敛。

解决:学习率调整技巧:

  • 优先使用Adam优化算法,此算法会自动调整学习率,以适用模型

  • 当loss值忽大忽小或者保持不变,学习率过大

  • 当loss值在减小但是幅度很小,学习率过小


#101

查看api中的imresize函数,可以知道用的是opencv里的imresize.具体的实现可以网上寻找,比如其中一种就是说利用双线性插值,来实现图片的像素宽和高的扩大,以及像素点的预测.


#102

不resize扔到网络里跑一下试试?