微调 讨论区


#21

用了MKL吗?


#22

用conda安装的,好像安装了mkl


#23

loss在降的,可能只是overfit了,那个数据集是个比较小的子集


#24

我也有这个疑问,可是看教程里面并没有预处理过程啊


#25

参考 https://mxnet.incubator.apache.org/versions/master/api/python/gluon/model_zoo.html


#26

选区_025
终于抽时间跑了一下,发现也是一样的问题,效果非常糟糕。。。
就像前面说的,大部分小公司的数据集都是很小的数据集。如果用了fine tuning效果还是这么糟糕该怎么处理呢?
难道还是要在自己的网络中添加dropout,参数就只copy一部分进来?


#27

话说你的问题解决了吗?


#28

这段时间一直出差,你可以试试GPU


#29

教程应该是每次提交都会重新编译的,那么就是用服务器的两块GPU每次出的结果都是很好,用CPU算的不太好,那你可以试试GPU,或者两块GPU


#30

应该是数据集比较小的原因,之前的更完整数据集上效果会好些


#31

Hi every time when I run the cell

ctx = utils.try_all_gpus()
train(finetune_net, ctx)

I will get the output

('Start training on' , [gpu(0)])

and an error window saying ‘the kernel appears to have died…’

Anybody has seen this problem?

Thanks


#32

看下训练集和测试集是不是划分科学,减小学习率,加大augmentation


#33

没有这个调用,只有pretrained_net.classifier, 这是怎么回事呀


#34

我也是这样


#35

就是classifier,课程里面写错了


#36

好的,谢谢!


#37

请问如何在不同层设置不同的学习率,比如前面的层设置小的学习率,最后新加的层设置大的学习率


gluoncv get_model的问题
#38
net = gl.model_zoo.vision.resnet50_v2(pretrained=True, ctx=ctx)
for _, i in net.features.collect_params().items():
    i.lr_mult = 0.1

这样,前面的层的实际学习率就是你设置的learning_rate * lr_mult,新加的层学习率还是learning_rate


#39

maybe it’s because of your GPU is out of memory, you can make your batch_size lower to solve it


#40

非常感谢,已采纳