[最高0.9853! @zzc1995,分数持续更新中] 动手玩Kaggle比赛------使用Gluon对原始图像文件分类(CIFAR-10) 讨论区


#476

教程中对测试集分类里面,
sorted_ids = list(range(1, len(test_ds) + 1))
后面为什么要加
sorted_ids.sort(key = lambda x:str(x))


#478

除了排序有改变应该是没区别的,预测的label值应该是根据图片命名的索引来取的。


#479

谢谢!已经懂了。在构造dataset时是按文件名排序的。


#480

你好,感谢分享!但是在这一句报错,“cudaSuccess CUDA: invalid device ordinal”我怀疑是使用GPU导致的。我在cpu上测试没问题。
for result_name in model_list:
preds.append(nd.load(“result/” + result_name)[0].as_in_context(ctx))


#481


用CPU跑了1个epoch,开始怀疑人生了:joy:


#482

GPU会快很多


#483

换上了1080发现一个epoch耗时53秒,果然还是需要核武器呀……参数调节如下batch_size = 256,num_epochs = 260,learning_rate = 0.1,lr_period = 50,lr_decay = 0.5,主体网络以及优化算法不变,迭代至124代时,得到一个最高的精度为0.9224,结果如图所示

,此时的train acc 变成了1.0,是不是模型已经过拟合了呢,但之后随着迭代次数的增加,train acc居然开始下降了,然后逐渐回升,在第203代时,模型得到了一个较高的精度为0.9194,至此第一次训练完毕,后面的测试集测试还没有做,请小伙伴们帮我分析一下这样的结果,感觉很奇妙,train acc 开始逐渐增加至1而后下降到0.92然后再增加至1,是什么原因呢?


#484

这两天把cifar10的代码整理了一下,顺带又跑了跑kaggle的比赛,发现wrn16*8的模型就能跑到95.96的比赛成绩了,和@yinglang 分享的数据ensemble了一下,可以拿到96.98的成绩


58
代码全部放在我的GitHub上了,感兴趣的小伙伴可以看看


[当前最佳0.00000 @ypw/ 0.20631 @LeeJuly30] Kaggle ImageNet Dogs
#485

是这种情况吗?decay之后的下降?
22


#486

不是这种情况,我是每隔50代learning-rate减小一半,在第一次decay后,train-acc才到1,还没到第二次decay时train-acc开始下降然后逐渐回升,在第三次decay后又增长到1,还没等到第四次decay我就停止训练了,不晓得这种情况是什么原因导致的,今晚继续训练看看……


#487

感谢分享,好好学习学习……


#488

大神,这应该是ResNet245吧?…Resnet164的n=(164-2)/9=18,您这n=27


#489

另外请问,block里去掉第一个relu,最后跟一个bn,是参考哪篇文献呢?


#490

赞啊,比 @yinglang 的0.9688又高了0.0010 :grinning:

建议像 @yinglang 一样在Kaggle的discussion里发帖,这也是对社区最好的宣传~


#491

:grinning:


#492

@mli 沐神,我下载了完整的cifar10数据集,但并未放在gluon_tutorials_zh\data\kaggle_cifar10文件夹下,而是新建了一个文件夹cifar10,但是发现在train的时候就会出现winError(已经将notebook中的相对路径改为我的数据的绝对路径,并且把utils复制了一份在新的文件夹中),只有当我把完整数据复制到 gluon_tutorials_zh\data\kaggle_cifar10中,并且把路径换回原来的相对路径,网页上能够运行成功,难道每次运行都要在教程所在的路径下吗?(在新的文件夹下建立脚本也会出现winError)


#493

赞!!

不过你的post里好像github链接broken了?


#494

notebook我记得只能用相对路径?而且好像得在开notebook的root dir底下。开启notebook的root dir上面的任何东西notebook都不知道


#495

谢谢解答


#497

好像点开还是404。