[最高0.9853! @zzc1995,分数持续更新中] 动手玩Kaggle比赛------使用Gluon对原始图像文件分类(CIFAR-10) 讨论区


#395


wresnet+densenet+resnet ensemble了一下
目前个人最优:0.9660


#396

恭喜!等你有空也分享一下代码供小伙伴们学习吧~


#397

我的代码整合了一下,传到了

由于只是整合了一下,没有真正跑一次,可能有点路径的问题,大家见谅,模型训练的参数、日志、和最终结果加起来比较大,我现在网不太好,等我晚上回去传到网盘里,供大家参考一下,希望能和小伙伴们一起刷上0.97,fight!!!


[当前最佳0.00000 @ypw/ 0.20631 @LeeJuly30] Kaggle ImageNet Dogs
#398

先送星星再看


#399

ResNet164v2 标准版总算是有时间跑完了,batch_size=16,后段overfitting变严重,最高没有过0.95.。。。距离大神们差距好大。。。


#400

与小伙伴们成绩有差距,比自己略有提高,mark一下吧.


#401


调了一波好参数哈:rofl::rofl::rofl:


#402


第二次提交,依旧没有改动网络,三个数据扩充火力全开,每80次降低一次学习率,287个 epoch时,训练集 91%,验证集93.52%,依旧是训练集模型直接提交,突破93%了


#403

Improve a little bit.


#404



resnet和densenet 大佬们都分享过了, 我分享一下wide resnet的代码 大家参考一下


[当前最佳0.00000 @ypw/ 0.20631 @LeeJuly30] Kaggle ImageNet Dogs
#405

, densenet 确实不错


#406

试一下mixup,据说能上97


#407


resnet164要多训练几次


#408


resnet164 跑的效果不太好 以后有时间再调调吧 向大神们学习


#409

同样的网络,为什么差距这么大?


#410

还没有拿到AWS的奖励,继续用CPU跑的,结果相比自己有所提高,但是拖了大家后腿,实在是CPU没时间调参,期待下次用AWS试试


用的ResNet 2 : benchNormal->relu->Conv
num_epochs = 80
learning_rate = 0.01
weight_decay = 5e-4
lr_period = 72
lr_decay = 0.1


#411

使用densenet121,fine-tuning进行训练,300个epoch,反而精度下降了


#412


终于踏上96俱乐部了


#413

ensemble厉害


#414

最终奖励截至本楼