[最高0.9853! @zzc1995,分数持续更新中] 动手玩Kaggle比赛------使用Gluon对原始图像文件分类(CIFAR-10) 讨论区


#334

你可以先看几个很小的cpu instance,然后结果弄好后存到S3或者EBS上。以后用的时候直接从上面读。这次cifar10数据还是算下,以后折腾imagenet这种大的数据事先准备数据都要一两天


#335

嗯嗯 直接右键就有复制AMI~


#336


先占一个坑,接着努力!


#337

各位小伙伴,除了邮箱之外也想将真实姓名一并发给我,我收到后将第一时间将AWS服务抵扣券发送给大家~
感谢~


#338


比上一次提交提升了一揪揪,其实周六之前已经提交了。。不过没回复帖子。。错过了第二波奖励:joy:


#339

参考@Sherlock的方法, output 加 softmax :0.96140

output 直接平均,效果更好一点:0.96290


#340


用了bottleneck_v2版本,18+18+18就达到了这个效果,学习率decay了两次,比@zlh19921210 大神的层数少了一半,达到一样的效果,开心


#341


ResNet50-v2
先占个坑


#342

前两个星期忙得不得了,一直没时间调参
之前做的那个实验的结果Train acc已经收敛至 1.0Valid acc还在 0.909-0.916 之间抖动,两者之间的差距也较大
接着做实验,神经网络的结构依旧还是教程里的ResNet-18,根据这两节课的优化算法的课和大家的建议,做了一些改动

1、增加迭代次数至200
2、将第一次学习率下降推后至第 80 轮(这时神经网络可能还在瞎逛,所以往后推),第二次是第 100 轮,然后第 120 轮,之后每 10 轮下降一次,总共 10
3、下降率改为 0.80.8^{10}\approx0.107 (根据之前的实验来看,学习率快速下降至 0.01 以下时已经没有太明显的开窍现象,Valid acc一没有提升的痕迹,所以减缓了下降率)

运行结果(最后十轮):
Valid acc的值提升至 0.920-0.927 ,相比于上次提升了一个百分点

此处是 0-199 轮中 Loss、Train acc、Valid acc的变化趋势,前175轮中 Valid acc 的抖动还是很明显的,总的来说应该是要给更多的时间让它瞎逛一下然后再让它开窍(可能是这样子)

下载

提交结果:
从上次的 0.9231 提升至 0.9297 (距离榨干这个神经网络又前进了一小步)


#343


第一次提交 下次争取突破95 第三次突破98 哈哈哈哈 tree some new bee


#345


第二次上传94。4%


#346

觉得网络大一点 还可以继续训练


#347


#348

resnet18 做ensemble


#349

恭喜!这个结果很impressive。等你有空的时候能分享一下代码吗?谢谢


#350

周末整理下


#351

直接平均是什么意思?能分享一下代码吗


#352

在shelock分享的权重上用更小的学习率又训练了几轮,微乎其微的提升


#353

Improve a little bit after 300 epochs


#354

,啥时候能上95