[当前最佳0.00000 @ypw/ 0.20631 @LeeJuly30] Kaggle ImageNet Dogs


#424

参考了ypw的代码,使用resnet-152和inception_v3集成的模型
只是用ImageNet dog数据集,val-loss终于降到小于1了


#425

参考大家的讨论,resnet-152 和 inception_v3 集成的模型,仅更新一下分数。
未使用 stanford dog dataset.


#426

刚学了点Xavier的理论推导,使用init.Xavier(),的确有些作用~
未使用 stanford dog dataset.


#427

仅使用 stanford dog dataset 提取特征。


#428

使用 stanford dog dataset + train dataset
epochs = 80,50 epoch 之后,学习率衰减一半。
train acc: 99.4+%
val acc: 96.1+%


#429

使用 stanford dog dataset + train dataset
全集训练,epochs = 80,50 epoch之后,学习率减半,wd 增加一倍,70 epoch之后,学习率再减半。
想知道到达下一个数量级的方法。。。


#430

直接进行图片对比,找argmin对应的分类就好了,如果有两个图片都相似,那就各取0.5就好了。

由于总共有几万张图片,所以计算量比较大,可以使用gluon调用显卡进行对比,速度快很多很多倍。

gluon不仅可以做深度学习,也是可以做大规模的矩阵运算的。


#431

是因为 test 里面的图片也是 stanford dataset 的一部分吗?

P.s 站在巨人的肩膀上感觉真好!

再次更新,使用stanford dog dataset,全集训练,分类层 units 数量增加一倍,epochs=100, 70+之后,学习率下降一倍,wd增加一倍,90+之后,学习率再下降一倍。


#432

请本周获奖小伙伴 @daigz1224 把姓名+邮箱地址私信给AWS中国的 @wang_chen 领取$50 AWS credit奖励。


#433

用了Stanford dogs dataset,fine-tune Resnet152-v1
num_epochs = 150
learning_rate = 0.01
weight_decay = 5e-4
lr_period = 80
lr_decay = 0.1

1070跑了5个多小时


#434

今天提交了一次,取得了比上次提交要好一些的成绩,但是发现leaderboard不能更新了,还是原来的排名。大家有碰到这种情况吗?:cold_sweat:


#435

是的,测试集是直接从 Stanford Dogs Dataset 取的。


#436

请本周获奖小伙伴 @JLUNeverMore 把姓名+邮箱地址私信给AWS中国的 @wang_chen 领取$50 AWS credit奖励。


#437

,我也是用gluon,pretrained的模型做的。用了Stanford dataset。
这个没用Stanford数据集。
也是参考了ypw大佬的代码,调了一下最后训练的Dense网络的神经元个数,然后加了学习率下降


#438

跟着培文大神的思路走了一遍,的确能很轻松进0.005,不过培神的代码太土豪了。我稍微改了个用单卡简单复现的程序,代码在我的github,感兴趣的小伙伴可以看看。


#439

请问mxnet如何在训练过程中把Adam换成SGD?


#440

gluon_trainer = gluon.Trainer(net.collect_params(), optimizer=‘sgd’,
optimizer_params={‘learning_rate’: 1e-4,‘momentum’ :0.9, ‘wd’: 1e-5})


#441

自己写了xception提取特征 + softmax,0.30232
感谢各位大佬


#442

请问如何做误差分析,我想把训练集上分错了图片都找出来看看那些难分的图片长什么样子,再进一步调整算法.


#443

方便放个截图不,我帮你贴一下成绩。这样可以领取本周奖励