[当前最佳0.00000 @ypw/ 0.20631 @LeeJuly30] Kaggle ImageNet Dogs


#362

‘因为从Alex,VGG到Resnet,绝大多数网络做了几次stride,使得输入图片的高和宽都减小了32倍,故输入图片的高和宽都设为32的整数倍.’


#363

非常感谢及时回复!:grinning:


#364

用Bilinear CNN试了一下

不知道实现是不是有问题,完全搞不过多模型融合


#365


#366

[::-1]代表从后向前取值,每次步进值为1


#367

请问一下,从0.21提高到0.20做了哪些改进呢?另外您的这个提取n次特征的想法测试结果怎么样?谢谢!


#368


潜水了很久,冒一下泡,从论坛学到了很多,第一次参加kaggle的比赛,这个是参考了论坛大神的模型融合方法做出来的,没有stanford dataset,感谢大神们的分享


#369

有空的时候在这周六前截图po个最新成绩哈,Kaggle上的成绩一直在更新 :grinning:


#370

请问有RA-CNN的预训练模型吗?


#371

根据楼上大佬的提示,改了resize,没有用stanford_dogs


#372


#373

哈哈,刚刚开始学习deep learning!第一次玩kaggle,没想到居然赶上了社区的比赛,就在截至前一天!


用了很小的网络,resnet18_v2,因为我的机子实在太破了…不过我并不是只对最后一层(输出层)做fine-tuning,我截取了全局池化之前的特征固定了权重,然后自己又添加了2个卷积层,然后做了输出,打算看看大佬的经验,再调调网络


#375

大佬你好!我想请教一下使用“stanford_dogs”是说直接把测试集当作训练集吗?


#376

使用stanford_dogs


#377

从0.21到0.20就是提取了n次特征 但我感觉提升和这个没太大关系 可能就是调参带来提升
可能是我图像预处理的姿势有点问题 :sweat_smile: (只是收敛速度变快了,大概20个epochs就收敛了)
最近一直挺忙的 没啥时间做测试 如果你要继续可以考虑如下步骤:
1.参考resnet原论文的数据预处理 把原始图像的短边随机resize到256-480(Inception的原论文没细看 但我估计你可以resize到比resnet稍大一点的尺寸)
2.图像增强使用random_mirror和random_crop 输出图像尺寸分别224x224以及299x299
希望你能拿到一个更好的结果 :smiley:


#378

谢谢回复和建议!
1,调整尺寸这个实验我做过了,我调整的结果最好的就是0.21左右(对于resnet和inception,至少一个resize到300–400之间,两者都大于400或者小于300基本在0.27).我猜测与原始图像的短边在300-400之间的比较多有关。
2,关于过拟合,我调了wd和dropout,效果也高不过0.21. 我明天再试试图像增强看看。
再次感谢!


#379


batchsize=16
num_epochs = 1
learning_rate = 0.01
weight_decay = 5e-4
lr_period = 80
lr_decay = 0.1

刚开始,没有使用Stanford dogs dataset,用了基本模型,电脑破所以调的很低,先试试看。


#380

是这个意思,因为 kaggle 的训练集和测试集都是从 stanford 的数据集里分出来的。


#381

参考了大佬们的讨论,使用了resnet151和inception-v3混合模型和standford的数据集,还是没调到那么好的结果


#382


改了一点图像增强,但是还是和大佬有数量级的差距,使用了stanford_dogs