[当前最佳0.00000 @ypw/ 0.20631 @LeeJuly30] Kaggle ImageNet Dogs


#444

兴致勃勃的开了一个 aws gpu instance, 用 pretrained model 试了一下(参考了 ypw 的模型选择),跑起来快的飞起,估计 cpu 也能 handle.

没用 stanford dog dataset。迁移学习真是个好东西啊,一下子就 90% accuracy。


#445

感谢大佬,原来还没有截止啊……:rofl:


#446

请本周获奖小伙伴 @whyguu @deadbeef @irvingzhang0512 把姓名+邮箱地址私信给AWS中国的 @wang_chen 领取$50 AWS credit奖励。


#447

使用了 Stanford Dogs Dataset,以及手动提交猜测 label。


#448

大佬,您这样会没朋友的 :joy:


#449

实在是搞不动faster rcnn了,换回这个接着练练手。参考了一下ypw的代码,跑出来的结果似乎还可以。
P.S. 有了核弹就是好啊==#


#450

未使用Stanford Dogs DataSet
和刚才没有太大差别,只是在每一层的Dense layer之前加了一层Dropout,效果有了一些提升。


#451

使用了Stanford Dogs Dataset
果然分数提高了好多,不过这样干难道不算是作弊吗?==#
后续准备试试一些数据增强的技巧,例如mix up之类的,看看性能有什么样的变化。


#452

参考ypw大神代码使用了stanford dog dataset.微调了模型结构。第一次参加,还需学习。


#453

做事不能做绝啊,大佬😄


#454

请本周获奖小伙伴 @codingzhang 把姓名+邮箱地址私信给AWS中国的 @wang_chen 领取$50 AWS credit奖励。


#455

未使用 Stanford dataset, 参考了ypw大神的代码 使用了 inception, densenet 和 resnet 的特征

第一次接触图像的学习 在提取features的时候 使用gpu的话python会停止工作 但是训练的时候gpu是可以调用的 用cpu提取这些特征花了 10多个小时 = =


#456

停止工作可能是因为显存不足,你可以查查 jupyter 里面的报错。一般减小 batch_size 即可解决问题。


#457


resnet152,没用Stanford数据集简单做了一下图片增广。不使用Stanford dogs dataset能进0.2以下吗?


#458

借鉴@ypw大神的思路,搞了一下,好像效果不是很理想,还得研究下
image


#459

可以 增大图片size多模型求平均可以达到0.17


#460

没使用stanford dataset,


话说一推score为0.0000的,这个太厉害了。。


#461


使用多模型bagging的确有提高


#462


使用stanford dataset 看起来test set应该是直接从stanford dataset中取的,使用了数据增强的效果反而变差了
所以使用stanford dataset训练好像只需要在训练集上拟合就行了 使用dropout这类正则化方法貌似还会增加loss :joy:


#463

翻了下数据集发现了些有趣的东西:
image
这个是狐狸吧


正在吃猫的非洲二哥