[当前最佳0.00000 @ypw/ 0.20631 @LeeJuly30] Kaggle ImageNet Dogs


#341


感谢培神的代码,认真看了好多帖子,解决一大堆莫名其妙的问题,获得好多经验,在论坛上学习真的学习到很多东西,只有交流才会碰撞更多灵感,十分感谢这个社区的无私奉献。闷头搞了好久,第一次参加kaggle比赛,没用Stanford dogs dataset。


#342


使用stanford数据


#343


好久没回来看这个帖子了,回复的有点慢


#344


#345


参考培神代码,用stanford 数据集


#346

这个算是fine-grained分类?
不知道和那些fine-grained的模型来做有什么区别


#347


大佬,用inception提取特征的时候,是应该用299299大小的图片吗,我看到您的代码,用的好像是224224的,这样的话,准确率会不会有所下降?


#348

你再仔细看看


#350

preprocessing[0] = image.ForceResizeAug((299,299))
难道是因为上面的代码,把data resize到299*299??


#351

这个目测是用了stanford dogs数据集对吧


#352

对对对,忘说了 :rofl:


#353


学习到大佬的技巧,将image size增到到363X363,未用Stanford,暂时只用了inception_v3,有改善


#354


开心(用stanford数据集)


#355

没用stanford dataset.

另外,有个问题很奇特:

我把任务分两步:
step1, 用一个batch_size把数据喂到pretrained net(inception_v3和resnet152_v1)得到输出(作为后继的features),存在磁盘;
step2, 从磁盘读取features,用来训练一个简单net。

问题是:在step1我分别把batch_size设置为2048、128时,其它的不变(比如step2里batch_size都是128),结果训练过程中valid loss相差较大,为啥啊? 照例,step1里无论batch_size多大输出都是一样的。
问题非偶然,亲测可重现


#356

363, 288的尺寸是怎么得出的啊?


#357

本周奖励以下新提交用户各$50 AWS credit。请获奖小伙伴把姓名+邮箱地址私信给AWS中国的 @wang_chen 领取奖励。

社区优秀小伙伴 分数 奖励 分享
@wEEang763162 0.76588 $0 + $50 302楼
@justinshi 3.27870 $0 + $50 304楼
@papercat 0.27756 $0 + $50 314楼
@SamLin 0.28309 $0 + $50 341楼

#358

@sky 363=299+32x2, 288=224+32x2 你也可以试试其它尺寸的,这个我也是初步尝试,并没有调优,你可继续增加尺寸,比如299+32*3等,应该会找到比现在的结果更好的组合


#359


请问下我的数据下载之后 也放在了制定文件夹下 解压运行代码会出现错误 打印debug的时候为什么有的图片名字前面有 ._ 呢?好奇怪 该怎么改呢


#360


#361

请问一下,为什么是32的倍数呢?