[最佳0.11353! @a1041134926,奖励详见2楼,分数持续更新中] 实战Kaggle比赛:房价预测 讨论区


#125

恭喜恭喜!
@pitt 你的记录刚刚被 @sfy020 超了


#126

1个隐含层,加dropout w2


#127

恭喜 @sfy020 我最近没有什么思路取得进展~


#128

谢谢@pitt,我的做法先是对某些变量取了加1对数的变化,然后调整隐藏层神经元的个数、学习率和正则项。


#129


借鉴@daigz1224的思路:1层hidden layer,先确定unit数量,k=3,lr逐渐增大,在training loss 和test loss 之间进行权衡,另外,training loss 不要太低,否则正则也不太能搞定。


#130

目前提交作业的小伙伴们:
@lonelykid @sjsun @BUGQIN @huliang2016 @albHun @SimonLliu @becauseof86 @fiercex @victcity @root @daigz1224 @xintong @cxf2015 @kevin-meng @qingfengsuiyu2016 @xiaoyi @liulirong123 @pitt @qianlongzju @bensentray @hGuo @gca @zymboy @sfy020 @kale @ych @davidwang

李沐老师刚已确认奖励总额为$2000!作业提交/更新截止日期为本周六早9点。本周六早10-12点直播第四课时公布获奖小伙伴。大家如果这几天有时间可以再调调哈,排名靠前的可能会得到很高金额的奖励。
第四课:BatchNorm,更深的卷积神经网络,图片增强和新的Kaggle练习


#131

估计是这样。。。还需要AWS中国的同事确认下


#132

哇真棒!(开学之后忙到没时间继续调模型,然后看着大家排名越做越高越好厉害👍在这个帖子里也学到了很多技巧


#133


参考贴吧里面各路人的调参思路,主要:1、部分数值特征log1p、sqrt化。2、输出进行zscore标准化 3、采用两个隐藏层。4、设置了wd,没加dropout


#134

继续玄学调参,目前最好0.11627


#135


调了2小时,目前最好成绩0.12374,加了一层hidden layer,调小了学习率,增加了"wd"。有时间再搞一搞,不过第一实战还是很满意的:laughing:


#136


其他值不变,继续在wd和lr之间做权衡,大方向找到了,能不能继续提高就要看人品了。:stuck_out_tongue:


#137

屏幕快照 2017-10-12 下午4.47.14
半个月之前弄的,做了一点特征工程,多加了两层网络和dropout。


#138

用特征重组尝试了下,精度不行,继续坚持。。


#139


目前最优: 0.11510
花了好久时间在做特征工程和stacking,目前只能到这个结果了。每次加入修改特征工程后只能提高一两名


#140


哈哈 临睡觉前又提高了17名
目前最优化: 0.11487


#141

唉 不知道怎么就调出来了这个, 后面自己在重新调的时候怎么都调不出来。 不管咋样 先交给作业吧, 求奖金


#142


微调了一下权重,又提高了一点
目前最优:0.11482


#143


实在刷不动了。。。。。。


#144

哈哈哈 超过0.12了。。。