[最佳0.11353! @a1041134926,奖励详见2楼,分数持续更新中] 实战Kaggle比赛:房价预测 讨论区


#84


#86

翻个墙就好啦,我用手机翻的,装个赛风。


#87

凭着自己的感觉,试着调调参,目前0.12625


自己的调参方法 增加1隐藏层 400节点
drop_prob1 =0.5

后面打算借鉴下上面朋友的调参策略,看看能不能破0.12

据说 调参这种事 经验人品四六开, 但愿明天人品好点 :)
今天就到这里,睡了


#88

为什么我还是排名一千位呢…是验证集效果不佳吗?


#89


最好成绩,主要是增加了一层hidden layer,减小了learning rate,增加epochs,增加weight devay, 感觉只调节这几个参数已经有点到极限了…再想进步可能数据预处理更重要。


#90

有没有尝试一下上面其他小伙伴提到的方法?比如只是添加隐含层和加weight decay?


#91

恩恩,还没用神经网络,等会搞一搞


#92


改了一下hidden units的数量,继续增加了weight decay,竟然有这么好的成绩…玄学。


#93


加了一个隐含层,然后加大decay weight,感觉对原始数据不再做进一步处理的话 很难再提高了


#94

这是目前的成绩,在自己上的测试集拟合的挺好,也用了R2,然而还是在Kaggle上的另一部分数据集还是表现的不好.好心碎


#95

pycharm是个不错的IDE


#96

大家都是根据n-fold validation: Avg train loss:xxx, Avg test loss:xxx更好的结果去kaggle刷分吗?


#97

我是这么做的~


#98

按小伙伴的提示调整了epochs,learning_rate,weight_decay和增加了隐藏层,第5次提交的成绩是#588,0.12384。

之前是在虚拟机Ubuntu CPU版本上训练,不敢随便加隐藏层神经元。后面切换到Windows GPU版本,增加一倍的神经元,并且减少epochs和增大wd,第12次提交的成绩有所上升#523,0.12169。

继续调了learning_rate和weight_decay,第13次上升到#506,0.12120。


#99

换成gpu跑了,增加了一个隐含层,调小learning_rate, 增大weight decay。目前最好成绩#753,拿到0.12838。

需要提醒大家的是,改gpu运行是需要y_train = y_train.expand_dims(axis=1)
操作,否则ArrayDataset会把y_train搞成numpy,变成cpu的了。

再次调了一下,目前是#537,0.12227


#100

貌似一层hidden layer好过两层,加了dropout,调小learning rate,增大WD,效果有所提升:


#101


#102

恭喜恭喜!!!
@albHun 你的持续了13天的最好成绩刚刚被 @qingfengsuiyu2016 超了 :slight_smile: 不过也已经很厉害啦


#103

还是调了learning_rate和weight_decay,看起来不换个思路的话很难进200。


#104

对数据做了一点预处理,加了hidden layer层和dropout层,减小了epoch和lr,给了很小的weight decay,目前只调到了0.12944,有时间再继续努力…