[最佳0.11353! @a1041134926,奖励详见2楼,分数持续更新中] 实战Kaggle比赛:房价预测 讨论区


#145

hidden layer 到200不会overfit 吗?为什么我的hidden layer 20以上test loss就开始变大了?


#146

请问你是怎么调整权重的啊?


#147

不同hidden units对learning rate和weight_decay也会有很大不同,当改变数值较大时需要调调learning rate


#148

能谈谈你的调参思路么,感激不尽。


#149

现在面临的问题是,lr太小,train loss都很大,增加lr,train loss会降,但是test loss就会进一步变大,实在不知道怎么解决。


#150


#151


去掉dropout,进了0.12


#152


今天的提交次数够了10次
目前最优:0.11459


#153

test loss 要靠 weight decay、dropout、epochs (early stop) 来解决啊,在设定的 hidden units 下,把 learning rate 调到一个好看的曲线是才是第一步要做的


#154


从不知所措到找到点门道真是不容易啊


#156


也把自己的最好成绩传一下吧,虽然相比之前没多少提升…


#157


1,增加隐含层;
2,减小学习率;
3,增大了weight_decay;
4,采用了feature selection(一定程度上减弱了过拟合的程度,但对最终精度提升不明显)


#158


加了 dropout的之后有了一点小提升,话说第一名的0.06 这个是开挂了吧。。。。


#159


ddl-driven parameter tuning:
feature engineering, learning rate, wd, dropout


#160

做了一些特征工程以及调参


#161

你是截止时间前最后一个submission :slight_smile:


#162

神经网络只调到了0.122…有调整到0.12以内,完整的github代码分享么?


#163

最近刚刚开始,虽然作业早就截止了,不过还是来凑个热闹好了。

只调了调参数,没有任何Feature Engineering。


#164

点赞,厉害。我加了一层256 的hidden layer。 加了dropout 0.5,weight decay 加到了75,把epoch减到85, learning rate 也每10次递减0.8, 结果也只有0.12120.


#165

您好,请问一下,在哪里可以看到这个数据集的详细注释,比如每个变量的含义,每条数据的时间分辨率,单位等等?