丢弃法 讨论区

请问习题中的同时使用权重衰减和dropout是怎么实现的呢?
如果直接定义trainer = gluon.Trainer(net.collect_params(), ‘sgd’, {‘learning_rate’: lr, ‘wd’: wd})
那会对权重和偏差都进行L2范数正则化
如果将权重和偏差分开定义trainer_w(使用wd)和trainer_b(不使用wd),又无法套用后面的d2l.train_ch3函数
只想实现对权重进行衰减并dropout的程序怎么实现呢?

一个建议:
是否可以将准确度的计算都放到一次epoch后,用一次epoch训练得到的参数进行预判且计算train acc 和 test acc ,否则的话train acc是在一次epoch训练的过程中进行累加得到的,而当模型未收敛时准确度自然是会越来越高的,从而会得到train acc小于test acc的情形,使得调参不够直观