线性回归的简洁实现 讨论区


#82

还有一个疑问,文章中说在net(x)之后,模型会自动推断出每一层的输入个数,也即输入的特征数,那么在这之前已经进行过参数初始化的工作了,即,执行net. initialize(in it.Normal(sigma=0.03))时还不知道输入的情况,他是怎么初始化权重(w)的,在不知道输入特征个数的基础上? (在 从零开始实现 这一节里,w初始化时,w的大小是人为设计的,依赖于输入特征数,但是 简洁实现 这一节的同一部分只是调用了初始化函数而已,没看出手动设计参数w大小的痕迹)


#83

你看从零开始实现那一节,随机的其实是全部样本的indices,然后通过间隔batch_size来依次选取indices,所以这里的随机选取就会遍历所有的样本。:grin:


#84

刚看到模型参数的延后初始化,明白是怎么回事了,看来前期好多问题在后面都有解释的


#85

请教各位:
labels = true_w[0] * features[:, 0] + true_w[1] * features[:, 1] + true_b
labels += nd.random.normal(scale=0.01, shape=labels.shape)
这句代码是想实现什么?前面有labels了,后面一句看不太懂


#86

我们在 step 函数中指明批量大小,从而对批量中样本梯度求平均。


#88

为什么用gluon来实现网络时,不需要用attach_grad()?


#89

对应之前的 [linear-regression-scratch.ipynb]中batch_size