softmax 回归的从零开始实现 讨论区


#107

-1 的会被替换成 x.size / num_inputs

你batchsize多少?除不除都是看个人喜好。对SGD来说,他只关心最后传进去的值


#108

手动点赞!


#109

看最后的test acc

可能是学习率太大,导致数值不稳定了


#110

各位老师好!
test_data = gluon.data.DataLoader(mnist_test, batch_size, shuffle=False)
这样test_data 每组是一个batch_size 大小, 为什么print 出来只有40?
for i in test_data:
m += 1
print(m)
executed in 4.27s, finished 10:59:09 2018-02-22
40


#111

返回40个batch吧


#113

关于数据的维度问题.
我在help(gluon.data.vision.FashionMNIST)
“Each sample is an image (in 3D NDArray) with shape (28, 28, 1).”,
请问最后一个维度是什么数据啊?
谢谢


#114

channel,因为mnist是个黑白数据集


#115

不知道有没有人试过用gpu来实现课程案例,我将课程案例转为gpu来计算,计算结果的是nan,此时,我已经将exp修改为数值稳定版本的函数了,但是,如果将gpu改为cpu计算,结果立刻就可以了,有人知道原因么?


#116

请教下画图的代码里
_, figs = plt.subplots(1, n, figsize=(15, 15))

这个 _, 是什么语法,百度了下没看到python有这个语法
谢谢!


#117

我知道了,我设置了固定的seed,可能和这个有关系


#118

哦,对的。谢谢


#119


有bug吗?请教一下


#120

就是一个单纯的下划线,表示一个figure对象


#121

各位大神请问下,教程中的模型参数,也就是w,b。这两个参数为什么是直接定义的呢,直接给出来,不需要经过什么步骤或者遵循什么规则来评定的嘛??


#122

还需要改成这个吗?@mli

def cross_entropy(yhat, y):
# return - nd.pick(nd.log(yhat), y)
return -nd.log(nd.pick(yhat, y))


#123

谢谢,我后来也用谷歌查到了!


#124

可以使用其他的数据集进行训练和测试的把 需要修改什么呢


#125

你找到了合理的解释吗?


#126

还没去看,还在调kaggle的参数:joy:


#127

对开头的data.shape有个疑问,请问为什么是(28, 28, 1)呢?每张图片不是28行x28列的矩阵吗,感觉(28, 28)就够了。请问这个第三维代表的是什么?文档中并没有找到相关说明。