softmax 回归的从零开始实现 讨论区


#1

http://zh.diveintodeeplearning.org/chapter_deep-learning-basics/softmax-regression-scratch.html


#2

请问,FashionMNIST数据集有人下载成功过么?怎么我这边老师下载失败?


#3

https://discuss.gluon.ai/t/topic/381这是我之前的问题,不知是否能解答你的疑惑


#4

我们mxnet这边正在试图改善文件传输的速度, 你们试试看这个能下载成功吗?
https://apache-mxnet.s3-accelerate.dualstack.amazonaws.com/gluon/dataset/fashion-mnist/train-images-idx3-ubyte.gz


#5

感谢,我这边可以链接下载,只是速度特慢,,:joy:


#6

感谢,可能是我自己网速的问题,虽然还是有点慢,但是起码速度提高了一倍:grin:


#7

你觉得这个还能压缩压缩吗?毕竟是大家都要用的数据集


#8

看了下,比较悬。还是弃疗再压缩了


#9

感谢沐神,这个帖子解决了数据集的问题。FashionMNIST手动下载请问如何操作?


#10

我上面帖子里的链接应该也包含了使用eu-central的镜像的,所以速度应该至少跟那个持平才对
你用那个链接速度会快么?


#11

用这个链接https://apache-mxnet.s3-accelerate.dualstack.amazonaws.com/gluon/dataset/fashion-mnist/train-images-idx3-ubyte.gz速度还是慢,我这边在30k左右。用github上的那个链接速度在400k左右,


#12

这样,可能是cloudfront的cache还没有好,用的人多会好些的吧
多谢你提供的信息


#13

haha,客气了,还得感谢你们提供了社区和教程:grin:


#15

image
想问一下 output.argmax(axis=1)==label是不是在做比较操作,得到一个由0和1构成的矩阵之后,mean是一种怎样的操作,查看结果不像是求均值,查看了help是求标量,想问一下这个标量是怎么计算得出的???


#16

我还想请问一下
image

因为我们随机初始化了模型,所以这个模型的精度应该大概是1/num_outputs = 0.1.
这个模型的精度为什么可以这样计算?


#17

加入样本数为256,输出的分类类别一共为10类,那么output就是256×10的矩阵。output.argmax(axis=1)得到一个256×1的矩阵,每行只有一个数,且该数即是原来256×10矩阵中每行最大值所在列的索引(即概率最大的类别)。output.argmax(axis=1)==label是在做比较,得到256×1的{0,1}矩阵,1即代表推断正确(和label一致),0即代表推断错误。nd.mean即矩阵所有元素的和除以矩阵元素的个数,即所有1的个数除以256,也即正确率。


#18

交叉熵这块怎么理解,这个pick又做了一个怎样的操作?


#19

下面这步算的是一列长度为batch size的数,其中0是错误的1是正确的

(output.argmax(axis=1)  == label)

accuracy要的是正确数量除以总数,所以对上面这列数直接求mean就行了


#20

初始化以后的模型相当于会随机在10个output间输出,所以每个类精度差不多在10的倒数左右


#21

这里pick是取正确的那类对应的输出的log probability, 具体可以看看这篇里讲的loss function 求导那节