softmax回归的简洁实现 讨论区


#1

http://zh.diveintodeeplearning.org/chapter_deep-learning-basics/softmax-regression-gluon.html


#2

问下, 在下载数据时, 传入的transform函数做了类型转换, 是MXNet内在要求只处理float32的数据吗???


#3

应该也支持float64,只不过float32是精度和速度的一种权衡,因为float64会慢一些


#4

哦, 我的意思是, 只支持浮点数? 或者输入为整数时, 是否会自动转为浮点数, 毕竟每次都转换比较麻烦.


#5

可以支持其他的吧,只不过进入网络做运算肯定要浮点数,整数做不了吧,自动转应该不行吧,这我不知道


#6

@szha mxnet会自动作类型转换吗? 像把整数转为浮点数来进行运算.


#7

utils里面并没有utils.load_data_fashion_mnist这个函数


#9

目前还是需要手动转换的


#10

你是如何下载教程的?


#11

这里是有的 https://zh.gluon.ai/utils.py


#12

是不是最近有更新,我是第一天下载下来的代码


#13

嗯是的,我们这里根据反馈一直在更新


#14

图片
这里的Flatten层是怎么转化输入数据的?不需要传入batch size参数吗?可以自动识别?


#15

会将整个维度展开,比如输入的是(N, M, D),经过flatten之后就变成(N, (M x D)),第一维一般是batchsize,所以不会被展开,这个操作一般是卷积网络和全连接网络之间的操作。


于置顶 #16

#17

灰常感谢,以前没有接触过这些,很多函数都不知道怎么工作的,再次感谢!


#18

请教一下, 下面 这段代码的作用是什么?
import sys
sys.path.append(’…’)


#19

清楚了,因为utils.py在当前目录的前一级目录下(…/utils.py),所以叠加路径(’…’)


#20

请问如何在GPU上用Gluon运行FashionMNIST的例子?net.initialize(ctx=mx.gpu()) 会在训练的时候报错:

RuntimeError: Parameter sequential0_dense0_weight was not initialized on context cpu(0). It was only initialized on [gpu(0)].

我猜是因为data还在CPU上。所以怎么才能把MNIST data转移到GPU上?


#21

net.collect_params().reset_ctx(ctx=mx.gpu())