GPU计算 讨论区


#22

我昨天尝试了你在别的帖子里发的with mx.gpu()
在jupyter notebook里用这个真的好麻烦,每个cell都要加,然后还要缩进
还是这个实用


#23

windows的cuda8.0是不是也没资源了?


#24

请问GPU对shallow model(比如说logistic regression)会加速很多吗?还是CPU就可以了?


#25

感觉数据量够大的话,应该也是能感到比较明显的加速吧。


#26

我把多类逻辑回归 — 使用Gluon的image size调大到512,然后用cpu和K80分别跑了5个epoch。cpu 运行时间是18m 25s, gpu的运行时间是 15m 20m,没有特别大的区别


#27

不会吧 因为数据量太小了 GPU像火车 一次能力大 但是你把火车当做汽车代步用反而速度上不如汽车 不能发挥最大潜力


#28

pip install --pre mxnet-cu80 是不是说明gluon的GPU版本还处在release版本上 不稳定版本?


#29

想问一下有没有人遇到跟我一样的情况,安装了mxnet-cu80,显示的名字却是mxnet,而且之后使用GPU的时候报错。


#30

cpu版的mxnet你可能没卸载,导入的时候导入的是CPU版的mxnet,如果是cuda库有问题,在导入mxnet的时候一般就会报错了


#31

是的,我发现gluon环境里面的mxnet不是GPU版本的,卸载重新安装就好了。


#32

我把image size改成1024*1024, cpu 运行时间是 1h 16m, gpu的运行时间是 57m,还是没有特别大的区别


#33

比较浅的网络确实加速不会那么明显。不过应该不会是你结果那样的近。你试试跑跑cnn看看是不是差距比较大。或者看看这个小benchmark比较cpu和gpu区别

import time
ctx = mx.gpu()
x = nd.random.uniform(shape=(4096, 4096))
# warm up
y = nd.dot(x, x)
nd.waitall()

tic = time.time()
y = nd.dot(x, x)
nd.waitall()
print(time.time() - tic)

#34

我运行第一个命令会提示这个:‘nvidia-smi’ 不是内部或外部命令,也不是可运行的程序
或批处理文件。但是我显卡和cuda应该已经是装好了的,path也已经添加了,这个有什么方法可以检查么?


#35

windows还是linux?linux应该不需要管,windows你看下path对不对


#37

我的是ubuntu14.04 也不行


#38

python里import sys; print sys.maxunicode返回的是什么?


#40

我用的是python3,返回的结果:1114111


#41

试试升级下python和pip吧,可能你用的版本match不上我们已经build好的


#42

我的是windows系统,后来发现我是在path的最后少加了一个\导致的


#43

我记得TensorFlow是默认使用GPU的,MXNet是必须手动说明使用GPU吗?