GPU计算 讨论区


#44

dataset_train的数据都是在GPU上的,使用data_iter_train输出data与label

data_iter_train = gluon.data.DataLoader(dataset_train,batch_size,shuffle=True)
for data,label in data_iter_train:
      print(output[:5],label[:5])
      break

[[ 0.57784522]
[-0.05042491]
[ 0.26459014]
[ 0.37960264]
[-0.13767268]]
<NDArray 5x1 @gpu(0)>
[ 135000. 158000. 241000. 106500. 134900.]
<NDArray 5 @cpu(0)>
为什么data在GPU,而label在CPU??


#45

print上面加上这行
data,label=data.as_in_context(ctx),label.as_in_contenxt(ctx)


#46

thx~ 请问下,为什么这样生成的数据会在不同的context中


#47

我也不清楚2333,不过计算的时候如果不在同一设备上是会报错的


#48

我已经安装了mxnet-cu80,但是程序里还是不能用

请问大神,问题出在哪里了?


#49

请问
我有一批数据 单卡训练的话需要10G的显存。
但是我有两张显存是6G的卡
在双卡的情况下可以训练么


#50

MXNetError: [11:00:03] src/storage/storage.cc:118: Compile with USE_CUDA=1 to enable GPU usage
这个是怎么回事呢,百思不得其解


#52

为什么我使用4个GPU使用Resnet训练FashionMNIST数据集会比使用一个GPU更慢呢?,是因为GPU数量多了,模型参数在汇总时会更耗时间吗?:disappointed_relieved:


#53

1. 使用gpu计算nd array平方时出现一个奇怪的错误,例如a为负数时,计算a**2结果为nan。

Input: a = nd.array([-1], mx.gpu())
       a ** 2

Output: [ nan]
        <NDArray 1 @gpu(0)>

2. 使用cpu计算a**2结果正常。

Input: a = nd.array([-1], mx.cpu())
       a ** 2

Output: [ 1.]
        <NDArray 1 @cpu(0)>

3. 使用gpu通过a*a进行计算,结果也正常。

Input: a = nd.array([-1], mx.gpu())
       a * a

Output: [ 1.]
        <NDArray 1 @gpu(0)>

请问为什么使用gpu计算a**2,结果会出现异常?


#54

是这样的


#55

你是什么版本?我这里看上去正常


#56

这是我电脑上mxnet的版本


#57

你去更新一下你的显卡驱动,我当时也碰到这个问题了,安装好了cuda8,可以正常导入包,import mxnet,但是一把数据建立在gpu上,就会报错,后来把显卡驱动更新了就好了


#58

沐神,啥时候出MAC的GPU版本啊。。。等的好急


#59

本地采用GPU正常,但是在notebook上面前面几步都是正常,但是到了第四步就会报错~~~这是为啥?!


#60

这个问题解决了吗?遇到了同样的问题


#61

没有啊,换了浏览器,也还是没办法启动GPU


#62

@szha @mli
二位大神能解答一下
https://discuss.gluon.ai/t/topic/4276
这个问题吗。。关于GPU计算的。。


#64


安装完mxnet-cu80后运就会有这条警告,并且用到GPU的时候Python会出现异常终止程序。

win10 + cuda8.0 + GTX630
求各位解答一下


#65

并没有用到GPU。。。显卡换个能用的吧。。。这个不行。。。