全卷积网络(FCN)讨论区


#92

hello 我有個疑問問一下大家
範例code在decode部分是直接做conv(1x1), trans_conv(),
那在這邊做的都是線性乘法?
是現在decoder部分比較不用做nonlinear( Activation Function)嗎


#93

请问各位,FCN这个例子至少需要什么样的电脑配置才能跑通?
我的电脑是12G内存,GTX760,batch设到了10,只放了50张训练和标签图片进去训练,
还是出现tensor_gpu-inl.cuh:110: Check failed: err == cudaSuccess (2 vs. 0) Name: MapPlanKernel ErrStr:out of memory
1


#94

你gpu記憶體很少( 2GB)… 感覺可能連1都放不進去
硬要跑的話把ctx = mx.cpu() 用cpu跑吧


#95

终于试出来了,我把batch调到8就可以用gpu跑了:sleepy:


#96

老哥,一样的问题,你现在解决了吗。。。


#97

大家下载预训练模型需要多久?
pretrained_net = model_zoo.vision.resnet18_v2(pretrained=True)
这个我跑了好久都没有下载下来


#98


#99

一样的问题,老哥你解决了吗


#100

test_images, test_labels = gb.read_voc_images(is_train=False)
代码中的read_voc_images函数中的is_train应改为train
mxnet版本为mxnet-cu91 1.2.1.post1


#101

一样的问题,请问一下,你现在解决了这个问题了吗?


#102

确切的说应该是使用双线性插值的转置卷积层实现了反卷积层的操作,反卷积层在教程里希望实现图像的还原(也就是说增大像素高和宽的情况下尽可能还原像素点的像素值)


#103


看B站视频,有个疑问,为什么要加一个batch 的dimension?对axis=1做argmax其实是对axis=2上的RGB做最大值索引吗?可是之后为什么又要把batch的axis=0,channel 的axis=1拿掉啊?这样reshape之后的确变成了2D的图像信息,那不就只剩像素点了吗?求解,很疑惑这边的预测部份。


#104

搞个"转置卷积"的概念没有意义,通过合适的排列卷积可以用矩阵乘法表示。对于图像插值,最终计算的时候也是卷积,相当于对一块区域用不同的权重卷积多次,然后按顺序排列到输出图像上。还可以理解成strides不足1个像素,stride的增量累计不到1的时候每个stride都换一个卷积核,超过1了又回到第一个卷积核。这种形式的卷积也可以转换成矩阵乘法表示。名字叫转置卷积,反而又很大的疑惑性,跟矩阵的转置并没有关系。卷积转换成矩阵乘法表示的方式,就是把输入拉平,在对应不同行的卷积行中间填充零。


#105


报错了,Google也找不到解决办法,求帮助!!!!!!
mxnet版本是mxnet-cu90,cuda版本是9.0,mxnet能正常运行,就是这一步出错了


#106

image
这里的loss、train acc 和test acc都代表什么意思啊,说明了什么?有大佬解释下吗,小白


#107

在国内可以设置环境变量MXNET_GLUON_REPO为https://apache-mxnet.s3.cn-north-1.amazonaws.com.cn/来加速从Gluon下载数据集和预训练模型参数。


#108

想问下这个报错怎么解决