微调 讨论区


#102

感谢回复,另外还有一些问题想请教一下。请问299是在哪里看的呢?我在ubuntu下下载的网络模型和参数,在文件夹目录下看不到,要在终端里面用命令才看得到,请问你知道为什么吗?如果我要用inception_v3的话,把输入图片改为299就可以了吗?


#103

我设置出现这样的问题,请问你遇到过没

OSError: [Errno 99] Cannot assign requested address


#104

现在的问题是,我设置了那个路径,但还是下载超慢,感觉就没在下载


#105

这个可以用


#106

请问最后这个问题解决了吗


#107

解决了,不知道你什么问题


#108

也已解决,主要是阿里云机器启动时获取的ip有问题,手动指定ip就ok了


#109

我根据函数直接使用我自己的图片数据,然后在加载的时候会报错
training on [gpu(0), gpu(1), gpu(2), gpu(3)]

Exception Traceback (most recent call last)
in ()
----> 1 train_fine_tuning(finetune_net, 0.01)
2 finetune_net.save_params(“ResNet101_finetune.params”)

in train_fine_tuning(net, learning_rate, batch_size, num_epochs)
11 trainer = gluon.Trainer(net.collect_params(), ‘sgd’, {
12 ‘learning_rate’: learning_rate, ‘wd’: 0.001})
—> 13 gb.train(train_iter, test_iter, net, loss, trainer, ctx, num_epochs)

~/data/xukang/gluon_tutorials_zh-1.0/gluonbook/utils.py in train(train_iter, test_iter, net, loss, trainer, ctx, num_epochs)
376 train_l_sum, train_acc_sum, n, m = 0.0, 0.0, 0.0, 0.0
377 start = time()
–> 378 for i, batch in enumerate(train_iter):
379 Xs, ys, batch_size = _get_batch(batch, ctx)
380 ls = []

~/miniconda3/envs/gluon/lib/python3.7/site-packages/mxnet/gluon/data/dataloader.py in (.0)
277 if self._num_workers == 0:
278 generator = lambda: [(yield self._batchify_fn([self._dataset[idx] for idx in batch]))
–> 279 for batch in self._batch_sampler]
280 return generator()
281

~/miniconda3/envs/gluon/lib/python3.7/site-packages/mxnet/gluon/data/dataloader.py in (.0)
276 def iter(self):
277 if self._num_workers == 0:
–> 278 generator = lambda: [(yield self._batchify_fn([self._dataset[idx] for idx in batch]))
279 for batch in self._batch_sampler]
280 return generator()

~/miniconda3/envs/gluon/lib/python3.7/site-packages/mxnet/gluon/data/dataset.py in getitem(self, idx)
124
125 def getitem(self, idx):
–> 126 item = self._data[idx]
127 if isinstance(item, tuple):
128 return self._fn(*item)

~/miniconda3/envs/gluon/lib/python3.7/site-packages/mxnet/gluon/data/vision/datasets.py in getitem(self, idx)
320
321 def getitem(self, idx):
–> 322 img = image.imread(self.items[idx][0], self._flag)
323 label = self.items[idx][1]
324 if self._transform is not None:

~/miniconda3/envs/gluon/lib/python3.7/site-packages/mxnet/image/image.py in imread(filename, *args, **kwargs)
80 <NDArray 224x224x3 @cpu(0)>
81 “”"
—> 82 return _internal._cvimread(filename, *args, **kwargs)
83
84

~/miniconda3/envs/gluon/lib/python3.7/site-packages/mxnet/ndarray/register.py in _cvimread(filename, flag, to_rgb, out, name, **kwargs)

~/miniconda3/envs/gluon/lib/python3.7/site-packages/mxnet/_ctypes/ndarray.py in _imperative_invoke(handle, ndargs, keys, vals, out)
96 if num_output.value == 1:
97 return _ndarray_cls(ctypes.cast(output_vars[0], NDArrayHandle),
—> 98 stype=out_stypes[0])
99 else:
100 return [_ndarray_cls(ctypes.cast(output_vars[i], NDArrayHandle),

~/miniconda3/envs/gluon/lib/python3.7/site-packages/mxnet/ndarray/sparse.py in _ndarray_cls(handle, writable, stype)
1181 return RowSparseNDArray(handle, writable=writable)
1182 else:
-> 1183 raise Exception(“unknown storage type: %s”%stype)
1184
1185

Exception: unknown storage type: -1

我已确认不是数据的问题,是加载的问题


#110

inceptionV3微调好之后如何来加载模型预测一张图片呢?


#111

可以参考这个小教程:https://gluon-cv.mxnet.io/build/examples_classification/demo_imagenet.html

注意要把预处理的参数步骤等,改为和你做验证时用的一样。


#113

from gluoncv.utils import export_block
ImportError: cannot import name export_block
你好遇到过这个问题吗,gluoncv 0.3 我想把模型导出,按照教程来的,报错。


#114

在gluon.Trainer里面可以定义需要更新的参数


#115

我是翻墙下载的数据集,但是不能在翻墙浏览器中使用jupyter notebook,我将数据解压到了…/data中,但是执行是提示路径错误[WinError 3] 系统找不到指定的路径。: ‘…/data\hotdog/train’
我知道这个路径格式是不对的,这不是我自己写的路径,为什么data的子目录是\呢,因为\t是转义字符,我以前自己写路径的时候,会写成…/data/hotdog/train或…\data\hotdog\train,可是,这个我没有改程序,也没有自己写路径


#116

是的。测试一下就知道了,ImageFolderDataset会根据你的目录存放顺序来进行标记。
比如路径为:root/item0/xxx.png,root/item1/xxx.png,…………(必须是这种格式才行,也就是根目录/名称(叫什么都无所谓,但是起成类别对应的物体方便辨认)/图片)假设文件夹从item0一直到item9,也就是说,共有10类,它会按照你的存放顺序,标签值为0-9.


#117

请问为什么是取反?想法来自哪里呢?


#118

这个就是手动xer初始化嘛


#119

是不是写反了阿。
前面层是lr,后面的是lr*le_mul吧


#120

都行 一般前面小一点,后面大一点


#121

请问你是怎么解决的


#122

请问这一行: output_init = nd.concat(hotdog_w, w, dim = 0)
shape是(2,1000),那么 finetune_net.output.initialize(init.Constant(output_init)) 时是否自动广播到 (512, 1000)