文本情感分类:使用循环神经网络 讨论区

http://zh.diveintodeeplearning.org/chapter_natural-language-processing/sentiment-analysis-rnn.html

感谢 @cgraywang 贡献本节内容!

4赞

撒花点赞。

请问l.backward()这里报OSError怎么办呢

我刚刚试了还是可以跑,你用的是链接里的原来代码跑的嘛?或者试一试重新下载并解压数据集?

遇到了同样的问题:
OSError Traceback (most recent call last)
in ()
7 with autograd.record():
8 l = loss(net(X), y)
----> 9 l.backward()
10 trainer.step(batch_size)
11 train_loss, train_acc = eval_model(train_features, train_labels)

~\Anaconda3\lib\site-packages\mxnet\ndarray\ndarray.py in backward(self, out_grad, retain_graph, train_mode)
2108 ctypes.c_int(train_mode),
2109 ctypes.c_void_p(0),
-> 2110 ctypes.c_void_p(0)))
2111
2112 def tostype(self, stype):

OSError: [WinError -529697949] Windows Error 0xe06d7363

  1. 其他有用到l.backward()的教程可以跑吗?
  2. 如果改成pip install mxnet==1.2.0呢?

@cgraywang 咱们有windows可以测试一下不

1.刚刚跑了一个简单线性回归的教程,这时候没有问题。
2.现在在用的mxnet版本就是1.2.0,现在正尝试升级到1.3再试试
3.请问有快捷的交流方式吗?用论坛效率有些低

我这里没有问题 mxnet是1.2 。 你电脑啥配置?主要是内存多大,你把batch_size调小试试。@astonzhang 因该是配置问题吧

epoch是1的时候不会报OSError,但是epoch设为10就会报错,请问这时候是要改相应的code,还是计算机的内存不够导致的呢?

batch_size=10…挺小了吧

连结初始时间步和最终时间步的隐藏状态。

encoding = nd.concat(states[0], states[-1])
请问这个的含义是什么?为什么是初始和结束的?多了加几个可以吗

初始的包括反向rnn对句子的编码信息,最终的包括正向rnn对句子的编码信息

1赞

这边的LSTM是双向的,把每个h的h_0和h_1的结果contact作为最后的h输出

1赞

恩恩,了解了

请问在这个双向循环网络的例子中,时间步大小是怎么确定的?

训练模型时出现以下错误:


有没有大神指示一下什么原因?

predict_sentiment(net, vocab, ['I', 'do', 'not', 'like', 'the', 'plot'])

输出的是positive。这个模型不能识别do not这样的词吗?