文本情感分类:使用卷积神经网络(textCNN) 讨论区


#1

http://zh.diveintodeeplearning.org/chapter_natural-language-processing/sentiment-analysis-cnn.html

本节主要内容由我的summer code mentee何孝霆 @qdhlbt 贡献。谢谢孝霆!

summer code详情:


#2

今天面试问道CNN在NLP的应用,说到textCNN我之前就看过一点,模型demo都没写过很尴尬。:joy:我记得前两两天还没有这一章


#3

如果你发现这一节有哪些写的不好的地方,欢迎贡献哈:

祝面试通过~


#4

借你吉言,通过面试了,今天已经HR面完了。我昨天改了一点(第一次在github修改)竟然通过了,也是十分开心了 :rofl:


#5

多谢贡献,这一节我又完善了一下描述:
http://zh.gluon.ai/chapter_natural-language-processing/sentiment-analysis-cnn.html


#6

这版描述很清楚很易懂,太赞了


#7

ChunkedEncodingError: (‘Connection broken: OSError("(10054, ‘WSAECONNRESET’)",)’, OSError("(10054, ‘WSAECONNRESET’)",))


#8

请问,如果说对于类似于 标注 这样的 活动,要求 输入词数 与 输出单元数一致,具体说 输入 (批量大小,词数),输出也是 (批量大小,词数) 这种情况,textCNN 效果怎么样?


#9

另外还有一个问题是,问什么 textCnn 里面 需要一个 constant_embedding ,它的作用是什么?


#10

你好,请问你的问题解决了吗?我也不懂constant_embedding的作用

将两个形状是(批量⼤⼩,词数,词向量维度)的嵌⼊层的输出按词向量连结。
embeddings = nd.concat(self.embedding(inputs), self.constant_embedding(inputs), dim=2)

想不懂为什么要这么做?这个相当于把100维向量变成200维,前100维可以train,后100维是constant?


#11

还没有,一直放着的


#12

CNN-multichannel : 用多种不同的词向量来代表同一个单词,也就是有多通道的概念。一个通道的词向量是不变的,一个是在训练中进行调试的,但是和单通道比较有好有坏。可以采用一个是Word2vec,一个是Glove来进行训练。


#13

你好,textcnn中对输入大小通道数是11,卷积之后为什么变成4和5了呢?不应该还是11吗?


#14

这个4和5是在卷积计算中指定的输出通道数