d*****u 发帖数: 17243 | 1 https://arxiv.org/pdf/1508.01991.pdf
https://arxiv.org/pdf/1606.03475.pdf
一个是百度的人写的,一个是MIT的人写的。
但是关键地方都没引用,所以看起来都是当成原创。
(着重第一篇文章第4页,和第二篇文章5~6页)
不过都还是arxiv文章,就算真的抄也不用负责任 |
d**s 发帖数: 4741 | 2 谁先挂出来的算谁的 百度的人先挂出来 很好,免得白人和本版白人的儿子说中国人只
会抄袭云云 |
D********d 发帖数: 2154 | |
b***y 发帖数: 14281 | |
d****o 发帖数: 32610 | 5 不是说NN全面碾轧graphical model吗
怎么又反过来结合CRF了
ps这领域一年差距很大了吧
【在 d*****u 的大作中提到】 : https://arxiv.org/pdf/1508.01991.pdf : https://arxiv.org/pdf/1606.03475.pdf : 一个是百度的人写的,一个是MIT的人写的。 : 但是关键地方都没引用,所以看起来都是当成原创。 : (着重第一篇文章第4页,和第二篇文章5~6页) : 不过都还是arxiv文章,就算真的抄也不用负责任
|
d*****u 发帖数: 17243 | 6 这种任务是序列分类,每一步都要给个label,所以把transitional probability用进
去可能更好一些。
其实RNN已经包含了输出的序列信息,但是是间接的。
【在 d****o 的大作中提到】 : 不是说NN全面碾轧graphical model吗 : 怎么又反过来结合CRF了 : ps这领域一年差距很大了吧
|
d****o 发帖数: 32610 | 7 label也就是中间结果给人看的吧?
后续计算是不是直接原始结果当input就行了
【在 d*****u 的大作中提到】 : 这种任务是序列分类,每一步都要给个label,所以把transitional probability用进 : 去可能更好一些。 : 其实RNN已经包含了输出的序列信息,但是是间接的。
|
d*****u 发帖数: 17243 | 8 RNN在训练的时候,每一步只跟当前的label比较,得出误差。
但是RNN每一步都会把当前信息反馈回网络去,所以后面的输出是coditioned on前面的
输出。
特别是LSTM,它有gate控制记忆和遗忘,可能记住较长的序列。
把RNN和CRF弄到一起,就是最后用transitional概率再优化一次。
【在 d****o 的大作中提到】 : label也就是中间结果给人看的吧? : 后续计算是不是直接原始结果当input就行了
|
s*****V 发帖数: 21731 | 9 NN这种东西门槛很低,就是同时发现也不奇怪
【在 d*****u 的大作中提到】 : https://arxiv.org/pdf/1508.01991.pdf : https://arxiv.org/pdf/1606.03475.pdf : 一个是百度的人写的,一个是MIT的人写的。 : 但是关键地方都没引用,所以看起来都是当成原创。 : (着重第一篇文章第4页,和第二篇文章5~6页) : 不过都还是arxiv文章,就算真的抄也不用负责任
|
d*****u 发帖数: 17243 | 10 不是说用NN
而是LSTM+CRF layer
而且那个CRFlayer用的公式都一样,实际上是可以有其他方法的。
应用领域也基本差不多。都是属于小距离entity tagging
【在 s*****V 的大作中提到】 : NN这种东西门槛很低,就是同时发现也不奇怪
|