NLP baseline paper,你读過了吗

nlp词云图

第一部分 NLP baseline

  1. NLP综述
  2. Efficient Estimation of Word Representation in Vector Space arxiv原文 ICLR2013,词向量扛鼎之作
  3. GloVe: Global Vectors for Word Representation stanfordNLP原文 EMNLP2014,最著名的词向量训练模型之一
  4. Compositional character models for open vocabulary word representation arxiv原文 EMNLP2015,第一篇介绍字符嵌入
  5. Convolutional Neural Network for Sentence Classification arxiv原文 EMNLP2014,CNN文本分类扛鼎之作
  6. Character-level Convolutional Networks for TextClassification arxiv原文 NIPS2015,第一篇字符级别的文本分类
  7. Bag of Tricks for Efficient Text Classification arxiv原文 EACL2017,细粒度文本分类模型
  8. Sequence to Sequence Learning with Neural Networks arxiv原文 NIPS2014,深度LSTM做神经枳器翻译
  9. Neural Machine Translation by Jointly Learning to Align and Translate arxiv原文 ICLR2015,第一篇提出注意力机制的论文
  10. Hierarchical Attention Networks forDocument Classification ACL原文 NAACL2016,HanAttention用于文本分类
  11. SGM: Sequence Generation Model for Multi-label Classification arxiv原文 Coling2018,第一篇使用序列生成做多标签文本分类的论文

以下未完成

第二部分 NLP细分专题

Part1预训练模型

  1. 预训练模型综述
  2. transformer–预训练模型的基石
  3. transformer-xl–文本生成任务经典模型
  4. elmo–经典动态词向量,预训练模型三巨头之一
  5. GPT–文本生成任务上的巨人
  6. bert–预训练模型最耀眼的那颗星
  7. ulmfit–少量样本训练的预训练模型
  8. alber–轻量级bert的代表之作
  9. mass–包含gpt和bert的预训练模型
  10. xlnet–自回归预训练模型代表之作
  11. electra–轻量级新生代预训练模型

Part2文本匹配

  1. 文本匹配综述
  2. DSSM–第一篇深度学习领域文本匹配文章
  3. SiamseNet–利用孪生网络计算文本相似度
  4. Compare-Aggreaget–多角度提取文本特征,利用CNN特征融合
  5. ESIM–最流行、经典的文本匹配模型,优秀的baseline
  6. BiMPM–多诵道、多角度匹配,充分挖掘文本特征
  7. CSRAN–扩展CAFE算法、多层注意力交互的深层模型
  8. DMAN-模型加入了迁移学习和强化学习技巧
  9. DRCN–融合DenseNet和注意力机制的深度网络模型
  10. DRr.Net–模型通过对重点内容的反复阅读来提升对文本的理解
  11. MT-DNN–基于多任务的联合训练模型

Part3图神经网络

  1. 图神经网络综述
  2. Node2vec–平衡同质性和结构性
  3. LINE–1阶+2阶相似度
  4. SDNE–多层自编码器
  5. metapath2vec–异构图网络
  6. TransE–知识图谱奠基
  7. GCN–开山之作
  8. GAT–attention机制
  9. MPNN–空域卷积消息传递框架
  10. GGNN–门控图神经网络
  11. GraphSAGE–归纳式字习框架

Part4信息抽取

  1. 信息抽取综述
  2. BiLSTM-CRF–深度学习应用NER的经典模型
  3. Lattice-LSTM–融合字词向量的中文NER
  4. FALT-Transformer应用NER
  5. CNN-LSTM-CRF–加入分词任务的联合训练NER
  6. PretrainedEmbeddings–基于字符语言模型的NER
  7. End-to-EndRelationExtraction–关系抽取经典论文
  8. Few-ShotRelationClassification–基于小样本的领域自适应关系分类
  9. BERT-based Relation learning–基于Bert实现关系抽取
  10. Adaptive SCaling–解决正负例不平衡的系数检测问题
  11. Nugget Proposal Networks–解决信息抽取中的分词依赖问题
  12. Cost-sensitive Regularization–解决事件检测中的易混淆类别问题
  13. Anchor-Region Networks–解决命名实体识别中的嵌套实体问题

    参考

0%