近期会更新一系列NER的paper解读,计划2周时间将NER的重要的论文刷完,有一个想做的事情嘻嘻😁。这篇博客主要讲解一下cross-lingual NER,解读今年MSRA发表的三篇论文:《Enhanced Meta-Learning for Cross-lingual Named Entity Recognition with Minimal Resources》、《Single-/Multi-Source Cross-Lingual NER via Teacher-Student Learning on Unlabeled Data in Target Language》、《UniTrans : Unifying Model Transfer and Data Transfer for Cross-Lingual Named Entity Recognition with Unlabeled Data》,以及附带的《GRN: Gated Relation Network to Enhance Convolutional Neural Network for Named Entity Recognition》。
NLP|Adaptive Embedding paradigm in ChineseNER
近期会更新一系列NER的paper解读,计划2周时间将NER的重要的论文刷完,有一个想做的事情嘻嘻😁。这篇博客主要讲解中文NER的Adaptive Embedding paradigm。所谓的Adaptive Embedding paradigm,指的是只在embedding部分进行改进,从而让我们不需要设计非常的复杂的结构,能够迁移到不同的模型结构上(RNN/CNN/transformer etc),所以这种方法的好处就在于其可迁移性。这篇文章主要讲解三篇论文:《An Encoding Strategy Based Word-Character LSTM for Chinese NER》、《A Neural Multi-digraph Model for Chinese NER with Gazetteers》以及ACL2020的《Simplify the Usage of Lexicon in Chinese NER》。
NLP|NER-FLAT模型
近期会更新一系列NER的paper解读,计划2周时间将NER的重要的论文刷完,有一个想做的事情嘻嘻😁。这篇博客主要讲解一下《FLAT: Chinese NER Using Flat-Lattice Transformer》论文,即:FLAT模型,这是今年ACL2020上NER任务的SOTA,个人觉得模型设计上非常优雅,非常值得一读,预测以后会成为比赛的标配🧐。
NLP|NER-CGN模型
近期会更新一系列NER的paper解读,计划2周时间将NER的重要的论文刷完,有一个想做的事情嘻嘻😁。这篇博客主要讲解一下《Leverage Lexical Knowledge for Chinese Named Entity Recognition via Collaborative Graph Network》论文,即:CGN模型,个人认为这篇文章将GNN应用到NER任务中的方式非常的优雅,值得一读。
NLP|NER-LGN模型
近期会更新一系列NER的paper解读,计划2周时间将NER的重要的论文刷完,有一个想做的事情嘻嘻😁。这篇博客主要讲解一下《A Lexicon-Based Graph Neural Network for Chinese NER》论文,即:LGN模型,有意思的是,这篇论文与LRCNN是同一个作者。
NLP|NER-LRCNN模型
近期会更新一系列NER的paper解读,计划2周时间将NER的重要的论文刷完,有一个想做的事情嘻嘻😁。这篇博客主要讲解一下《CNN-Based Chinese NER with Lexicon Rethinking》论文,即:LRCNN模型。
NLP|NER-LatticeLSTM模型
近期会更新一系列NER的paper解读,计划2周时间将NER的重要的论文刷完,有一个想做的事情嘻嘻😁。这篇博客主要讲解一下《Chinese NER Using Lattice LSTM》论文,即:LatticeLSTM模型。
Tensorflow1.x的零碎笔记
世事艰难,即便tensorflow2.0已经出来了,但是工业界全都是1.x的代码,还是得学tensorflow1.x啊😭。这篇文章主要是记录一下学习tensorflow1.x中遇到的问题及解决方案。
C++|拓扑排序
好久没刷题了,今天刷刷题,保持一下手感,同时也对碰到的很多好久不用的基础的数据结构做一下回顾。
NLP|预训练模型-SentenceBERT
这篇文章主要是记录一下SBERT模型,其实这个模型思路很简单,基本上就是将InferSent中的BILSTM换成了BERT。但是呢,这篇文章对sentence embedding做了较为详细的介绍,读完之后,对sentence embedding有了较为详细的了解,所以,记录一下~