最近在看文本分类系列模型,应该会陆续更新几篇有关文本分类模型的博客,大概一周内更新完成,之后开始做文本匹配的东西,虽然这些模型网上有很多解读了,但是只有自己写出来了,才算是自己的呀。本篇博客讲解最为经典的RCNN模型,并采用tensorflow2来进行实现。
NLP|文本分类模型-textCNN
最近在看文本分类系列模型,应该会陆续更新几篇有关文本分类模型的博客,大概一周内更新完成,之后开始做文本匹配的东西,虽然这些模型网上有很多解读了,但是只有自己写出来了,才算是自己的呀。本篇博客讲解最为经典的textCNN模型,并采用tensorflow2来进行实现。
C++|十大排序算法C++实现
十大排序算法实在是太过于经典了,因此,这篇博客将对十大排序算法进行总结,以C++实现为主。
Summarization of Interview Problems and Solutions
This blog is aimed at collecting interview problems and solutions through nowcoder,books and so on. So, I will update this article usually. Best luck for me and everyone to find a satisfactory intern!🤩
机器学习|LightGBM与catBoost模型原理详解
XGBoost、LightGBM、catBoost是GBDT模型的三大工程化的实现。前面已经对XGBoost模型进行了讲解,这篇博客将对LightGBM与catBoost模型进行讲解。由于三大模型有很多需要相似的地方,大部分基础部分在XGBoost那片已经讲解过了,所以这篇博客将着重讲解模型自身创新的地方。
NLP|预训练模型专题—ELMo/GPT/BERT/XLNet/ERNIE/ALBERT模型原理详解
在如今的NLP领域中,预训练模型占据着愈发重要的地位。而BERT的出世,更是几乎横扫了NLP中所有的任务记录。本篇博客将详解几大预训练模型:ELMo、GPT、BERT、XLNet、ERNIE、ALBERT。(下图是可爱的bert😋注意,这真不是芝麻街啊喂!)
NLP|word2vec/GloVe/fastText模型原理详解与实战
词向量是NLP中最为重要的概念。词向量的好坏直接影响到下游任务的效果。然而,即便在ELMo、BERT、ALBERT等预训练模型大行其道的当今,word2vec、GloVe、fastText仍然是目前最为流行的词向量训练方式。因此,本篇博客将具体讲解这三种词向量训练的原理,并使用gensim来展示如何使用这些词向量模型,以便得到我们想要的词向量。
机器学习|FM/FFM模型详解
FM(Factorization Machines)模型与FFM(Field-aware Factorization Machines)模型,是在推荐系统中常用的两个模型。其实我本不想去写这两个模型的,毕竟我并不是搞推荐系统的,而且NLP方面我还没看的论文太多了😭,但是最近突然发现在看有关LR模型的题的时候,讲到了这两个模型,所以记录一下。
机器学习|softmax模型详解与实现
softmax是非常简单的多分类模型,常见于神经网络中的输出层。那为什么这么简单的模型还要花时间写篇文章来讲呢?原因在于:LR模型大家都很熟悉了,而softmax模型大家都不是很关注,因为可能觉得softmax是LR的推广,所以就没有详细去推导过softmax模型以及它的反向传播。所以,这篇博客,将着重讲解一下关于softmax模型导数的推导与反向传播的推导,并采用python进行实现。