0%

最近在看文本分类系列模型,应该会陆续更新几篇有关文本分类模型的博客,大概一周内更新完成,之后开始做文本匹配的东西,虽然这些模型网上有很多解读了,但是只有自己写出来了,才算是自己的呀。本篇博客讲解最为经典的RCNN模型,并采用tensorflow2来进行实现。

Read more »

最近在看文本分类系列模型,应该会陆续更新几篇有关文本分类模型的博客,大概一周内更新完成,之后开始做文本匹配的东西,虽然这些模型网上有很多解读了,但是只有自己写出来了,才算是自己的呀。本篇博客讲解最为经典的textCNN模型,并采用tensorflow2来进行实现。

Read more »

XGBoost、LightGBM、catBoost是GBDT模型的三大工程化的实现。前面已经对XGBoost模型进行了讲解,这篇博客将对LightGBM与catBoost模型进行讲解。由于三大模型有很多需要相似的地方,大部分基础部分在XGBoost那片已经讲解过了,所以这篇博客将着重讲解模型自身创新的地方。

Read more »

词向量是NLP中最为重要的概念。词向量的好坏直接影响到下游任务的效果。然而,即便在ELMo、BERT、ALBERT等预训练模型大行其道的当今,word2vec、GloVe、fastText仍然是目前最为流行的词向量训练方式。因此,本篇博客将具体讲解这三种词向量训练的原理,并使用gensim来展示如何使用这些词向量模型,以便得到我们想要的词向量。

Read more »

FM(Factorization Machines)模型与FFM(Field-aware Factorization Machines)模型,是在推荐系统中常用的两个模型。其实我本不想去写这两个模型的,毕竟我并不是搞推荐系统的,而且NLP方面我还没看的论文太多了😭,但是最近突然发现在看有关LR模型的题的时候,讲到了这两个模型,所以记录一下。

Read more »

softmax是非常简单的多分类模型,常见于神经网络中的输出层。那为什么这么简单的模型还要花时间写篇文章来讲呢?原因在于:LR模型大家都很熟悉了,而softmax模型大家都不是很关注,因为可能觉得softmax是LR的推广,所以就没有详细去推导过softmax模型以及它的反向传播。所以,这篇博客,将着重讲解一下关于softmax模型导数的推导与反向传播的推导,并采用python进行实现。

Read more »

XGBoost模型是集成学习中最为著名的一个模型。不用我说,我相信只要做ML/DM/DL领域的筒子们,都会听说过这个模型。这篇博客将详细地讲解XGBoost模型的原理,并且使用XGBoost库来实践。注意:在看XGBoost之前,请务必要读懂CART与GBDT,具体可参看我之前的文章:CARTGBDT

Read more »