今天是打卡的第一天,任务是 零基础入门NLP之新闻文本分类 ,赛事的链接如下:

f1_score重点介绍

F1分数(F1-score)是分类问题的一个衡量指标。一些多分类问题的机器学习竞赛,常常将F1-score作为最终测评的方法。它是 精确率和召回率的调和平均数 ,最大为1,最小为0。

  • 首先定义以下几个概念:
  • TP(True Positive):预测答案正确
  • FP(False Positive):错将其他类预测为本类
  • FN(False Negative):本类标签预测为其他类标
  • 通过第一步的统计值计算每个类别下的precision和recall
  • 精准度 / 查准率(precision):指被分类器判定正例中的正样本的比重
    可以看到,TF-IDF与一个词在文档中的出现次数成正比,与该词在整个语言中的出现次数成反比。所以,自动提取关键词的算法就是计算出文档的每个词的TF-IDF值,然后按降序排列,取排在最前面的几个词。
    简单快速,结果比较符合实际情况
    单纯以"词频"衡量一个词的重要性,不够全面,有时重要的词可能出现次数并不多。
    这种算法无法体现词的位置信息,出现位置靠前的词与出现位置靠后的词,都被视为重要性相同,这是不正确的。

    思路2:FastText(了解不多,后续补充)

    FastText是入门款的词向量,利用Facebook提供的FastText工具,可以快速构建出分类器。

    fastText的架构和word2vec中的CBOW的架构类似,因为它们的作者都是Facebook的科学家Tomas Mikolov,而且确实 fastText也算是word2vec所衍生出来 的。

    fastText模型架构

    其中 x 1 , x 2 , . . . , x N 1 , x N 表示一个文本中的n-gram向量,每个特征是词向量的平均值。这和前文中提到的cbow相似,cbow用上下文去预测中心词,而此处用全部的n-gram去预测指定类别。

    fastText和word2vec的区别

  • 图模型结构很像,都是采用embedding向量的形式,得到word的隐向量表达。
  • 都采用很多相似的优化方法,比如使用Hierarchical softmax优化训练和预测中的打分速度。
  • 模型的输出层:word2vec的输出层,对应的是每一个term,计算某term的概率最大;而fasttext的输出层对应的是分类的label。不过不管输出层对应的是什么内容,起对应的vector都不会被保留和使用。
  • 模型的输入层:word2vec的输出层,是 context window 内的term;而fasttext 对应的整个sentence的内容,包括term,也包括 n-gram的内容。
  • 两者本质的不同,体现在 h-softmax的使用:
  • Word2vec的目的是得到词向量,该词向量 最终是在输入层得到,输出层对应的 h-softmax也会生成一系列的向量,但最终都被抛弃,不会使用。
  • fastText则充分利用了h-softmax的分类功能,遍历分类树的所有叶节点,找到概率最大的label(一个或者N个)
  • 思路3:WordVec + 深度学习分类器

    WordVec是进阶款的词向量,并通过构建深度学习分类完成分类。深度学习分类的网络结构可以选择TextCNN、TextRNN或者BiLSTM。

    WordVec

    词向量(word embedding),可以很好地度量词与词之间的相似性。随着深度学习(Deep Learning)在自然语言处理中应用的普及,很多人误以为word2vec是一种深度学习算法。其实word2vec算法的背后是一个浅层神经网络,分为两种模型

  • CBOW 由上下文的词语预测中间词
  • Skip 由中心词预测上下文的词语
  • 深度学习分类器(简要说明,后续详细介绍)

    深层学习的分类器主要处理文本的可以使用RNN,LSTM,BiLSTM(双向LSTM),CNN(TEXTCNN)等

    思路4:Bert词向量(了解不多,后续补充)