stopwords简单来说是指在一种语言中广泛使用的词。在各种需要处理文本的地方,我们对这些停止词做出一些特殊处理,以方便我们更关注在更重要的一些词上。
对于不同类型的需求而言,对停止词的处理是不同的。
1. 有监督的机器学习 – 将停止词从特征空间剔除
2. 聚类– 降低停止词的权重
3. 信息检索– 不对停止词做索引
4. 自动摘要- 计分时不处理停止词
对于不同语言,停止词的类型都可能有出入,但是一般而言有这简单的三类
1. 限定词
2. 并列连词
3. 介词
停止词的词表一般不需要自己制作,有很多可选项可以自己下载选用。
Spark中提供了StopWordsRemover类处理停止词,它可以用作Machine learning Pipeline的一部分。
StopWordsRemover的功能是直接移除所有停用词(stopword),所有从inputCol输入的量都会被它检查,然后再outputCol中,这些停止词都会去掉了。
默认的话会在构建StopWordsRemover对象的时候调用loadDefaultStopWords(language: String): Array[String]加载/org/apache/spark/ml/feature/stopwords/english.txt。
这是一个简单的停止词表,包含181个词(spark2.2)。
默认还提供了其他几种语言(danish, dutch, english, finnish, french, german, hungarian,italian, norwegian, portuguese, russian, spanish, swedish, turkish)的停止词,遗憾的是没有中文默认停止词表,所以对于中文停止词需要自己提供。
假如我们有个dataframe,有两列:id和raw。
Id | Raw |
0 | [I, saw, the, red, baloon] |
1 | [Mary, had, a, little, lamb] |
Raw列作为StopWordsRemover的输出,filtered作为输出列,会得到如下数据:
Id | Raw | Filtered |
0 | [I, saw, the, red, baloon] | [saw, red, baloon] |
1 | [Mary, had, a, little, lamb] | [Mary, little, lamb] |
在这里filtered,“I”,“the”,“had”和“a”这些停用词语已被滤除。
import org.apache.spark.ml.feature.StopWordsRemover
// $example on$
val remover = new StopWordsRemover().setInputCol("raw").setOutputCol("filtered")
val dataSet = spark.createDataFrame(Seq(
(0, Seq("I", "saw", "the", "red", "balloon")),
(1, Seq("Mary", "had", "a", "little", "lamb"))
)).toDF("id", "raw")
remover.transform(dataSet).show(false)
StopWordsRemover的常用API介绍
推荐阅读:
kafka,hbase,spark,Flink等入门到深入源码,spark机器学习,大数据安全,大数据运维,请关注浪尖公众号,看高质量文章。
更多文章,敬请期待