- 博客(1)
- 资源 (3)
- 收藏
- 关注
原创 使用spark scala计算信息熵,信息增益,信息增益率
找了下,没找到现成的代码,自己写了个,速度还能接受,可以用来做简单的特征选择 import org.apache.spark.rdd.RDD class FeatureSelect { //信息熵 def entropyRDD(data:RDD[String])={ val size=data.count() val p=data.map(x=>(x,1)).r...
2018-10-30 20:40:27 2759 2
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人