- 博客(8)
- 收藏
- 关注
原创 《Spark MLlib 机器学习》细节解释(持续更新)
1、 P220对该段文字的解决:得到最大bin 数量后,求最大split 数量。对于无序特征,split = bin 数目/2;对于有序特征,split = bin 数目–1。 其中有读者问到:对于无序特征,split = bin 数目/2这个的由来,解释如下: 1)首先计算numBins: // 当前的特征数量小于m值,则认为无序 if (numCate
2016-04-21 18:30:04 13721
原创 《Spark MLlib 机器学习》第十五章代码
《Spark MLlib 机器学习》第十五章代码1、神经网络类package NNimport org.apache.spark._import org.apache.spark.SparkContext._import org.apache.spark.rdd.RDDimport org.apache.spark.Loggingimport org.apache.spark.mlli
2016-04-13 15:27:17 13515 8
原创 《Spark MLlib 机器学习》第十四章代码
《Spark MLlib 机器学习》第十四章代码1、相似度计算package recommendimport scala.math._import org.apache.spark.rdd.RDDimport org.apache.spark.SparkContext._/** * 用户评分. * @param userid 用户 * @param itemid 评分物品 *
2016-04-13 15:21:51 8344
原创 《Spark MLlib 机器学习》第四章至十三章代码
《Spark MLlib 机器学习》第四章 至 第十三章代码,已经上传至网盘代码和数据地址网盘:http://pan.baidu.com/s/1c1J8ZN6
2016-04-13 15:17:19 7524
原创 《Spark MLlib 机器学习》第三章代码
《Spark MLlib 机器学习》第三章代码3.1 Breeze 介绍package book_codeimport org.apache.log4j.{ Level, Logger }import org.apache.spark.{ SparkConf, SparkContext }import breeze.linalg._import breeze.numerics._imp
2016-04-12 17:39:42 10202
原创 《Spark MLlib 机器学习》第二章代码
《Spark MLlib 机器学习》第二章代码2.1 Spark RDD 操作import org.apache.log4j.{ Level, Logger }import org.apache.spark.{ SparkConf, SparkContext }import org.apache.spark.SparkContext._object rdd_test01 { def
2016-04-12 16:11:23 14669
原创 《Spark MLlib机器学习》已正式上市发售
《Spark MLlib机器学习》已正式上市发售,请大家多多支持!!!!购书地址:http://product.dangdang.com/23934484.htmlhttp://item.jd.com/11902946.htmlhttps://www.amazon.cn/Spark-MLlib%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0-%E7%AE%9
2016-04-11 11:22:23 7728 3
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人