![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
大数据-Spark实战
文章平均质量分 74
汪本成
这个作者很懒,什么都没留下…
展开
-
利用spark进行圆周率的计算
package exampleimport org.apache.spark.{SparkContext, SparkConf}import scala.math.random/** * 利用spark进行圆周率的计算 * Created by 汪本成 on 2016/6/10. */object SparkPai { def main(args: Array[Strin原创 2016-06-10 02:19:15 · 3136 阅读 · 0 评论 -
Spark中使用Java编程的常用方法
原博客的链接地址为:http://blog.sina.com.cn/s/blog_628cc2b70102w9up.html ==> 点击打开链接一、初始化SparkContextSystem.setProperty("hadoop.home.dir","D:\\spark-1.6.1-bin-hadoop2.6\\spark-1.6.1-bin-hadoop2.6");Sp转载 2016-07-23 16:33:39 · 2530 阅读 · 0 评论