- 博客(3)
- 资源 (16)
- 收藏
- 关注
原创 Spark入门三部曲之第一步Spark基础知识
Spark运行环境 Spark 是Scala写的, 运行在JVM上。所以运行环境是Java6或者以上。 如果想要使用 Python API,需要安装Python 解释器2.6版本或者以上。 目前Spark(1.2.0版本) 与Python 3不兼容。 Spark下载 下载地址:http://spark.apache.org/downloads.html,选择Pre-built for H...
2015-08-04 13:18:00 10620
原创 Spark入门三部曲之第二步Spark开发环境搭建
使用Scala+IntelliJ IDEA+Sbt搭建开发环境提示搭建开发环境常遇到的问题:1.网络问题,导致sbt插件下载失败,解决方法,找到一个好的网络环境,或者预先从我提供的网盘中下载jar(链接:http://pan.baidu.com/s/1qWFSTze 密码:lszc)将下载的.ivy2压缩文件,解压后,放到你的用户目录下。2.版本匹配问题,版本不匹配会遇到各种问题,解决方法,按照如下
2015-08-04 13:13:01 3609
原创 Spark入门三部曲之第三步Spark程序的开发和运行及WordCount
Spark入门三部曲之第三步Spark程序的开发和运行及WordCount编写wordcount程序手动导入包:import org.apache.spark.SparkContext._val conf = new SparkConf().setAppName(“wordCount”)// 创建一个Spark Context. val sc = new SparkContext(conf) v
2015-08-04 13:05:24 1755
perl-base_5.14.2-6ubuntu2.4_amd64
2015-02-02
hadoop-eclipse-plugin-1.2.1.jar
2013-10-27
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人