关闭

Ubuntu上搭建hadoop和spark集群

968人阅读 评论(0) 收藏 举报
分类:

在Ubuntu上搭建hadoop和spark集群,1台master(namenode),3台slave(datanode)


1. 安装Java


2. 安装scala


3. 安装hadoop


4. 安装spark

Spark runs on Java 6+, Python 2.6+ and R 3.1+. For the Scala API, Spark 1.4.1 uses Scala 2.10. You will need to use a compatible Scala version (2.10.x).

5. 添加环境路径


6. 创建hadoop用户,从master发布到slave




7. 配置hadoop


8.  配置spark




0
2

查看评论
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
    个人资料
    • 访问:88347次
    • 积分:1453
    • 等级:
    • 排名:千里之外
    • 原创:49篇
    • 转载:0篇
    • 译文:0篇
    • 评论:41条
    最新评论