【Hadoop】hadoop+spark配置

不是教程,教程请看http://www.cnblogs.com/zyrblog/p/8510506.html
只是个人笔记
发现了一个尴尬事

首先需要说明的是,spark+hdfs是标准的业界应用搭配,从hdfs里读文件,用spark处理
但如果只是为了学spark,建议搭建单节点的伪分布式,文件读取全从本地读取,少个hdfs少点破事,因为如果用的是真的分布式,那么读取本地文件的时候,要求每个节点都有一个对应的文件才行。

准备材料

  1. 一台能联网的电脑
  2. VMware 14
  3. Centos 7 1801 64bit 我还是喜欢centos多一些,old fashion,好吧其实是装了一次ubuntu发现里面缺的东西有点多,ifconfig,vim都没有还得自己安,烦
  4. jdk-8u191-linux-x64.tar.gz
  5. spark-2.3.3-bin-hadoop2.7.tgz
  6. hadoop-2.9.1.tar.gz
  7. Scala 2.11.12

spark hadoop java scala之间有版本约束,要注意看文档,
spark对hadoop和scala和java的版本有要求,scala对java的版本也有要求

安装虚拟机

装好vmware 安装linux系统注意再安装的时候一定要选择稍后安装操作系统,否则默认是最小化安装,里面的东西都不全,还要后装很多东西
时区一定要选对!!
尽量装英文的
配置虚拟机各种东西之后,网络选择nat,之后再改ip
在这里插入图片描述
在这里插入图片描述
安装的时候要完整安装,一定完整安装,要不屁事太多烦得很
别忘了设置用户密码,不同主机的用户名保证一致
在这里插入图片描述

装完之后改息屏时间,改分辨率,改清华镜像,ping一下主机看看联通不
https://mirrors.tuna.tsinghua.edu.cn/help/centos/
然后进root,用visudo修改sudoer文件

然后改固定ip,红框内是需要添加或者修改的,我配的是master 192.168.225.3 slave是192.168.225.4

  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值