windows系统下pycharm远程访问linux系统下jupyter notebook,并调用spark平台(三)-hadoop平台搭建

一,安装jdk

创建目录

输入:mkdir /usr/lib/jvm

拷贝下载好的jdk放入

解压

修改环境变量

在文件最后加入:

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_171

export PATH=$JAVA_HOME/bin:$PATH

export CLASSPATH=$JAVA_HOME/lib:$CLASSPATH

使配置文件生效

输入:source /etc/profile

查看java版本

二,修改hosts文件

三台机器都需要修改

输入:vi /etc/hosts

文件后添加如下:

三,hadoop配置

首先登陆192.168.88.177,进行配置,配置完成后需要再将文件拷贝到另外两台机器

(1)复制文件到 /opt文件夹下

解压hadoop

(2)新建临时文件tmp、tmp/dfs、tmp/dfs/data和tmp/dfs/name。用于存放datanode和namenode信息

(3)修改环境变量

在文件后面添加

(4)进入hadoop文件夹进行配置

修改hadoop环境变量

修改如下

(5)修改core-site.xml文件

修改如下:

(6)修改hdfs-site.xml文件

修改如下:

(7)修改mapred-site.xml

首先复制:

cp mapred-site.xml.template mapred-site.xml

然后,进入修改

修改如下:

(8)修改yarn-site.xml文件

修改如下:

(9)修改slaves文件

修改如下:

(10)拷贝修改到另外两台机器

拷贝配置好的hadoop

拷贝配置好的环境变量

(11)格式化HDFS

登陆192.168.88.178,执行

格式化HDFS信息复制到192.168.88.179

(12)启动HDFS

(13)启动yarn

(14)检查hadoop搭建结果

在浏览器输入http://192.168.88.177:50070 可以得到HDFS管理界面 

输入http://192.168.88.177:8088/,可以得到hadoop集群管理界面: 

至此,hadoop平台搭建完毕。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值