linux下安装hadoop(CentOS7)

安装前的准备

配置jdk环境(Sun)
1.利用filezilla拷贝jdk文件到/opt/softWare/java目录下

点击下载jdk

2.解压
# tar -zxvf jdk-8u141-linux-x64.tar.gz
3.配置环境变量
# vi /etc/profile

在合适的地方添加

export JAVA_HOME=/opt/softWare/java/jdk1.8.0_141
	export CLASSPATH=$JAVA_HOME/lib
	export PATH=$PATH:$JAVA_HOME/bin

保存刷新

# source  /etc/profile

测试

# java -version
# javac -version

在这里插入图片描述

配置hadoop环境
利用filezilla拷贝hadoop文件到/opt/softWare/hadoop目录下

点击下载hadoop

解压
#  tar -zxvf hadoop-2.7.3.tar.gz 
配置环境变量
# vi /etc/profile
在合适的地方添加
export HADOOP_HOME=/opt/softWare/hadoop/hadoop-2.7.3
		export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
保存刷新
# source  /etc/profile
主机名与ip建立映射关系
# vi /etc/hosts

在文件里添加

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6

#ip 主机名(域名)
192.168.**.** sanqian
修改hadoop配置文件
# cd /opt/softWare/hadoop/hadoop-2.7.3/etc/hadoop/

1.修改hadoop-env.sh

# vi hadoop-env.sh
export JAVA_HOME=${JAVA_HOME}改成
		export JAVA_HOME=/opt/softWare/java/jdk1.8.0_141

2.修改core-site.xml

# vi core-site.xml

在< configuration>中添加

<!-- 制定HDFS的老大(NameNode)的地址 -->
            <property>
            <name>fs.defaultFS</name>
            <value>hdfs://sanqian:9000</value>
            </property>
            <!-- 指定hadoop运行时产生文件的存储目录 -->
            <property>
            <name>hadoop.tmp.dir</name>
            <value>/zhiyou/hadoop/tmp</value>
            </property>

3.修改hdfs-site.xml

# vi hdfs-site.xml

在< configuration>中添加

<!-- 指定HDFS副本的数量 -->
	<property>
	<name>dfs.replication</name>
	<value>1</value>
	</property>

4.修改mapred-site.xml
由于没有mapred-site.xml,需要复制一个

# mv mapred-site.xml.template  mapred-site.xml

# vi mapred-site.xml

在< configuration>中添加

<!-- 指定mr运行在yarn上 -->
            <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
            </property>

5.修改yarn-site.xml

# vi yarn-site.xml

在< configuration>中添加

<!-- 指定YARN的老大(ResourceManager)的地址 -->
            <property>
            <name>yarn.resourcemanager.hostname</name>
            <value>zhiyou01</value>
            </property>
            <!-- reducer获取数据的方式 -->
            <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
            </property>
启动hadoop
第一次启动需要格式化
# hadoop  namenode   -format

输入 yes 和密码 1234 只有有密码就一直输这个

# start-all.sh
测试
# jps
3153 SecondaryNameNode
3298 ResourceManager
3682 Jps
2883 NameNode
3572 NodeManager
3001 DataNode
关闭防火墙
# systemctl stop firewalld.service #停止firewall
# systemctl disable firewalld.service #禁止firewall开机启动
在浏览器上打开

http://主机ip:50070 hdfs的路径
http://主机ip:8088 yarn的路径

配置免密登陆
# ssh sanqian
输入密码

1.生成密钥

# cd ~/.ssh
# ssh-keygen -t rsa    然后按约四个回车
# ls

2.把公钥发送到需要对其免密的机器上

#  ssh-copy-id 192.168.**.***
# ll
-rw-------. 1 root root  395 9月  28 16:57 authorized_keys
-rw-------. 1 root root 1679 9月  28 16:54 id_rsa
-rw-r--r--. 1 root root  395 9月  28 16:54 id_rsa.pub
-rw-r--r--. 1 root root  525 9月  28 16:31 known_hosts

再次启动hadoop会发现不需要密码了

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值