Hadoop伪分布式搭建

@Author  : Spinach | GHB
@Link    : http://blog.csdn.net/bocai8058

操作系统:Centos 6.5
ip:192.168.1.110
伪分布式模式:hadoop01

0. 使用host-only方式

将Windows上的虚拟网卡改成跟Linux上的网卡在同一网段
注意:一定要将widonws上的WMnet1的IP设置和你的虚拟机在同一网段,但是IP不能相同。

1. Linux环境配置(windows下面的防火墙也要关闭)

1.1 修改主机名
vim /etc/sysconfig/network 
hostnamectl set-hostname xxxx
hostnamectl --static
1.2 修改IP
vim /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE="eth0"
BOOTPROTO="static"   ###
HWADDR="00:0C:29:BF:45:8B"
...
TYPE="Ethernet"
IPADDR="192.168.1.110"   ###
NETMASK="255.255.255.0"  ###
GATEWAY="192.168.1.1"    ###
1.3 修改主机名和IP的映射关系
vim /etc/hosts
192.168.1.110 hadoop01
1.4 关闭防火墙
命令描述命令描述
service iptables status查看防火墙状态service iptables stop关闭
chkconfig iptables –list查看防火墙开机启动状态chkconfig iptables off关闭开机启动
1.5 安装JDK
# 上传JDK后,创建java目录
mkdir /usr/java
mv jdk-8u131-linux-x64.tar.gz /usr/java/
# 解压
tar -zxvf jdk-8u131-linux-x64.tar.gz –C /usr/java/
# 将java添加到环境变量
vim /etc/profile
# 在文件的末尾添加如下内容
export JAVA_HOME=/usr/java/jdk1.8.0_131
export PATH=$PATH:$JAVA_HOME/bin
# 刷新配置
source /etc/profile

2. 配置hadoop

2.1 上传hadoop包,并解压hadoop包
# 首先创建一个hadoop目录
mkdir /usr/cloud
tar -zxvf hadoop-2.7.3.tar.gz -C /usr/cloud/
2.2 配置hadoop伪分布式(要修改5个文件)
<!-- 第一个:hadoop-env.sh -->
vim hadoop-env.sh
export JAVA_HOME=/usr/java/jdk1.8.0_131
<!-- 第二个:core-site.xml -->
vim core-site.xml
<configuration>
<!-- 指定HDFS的namenode的通信地址 -->
<property>
        <name>fs.default.name</name>
        <value>hdfs://hadoop01:9000</value>
</property>
<!-- 指定hadoop运行时产生文件的存放目录 -->
<property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/cloud/hadoop-2.7.3/hadooptmp</value>
</property>
</configuration>
<!-- 第三个:hdfs-site.xml -->
vim hdfs-site.xml
<configuration>
<!-- 配置HDFS副本的数量 -->
<property>
        <name>dfs.replication</name>
        <value>1</value>
</property>
</configuration>
<!-- 第四个:mapred-site.xml -->
mv mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
<configuration>
<!-- 指定hadoop的MR运行在YARN上 -->
<property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
</property>
</configuration>
<!-- 第五个:yarn-site.xml -->
vim yarn-site.xml
<configuration>
<!-- NodeManger获取数据的方式是shuffle -->
<property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
</property>
<!-- 指定YARN的ResourceManger的地址是hadoop01 -->
<property>
        <name>yarn.resourcemanager.hostname</name>
        <value>hadoop01</value>
</property>
</configuration>
2.3 将hadoop添加到环境变量
vim /etc/profile
export JAVA_HOME=/usr/java/jdk1.8.0_131
export HADOOP_HOME=/usr/cloud/hadoop-2.7.3
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin

source /etc/profile
2.4 格式化HDFS
hadoop namenode –format(虽此命令已过时,但也能用)
hdfs namenode –format(使用此命令)
2.5 启动hadoop和YARN
./start-all.sh(已过时,用./start-dfs.sh.和/start-yarn.sh代替)
2.6 验证集群是否启动成功
jps(不包括jps应该有5个)
NodeManager
DataNode
NameNode
SecondaryNameNode
ResourceManager
# 还可以通过浏览器的方式验证
http://192.168.1.110:50070 (hdfs管理界面)
http://192.168.1.110:8088 (mr管理界面)
# 在这个文件中添加linux主机名和IP的映射关系
C:\Windows\System32\drivers\etc
2.7 测试HDFS
# 上传文件到HDFS
hadoop fs -put /usr/java/jdk-8u131-linux-x64.tar hdfs://hadoop01:9000/jdk1.7.0
# 从HDFS下载文件到指定目录
hadoop fs -get hdfs://hadoop01:9000/jdk1.7.0 /home/jdk1.7.0

3. 配置ssh免登陆

ssh-keygen -t rsa
# 执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
# 将公钥拷贝到要免登陆的机器上
cp /root/.ssh/id_rsa.pub /root/.ssh/authorized_keys
或 ssh-copy-id 192.168.8.99
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小学僧来啦

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值