Hadoop-2.5.0 伪分布式搭建

一、准备

  • 1.ubuntu 16.04的系统一台。
  • 2.jdk-8u121-linux-x64.tar.gz
  • 3.hadoop-2.5.0.tar.gz

二、安装JDK

  • 1.安装
# tar -zxvf jdk-8u121-linux-x64.tar.gz -C /usr/local/jvm
  • 2.配置java环境变量
# vim /etc/profile
JAVA_HOME=/usr/local/jvm/jdk1.8.0_121
export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin
export CLASSPATH=$JAVA_HOME/lib:$JAVA_HOME/jre/lib
  • 3.使配置文件生效
# source /etc/profile

三、安装hadoop 2.5.0

  • 1.安装
# tar -zxvf hadoop-2.5.0.tar.gz -C /usr/local/hadoop
  • 2.配置hadoop环境变量
# vim /etc/profile
HADOOP_HOME=/usr/local/hadoop/hadoop-2.5.0
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop
export HADOOP_HDFS_HOME=${HADOOP_HOME}
export HADOOP_YARN_HOME=${HADOOP_HOME}
  • 3.使配置文件生效
# source /etc/profile
  • 4.创建hadoop需要的目录
# mkdir -p /home/hadoop
# mkdir -p /home/hadoop/hadoop-2.5.0
# mkdir -p /home/hadoop/hadoop-2.5.0/tmp
# mkdir -p /home/hadoop/hadoop-2.5.0/dfs
# mkdir -p /home/hadoop/hadoop-2.5.0/dfs/name
# mkdir -p /home/hadoop/hadoop-2.5.0/dfs/data
  • 5.修改配置文件(细心)

vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh
export JAVA_HOME=/usr/local/jvm/jdk1.8.0_121

vim /usr/local/hadoop/etc/hadoop/core-site.xml

添加如下记录

<configuration></configuration>之间加入如下记录:
<property>
    <name>hadoop.tmp.dir</name>
    <value>/home/hadoop/hadoop-2.5.0/tmp</value>
</property>
<property>
    <name>fs.defaultFS</name>
    <value>hdfs://localhost:9000</value>
</property>

vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml

添加如下记录

<configuration></configuration>之间加入如下记录:
<property>
    <name>dfs.name.dir</name>
    <value>/home/hadoop/hadoop-2.5.0/dfs/name</value>
</property>
<property>
    <name>dfs.data.dir</name>
    <value>/home/hadoop/hadoop-2.5.0/dfs/data</value>
</property>
<property>
    <name>dfs.replication</name>
    <value>1</value>
</property>
<property>
    <name>dfs.permissions</name>
    <value>false</value>
</property>

vim /usr/local/hadoop/etc/hadoop/mapred-site.xml.template

添加如下记录

<configuration></configuration>之间加入如下记录:
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>

复制

cp /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml

vim /usr/local/hadoop/etc/hadoop/yarn-site.xml

添加如下记录

<configuration></configuration>之间加入如下记录:
<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>localhost</value>
</property>
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>
<property>
    <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
  <name>yarn.resourcemanager.scheduler.class</name>
  <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler</value>
</property>

vim /usr/local/hadoop/etc/hadoop/slaves

删除文件中的记录并添加如下记录

localhost
  • 6.格式化HDFS文件系统
cd /usr/local/hadoop/hadoop-2.5.0 && bin/hdfs namenode -format
  • 7.启动hadoop集群和停止hadoop集群
/usr/local/hadoop/sbin/start-all.sh     //启动
/usr/local/hadoop/sbin/stop-all.sh     //停止
  • 8.在hadoop集群启动着的情况下执行jps指令查看输出,如果看见如下输出说明搭建成功。
Jps
NameNode
SecondaryNameNode
DataNode
NodeManager
ResourceManager
  • 9.图形管理
    当前IP地址:50070 —> 管理HDFS
    当前IP地址:8088 —> 管理MapReduce

四、HDFS常用的指令

hadoop fs -mkdir /input/ -->在hadoop上创建文件夹
hadoop fs -rmdir /input/ -->在hadoop上删除文件夹
hadoop fs -ls / -->查看hadoop/目录下的文件
hadoop fs -rm /test.txt -->删除test.txt文件
hadoop fs -get /test.txt -->从hadoop下载test.txt文件到当前目录
hadoop fs -put test.txt / --> 上传test.txt文件到hadoop/目录

Over

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值