hadoop平台搭建(2.6.0)

最近闲来无事搭建了一个hadoop环境,将搭建步骤记录一下。
一.环境准备

  • 环境:VMware,xshell

  • OS: Ubuntu server(选择最简安装,只安装OpenSSH-Server)

  • 版本:hadoop-2.6.0

  • 三个节点:

 192.168.16.131      master
 192.168.16.132      node1
 192.168.16.133      node2
  • 编辑/etc/hosts文件
将节点信息添加进去(如上)
  • 建立hadoop运行账号:
groupadd hadoop               //设置hadoop用户组
useradd –s /bin/bash –d /home/wh –m wh –g hadoop –G admin //添加一个wh用户,此用户属于hadoop用户组,且具有admin权限。
passwd wh                    //设置用户zhm登录密码
su wh                        //切换到wh用户中
  • 设置权限修改sudoers
chmod u+w /etc/sudoers

vim  /etc/sudoers (添加如下东西)
   wh ALL=(ALL:ALL) ALL

chmod u-w /etc/sudoers

`二.安装jdk(选择7)
1.安装

apt-get install openjdk-7-jdk

2.环境配置

  • 编辑 .bashrc
vim .bashrc

JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64(默认安装位置)
  • 添加/etc/profile
chmod u+w /etc/profile(给予修改权限)

vim /etc/profile
#末尾添加以下配置:
export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
export JRE_HOME=/usr/lib/jvm/java-7-openjdk-amd64/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH

chmod u-w /etc/profile(权限回收)
  • 查看是否安装成功
java -version

三.SSH无密码登录
1.生成master公匙

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cd .ssh

2.让 节点需能无密码 SSH 本机,在 节点上执行:

cat id_rsa.pub >> authorized_keys

3.使用ssh localhost检查是否能登录自身(三个都用)

4.使用master节点ssh另外两个节点
在node1,node2节点执行:

scp wh@master:~/.ssh/id_dsa.pub ./master_dsa.pub
cat master_dsa.pub >> authorized_keys

5.测试是否成功

  • 在master节点
ssh  node1(node2)

注意:第一次需要输入node1(node2)节点密码,第二次不用。

四.配置hadoop-2.6.0

  • 下载hadoop-2.6.0:http://pan.baidu.com/s/1c24XcEs

  • 通过Xftp将文件从windows传入Ubuntu 解压到/home/wh下

  • 修改core-site.xml(都在/home/wh/hadoop/etc/hadoop/下):

<configuration>
   <property>
      <name>fs.defaultFS</name>
      <value>hdfs://master:9000</value>
   </property>
   <property>
      <name>hadoop.tmp.dir</name>
      <value>file:/home/wh/hadoop/tmp</value>
      <description>Abase for other temporary directories.</description>
   </property>
</configuration>
  • 修改hdfs-site.xml
<configuration>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>master:50090</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/home/wh/hadoop/tmp/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/home/wh/hadoop/tmp/dfs/data</value>
    </property>
</configuration>
  • 修改mapred-site.xml(cp mapred-site.xml.template mapred-site.xml)
<configuration>
   <property>
      <name>mapreduce.framework.name</name>
      <value>yarn</value>
   </property>
   <property>
      <name>mapreduce.jobhistory.address</name>
      <value>master:10020</value>
   </property>
   <property>
      <name>mapreduce.jobhistory.webapp.address</name>
      <value>master:19888</value>
   </property>
</configuration>
  • 修改yarn-site.xml
<configuration>
   <property>
      <name>yarn.resourcemanager.hostname</name>
      <value>master</value>
   </property>
   <property>
      <name>yarn.nodemanager.aux-services</name>
      <value>mapreduce_shuffle</value>
   </property>
</configuration>
  • 修改slaves(删除localhost)
node1
node2
  • 修改hadoop-env.sh
 JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
  • 将hadoop文件复制到各个节点,并在slaves节点执行解压操作:
tar -zcf ~/hadoop.master.tar.gz ./hadoop 
scp ./hadoop.master.tar.gz node1:/home/wh
sudo tar -zxf ~/hadoop.master.tar.gz -C /home/wh
  • 启动hadoop(首次启动需要master执行namenode的格式化):
bin/hdfs namenode -format
  • 启动hadoop:
sbin/start-dfs.sh
sbin/start-yarn.sh
sbin/mr-jobhistory-daemon.sh start historyserver
  • 通过命令 jps 可以查看各个节点所启动的进程。正确的话,在 Master 节点上可以看到
    NameNode、ResourceManager、SecondrryNameNode、JobHistoryServer 进程在 Slave
    节点可以看到 DataNode 和 NodeManager 进程.

五.运行hadoop实例

  • 首先创建 HDFS 上的用户目录:
 bin/hdfs dfs -mkdir -p /user/wh
  • 将 /usr/local/hadoop/etc/hadoop 中的配置文件作为输入文件复制到分布式文件系统中:
bin/hdfs dfs -mkdir input
bin/hdfs dfs -put /home/wh/hadoop/etc/hadoop/*.xml input
  • 运行mapreduce作业:
hadoop jar /home/wh/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar grep input output 'dfs[a-z.]+'

六.关闭hadoop

sbin/stop-yarn.sh
sbin/stop-hdfs.sh
sbin/mr-jobhistory-daemon.sh stop historyserver
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
提供的源码资源涵盖了Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 适合毕业设计、课程设计作业。这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。 所有源码均经过严格测试,可以直接运行,可以放心下载使用。有任何使用问题欢迎随时与博主沟通,第一时间进行解答!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值