Hadoop伪分布搭建

安装包准备

1. JDK1.7.X安装包(64位)

2.  Hadoop2.6.0安装包(64位)

环境准备

1.设置IP地址

执行命令:service network restart

验证:ifconfig

2.关闭防火墙

执行命令:service iptables stop

验证:service iptables status

3.关闭防火墙的自动运行

执行命令:chkconfig iptables off

验证:chkconfig --list | grep iptables

4.设置主机名

执行命令:vi /etc/sysconfig/network

5.IP与主机名绑定

执行命令:vi /etc/hosts(如果设置的是动态IP,那么你每次启动Hadoop是就需要执行该命令修改过时的IP)

6.设置ssh免密码登陆

执行命令:(1)ssh-keygen -t rsa

             (2)cp ~/.ssh/id_rsa.pub  ~/.ssh/authorized_keys(不然会在执行sbin/start-yarn.sh命令时出问题)

安装jdk

1.执行命令cd /usr/local

chmod u+x jdk-7u79-linux-x64.tar.gz

tar -zxvf jdk-7u79-linux-x64.tar.gz      //解压jdk

mv  jdk1.7.0_79jdk             //将 jdk1.7.0_79改为jdk

2. 配置jdk环境变量

vi /etc/profile

: 增加如下内容:export JAVA_HOME=/usr/local/jdk           

export PATH=.:$JAVA_HOME/bin:$PATH

3.执行命令source /etc/profile

安装hadoop

安装hadoop2.6.0

1.在 /usr/local目录下解压hadoop2.6.0安装包

2.将解压后的文件夹改为hadoop

3.修改/etc/profile文件   

vi/etc/profile

export HADOOP_HOME=/usr/local/hadoop

export PATH=.:$HADOOP_HOME/bin:$PATH

执行命令source/etc/profile

执行命令,更改配置文件。

cd/usr/local/hadoop/etc/hadoop

更改配置文件

hadoop-env.sh

exportJAVA_HOME=/usr/local/jdk

#core-site.xml文件

<configuration>

    <property>

        <name>hadoop.tmp.dir</name>

        <value>/usr/hadoop/tmp</value>

     </property>

     <property>

        <name>fs.defaultFS</name>

         <value>hdfs://guan:9000</value>

     </property>

</configuration>

#hdfs-site.xml文件

<configuration>

    <property>

        <name>dfs.replication</name>

        <value>1</value>

     </property>  

    <property>

        <name>dfs.namenode.name.dir</name>

        <value>file:/usr/hadoop/dfs/name</value>

    </property>

    <property>

        <name>dfs.datanode.data.dir</name>

        <value>file:/usr/hadoop/dfs/data</value>

    </property>

    <property>

        <name>dfs.permissions</name>

         <value>false</value>

     </property>

</configuration>

#yarn-site.xml文件

<configuration>

    <property>

       <name>mapreduce.framework.name</name>

       <value>yarn</value>

    </property>

    <property>

       <name>yarn.nodemanager.aux-services</name>

       <value>mapreduce_shuffle</value>

    </property>

</configuration>

对namenode进行初始化(/usr/local/hadoop目录下)

格式化命令:bin/hadoop namenode -format

启动namenode:               

 sbin/hadoop-daemon.sh start namenode

启动datanode:

 sbin/hadoop-daemon.sh start datanode

启动Yarn

sbin/start-yarn.sh

七、格式化完namenode可以直接进入hadoop中的sbin中直接选择start-all.sh就可以打开了。
1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看REAdMe.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看REAdMe.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看READme.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值