hadoop安装

准备:hadoop-2.7.1.tar.gz文件,jdk1.7、linux环境等

 

1、  创建hadoop用户用来,运行hadoop集群

useradd hadoop

passwd hadoop

 

2、  所有机器之间做双机互信,master通过远程启动datanode进程和tasktracker进程,如果不做双机互信,会导致每次启动集群服务都会需要密码

分别执行:

vim /etc/hosts

172.19.34.185 hadoop185

172.19.34.109 hadoop109

 

su hadoop

ssh-keygen -t rsa # 设置ssh无密码登录

ssh-copy-id -i hadoop185

 

3、  各机器做时间同步

su root

/usr/sbin/ntpdate ntp.api.bz

crontab -e

*/5 * * * * /usr/sbin/ntpdate ntp.api.bz &>/dev/null

 

4、  配置hadoop-master

tar xf hadoop-2.7.1.tar.gz  -C /usr/local/

chown -R hadoop:hadoop /usr/local/hadoop-2.7.1

mv /usr/local/hadoop-2.7.1 /usr/local/hadoop

 

su hadoop

vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh

# 配置:exportJAVA_HOME=${JAVA_HOME} ,可通过echo ${JAVA_HOME}查看

 

vim /usr/local/hadoop/etc/hadoop/core-site.xml

<configuration>

<property>

    <name>hadoop.tmp.dir</name>

    <value>/usr/local/hadoop/tmp</value>

</property>

<property>

    <name>fs.default.name</name>

    <value>hdfs://linux-3:9000</value>

</property>

</configuration>

# hadoop.tmp.dir属性用于定义Hadoop的临时目录,其默认为/tmp/hadoop-${username}。HDFS进程的许多目录默认都在此目录中,要保证运行Hadoop进程的用户对其具有全部访问权限。

# fs.default.name属性用于定义HDFS的名称节点和其默认的文件系统,其值是一个URI,即NameNode的RPC服务器监听的地址(可以是主机名)和端口(默认为8020)。其默认值为file:///,即本地文件系统。

 

 

vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml

<configuration>

       <property>

<!--定义的HDFS元数据持久存储路径,默认为${hadoop.tmp.dir}/dfs/name-->

              <name>dfs.data.dir</name>

                <value>/usr/local/hadoop/data</value>

        </property>

        <property>

<!--保存副本的数量,默认是保存3份,根据实际slave数量配置-->

              <name>dfs.replication</name>

               <value>2</value>

        </property>

</configuration>

 

 

vi/usr/local/hadoop/etc/hadoop/mapred-site.xml

<configuration>

       <property>

<!-- 指定mr框架为yarn方式-->

               <name>mapreduce.framework.name</name>

               <value>yarn</value>

       </property>

</configuration>

 

vi/usr/local/hadoop/etc/hadoop/yarn-site.xml

<configuration>

<!-- 指定resourcemanager地址-->

<property>

<name>yarn.resourcemanager.hostname</name>

<value>ubuntu3</value>

</property>

<!-- 指定nodemanager启动时加载server的方式为shuffle server -->

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

</configuration>

 

 

vi /usr/local/hadoop/etc/hadoop/slaves

hadoop185

hadoop109

 

 

5、  将已配置好的hadoop,scp到其它节机器

scp -r usr/local/hadoop  hadoop@172.19.34.109:/usr/local/

 

6、  到bin目录下执行format检查是否报错

cd /usr/local/hadoop/bin

./hadoop namenode –format

# 输出检测结果

15/07/17 09:37:08 INFO metrics.TopMetrics:NNTop conf: dfs.namenode.top.windows.minutes = 1,5,25

15/07/17 09:37:08INFO namenode.FSNamesystem: Retry cache on namenode is enabled

15/07/17 09:37:08 INFO namenode.FSNamesystem:Retry cache will use 0.03 of total heap and retry cache entry expiry time is600000 millis

15/07/17 09:37:08INFO util.GSet: Computing capacity for map NameNodeRetryCache

15/07/17 09:37:08 INFO util.GSet: VM type       = 64-bit

15/07/17 09:37:08 INFO util.GSet: 0.029999999329447746%max memory 888.9 MB = 273.1 KB

15/07/17 09:37:08INFO util.GSet: capacity      = 2^15 =32768 entries

15/07/17 09:37:08 INFO namenode.FSImage:Allocated new BlockPoolId: BP-660215815-172.19.34.185-1437125828943

15/07/17 09:37:09 INFO common.Storage: Storagedirectory /usr/local/hadoop/tmp/dfs/name has been successfully formatted.

15/07/17 09:37:09 INFOnamenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 0

15/07/17 09:37:09 INFO util.ExitUtil: Exitingwith status 0

15/07/17 09:37:09 INFO namenode.NameNode:SHUTDOWN_MSG:

/************************************************************

SHUTDOWN_MSG:Shutting down NameNode at linux-3/172.19.34.185

************************************************************/

 

# 报错则根据具体报错情况调整

 

# 启动hadoop

# 主节点运行 , 执行成功后两个节点执行jps看服务状态

./start-all.sh

 

 [hadoop@linux-3 sbin]$ jps

27709 NameNode

28628 Jps

28186 ResourceManager

28024 SecondaryNameNode

27845 DataNode

28297 NodeManager

 

[hadoop@xxfw-tomcat sbin]$ jps

3825 NodeManager

3677 DataNode

4087 Jps

 

http://NameNode:8088/ 查看yarn

http://NameNode:50070/ 查看hdfs


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
提供的源码资源涵盖了安卓应用、小程序、Python应用和Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值