hadoop集群搭建及基本命令

hadoop集群搭建

一.jdk安装

1.解压缩


tar -zvxf jdk-7u67-linux-x64.tar.gz

2.环境变量配置

export JAVA_HOME=/home/hadoopadmin/jdk1.7.0_67 
export PATH=$PATH:$JAVA_HOME/bin 
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar 

3.刷新环境变量

/home/hadoopadmin/.bash_profile

二安装Hapoop

1.解压缩

tar -zvxf hadoop-2.7.1.tar.gz

2.环境变量配置

export HADOOP_HOME=/home/hadoopadmin/hadoop-2.7.1 export PATH=$PATH:$HADOOP_HOME/bin

3.刷新环境变量

/home/hadoopadmin/.bash_profile

三.hadoop配置

1.core-site.xml

1.  <configuration> 
2.  <!-- Hadoop文件系统依赖的基础配置 --> 
3.  <property> 
4.  <name>hadoop.tmp.dir</name> 
5.  <value>/home/hadoopadmin/hadoop/data</value> 
6.  </property> 
7.  <!-- NameNode结点的URI(包括协议、主机名称、端口号) --> 
8.  <property> 
9.  <name>fs.defaultFS</name> 
10. <value>hdfs://etc01:8020</value> 
11. </property> 
12. <!-- 开启回收站机制,可以设置文件彻底删除的时间,默认为0,单位为分钟 --> 
13. <property>    
14. <name>fs.trash.interval</name>    
15. <value>60</value>    
16. </property> 
17. </configuration> 

2.hdfs-site.xml

1.  <configuration> 
2.  <!-- secondarynamenode的http服务器地址和端口 --> 
3.  <property> 
4.  <name>dfs.namenode.secondary.http-address</name> 
5.  <value>etc01:50090</value> 
6.  </property> 
7.  <!-- 默认块复制 --> 
8.  <property> 
9.  <name>dfs.replication</name> 
10. <value>3</value> 
11. </property> 
12. <!-- 关闭权限校验 --> 
13. <property> 
14. <name>dfs.permissions</name> 
15. <value>false</value> 
16. </property> 
17. <!-- namenode的http服务器地址和端口 --> 
18. <property> 
19. <name>dfs.namenode.http-address</name> 
20. <value>etc01:50070</value> 
21. </property> 
22. <!-- datanode结点被指定要存储数据的本地文件系统路径 --> 
23. <property> 
24. <name>dfs.datanode.data.dir</name> 
25. <value>file:///home/hadoopadmin/hadoop/data/dfs/dn</value> 
26. </property> 
27. </configuration> 

3.mapred-site-xml

1.  <configuration> 
2.  <!-- MapReduce JobHistory进程通信主机、端口 --> 
3.  <property> 
4.  <name>mapreduce.jobhistory.address</name> 
5.  <value>etc01:10020</value> 
6.  </property> 
7.  <!-- MapReduce JobHistory的web界面主机、端口 --> 
8.  <property> 
9.  <name>mapreduce.jobhistory.webapp.address</name> 
10. <value>etc01:19888</value> 
11. </property> 
12. <!-- 以yarn方式运行MapReduce --> 
13. <property> 
14. <name>mapreduce.framework.name</name> 
15. <value>yarn</value> 
16. </property> 
17. </configuration> 

4.yarn-site.xml

1.  <configuration> 
2.  <!-- resourcemanager的主机名 --> 
3.  <property> 
4.  <name>yarn.resourcemanager.hostname</name> 
5.  <value>etc01</value> 
6.  </property> 
7.  <!-- resourcemanager提供给nodemanager的地址 --> 
8.  <property> 
9.  <name>yarn.resourcemanager.resource-tracker.address</name> 
10. <value>etc01:8031</value> 
11. </property> 
12. <!-- resourcemanager中应用程序管理器界面的地址 --> 
13. <property> 
14. <name>yarn.resourcemanager.address</name> 
15. <value>etc01:8032</value> 
16. </property> 
17. <!-- 调度器接口的地址 --> 
18. <property> 
19. <name>yarn.resourcemanager.scheduler.address</name> 
20. <value>etc01:8030</value> 
21. </property> 
22. <!-- 分配给容器的物理内存量(75%) --> 
23. <property> 
24. <name>yarn.nodemanager.resource.memory-mb</name> 
25. <value>1536</value> 
26. </property> 
27. <!-- NodeManager上运行的附属服务,配置成mapreduce_shuffle才可运行MR --> 
28. <property> 
29. <name>yarn.nodemanager.aux-services</name> 
30. <value>mapreduce_shuffle</value> 
31. </property> 
32. </configuration> 

5.hadoop-env.sh

1. export JAVA_HOME=/home/hadoopadmin/jdk1.7.0_67 

6.slaves

1. etc01 2. etc02 
3. etc03 

7.使用SSH拷贝文件

1.  scp -r /home/hadoopadmin/jdk1.7.0_67 hadoopadmin@etc02:/home/hadoopadmi n 
2.  scp -r /home/hadoopadmin/jdk1.7.0_67 hadoopadmin@etc03:/home/hadoopadmi n 
3.  scp -r /home/hadoopadmin/hadoop-2.7.1 hadoopadmin@etc02:/home/hadoopadm in 
4.  scp -r /home/hadoopadmin/hadoop-2.7.1 hadoopadmin@etc03:/home/hadoopadm in 
5.  scp /home/hadoopadmin/.bash_profile hadoopadmin@etc02:/home/hadoopadmin
6.      scp /home/hadoopadmin/.bash_profile hadoopadmin@etc03:/home/hadoopadmin 

四.Hadoop启动

1.格式化namenode

1.  cd /home/hadoopadmin/hadoop-2.7.1/bin 
2.  chmod 744 * 
3.  hdfs namenode -format 

2.启动Hadoop

1.  cd /home/hadoopadmin/hadoop-2.7.1/sbin 
2.  chmod 744 * 
3.  ./start-all.sh 

五. Hadoop命令

  1. cat:查看文本文件内容
hadoop fs ls [文件路径]
  1. chgrp 更改文件属组
 hadoop fs -chgrp [-R] GROUP URI 
  1. chmod 更改文件权限
 hadoop fs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI 
  1. chown 改变属组和属主
 hadoop fs -chown [-R] [OWNER][:[GROUP]] URI 
  1. cp 复制文件
hadoop fs -cp [-f]  URI [URI ...] 
  1. get:拷贝文件到本地
 hadoop fs -get [-ignorecrc] [-crc] <src> <localdst>
  1. ls:查看目录
hadoop fs -ls [-d] [-h] [-R] <args> 
  1. mkdir:创建目录
 1. hadoop fs -mkdir [-p] <paths> 
  1. mv:移动文件,更名,允许多个源,一个目标
 1. hadoop fs -mv URI [URI ...] <dest> 
  1. put:上传文件

 1. hadoop fs -put <localsrc> ... <dst> 

2.
rm:删除文件(不放入回收站)

1. hadoop fs -rm [-f] [-r |-R] [-skipTrash] URI 
2. hadoop fs -rmdir [--ignore-fail-on-non-empty] URI 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值