cdh-hadoop2.6.0伪分布式环境搭建

cdh-hadoop2.6.0伪分布式环境搭建

标签(空格分隔): hadoop基础之环境搭建

1.windows环境准备

1.下载软件Vmware Station
http://www.vmware.com/cn(不限版本,最好10或以上)
2.下载CentOS
https://www.centos.org/download/(64位即可,最好6.5版本)
3.安装
打开vmware WorkStaion,文件,新建虚拟机,指定好本地下载下来CentOS的iso镜像文件,--->next

2.linux环境准备

1.相关安装包下载
hadoop安装包:http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0-cdh5.5.0.tar.gz
jdk安装包:http://www.oracle.com/technetwork/java/javase/downloads/index.html  (1.7以上版本,64位)
2.在linux系统创建几个目录: (可以自定义)
mkdir /opt/soft; 
mkdir /opt/modules; 
mkdir /opt/tools; 
mkdir /opt/datas;
3.修改ip,主机名,配置映射
**修改ip**:vi /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE="eth0"                               #网卡名称
BOOTPROTO="static"                          #配置静态化ip
HWADDR="00:0C:29:0C:8B:98" # mac地址 这个不用改(和 /etc/udev/rules.d/70-persistent-net.rules对应)
IPV6INIT="no"                               #防火墙关闭
IPADDR=################                     #ip地址
NETMASK=#############                       #子网掩码
GATEWAY=#############                       #网关
NM_CONTROLLED="yes"                         #修改ip后无需重启就生效
ONBOOT="yes"                                #开机自动启动
TYPE="Ethernet"                             #以太网,此参数一般不用改动
UUID="#############"                        #自带的,唯一识别码
DNS1=8.8.8.8                                #用于联网
DNS2=8.8.4.4                                #用于联网
重启网卡:service network restart
查看ip:ifconfig
修改主机名:vi /etc/sysconfig/network(重启后生效init 6 或者reboot)
HOSTNAME=localhost                          #此值自定义
查看主机名:hostname
配置映射:vi /etc/hosts
[root@org01 ~]# cat /etc/hosts
127.0.0.1   localhost 
ip 主机名   域名                           #域名可不写linux中一个ip对应多个主机名(描述不官方理解就好)
4.用FileZilla等ftp工具将软件包上传到/opt/soft目录,解压:
tar -zxvf hadoop-2.6.0-cdh5.5.0.tar.gz -C ../modules
tar -zxvf jdk-7u67-linux-x64.tar.gz -C ../modules   (必须是7以上版本)
5.关闭防火墙
vi /etc/selinux/config      SELINUX=disabled
service iptables status     --查看防火墙状态
service iptables stop       --关闭防火墙
service ip6tables stop      --关闭防火墙
chkconfig ip6tables off     --设置防火墙开机自关闭
chkconfig iptables off      --设置防火墙开机自关闭
chkconfig iptables --list   --查看防火墙服务状态列表
chkconfig ip6tables --list   --查看防火墙服务状态列表
#iptables 和 ip6tables一样,都是linux防火墙软件,不同的是ip6tables采用的TCP/ip协议为IP6.

3.配置环境变量并验证

vi /etc/profile --修改全局变量必须是root用户(~/.bashrc  or      ~/.bash_profile)
export JAVA_HOME=/opt/modules/java
export HADOOP_HOME=/opt/modules/hadoop
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile     --当前session中执行后生效
验证:java -version  
若是显示非1.7版本,卸载当前版本:使用rpm -qa | grep java
                                 rpm -e --nodeps xxxxx(上个命令显示结果)

4.设置hadoop属性信息格式化namenode启动集群以及基准测试

4.1.设置hadoop属性信息
1)vi $HADOOP_HOME/etc/hadoop/hadoop-env.sh
<!--指定java安装路径-->
export JAVA_HOME=/opt/install/jdk1.7.0_79

2)vi HADOOP_HOME/etc/hadoop/yarn-env.sh  
      &#25351;&#23450;java&#23433;&#35013;&#36335;&#24452;  
      export JAVA_HOME=/opt/install/jdk1.7.0_79  
      3)vi
HADOOP_HOME/etc/hadoop/mapred-site.xml



mapreduce.framework.name
yarn



mapreduce.jobhistory.address
localhost



mapreduce.jobhistory.webapp.address
localhost


4)vi HADOOP_HOME/etc/hadoop/hdfs-site.xml  
        
          hdfs&#20445;&#23384;&#30340;&#25991;&#20214;&#22797;&#26412;&#25968;  
            
                dfs.replication  
                1  
            
          hdfs&#20013;namenode&#22312;linux&#19979;&#30340;&#23384;&#20648;&#36335;&#24452;  
            
                dfs.name.dir  
                /usr/local/data/namenode  
            
          hdfs&#20013;datanode&#22312;linux&#19979;&#30340;&#23384;&#20648;&#36335;&#24452;  
            
                dfs.data.dir  
                /usr/local/data/datanode  
            
          hdfs&#20013;namenode&#21644;danode&#23384;&#20648;&#36335;&#24452;&#65292;&#33509;&#26159;&#35774;&#32622;&#27492;&#21442;&#25968;&#19978;&#38754;&#20004;&#20010;&#21442;&#25968;&#23601;&#19981;&#29992;&#35774;&#32622;  
            
                dfs.tmp.dir  
                /usr/local/data/tmp  
            
          &#27492;&#21442;&#25968;&#35774;&#32622;&#20026;true&#21487;&#20197;&#22312;&#39029;&#38754;&#20013;&#20351;&#29992;&#23637;&#29616;&#30446;&#24405;&#21644;&#25991;&#20214;&#30340;&#21151;&#33021;  
            
                  dfs.webhdfs.enabled  
                  true  
            
          &#36741;&#21161;namenode&#30340;&#35775;&#38382;&#22320;&#22336;  
            
                  dfs.namenode.secondary.http-address  
                  localhost  
            
          &#26159;&#21542;&#36827;&#34892;&#26435;&#38480;&#26816;&#26597;  
            
                  dfs.permissions.enabled  
                  false  
            
        
      5)vi
HADOOP_HOME/etc/hadoop/core-site.xml



fs.trash.interval
0



fs.defaultFS
hdfs://localhost:8020



fs.default.name
hdfs://localhost:9000



hadoop.tmp.dir
/opt/app/hadoop-2.5.0/data/tmp



hadoop.http.staticuser.user
hadoop


6)vi $HADOOP_HOME/etc/hadoop/yarn-site.xml



yarn.nodemanager.aux-services
mapreduce_shuffle



yarn.resourcemanager.hostname
localhost



yarn.log-aggregation-enable
true



yarn.log-aggregation.retain-seconds
604800

4.2.格式化namenode
hadoop namenode -format
4.3.启动hadoop并查看进程状态
<!--启动hdfs,也可以用这个start-dfs.sh-->
hadoop-daemon.sh start namenode
hadoop-daemon.sh start datanode
<!--启动yarn,也可以用这个start-yarn.sh-->
yarn-daemon.sh start resourcemanager
yarn-daemon.sh start nodemanager
使用jps查看linux上运行的守护进程:
[root@org01 ~]# jps
6301 NameNode
16933 Jps
3132 ResourceManager
3224 NodeManager
6411 DataNode
4.4.hadoop环境基准测试
1)文件上传下载
hdfs dfs -mkdir /tmp
hdfs dfs -put $HADOOP_HOME/etc/hadoop/*.xml /tmp

hdfs dfs -ls /tmp
hdfs dfs -ls /tmp/* /root
2)mapreduce自带功能案例测试

hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar hdfs://localhost:8020/tmp wordcount hdfs://localhost:8020/outwords

mkdir input
cp etc/hadoop/*.xml input
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar grep input output ‘dfs[a-z.]+’
cat output/*

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值