cdh 安装_快速搭建CDH-Hadoop-Hive-Zoopkeeper-Sqoop环境进入Sqoop学习环境

12da93ff953ca91278a01ba39b0713c0.png

CDH简单了解

CDH: C:cloudera(公司) D:distribute H:Hadoop

解决了大数据Hadoop 2.x生态系统中各个框架的版本兼容问题,不用自己编译, CDH适合商用,版本更新比较慢,也可以选择其他版本。

CDH版本的安装

在线:不推荐,受网速影响

离线:rpm包,tar包

之前已经安装使用过Apache版本的Hadoop,这次为了区分,我们再单独见一个cdh目录,用于安装cdh版本的Hadoop、Hive和Sqoop。在使用sqoop需要先部署CDH版本的Hadoop&Hive,CDH版本和apache版本的服务不要混用,只开启CDH或者只开启apache服务就可以。

安装过程(YUM源已安装好、系统版本CentOS6.5、java版本是1.7)

首先我们先创建好目录

fbb95195ca7e0847345eb24b1dfab2c6.png

准备好安装包

dfe498f82586c42da919b71a9f3c8ca1.png

创建目录 mkdir –p /opt/bigdata

解压安装包

tar -zxvf sqoop-1.4.5-cdh5.3.6.tar.gz -C /opt/bigdata/

tar -zxvf hive-0.13.1-cdh5.3.6.tar.gz -C /opt/bigdata/

tar -zxvf hadoop-2.5.0-cdh5.3.6.tar.gz -C /opt/bigdata/

7234a53d9a02c0065e67d0aae84b3579.png

我们进入hadoop目录,把share下doc目录东西删除掉,这个用处不大

4028fc77e7d294c4c663f9fd119745ee.png

配置三个env(hadoop,mapred,yarn)文件

export JAVA_HOME= /usr/lib/jvm/java-1.7.0-openjdk.x86_64

c3f91acad33681a8cf0b5aeaaf61f617.png

编辑三个文件

0edd7643643f4eb8582bb6ebd53b9e5e.png

编辑内容

a8c0846bd54dc5d6afc717a16630a2cf.png

12c19c2579e6dd4ebfae27a3325fc196.png

e1b57d6d6ef1cbb7d46a43df4d66cd4d.png

4个site.xml文件

core:(修改主机名,tmp.dir目录并在linux下创建相应目录,用户名)

hdfs:(修改主机名)

mapred:需先重命名(修改主机名)

yarn:(修改主机名)

core-site.xml

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://mastercdh:8020</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/opt/module/cdh/hadoop-2.5.0-cdh5.3.6/data/tmp</value>

</property>

</configuration>

431ccac97ec0a8198d58f23080f52b35.png

hdfs-site.xml

<configuration>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.permissions.enabled</name>

<value>false</value>

</property>

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>mastercdh:50090</value>

</property>

</configuration>

0eab410de5b9e3e01dae0ceaa32a32e2.png

将这个文件重命名为mapred-site.xml

7c892f7868dbcdbe294e7393eaf4736f.png

83b90af7e4ea60c597236dcfe9c30686.png

mapred-site.xml

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<property>

<name>mapreduce.jobhistory.address</name>

<value>mastercdh:10020</value>

</property>

<property>

<name>mapreduce.jobhistory.webapp.address</name>

<value>mastercdh:19888</value>

</property>

</configuration>

110f7519b1a5631d3cbc0259c3bdfe05.png

yarn-site.xml

<configuration>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.resourcemanager.hostname</name>

<value>mastercdh</value>

</property>

<property>

<name>yarn.log-aggregation-enable</name>

<value>true</value>

</property>

<property>

<name>yarn.log-aggregation.retain-seconds</name>

<value>106800</value>

</property>

</configuration>

883d5140010451ff8a0b95161275e903.png

格式化namenode

$ bin/hdfs namenode –format

2c4cdb083f5fb0ff7090f14bb1b6ac38.png

启动服务

开启各服务:

sbin/hadoop-daemon.sh start namenode

sbin/hadoop-daemon.sh start datanode

sbin/hadoop-daemon.sh start secondarynamenode

sbin/mr-jobhistory-daemon.sh start historyserver

sbin/yarn-daemon.sh start resourcemanager

sbin/yarn-daemon.sh start nodemanager

关闭服务

sbin/hadoop-daemon.sh start namenode

sbin/hadoop-daemon.sh stop datanode

sbin/hadoop-daemon.sh stop secondarynamenode

sbin/mr-jobhistory-daemon.sh stop historyserver

sbin/yarn-daemon.sh stop resourcemanager

sbin/yarn-daemon.sh stop nodemanager

我们开启服务

a51429a519e622a23f4d5479af5a525f.png

配置SSH免密登陆可使用:

$ sbin/start-dfs.sh

$ sbin/start-yarn.sh

$ sbin/start-all.sh

8ef8ded6fe5f61c6ae988943e65b1618.png

我们访问下,和apache版本相比,页面颜色有变化

61cbe09d6486e633616c6f199cbe1daf.png

安装mysql

检查下是否已下载还有卸载残留

rpm -qa | grep mysql

find / -name mysql

d06c2ca4d38d8f2944099814ab39d2ee.png

看来还是有的,通过rm -rf将以上目录删掉即可,另外顺便把配置文件/etc/my.cnf也删掉吧,用rm –f

237750326ad5d4fde5d23e0cc560fba6.png

安装mysql

yum -y install mysql mysql-server

安装mysql扩展

yum -y install mysql-connector-odbc mysql-devel libdbi-dbd-mysql

启动mysql

service mysqld start

b7d276f7d7ceb9799b08347662dc470d.png

设置开启启动: chkconfig mysqld on

fb40500e2cdea46b67e917d12093e5c9.png

检查下

chkconfig | grep mysql

b79b61be795ad44bc20368976398b7e2.png

设置登录密码:mysqladmin -u root password 'password'

进入数据库,查询用户信息

4a4d573ee853688aef3a2be0dbfdf6df.png

设置远程登录权限

grant all privileges on *.* to 'root'@'%' identified by 'password' with grant option;

0ac9e1ea53451f786296a75ac19d3170.png

删除用户信息

delete from user where user='root' and host='127.0.0.1';

9ee0acccd865254b2f26dbea38676b68.png

刷新信息

flush privileges;

07a9cd9efb95c7258c4f7c0670916b34.png

update user set password = password("password") where user ="root" and host = "mastercdh";

flush privileges;

f42cee1b2c5a1a8990e490d691556152.png

重启mysqld服务

service mysqld restart

e6904843b9a1c89b225c35ebaf74fcc2.png

进入解压的hive目录中配置文件目录

6a2b01261fa9936230b32e8fb7ee3f93.png

先重命名hive-default.xml.template

mv hive-default.xml.template hive-site.xml

f95c084e43cd1cbe76674651cf22850d.png

再重命名hive-env.sh.template

mv hive-env.sh.template hive-env.sh

e4496979762dd593dcb969c65592b79a.png

再重命名hive-log4j.properties.template

mv hive-log4j.properties.template hive-log4j.properties

931bf9639c6efacb8882852acc090cf9.png

依次配置

首先hive-env.sh

HADOOP_HOME=/opt/bigdata/hadoop-2.5.0-cdh5.3.6

export HIVE_CONF_DIR=/opt/bigdata/hadoop-2.5.0-cdh5.3.6

8273eeac997e9b9adb0fb4f5533599e4.png

编辑hive-site.xml,我们输入4000dd删除原来的内容

3236e75a315e1ce312a02992147c59e4.png

输入配置文件

<configuration>

<property>

<name>javax.jdo.option.ConnectionURL</name>

<value>jdbc:mysql://mastercdh:3306/cdhmetastore?createDatabaseIfNotExist=true</value>

</property>

<property>

<name>javax.jdo.option.ConnectionDriverName</name>

<value>com.mysql.jdbc.Driver</value>

</property>

<property>

<name>javax.jdo.option.ConnectionUserName</name>

<value>root</value>

</property>

<property>

<name>javax.jdo.option.ConnectionPassword</name>

<value>password</value>

</property>

<property>

<name>hive.cli.print.current.db</name>

<value>true</value>

</property>

<property>

<name>hive.cli.print.header</name>

<value>true</value>

</property>

</configuration>

0801afe64426f1ae352c57ad8314ee0e.png

配置hive-log4j.properties

hive.log.dir=/opt/bigdata/hive-0.13.1-cdh5.3.6/logs

1d48329dc37da49bd407baf38c54dc00.png

我们将准备好的mysql的jar包上传到lib目录下

mysql-connector-java-5.1.27-bin.jar

a604bf83b6d4f60a3304bbf77db7960d.png

ba1e180766fc0ca1482bb2d932764235.png

切换到Hadoop目录,建立目录,并修改权限

/user/hive/warehouse为Hive存放数据的目录

bin/hdfs dfs -mkdir -p /user/hive/warehouse

bin/hdfs dfs -chmod g+w /user/hive/warehouse

bin/hdfs dfs -chmod g+w /tmp

3c10e6374f44c25c5d4987d81b53bba7.png

启动客户端使用Hive bin/hive就可以了

aa23de6d32c29006740fba6e2090318e.png

解压zookeeper

tar -zxvf zookeeper-3.4.5-cdh5.3.6.tar.gz -C /opt/bigdata/

b12f43bcf6f1bd1e1b800107a20b4fa6.png

进入zookkeeper目录,创建存放数据的目录

c79b65fa0db965e864ab47511232b469.png

在conf目录里

cp -a zoo_sample.cfg zoo.cfg

cdff7bc1b382d3f34a06e2fb2f15e17a.png

然后修改:dataDir= /opt/bigdata/zookeeper-3.4.5-cdh5.3.6/zkData

ab5eecea4e9c61dd50f799ceeccf569a.png

启动

sbin/zkServer.sh start

可以去查看状态:sbin/zkServer.sh status

7d619f77f9e185633e03f34cd0a000da.png

部署sqoop

解压sqoop后

配置conf/sqoop-env.sh

复制: cp -a sqoop-env-template.sh sqoop-env.sh

或直接重命名重命名hive-env.sh (去掉.template)

d7291699a4b051559dc6fee11a1e4b8b.png

编辑文件

export HADOOP_COMMON_HOME=/opt/bigdata/hadoop-2.5.0-cdh5.3.6

export HADOOP_MAPRED_HOME=/opt/bigdata/hadoop-2.5.0-cdh5.3.6

export HIVE_HOME=/opt/bigdata/hive-0.13.1-cdh5.3.6

export ZOOCFGDIR=/opt/bigdata/zookeeper-3.4.5-cdh5.3.6

23a3cac2924ec2449b7b25faa1dcd212.png

拷贝jdbc驱动包达到lib目录

5c9f97c4e15e22cc90ed0f0501d3965d.png

查看帮助信息:bin/sqoop help

a00cb56b9b18105fe5e93c5e314eabb3.png

测试:sqoop连接mysql

bin/sqoop list-databases --connect jdbc:mysql://mastercdh:3306/ --username root --password password

54f88d5fcf4c719a0313a4258805151d.png
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值