sqoop笔记-new

Linux、Hadoop命令汇总:
netstat -nltp | grep 3306  查看端口3306的占用情况


sqoop的使用
----sqoop是一个用来在hadoop体系和关系型数据库之间进行数据互导的工具
----实质就是将导入导出命令转换成mapreduce程序来实现


sqoop安装:sqoop和hive一样只是一个工具,哪用哪安装,安装在一台节点上就可以了。


1.上传sqoop并解压
tar -zxvf sqoop-1.4.4.bin__hadoop-2.0.4-alpha.tar.gz


2.安装和配置
----修改配置文件 sqoop-env-template.sh  为  sqoop-env.sh
#Set path to where bin/hadoop is available
export HADOOP_COMMON_HOME=/home/hadoop/app/hadoop-2.4.1


#Set path to where hadoop-*-core.jar is available
export HADOOP_MAPRED_HOME=/home/hadoop/app/hadoop-2.4.1


#set the path to where bin/hbase is available
export HBASE_HOME=/home/hadoop/app/hbase-0.96.2-hadoop2


#Set the path to where bin/hive is available
export HIVE_HOME=/home/hadoop/app/hive-0.12.0-bin


#Set the path for where zookeper config dir is          (----若要导Hbase则需要配置此项)
export ZOOCFGDIR=/home/hadoop/app/zookeeper-3.4.5/conf




在添加sqoop到环境变量

######将数据库连接驱动拷贝到$SQOOP_HOME/lib里
mv  mysql-connector-java-5.1.28.jar /home/hadoop-node-01/sqoop-1.4.4.bin__hadoop-2.0.4-alpha/lib/


3.使用
第一类:数据库中的数据导入到HDFS上
sqoop import 
--connect jdbc:mysql://192.168.1.10:3306/itcast 
--username root --password 123  
--table trade_detail 
--columns 'id, account, income, expenses'

指定输出路径、指定数据分隔符
sqoop import 
--connect jdbc:mysql://192.168.1.10:3306/itcast 
--username root --password 123  
##要导入数据的表
--table trade_detail 
##数据导入hdfs后所存放的目录
--target-dir '/sqoop/td' 
##导入的数据字段之间的分隔符
--fields-terminated-by '\t'

指定Map数量 -m 
sqoop import 
--connect jdbc:mysql://192.168.1.10:3306/itcast 
--username root --password 123  
--table trade_detail 
--target-dir '/sqoop/td1' 
--fields-terminated-by '\t'
##指定做导入处理时的map 任务数 
-m 2


增加where条件, 注意:条件必须用引号引起来
sqoop import 
--connect jdbc:mysql://192.168.1.10:3306/itcast 
--username root --password 123  
--table trade_detail 
--where 'id>3' 
--target-dir '/sqoop/td2' 


增加query语句(使用 \ 将语句换行)
sqoop import 
--connect jdbc:mysql://192.168.1.10:3306/itcast 
--username root --password 123 
--query 'SELECT * FROM trade_detail where id > 2 AND $CONDITIONS' 
--split-by trade_detail.id 
--target-dir '/sqoop/td3'

注意:如果使用--query这个命令的时候,需要注意的是where后面的参数,AND $CONDITIONS这个参数必须加上
而且存在单引号与双引号的区别,如果--query后面使用的是双引号,那么需要在$CONDITIONS前加上\即\$CONDITIONS
如果设置map数量为1个时即-m 1,不用加上--split-by ${tablename.column},否则需要加上

第二类:将HDFS上的文件数据导出到数据库的表里面去
sqoop export 
--connect jdbc:mysql://192.168.8.120:3306/itcast 
--username root --password 123 
##你要导出的数据所在的目录
--export-dir '/td3' 
##你要导往的目标关系表
--table td_bak 
-m 1 
##你要导出的文件的字段分隔符
--fields-termianted-by '\t'

4.配置mysql远程连接
GRANT ALL PRIVILEGES ON itcast.* TO 'root'@'192.168.1.201' IDENTIFIED BY '123' WITH GRANT OPTION;
FLUSH PRIVILEGES; 

GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY '123' WITH GRANT OPTION;
FLUSH PRIVILEGES




命令Demo
sqoop export --connect jdbc:mysql://hadoop-01-server:3306/urlknowledge --username root --password root \
--table know \
--export-dir /flowcount/srcdata \
--columns url \
--input-fields-terminated-by '\t'








sqoop export --connect jdbc:mysql://weekend01:3306/urlrule --username root --password root \
--table urlinfo \
--export-dir /llyy/topkurl3/ \
--columns url \
--input-fields-terminated-by '\t'






sqoop export --connect jdbc:mysql://weekend01:3306/flowurl --username root --password root \
--table topkurl \
--export-dir /flow/topkurl \
--columns url \
--input-fields-terminated-by '\t'
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值