sqoop是通过mapereduce将hadoop和关系型数据库相互转化的数据转换工具,
准备:jdk安装:hadoop集群搭建:mysql安装:下载sqoop tar包,加压,配置环境变量
把/sqoop/conf下的sqoop-env-template.sh重命名为sqoop-env.sh,sqoop-site-template.xml重命名为sqoop-site.xml
修改sqoop-env.sh配置文件
export HADOOP_COMMON_HOME=/usr/local/hadoop
export HADOOP_MAPRED_HOME=/usr/local/hadoop
export HIVE_HOME=/usr/local/hive
把mysql的驱动mysql-connector-java-5.1.17.jar放进/sqoop/lib目录中
配置成功后,进行hdfs和mysql的导入导出
一、mysql导入到hdfs
sqoop import --connect jdbc:mysql://192.168.1.106:3306/test1 --username root --password root --table emp --target-dir '/20160622' --fields-terminated-by '\t' -m 1
在master中用hadoop dfs -text /user/root/emp/part-m-00000命令查看
二、hdfs的数据导出到mysql
sqoop export --connect jdbc:mysql://192.168.1.106:3306/test1 --username root --password root --table emp --export-dir '/user/root/emp/part-m-00000' --fields-terminated-by '\t'
查看看数据库