Sqoop详细安装与环境配置

1.Sqoop作用

Sqoop是一个用于在Hadoop和关系数据库服务器之间传输数据的工具。它用于从关系数据库(如MySQL,Oracle)导入数据到Hadoop HDFS,并从Hadoop文件系统导出到关系数据库。

2.安装教程

  1. 下载安装包
    下载地址:http://archive.cloudera.com/cdh5/cdh/5/sqoop-1.4.6-cdh5.14.2.tar.gz

  2. 解压到opt目录下
    tar -zxf sqoop-1.4.6-cdh5.14.2.tar.gz

  3. 改名并移到指定opt目录下的新建子目录soft下
    mv sqoop-1.4.6-cdh5.14.2 soft/sqoop146

  4. 导mysql驱动包mysql-connector-java-5.1.38到sqoop146的lib文件夹下
    官网下载mysql驱动包:
    mv mysql-connector-java-5.1.38-bin.jar /opt/soft/sqoop146/lib
    另一种方法:
    到IDEA本地仓库去找到mysql驱动包拖到lib文件夹下

  5. 导hadoop驱动包到sqoop的lib文件夹
    主要有3个 :
    hadoop-common-2.6.0-cdh5.14.2.jar
    hadoop-hdfs-2.6.0-cdh5.14.2.jar
    hadoop-mapreduce-client-core-2.6.0-cdh5.14.2.jar

cp /opt/soft/hadoop260/share/hadoop/common/hadoop-common-2.6.0-cdh5.14.2.jar /opt/soft/sqoop146/lib

cp /opt/soft/hadoop260/share/hadoop/hdfs/hadoop-hdfs-2.6.0-cdh5.14.2.jar  /opt/soft/sqoop146/lib

cp /opt/soft/hadoop260/share/hadoop/mapreduce2/hadoop-mapreduce-client-core-2.6.0-cdh5.14.2.jar  /opt/soft/sqoop146/lib

如下图所示:如图所示

  1. 到sqoop的conf文件下更改配置
    cd soft/sqoop146/conf/

  2. 改文件名并修改配置
    cp sqoop-env-template.sh sqoop-env.sh

  3. 修改sqoop-env.sh 中配置
    添加以下配置信息

//hadoop目录
export HADOOP_COMMON_HOME=/opt/soft/hadoop260
//hadoop目录
export HADOOP_MAPRED_HOME=/opt/soft/hadoop260
//hive环境变量目录
export HIVE_HOME=/opt/soft/hive110
//zookeeper配置文件目录
export ZOOCFGDIR=/opt/soft/zk345/conf
//hbase环境变量目录
export HBASE_HOME=/opt/soft/hbase120
  1. 配置sqoop环境变量
vi /etc/profile
//sqoop目录
export SQOOP_HOME=/opt/soft/sqoop146

export PATH=$PATH:$SQOOP_HOME/bin
  1. 激活配置
    source /etc/profile
  2. 验证是否安装成功
    以下命令用于验证Sqoop版本。
    sqoop-version


如图所示出现版本信息,sqoop已经安装成功!

  1. 列出mysql中所有数据库
    sqoop list-databases --username root --password root --connect jdbc:mysql://localhost:3306/

  2. 列出mysql中某个数据库的所有表

    sqoop list-tables --username root --password ok --connect jdbc:mysql://localhost:3306/数据库名

下篇文章中小编会整理出如何使用sqoop从RDB到HDFS的数据迁移、到Hive的数据迁移、到Hbase的数据迁移,以及Hadoop的HDFS中的数据导进到RDB,和一些导数据中遇到的常见报错和解决方案

  • 5
    点赞
  • 40
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
1、ETL(Extract-Transform-Load的缩写,即数据抽取、转换、装载的过程),对于企业或行业应用来说,我们经常会遇到各种数据的处理,转换,迁移,所以掌握一个ETL工具的使用,必不可少。Kettle作为ETL工具是非常强大和方便的。Kettle是一款国外开源的ETL工具,纯java编写,可以在Window、Linux、Unix上运行,绿色无需安装,数据抽取高效稳定。Kettle中文名称叫水壶,该项目的主程序员MATT希望把各种数据放到一个壶里,然后以一种指定的格式流出。Kettle这个ETL工具集,它允许你管理来自不同数据库的数据,通过提供一个图形化的用户环境来描述你想做什么,而不是你想怎么做。Kettle中有两种脚本文件,transformation和job,transformation完成针对数据的基础转换,job则完成整个工作流的控制。2、Clickhouse 是俄罗斯的“百度”Yandex公司在2016年开源的,一款针对大数据实时分析的高性能分布式数据库,与之对应的有hadoop生态hive,Vertica和百度出品的palo。这是战斗民族继nginx后,又开源的一款“核武器”。Hadoop 生态体系解决了大数据界的大部分问题,当然其也存在缺点。Hadoop 体系的最大短板在于数据处理时效性。基于 Hadoop 生态的数据处理场景大部分对时效要求不高,按照传统的做法一般是 T + 1 的数据时效。即 Trade + 1,数据产出在交易日 + 1 天。ClickHouse 的产生就是为了解决大数据量处理的时效性。独立于Hadoop生态圈。3、Superset 是一款由 Airbnb 开源的“现代化的企业级 BI(商业智能) Web 应用程序”,其通过创建和分享 dashboard,为数据分析提供了轻量级的数据查询和可视化方案。 Superset 的前端主要用到了 React 和 NVD3/D3,而后端则基于 Python 的 Flask 框架和 Pandas、SQLAlchemy 等依赖库,主要提供了这几方面的功能:01、集成数据查询功能,支持多种数据库,包括 MySQL、PostgresSQL、Oracle、SQL Server、SQLite、SparkSQL 等,并深度支持 Druid。02、通过 NVD3/D3 预定义了多种可视化图表,满足大部分的数据展示功能。如果还有其他需求,也可以自开发更多的图表类型,或者嵌入其他的 JavaScript 图表库(如 HighCharts、ECharts)。03、提供细粒度安全模型,可以在功能层面和数据层面进行访问控制。支持多种鉴权方式(如数据库、OpenID、LDAP、OAuth、REMOTE_USER 等)。 基于Kettle+Clickhouse+Superset构建亿级大数据实时分析平台课程将联合这三大开源工具,实现一个强大的实时分析平台。该系统以热门的互联网电商实际业务应用场景为案例讲解,对电商数据的常见实战指标处理使用kettle等工具进行了详尽讲解,具体指标包括:流量分析、新增用户分析、活跃用户分析订单分析、团购分析。能承载海量数据的实时分析,数据分析涵盖全端(PC、移动、小程序)应用。项目代码也是具有很高的商业价值的,大家可以根据自己的业务进行修改,便可以使用。本课程包含的技术:开发工具为:IDEAKettleClickhouseSupersetBinlogCanalKafkaHbaseHadoopZookeeperFlinkSpringBootSpringCouldPythonAnconaMySQL等 课程亮点:1.与企业对接、真实工业界产品2.强大的ETL工具Kettle全流程讲解实现3.ClickHouse高性能列式存储数据库4.Superset现代化的企业级BI可视化5.数据库实时同步解决方案6.集成Flink实时数据转换解决方案7.主流微服务SpringBoot后端系统8.互联网大数据企业热门技术栈9.支持海量数据的实时分析10.支持全端实时数据分析11.全程代码实操,提供全部代码和资料12.提供答疑和提供企业技术方案咨询 
以下是Sqoop安装与配置步骤: 1. 确保已经安装和配置好Hadoop、Hive和MySQL。 2. 进入/opt目录,并解压Sqoop安装包到/app目录下,并将解压好的安装包重命名为sqoop。执行以下命令: ```shell mkdir /app cd /opt tar -zxvf sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz -C /app cd /app mv sqoop-1.4.7.bin__hadoop-2.6.0/ sqoop ``` 3. 配置Sqoop的环境变量。编辑~/.bashrc文件,并添加以下内容: ```shell export SQOOP_HOME=/app/sqoop export PATH=$PATH:$SQOOP_HOME/bin ``` 保存并退出文件。 4. 使环境变量生效。执行以下命令: ```shell source ~/.bashrc ``` 5. 配置Sqoop的连接参数。进入Sqoop的conf目录,并复制模板文件sqoop-env-template.sh为sqoop-env.sh。执行以下命令: ```shell cd /app/sqoop/conf cp sqoop-env-template.sh sqoop-env.sh ``` 6. 编辑sqoop-env.sh文件,并设置以下参数: ```shell export HADOOP_COMMON_HOME=/path/to/hadoop export HADOOP_MAPRED_HOME=/path/to/hadoop export HIVE_HOME=/path/to/hive export ZOOKEEPER_HOME=/path/to/zookeeper ``` 将/path/to/hadoop、/path/to/hive和/path/to/zookeeper替换为实际的路径。 7. 配置Sqoop的数据库连接参数。进入Sqoop的conf目录,并复制模板文件sqoop-site-template.xml为sqoop-site.xml。执行以下命令: ```shell cd /app/sqoop/conf cp sqoop-site-template.xml sqoop-site.xml ``` 8. 编辑sqoop-site.xml文件,并设置以下参数: ```shell <property> <name>sqoop.metastore.client.enable.autoconnect</name> <value>true</value> </property> <property> <name>sqoop.metastore.client.autoconnect.url</name> <value>jdbc:mysql://localhost:3306/sqoop_metastore</value> </property> <property> <name>sqoop.metastore.client.autoconnect.username</name> <value>sqoop</value> </property> <property> <name>sqoop.metastore.client.autoconnect.password</name> <value>password</value> </property> ``` 将localhost、3306、sqoop_metastore、sqoop和password替换为实际的数据库连接信息。 9. 完成以上配置后,Sqoop就已经安装和配置好了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值