2021-06-05大数据实训-2

步骤

步骤:
 - flume安装与配置
 - sqoop安装与配置

flume安装与配置

flume是用来做数据采集工作的,将采集到的数据上传到hdfs
运行的核心是agent,包含三个核心组件:source,channel,sink
数据的来源是可以不同的,使用不同的source
channel是用来维系source和sink的
采集到的数据可以存放在不同的地方,使用不同的sink

解压与更名

tar -zxvf apache-flume-1.8.0-bin.tar.gz -C /usr/local/
cd /usr/local/
mv apache-flume-1.8.0-bin/ flume

配置环境变量

vi /etc/profile
..................
export FLUME_HOME=/usr/local/flume
export PATH=$FLUME_HOME/bin:$PATH
..................
source /etc/profile

验证环境变量

flume-ng version

配置文件

 cd flume/conf/
 cp flume-env.sh.template flume-env.sh
 vi flume-env.sh
.................
export JAVA_HOME=/usr/local/jdk
.................

sqoop安装与配置

sqoop主要采集的是关系型数据库类的数据,可以对跨平台的数据进行整合
import 从关系型数据库到hadoop
export 从Hadoop到关系型数据库

解压更名

tar -zxvf /root/sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz -C /usr/local/
mv sqoop-1.4.7.bin__hadoop-2.6.0/ sqoop1.4.7

配置环境变量

vi /etc/profile

export SQOOP_HOME=/usr/local/sqoop1.4.7
export PATH=$PATH:$SQOOP_HOME/bin

配置文件

cd /usr/local/sqoop1.4.7
mv ./conf/sqoop-env-template.sh ./conf/sqoop-env.sh
vi ./conf/sqoop-env.sh
export HADOOP_COMMON_HOME=/usr/local/hadoop
export HADOOP_MAPRED_HOME=/usr/local/hadoop
export HIVE_HOME=/usr/local/hive

mysql 驱动

cp /root/soft/mysql-connector-java-5.1.18.jar ./lib/

验证安装

sqoop version
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值