flink-sqlClient和hadoop-hive写入数据

本文介绍了如何利用Apache Flink的SQL Client工具将数据写入Hadoop Hive集群,包括环境配置、Flink与Hive的集成设置以及具体的数据写入操作步骤。
摘要由CSDN通过智能技术生成
# 1. jdk安装,我这里略过了,不要打我


# 2. 安装hadoop

2.1. 下载安装包
wget https://archive.apache.org/dist/hadoop/core/hadoop-2.7.3/hadoop-2.7.3.tar.gz

2.2. 解压安装包
tar -zxvf hadoop-2.7.3.tar.gz

2.3. 创建软连接
ln -s hadoop-2.7.3 hadoop

2.4. 配置环境变量(这里我把jdk和hadoop的环境变量都列上)
export HADOOP_HOME=/root/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

export JAVA_HOME=/opt/jdk-11.0.12
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
2.5. 修改配置文件伪分布式
2.5.1. 进入配置文件目录
cd /root/hadoop/etc/hadoop

2.5.2. 修改core-site.xml
<configuration>
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://192.168.198.198:9000</value>
        </property>
        <property>
                <name>fs.default.name</name>
                <value>hdfs://192.168.198.198:9000</value>
        </property>
</configu
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值