Flink 搭建

1、local 本地测试

  • idea运行

1、flink集群搭建

1、standallone cluster
1、准备工作
  • 配置JAVA_HOME 免密钥
2、上传解压
tar -xvf flink-1.11.0-bin-scala_2.11.tgz
  • 配置环境变量
3、修改配置文件
vim conf/flink-conf.yaml

jobmanager.rpc.address: master   主节点ip地址 
vim conf/workers
增加从节点  node1  node2

vim conf/masters  
改成主节点ip

同步到所有节点
scp -r flink-1.11.0/ node1:`pwd`
4、启动集群
bin/start-cluster.sh

http://master:8081   访问web界面


提交任务
	1、在web页面提交任务

	2、同flink命令提交任务
	flink run -c com.shujia.flink.soure.Demo4ReadKafka flink-1.0.jar 

	3、rpc方式提交任务

2、flink on yarn 只需要部署一个节点

1、配置HADOOP_CONF_DIR
vim /etc/profile

export HADOOP_CONF_DIR=/usr/local/soft/hadoop-2.7.6/etc/hadoop/
2、将hadoop依赖jar上传到flink lib目录
flink-shaded-hadoop-2-uber-2.6.5-10.0

flink和spark一样都是粗粒度资源申请

2、flink启动方式

1、yarn-session 在yarn里面启动一个flink集群 jobManager
1、先启动hadoop 
yarn-session.sh -jm 1024m -tm 1096m

2、提交任务  任务提交的是偶根据并行度自动生成taskmanager
	1、在web页面提交任务

	2、同flink命令提交任务
	flink run -c com.shujia.flink.soure.Demo4ReadKafka flink-1.0.jar 

	3、rpc方式提交任务
2、直接提交任务到yarn 每一个任务都会有一个jobManager
flink run -m yarn-cluster  -yjm 1024m -ytm 1096m -c com.shujia.flink.soure.Demo4ReadKafka flink-1.0.jar

yarn application -kill application_1599820991153_0005

2、flink整合hive

1、将整合需要的jar上传到flink的lib目录

flink-sql-connector-hive-1.2.2_2.11-1.11.0.jar
hive-exec-1.2.1.jar
hive-metastore-1.2.1.jar

2、启动hive元数据服务

nohup hive --service metastore >> metastore.log 2>&1 &

3、如果在sql-client中使用hive的catalog

修改sql-client-defaults.yaml

catalogs: 
  - name: myhive
    type: hive
    hive-conf-dir: /usr/local/soft/hive-1.2.1/conf
    default-database: default

4、在sql-client中使用hive的catalog

USE CATALOG myhive;
show tables;
  • 在flink中创建的表在hive中就可以查看,不能查询数据
  • hive中的表在flink中可以查询

5、在zeppenlin中整合hive

  • 修改配置
HIVE_CONF_DIR  /usr/local/soft/hive-1.2.1/conf

zeppelin.flink.enableHive	true
zeppelin.flink.hive.version	1.2.1
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
搭建flink集群环境,你需要执行以下步骤: 1. 下载适合你集群环境的flink版本。你可以从官方网站下载flink的二进制文件。根据你的集群环境,选择对应的flink版本进行下载。比如,如果你的集群环境是hadoop2.7.5和Scala2.11,你可以下载flink-1.7.1-bin-hadoop27-scala_2.11.tgz。\[3\] 2. 将flink安装文件同步到其他机器上。使用scp命令将flink安装文件和环境信息同步到其他机器上。你需要执行多次scp命令,每次将/etc/profile和flink安装文件复制到其他机器上。比如,执行以下命令:scp /etc/profile root@cdh3:/etc/profile和scp -r ./flink-1.7.1 root@cdh3:/usr/local。\[1\] 3. 配置flink集群。在每台机器上执行source /etc/profile命令,使环境变量生效。然后,启动flink集群,可以使用start-cluster.sh命令。如果需要停止flink集群,可以使用stop-cluster.sh命令。比如,执行stop-cluster.sh命令:stop-cluster.sh。\[1\]\[2\] 请注意,以上步骤是基于已经安装了hadoop和Scala的前提下进行的。如果你的集群环境不同,你可能需要根据实际情况进行相应的调整。 #### 引用[.reference_title] - *1* *2* *3* [flink集群的搭建与部署](https://blog.csdn.net/qq_38617531/article/details/86675403)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值