目录
如果出错,则需要再添加一个hadoop 包,详细过程在本文章后面《上面整合jar包详细过程》那个标题
修改hadoop02上的flink配置文件flink-conf.yaml
Flink的安装模式
local(本地)
本地单机模式,一般用于测试环境是否搭建成功,很少使用
standalone(独立集群模式)
flink自带集群,开发测试使用
StandAloneHA:独立集群的高可用模式,也是flink自带,用于开发测试环境
on yarn(flink on yarn)
计算资源统一由hadoop yarn管理,生产环境使用
local模式安装
下载安装包
https://pan.baidu.com/s/1xFn7ukWDp4bE0vNZI99AOQ?pwd=1234 提取码:1234

上传服务器

解压

配置环境变量

使环境变量起作用
source /etc/profile
测试

启动Scala shell交互界面

scala命令行示例——单词计数
准备好数据文件,放在/root

执行命令
benv.readTextFile("/root/a.txt").flatMap(_.split(" ")).map((_,1)).groupBy(0).sum(1).print()

ctrl+d退出交互
启动Flink的local集群
启动local 模式集群

这里不知道为啥环境变量错了,真是难受
后来知道了,原来是开两个窗口不是互通的,有clone延迟

查看flink 的web ui

local集群运行测试任务——单词计数
提交任务
flink run examples/batch/WordCount.jar --input /root/a.txt --output /root/output

查看结果

Standalone模式安装
| JobManager |
TaskManager |
|
| hadoop01 |
y |
y |
| hadoop02 |
n |
y |
| hadoop03 |
n |
y |
修改Flink的配置文件

修改fink-conf.yml
注意:修改yml格式的配置文件时,key和value之间必须得有一个空格


本文详细介绍了Apache Flink的四种安装模式:Local、Standalone、Standalone HA以及Flink on Yarn,包括下载安装、配置环境、启动集群、提交任务等步骤,并通过单词计数任务进行测试验证,确保集群的正确运行。
最低0.47元/天 解锁文章
463

被折叠的 条评论
为什么被折叠?



