Flink 1.14.0安装与配置

Flink安装包下载地址

1. standalone模式

  1. 解压安装Flink
[root@bigdata1 software]# tar -zxvf flink-1.14.0-bin-scala_2.12.tgz -C /opt/module/
[root@bigdata1 module]# mv flink-1.14.0/ flink-standalone
  1. 进入conf修改flink-conf.yaml (cd /opt/module/flink-standalone/conf)
jobmanager.rpc.address: bigdata01

flink中有jobmanager和taskmanager

  1. 修改wokers(路径同上)
[root@test conf]# vim workers
bigdata01
bigdata02
bigdata03
  1. 分发到集群其他节点
[root@bigdata1 module]# scp -r /opt/module/flink-standalone/ bigdata02:/opt/module
[root@bigdata1 module]# scp -r /opt/module/flink-standalone/ bigdata03:/opt/module
  1. 启动Flink集群命令(在/opt/module/flink-standalone/下执行)
bin/start-cluster.sh 
  1. 浏览器访问 http://bigdata01:8081 可以对flink集群和任务进行监控管理。

  2. 停止Flink集群命令(在/opt/module/flink-standalone/下执行)

bin/stop-cluster.sh

flink run org.example.wc.StreamingWordCount -p 1 wc.jar --host localhost --port 7777

flink list

2. Flink on Yarn模式(生产应用常用模式)

上传二进制包 解压缩 更改文件名称 配置环境变量

  1. 解压安装
[root@bigdata1 software]# tar -zxvf /opt/software/flink-1.14.0-bin-scala_2.12.tgz -C /opt/module/
[root@bigdata1 module]# mv flink-1.14.0/ flink-yarn        
  1. 配置环境变量(/etc/profile)
#配置环境变量HADOOP_CLASSPATH, 如果前面已经配置可以忽略。
#export HADOOP_CLASSPATH=`hadoop classpath`

#FLINK_HOME
export FLINK_HOME=/opt/module/flink-yarn
export PATH=$PATH:$FLINK_HOME/bin
export HADOOP_CLASSPATH=`hadoop classpath`
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop
  1. 启动Hadoop集群

Flink on Yarn模式基于Hadoop集群Yarn。

2.1 Session Cluster (内存集中管理模式)

​ Session-Cluster模式需要先启动集群,然后再提交作业,接着会向yarn申请一块空间后,资源永远保持不变,无论提交多少job,这些job都会共用开始时在yarn中申请的资源。如果资源满了,下一个作业就无法提交,只能等到yarn中的其中一个作业执行完成后,释放了资源,下个作业才会正常提交。所有作业共享Dispatcher和ResourceManager;共享资源;适合规模小执行时间短的作业。

​ 在yarn中初始化一个flink集群,开辟指定的资源,以后提交任务都向这里提交。这个flink集群会常驻在yarn集群中,除非手工停止。


  1. 启动Hadoop集群。

  2. 启动yarn-session

    bin/yarn-session.sh -d 
    

    使用以下命令检查是否启动成功:(任意路径)

    yarn application -list
    

    取消yarn-session

    yarn application --kill application_46731628681_0001
    

    出现 Flink session cluster 字样则说明启动成功!!

    yarn-session.sh -n 2 -jm 1024 -tm 1024 -d 
    

    -jm JobManager的内存

    -tm TaskManager的内存

    -nm yarn的appName(现在yarn的ui上的名字)

    -d 后台运行

2.2 Per Job Cluster (内存Job管理模式)

​ 一个Job会对应一个集群,每提交一个作业会根据自身的情况,都会单独向yarn申请资源,直到作业执行完成,一个作业的失败与否并不会影响下一个作业的正常提交和运行。独享Dispatcher和ResourceManager,按需接受资源申请;适合规模大长时间运行的作业。

每次提交都会创建一个新的flink集群,任务之间互相独立,互不影响,方便管理。任务执行完成之后创建的集群也会消失。


  1. 启动hadoop集群

    确认是否启动: jps

    如果没启:执行

    start-all.sh
    
  2. 该模式不启动yarn-session,直接执行job

  3. 测试:

yum install -y nc
nc -lk 22222

另起一个终端,执行以下命令:

flink run -m yarn-cluster /opt/module/flink-yarn/examples/streaming/SocketWindowWordCount.jar --hostname bigdata01 --port 22222

查看yarn application:

yarn application -list

若出现 Flink per-job cluster 则说明任务正在运行,成功!!

[root@master flink]# flink run -m yarn-cluster -yjm 1024 -ytm 1024 /opt/module/flink/examples/batch/WordCount.jar

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Flink的安装和配置可以按照以下步骤进行: 1. 首先,你需要下载Flink的安装包。你可以从Flink的官方网站(https://flink.apache.org/downloads.html)上找到最新的稳定版本,并选择适合你操作系统的版本。 2. 下载完成后,解压缩安装包到你选择的目录。你可以使用以下命令进行解压缩: ``` tar -xzf flink-<version>.tgz ``` 其中,`<version>`是你下载Flink版本号。 3. 进入解压缩后的目录: ``` cd flink-<version> ``` 4. 配置Flink的环境变量。在终端中执行以下命令: ``` export FLINK_HOME=/path/to/flink-<version> export PATH=$PATH:$FLINK_HOME/bin ``` 将上述命令中的`/path/to/flink-<version>`替换为你的Flink安装路径。 5. 配置Flink的配置文件。进入Flink安装目录下的`conf`文件夹,并复制一份`flink-conf.yaml.template`文件并重命名为`flink-conf.yaml`。 ``` cd conf cp flink-conf.yaml.template flink-conf.yaml ``` 6. 打开`flink-conf.yaml`文件,并根据需要进行配置。在这个文件中,你可以设置Flink的各种参数,如任务管理器的内存大小、并行度等。根据需求进行修改后保存。 7. 配置完成后,你可以启动Flink集群。在终端中执行以下命令: ``` ./bin/start-cluster.sh ``` 这将启动Flink的任务管理器和资源管理器。 8. 要验证Flink是否正常运行,你可以在浏览器中访问`http://localhost:8081`,这是Flink的Web界面。如果能够成功访问并显示Flink的状态信息,则表示安装和配置成功。 以上就是Flink安装与配置过程。希望能对你有所帮助!如果还有其他问题,请继续提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值