Linux安装Flink

目录

安装包下载

单机版

规划

解压 

配置

 查看管理页面

运行example

停止运行

Standalone Cluster

规划

master安装

worker安装

启动集群

停止集群

Yarn Cluster


        Flink按资源的提供者(Resource Providers)可以分为Standalone、Native Kubernetes、Yarn三种部署方式。Standalone方式资源由Flink自身来管理。不论是哪种方式,安装Flink前需要安装好JDK,假设已经安装好JDK1.8。

安装包下载

        登录Flink官网

Flink官网

如图:

点击Downloads,进入安装包下载页面,如图:

选择1.9.3版本,如图:

点击Binaries,如图:

下载如下版本Flink: 

flink-1.9.3-bin-scala_2.11.tgz


单机版

规划

        在192.168.128.111上安装Flink服务。部署规划如下:

主机IP主机名部署Flink服务
192.168.128.111 bigdata111

解压 

        将Flink安装包上传到bigdata111服务器上,进入安装包所在目录,执行如下解压命令:

tar -zxvf flink-1.9.3-bin-scala_2.11.tgz -C /opt/

将安装吧解压到/opt/目录下,解压成功后,如图:

配置

        执行如下命令,打开配置文件:

vi /etc/profile

在配置文件末尾,配置内容如下:

# Flink
export FLINK_HOME=/opt/flink-1.9.3
export PATH=$FLINK_HOME/bin:$PATH

执行如下命令,保存配置:

source /etc/profile

        执行如下命令,启动Flink

start-cluster.sh

启动成功后,执行jps查看是否启动成功:

 查看管理页面

        在浏览器中输入如下url,登录Flink  Web UI页面:

http://bigdata111:8081

如图:

运行example

        打开第一个shell窗口,输入如下命令,监听8888端口:

nc -lk 8888

如果没有安装nc,执行如下命令安装:

yum install -y nc

监听成功后,输入一些字符串,如图:

重新打开一个个shell窗口

进入flink安装目录,启动单词统计的java程序 SocketWindowWordCount,并监听8888端口

flink run examples/streaming/SocketWindowWordCount.jar --port 8888

执行成功后,如图: 

再打开一个窗口,进入flink安装目录下的log目录,查看统计结果:

tail -f flink-root-taskexecutor-0-bigdata111.out

日志中记录了程序运行的统计结果,如图: 

停止运行

        执行如下命令,停止集群:

stop-cluster.sh

Standalone Cluster

        Standalone是相对于资源管理来说的。Standalone表示Flink不依赖yarn等资源管理器。

fully distributed fashion on a static (but possibly heterogeneous) cluster

规划

IP地址主机名称Flink角色
192.168.128.111bigdata111master
192.168.128.112bigdata112worker
192.168.128.113bigdata113worker

在安装前,每台机器需要安装JDK,假设已经安装好。

master安装

        配置Flink安装目录下的conf/flink-conf.yaml

默认如下:

jobmanager.rpc.address: localhost

修改为:

jobmanager.rpc.address: bigdata111

修改Flink安装目录下conf/masters配置,默认如下:

localhost:8081

修改为:

bigdata111:8081

修改Flink安装目录下conf/slaves配置,默认如下:

localhost

修改为:

bigdata112

bigdata113

worker安装

        将master上配置好的Flink部署包复制到worker中,保持目录相同。使用如下命令拷贝即可:

scp -r flink-1.9.3 root@bigdata112:/opt/

scp -r flink-1.9.3 root@bigdata113:/opt/

启动集群

        在master节点上执行start-cluster.sh命令启动集群。然后jps查看各节点启动情况,如图:

停止集群

        执行stop-cluster.sh命令即可,如图:


Yarn Cluster

        Flink On Yarn部署需要部署Hadoop环境包括HDFS和Yarn,假设已经部署好,不需要启动Flink集群,后面可以看到Fink On Yarn的部署方式,提交任务时,会自动在Yarn集群的NodeManager节点上启动Flink集群(Job Manager和TaskManager)。该方式还要求向yarn提交任务的Flink客户端配置Hadoop环境。这里使用bigdata113(Worker)来模拟Flink客户端向Yarn提交任务,这里Flink 客户端可以是重新上传Flink安装包解压即可。执行如下命令,查看hadoop classpath是否存在

echo `hadoop classpath`

成功后,如图: 

执行如下命令,打开配置文件

vi /etc/profile

在文件末尾添加如下配置:

# Flink On Yarn
export HADOOP_CLASSPATH=`hadoop classpath`

执行如下命令,生效配置文件: 

source /etc/profile

 接下来启动HDFS和Yarn集群,如图:

 

在bigdata113上重新上传flink安装包,并解压到当前目录来模拟flink客户端,如下: 

tar -zxvf flink-1.9.3-bin-scala_2.11.tgz

 执行如下命令,提交任务到yarn

./bin/flink run -m yarn-cluster -c com.leboop.SocketStreamingWordCount /root/jars/flink-1.0-SNAPSHOT.jar --host bigdata111 --port 9999

提交成功后,如图

如果未配置HADOOP_CLASSPATH,会报如下错误

[root@bigdata111 ~]flink run -m yarn-cluster -c com.leboop.SocketStreamingWordCount /root/jars/flink-1.0-SNAPSHOT.jar --host bigdata111 --port 9999

------------------------------------------------------------
 The program finished with the following exception:

java.lang.RuntimeException: Could not identify hostname and port in 'yarn-cluster'.
        at org.apache.flink.client.ClientUtils.parseHostPortAddress(ClientUtils.java:47)
        at org.apache.flink.client.cli.AbstractCustomCommandLine.applyCommandLineOptionsToConfiguration(AbstractCustomCommandLine.java:83)
        at org.apache.flink.client.cli.DefaultCLI.createClusterDescriptor(DefaultCLI.java:60)
        at org.apache.flink.client.cli.DefaultCLI.createClusterDescriptor(DefaultCLI.java:35)
        at org.apache.flink.client.cli.CliFrontend.runProgram(CliFrontend.java:216)
        at org.apache.flink.client.cli.CliFrontend.run(CliFrontend.java:205)
        at org.apache.flink.client.cli.CliFrontend.parseParameters(CliFrontend.java:1008)
        at org.apache.flink.client.cli.CliFrontend.lambda$main$10(CliFrontend.java:1081)
        at org.apache.flink.runtime.security.NoOpSecurityContext.runSecured(NoOpSecurityContext.java:30)
        at org.apache.flink.client.cli.CliFrontend.main(CliFrontend.java:1081)
[root@bigdata111 ~]#

 登录到yarn web ui页面(http://bigdata111:8088/),如图:

Name中显示Flink session cluster,表示是以session模式提交的。 bigdata112(NodeManager)上启动了JobManager和TaskManager,如图:

可以点击yarn web ui页面任务的ApplicationMaster,进入到Flink web ui页面,如图:

  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
### 回答1: 好的,以下是Linux安装Flink的步骤: 1. 首先,确保您的系统上安装了Java。您可以在终端中输入以下命令来检查Java是否已安装: ``` java -version ``` 如果您的系统上没有安装Java,则可以通过以下命令安装它: ``` sudo apt-get install openjdk-8-jdk ``` 2. 下载Flink安装包。您可以在Flink官方网站(https://flink.apache.org/downloads.html)上找到最新的Flink版本。下载完成后,您需要解压缩安装包,可以使用以下命令解压缩: ``` tar -xzf flink-1.12.5-bin-scala_2.11.tgz ``` 3. 设置Flink环境变量。您需要将Flink的bin目录添加到系统PATH变量中,这样您就可以在任何位置访问Flink命令。您可以使用以下命令将Flink bin目录添加到PATH: ``` export PATH=/path/to/flink-1.12.5/bin:$PATH ``` 请注意,您需要将“/path/to/flink-1.12.5”替换为您实际的Flink安装路径。 4. 启动Flink。您可以使用以下命令启动Flink: ``` ./bin/start-cluster.sh ``` 此命令将启动Flink集群,并启动JobManager和TaskManager进程。 5. 验证Flink是否正在运行。您可以在Web浏览器中访问Flink Web界面(默认端口为8081)来验证Flink是否正在运行。在浏览器中输入以下URL: ``` http://localhost:8081 ``` 如果Flink正在运行,则应该能够看到Flink Web界面。 6. 停止Flink。您可以使用以下命令停止Flink集群: ``` ./bin/stop-cluster.sh ``` 这将停止JobManager和TaskManager进程。 希望这可以帮助您在Linux安装Flink。 ### 回答2: Apache Flink是一款流数据处理引擎,它有着高效、高可靠性、高可扩展性等特点,在很多场景下都能够得到广泛的应用。在Linux环境下,安装Flink可以通过以下步骤来完成。 1. 首先需要下载Flink安装包,可以从官网上进行下载,这里以Flink 1.12.2版本为例。下载完成后,将其解压到指定的安装目录中,如/opt/flink/。 2. 接下来,在Linux系统中需要安装Java环境,并且设置好环境变量。可以通过以下命令来检查Java是否已经安装: java -version 如果输出Java的版本信息,则说明Java已经安装好了。如果没有安装,则需要先进行安装。 3. 设置Flink的配置文件。在安装目录下的conf/文件夹中,可以找到配置文件flink-conf.yaml。在这个文件中,需要进行一些必要的配置,如: - 设置Flink的运行模式,是本地模式还是分布式模式 - 配置Flink的JobManager和TaskManager的内存大小 - 配置Flink的日志级别和日志输出路径等 4. 启动Flink。在Linux命令行中,可以使用以下命令来启动Flink: ./bin/start-cluster.sh 这个命令会启动Flink集群,并且可以通过Flink的WebUI来查看集群的状态和运行情况。 5. 如果想要停止Flink,可以使用以下命令: ./bin/stop-cluster.sh 6. 最后,如果想要运行Flink的任务,可以使用以下命令: ./bin/flink run -c <class> <jarfile> [arguments] 其中,需要指定任务类的名称和JAR包文件的路径,以及一些必要的参数。运行任务后,可以通过日志文件和WebUI来查看任务的运行情况。 通过以上步骤,可以在Linux环境下安装和配置Flink,并且启动和运行Flink的任务。这些步骤需要一定的Linux和Java知识,但是只要按照上述步骤操作,就可以轻松完成Flink安装和使用。 ### 回答3: flink是一个基于流式处理的开源平台,可以用来进行实时数据流处理。在linux系统中安装flink非常简单,只需要按照下面的步骤进行操作: 1.下载并解压缩flink 在官网上下载flink的.tar.gz压缩包,解压到指定的目录中。例如: ``` wget https://www.apache.org/dyn/mirrors/mirrors.cgi?action=download&filename=flink/flink-1.13.2/flink-1.13.2-bin-scala_2.12.tgz tar -xzvf flink-1.13.2-bin-scala_2.12.tgz ``` 2.配置环境变量 将下载的flink的bin目录加入到PATH环境变量中: ``` export PATH=$PATH:/path/to/flink-1.13.2/bin ``` 3.启动flink 使用下面的命令启动flink: ``` ./start-cluster.sh ``` 这将启动flink的master节点和一个worker节点。你可以通过访问`http://localhost:8081`来查看flink的web UI。 4.运行flink程序 在启动flink之后,你可以使用`flink run`命令来运行一个flink程序。例如: ``` flink run /path/to/your/flink/program.jar ``` 这将使用flink来运行你的程序。 总体来说,安装flink非常简单,只需要进行几个简单的步骤就可以运行它了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

leboop-L

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值