Flink分布式standalone部署方式(第二种方式)

接着上面一节中介绍的,浏览器中输入地址http://swarm-manager:8088/cluster,输出如下:
在这里插入图片描述
拿到application_1569070146084_0001,然后在控制台先kill掉:./yarn application -kill application_1569070146084_0001
在这里插入图片描述
在这里插入图片描述

Run a single Flink job on YARN

之前介绍了在一个Hadoop Yarn 环境中启动一个Flink集群,此外,还可以仅仅通过执行一个任务来启动一个flink
./bin/flink run -m yarn-cluster -yn 1 ./examples/batch/WordCount.jar
其中-m yarn-cluster表示使用yarn集群,-yn 1表示taskmanager的数量。
这个任务提交后,很快就可以运行完成:
在这里插入图片描述

自定义一个任务,并提交到Flink集群中

写一个最简单的代码

public class JavaHDFSBatchApp {
    public static void main(String[] args) throws Exception {
        ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();
        DataSource<String> dataSource = env.readTextFile("hdfs://swarm-manager:9000/LICENSE-2.0.txt");
        dataSource.print();
    }
}

在原有的maven基础上修改pom.xml文件,指定main class:

<plugin>
				<groupId>org.apache.maven.plugins</groupId>
				<artifactId>maven-shade-plugin</artifactId>
				<version>3.0.0</version>
				<executions>
					<!-- Run shade goal on package phase -->
					<execution>
						<phase>package</phase>
						<goals>
							<goal>shade</goal>
						</goals>
						<configuration>
							<artifactSet>
								<excludes>
									<exclude>org.apache.flink:force-shading</exclude>
									<exclude>com.google.code.findbugs:jsr305</exclude>
									<exclude>org.slf4j:*</exclude>
									<exclude>log4j:*</exclude>
								</excludes>
							</artifactSet>
							<filters>
								<filter>
									<!-- Do not copy the signatures in the META-INF folder.
									Otherwise, this might cause SecurityExceptions when using the JAR. -->
									<artifact>*:*</artifact>
									<excludes>
										<exclude>META-INF/*.SF</exclude>
										<exclude>META-INF/*.DSA</exclude>
										<exclude>META-INF/*.RSA</exclude>
									</excludes>
								</filter>
							</filters>
							<transformers>
								<transformer implementation="org.apache.maven.plugins.shade.resource.ManifestResourceTransformer">
									<mainClass>com.vincent.course08.JavaHDFSBatchApp</mainClass>
								</transformer>
							</transformers>
						</configuration>
					</execution>
				</executions>
			</plugin>

maven install生成文件springboot-flink-train-1.0-shaded.jar,导入到/home/iie4bu/app/flink-1.8.2/examples/batch下,然后运行命令:./bin/flink run -m yarn-cluster -yn 1 ./examples/batch/springboot-flink-train-1.0-shaded.jar

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Flink是一个开源的流处理和批处理框架,支持分布式部署。下面是Flink分布式部署的一般步骤: 1. 确保你有一个Flink集群:Flink需要在一个或多个计算机上运行,形成一个集群。你可以在每台计算机上安装Flink,也可以使用现有的集群管理器(如Apache Mesos、Hadoop YARN或Kubernetes)来管理Flink集群。 2. 配置Flink集群:在每台计算机上,你需要配置Flink集群的相关参数。主要的配置文件是`flink-conf.yaml`,其中包含了一些关键的配置项,如任务管理器的数量、内存分配等。你可以根据需要进行相应的配置。 3. 启动Flink集群:在每台计算机上启动Flink集群的组件,包括任务管理器(TaskManager)和作业管理器(JobManager)。作业管理器负责接收作业提交请求,并将作业分发给任务管理器执行。 4. 提交作业:使用Flink提供的客户端工具或API,将你的Flink作业提交到Flink集群中执行。你可以通过命令行工具`flink run`或使用Flink的REST API来提交作业。 5. 监控和管理:一旦作业提交成功,你可以使用Flink的Web界面或命令行工具来监控作业的执行情况。你可以查看作业的状态、任务的指标和日志等信息,也可以进行作业的管理操作,如取消、重新启动等。 以上是Flink分布式部署的一般步骤,具体的操作细节可能会有所不同,取决于你选择的集群管理器和部署环境。你可以参考Flink官方文档中的相关章节,了解更多详细信息。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值