ubuntu+Flink1.16.3+本地模式

目录

解压安装

创建软链接

启动本地集群

运行自带示例

​编辑查看运行结果

网页端查看作业状态

关闭集群


flink1.18以上需要 jdk11, 因此下载稍低的版本flink1.16.3  Downloads | Apache Flink

Flink有三种安装模式,本地模式, Standalone Cluster集群部署, Flink On Yarn。生产环境用on Yarn比较多,简单学习用本地模式即可。

解压安装

将文件放到/home/peng/software

tar -xvf flink-1.16.3-bin-scala_2.12.tgz 
创建软链接
ln -s flink-1.16.3   flink
启动本地集群

进入flink安装目录并启动本地集群

cd  flink
./bin/start-cluster.sh

运行自带示例

使用自带的实例,快速部署作业到运行的集群上

 ./bin/flink run  examples/streaming
查看运行结果

(注意名字peng等   )

tail log/flink-*-taskexecutor-*.out

我电脑是:

tail log/flink-peng-taskexecutor-0-ubuntu.out 

网页端查看作业状态

通过 Flink 的 Web UI 来监视集群的状态和正在运行的作业,localhost:8081查看

关闭集群
./bin/stop-cluster.sh

注意参考自:本地模式安装 | Apache Flink

  • 4
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark和Flink都是目前非常流行的大数据处理框架。 Spark是由Apache软件基金会开发的开源分布式计算系统,旨在提供快速的大规模数据处理和分析能力。Spark的核心组件是Spark Core,它提供了分布式任务调度、内存计算和数据处理能力。除了Spark Core之外,Spark还提供了Spark SQL、Spark Streaming、MLlib和GraphX等组件,可以支持各种不同的数据处理和分析任务。 Flink是由Apache软件基金会开发的开源流处理框架,它旨在提供实时、分布式的数据处理能力。Flink使用了一种称为“流计算”的技术,可以对数据进行流式处理,同时支持批处理和迭代计算。Flink还提供了Flink SQL、Flink Streaming和Flink ML等组件,可以支持各种不同类型的数据处理任务。 尽管Spark和Flink都是大数据处理框架,它们的设计思想和实现方式有所不同,因此在不同的应用场景下可能会有不同的优缺点。例如,Spark在批处理方面表现优异,而Flink在流处理方面表现更为出色。 ### 回答2: Spark和Flink是两个非常流行的实时大数据处理框架。它们都可以用于分布式计算和处理大规模数据,但在某些方面却有所不同。 Spark是一个内存计算框架,它使用弹性分布式数据集(RDD)来进行计算。RDD是一个可并行操作的数据集合,它会被分割成多个分区并分布在不同的计算节点上。Spark提供了丰富的API和内置的库来支持各种大数据应用,如批处理、交互式查询和流式处理。Spark具有高效的执行引擎,可以在内存中快速处理数据,并通过缓存和数据共享来提高计算性能。此外,Spark还提供了Spark Streaming,使其能够处理实时数据流。 而Flink是一个分布式流处理框架,它提供了低延迟、高吞吐量的流式计算功能。Flink使用流作为基本的数据处理单位,可以对数据流进行连续计算和转换。它支持事件时间和处理时间两种不同的时间概念,并提供了窗口操作和状态管理功能来处理有状态的计算。Flink还具备容错机制,可以自动恢复错误和故障,并支持精确一次的状态一致性。此外,Flink还可以将批处理和流处理结合在一起,实现一体化的数据处理。 总之,Spark和Flink都是优秀的大数据处理框架,它们在内存计算、数据处理模型和特性方面略有不同。选择使用哪个框架取决于具体的应用场景和需求。如果处理的是批量数据且需要实时性较高,可以考虑使用Spark;而如果处理的是连续的实时数据流且对低延迟有较高要求,可以选择Flink。 ### 回答3: Spark和Flink是两个流行的大数据处理框架。Spark是一个基于内存的分布式计算框架,它提供了高级API用于批处理和流式处理。Spark的核心组件是Spark Core,它负责任务调度、数据分发和内存管理。除了Spark Core,Spark还提供了Spark SQL用于结构化数据处理、Spark Streaming用于实时数据处理、MLlib用于机器学习和GraphX用于图形计算。Spark能够通过将数据存储在内存中来提高计算效率,从而加快处理速度。 相比之下,Flink是一个可扩展的流式处理引擎,它支持大规模的数据处理和分析。Flink提供了流式处理和批处理的统一API,这意味着它可以同时处理实时数据和历史数据。Flink具有一个称为DataStream的高级API,用于处理无界数据流,以及一个称为DataSet的API,用于批处理任务。 Flink的核心组件是分布式数据流引擎,它提供了支持容错、高吞吐量和低延迟的数据处理。Flink还提供了用于状态管理的机制,以及用于处理时间和窗口的工具。 尽管Spark和Flink都是大数据处理框架,但它们在设计和用途上有一些区别。Spark更适合于交互式分析、机器学习和图计算等场景,而Flink则更适合于需要低延迟和准确性的实时数据处理任务。另外,Flink在容错性和事件时间处理方面做得更好,而Spark则更擅长于内存计算。选择使用哪个框架取决于数据处理的需求和场景,以及对延迟、内存管理和容错性的偏好。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值