目录
第三步 安装flink-streaming-patform-web
在Flink学习的入门阶段,非常重要的一个过程就是Flink环境搭建,这是认识FLInk框架的第一步,也是为后续的理论学习和代码练习打下基础。今天加米谷大数据就为大家带来Flink环境搭建的步骤解析,帮助大家一步步来部署好Flink环境。
步骤
1、使用git clone 到本地后,使用IDEA打开项目 2、修改数据库连接 flink-streaming-web/src/main/resources/application.properties 3、在本地数据库中创建 flink_web 库,并执行 docs/sql/flink_web.sql 构建数据库表 4、执行 mvn clean package -DskipTests 5、在 flink-streaming-platform-web 主目录下创建 lib 文件夹 6、将 flink-streaming-core/target/flink-streaming-core.jar 移动到 刚创建的lib 中 7、将 flink-streaming-core.jar 改名为 flink-streaming-core-1.3.0.RELEASE.jar 8、flink-streaming-web 模块是REST服务模块,运行启动类是:com.flink.streaming.web.StartApplication 9、启动完成后,访问本地: localhost:8080 用户名: admin 密码: 123456 10、系统设置:flink_streaming_platform_web_home=你自己的路径/flink-streaming-platform-web/ 11、如果你开发环境有 YARN 就配置 yarn_rm_http_address (根据你自己的确定) 12、如果是standalone模式,需要本地运行Flink 集群,并配置 flink_rest_http_address
最近看到有人在用flink sql的页面管理平台,大致看了下,尝试安装使用,比原生的flink sql界面确实好用多了,我们看下原生的,通过bin/sql-client.sh命令进入那个黑框,一只松鼠,对,就是那个界面。。。。
这个工具不是Flink官方出的,是一个国内的小伙伴写的,Github地址:
https://github.com/zhp8341/flink-streaming-platform-web
根据github上,作者的描述,flink-streaming-patform-web主要功能:
- [1] 任务支持单流 、双流、 单流与维表等。
- [2] 支持本地模式、yarn-per模式、STANDALONE模式 Application模式
- [3] 支持catalog、hive。
- [4] 支持自定义udf、连接器等,完全兼容官方连接器。
- [5] 支持sql的在线开发,语法提示,格式化。
- [6] 支持钉钉告警、自定义回调告警、自动拉起任务。
- [7] 支持自定义Jar提交任务。
- [8] 支持多版本flink版本(需要用户编译对应flink版本)。
- [9] 支持自动、手动savepoint备份,并且从savepoint恢复任务。
- [10] 支持批任务如:hive。
- [11] 连接器、udf等三jar管理
是不是觉得很强大,很多同学已经摩拳擦掌想试试了。
安装
这里只介绍flink on yarn模式的安装,如果你的hadoop集群已经安装好了,大概半个小时就能好;否则,安装hadoop集群可老费事儿了。总体步骤如下