1.Flinkx的安装
- 1.下载源码包
![d765aa48de547022b66b76fd06ceeab7.png](https://i-blog.csdnimg.cn/blog_migrate/03f279ed4ac64729d358ceaa944ca390.jpeg)
Flinkx下载地址
- 2.解压和安装
2.1 用解压软件进行解压即可
2.2 window环境下双击解压后的flinkx-1.8_releasebininstall_jars.bat
linux/mac环境下执行 sh install_jars.sh
本地私服中安装db2jcc,ojdbc8,gbase,dm7的jdbc驱动的JAR包 - 3.编译插件
使用cmd命令进入到 flinkx-1.8_release目录,使用maven命令进行编译
mvn clean package -Dmaven.test.skip=true
![6d0593101afa0797cc4a0639d84267d8.png](https://i-blog.csdnimg.cn/blog_migrate/2ace253dc9c599973fc2f6ad0f119424.jpeg)
- 4.配置文件
4.1 flinkx-1.8_releaseflinkconf目录下flink-conf.yaml里添加如下:
rest.bind-port: 8888
4.2 flinkx-1.8_release下面创建job目录
4.3 在 flinkx-1.8_releasejob目录下面添加stream.json
{ "job" : { "content" : [ { "reader": { "name": "streamreader", "parameter": { "column": [ { "name": "id", "type": "int" }, { "name": "name", "type": "string" } ] } }, "writer" : { "parameter" : { "print": false }, "name" : "streamwriter" } } ], "setting" : { "restore" : { "isRestore" : false, "isStream" : false }, "errorLimit" : { }, "speed" : { "bytes" : 0, "channel" : 1, "rebalance" : true } } } }
4.4将图中所选择的文件上传到Linux服务器
![08ad31948bd1a45a6ffc24411a90c204.png](https://i-blog.csdnimg.cn/blog_migrate/4d00e967dfbd2bf39d845347b470a351.png)
4.5编写启动脚本start.sh文件
sh ./bin/flinkx -job './job/stream.json' -flinkconf './flinkconf/' -pluginRoot './plugins/'
5.执行任务:
[root@mini4 hadoop]# tar -zxvf flinkx-1.8_release.tar.gz [root@mini4 flinkx-1.8_release]# sh start.sh
2.如何在standalone上提交任务?
前置条件: flink1.8版本,高版本目前不支持
解释: $FLINK_HOME 安装Flink的目录
1.启动flink
$FLINK_HOME/bin/start-cluster.sh
2.执行如下命令
./bin/flinkx -mode standalone
-job ./job/stream.json
-flinkconf $FLINK_HOME/conf
3.演示结果如下
![f312aaab5c0e3707699fe1d983f5299b.png](https://i-blog.csdnimg.cn/blog_migrate/dfd1679e03a5edfd9622ad2dd3e62077.jpeg)
github地址
干货地址:如果可以,可以star,加入群聊哦!