背景: 自己搭建了flink 单机版本时,到 flink on yarn 这一步卡住了,不能正常运行执行./bin/yarn-session.sh -n 4 -jm 1024m -tm 4096m
包括
GetClusterMetricsRequestProto cannot be cast to com.google.protobuf.Message
主要原因是未指定HADOOP_CONF_DIR
环境变量,下面给出整个过程
##1. 参照文档,下载&&编译flink 源码,这个时候,start_cluster.sh
应该是好用的,如果不能正常启动,去bin 目录下查看启动日志,我遇到过机器内存不足的。需要把conf/flink-conf.yaml
里的内存配置改小之后再重新启动单机版Flink,如果还不行,自行谷歌解决吧
##2. 下载hadoop,然后解压,配置环境变量
# 先vim ~/.bash_profile,然后ex