2024年大数据最新flink + Atlas 任务数据血缘调通_atlas flink(3),2024年最新阿里+头条+腾讯等大厂大数据开发笔试题目分享

img
img

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

    //TODO 1.获取执行环境
    StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    env.setParallelism(1);
    env.disableOperatorChaining();

    // TODO kafka消费
    // 配置 kafka 输入流信息
    Properties consumerprops = new Properties();
    consumerprops.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "10.0.2.67:9092");
    consumerprops.put(ConsumerConfig.GROUP_ID_CONFIG, "group1");
    consumerprops.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, "false");
    consumerprops.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "latest");
    consumerprops.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");
    consumerprops.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");
    // 添加 kafka 数据源
    DataStreamSource<String> dataStreamSource = env.addSource(new FlinkKafkaConsumer<>("atlas-source-topic", new SimpleStringSchema(), consumerprops));

    // 配置kafka输入流信息
    Properties producerprops = new Properties();
    producerprops.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "10.0.2.67:9092");
    // 配置证书信息
    dataStreamSource.addSink(new FlinkKafkaProducer<String>("atlas-sink-topic", new KeyedSerializationSchemaWrapper(new SerializationSchema<String>(){
        @Override
        public byte[] serialize(String element) {
            return element.getBytes();
        }
    }), producerprops));
    env.execute("AtlasTest");
}

}


###### flink on yarn 日志输出


![在这里插入图片描述](https://img-blog.csdnimg.cn/ff8733037df44b4eb0ab7424e107cd31.png)


###### 修改 json 解析方式


`org.apache.atlas.utils.AtlasJson#toJson`



public static String toJson(Object obj) {
String ret;

	if (obj instanceof JsonNode && ((JsonNode) obj).isTextual()) {
		ret = ((JsonNode) obj).textValue();
	} else {
		
		// 修改 json 处理方式:fastjson,原来的ObjectMapper.writeValueAsString() 一度卡住不往下执行
		// ret = mapper.writeValueAsString(obj);
		ret = JSONObject.toJSONString(JSONObject.toJSON(obj));
		LOG.info(ret);
	}
	
    return ret;
}

###### 查看目标 kafka 对应topic


![在这里插入图片描述](https://img-blog.csdnimg.cn/4c24f156590843ce8f9d0c1f3c402efb.png)


![在这里插入图片描述](https://img-blog.csdnimg.cn/5018c31be21b4a22b68a43eff43936e5.png)


###### flinksql



Caused by: java.lang.ClassCastException: org.apache.flink.table.runtime.operators.sink.SinkOperator cannot be cast to org.apache.flink.streaming.api.operators.StreamSink


`org.apache.atlas.flink.hook.FlinkAtlasHook#addSinkEntities`



private void addSinkEntities(List sinks, AtlasEntity flinkApp, AtlasEntity.AtlasEntityExtInfo entityExtInfo) {
List outputs = new ArrayList<>();
for (StreamNode sink : sinks) {

		// StreamSink<?> sinkOperator = (StreamSink<?>) sink.getOperator();
		// SinkFunction<?> sinkFunction = sinkOperator.getUserFunction();
		// List<AtlasEntity> dsEntities = createSinkEntity(sinkFunction, entityExtInfo);
		// outputs.addAll(dsEntities);

		if (sink.getOperator().getClass().getName().equals("org.apache.flink.streaming.api.operators.StreamSink")) {
			StreamSink<?> sinkOperator = (StreamSink<?>) sink.getOperator();
			SinkFunction<?> sinkFunction = sinkOperator.getUserFunction();
			List<AtlasEntity> dsEntities = createSinkEntity(sinkFunction, entityExtInfo);
			outputs.addAll(dsEntities);
		} else if (sink.getOperator().getClass().getName().equals("org.apache.flink.table.runtime.operators.sink.SinkOperator")) {
			SinkOperator sinkOperator = (SinkOperator) sink.getOperator();
			SinkFunction<?> sinkFunction = sinkOperator.getUserFunction();
			List<AtlasEntity> dsEntities = createSinkEntity(sinkFunction, entityExtInfo);
			outputs.addAll(dsEntities);
		}

	}

	flinkApp.setRelationshipAttribute("outputs", AtlasTypeUtil.getAtlasRelatedObjectIds(outputs, RELATIONSHIP\_PROCESS\_DATASET\_OUTPUTS));

	LOG.info("-------------- flinkApp: -------------" + flinkApp);

img
img

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

bs.csdn.net/topics/618545628)**

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

在互联网发展浪潮中,数据对于企业的价值是非常大的,怎么管理好数据,以及快速挖掘数据价值,共享数据价值,急需一套解决方案,在数据开发中,核心数据模型的变化是相对缓慢的,同时,对数据进行维护的工作量也非常大;但业务创新的速度、对数据提出的需求的变化,是非常快速的。数据中台的出现,就是为了弥补数据开发和应用开发之间,由于开发速度不匹配,出现的响应力跟不上的问题。数据中台解决的问题,包括:效率问题、协作问题、能力问题,数据中台是聚合和治理跨域数据,将数据抽象封装成服务,提供给前台以业务价值的逻辑概念。本课程基于真实企业数据中台建设架构进行讲解,带大家构建数据中台,通过学习完本课程可以节省你摸索的时间,节省企业成本,提高企业开发效率。课程包含几大模块:数据源管理、数据接入管理、数据质量管理、数据质量报告、数据安全管理、数据中台实战应用等,对于数据中台涉及到的业务以及技术进行详尽的讲解。本课程包含的技术:开发工具为:IDEA、WebStormFlink1.9.0ClickHouseHadoop2.6.0Hbase1.0.0Kafka2.1.0Hive1.0.0HDFS、MapReduceZookeeper、AtlasSpringBoot2.0.8.RELEASESpring MybatisMySQLVue.js、NodejsElemntUI课程亮点:1.与企业接轨、真实工业界产品2.全方位管理、治理数据3.大数据以及业务系统数据与企业接轨4.支撑业务系统数据使用以及共享5.集成IDE可视化查询6.集成元数据管理和数据血缘追溯7.ClickHouse高性能列式存储数据库8.数据中台项应用实战9.Flink+ClickHouse技术架构10.微服务架构技术SpringBoot技术架构11.后端+大数据技术栈+前端可视化12.提供全方位的技术落地指导支持13.课程凝聚讲师多实战经验,经验直接复制14.掌握全部内容能进行大数据用户平台的设计和实操 企业一线架构师讲授,代码在老师的指导下企业可以复用,提供企业解决方案。  版权归作者所有,盗版将进行法律维权。  
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值