【Azure Data Platform】ETL工具(5)——使用Azure Data Factory数据流转换数据

本文详细介绍了如何在Azure Data Platform中利用Azure Data Factory的数据流进行数据转换。通过新建数据流、设置源、配置SQL DB源选项、进行数据处理操作(如聚合)以及设定接收器,将处理后的数据写入新表。在调试和实际运行过程中,强调了必须在管道层面触发执行以确保数据写入目标表。
摘要由CSDN通过智能技术生成

本文属于【Azure Data Platform】系列。
接上文:【Azure Data Platform】ETL工具(4)——Azure Data Factory Debug 管道
本文介绍如何 ADF 的数据流转换数据。

前面的几篇文章主要集中在“复制数据”工具的使用上。

数据转换

本次演示把Azure SQL DB中的一个表的值计算后,再写入一个新表中。为此,先在管道中创建一个data flow:
在这里插入图片描述

在这里插入图片描述

新建一个数据流:
在这里插入图片描述

添加源:
在这里插入图片描述

这里新建一个新的源以便与前面的区分开:

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值