【Azure 架构师学习笔记】-Azure Data Factory (4)-触发器详解-事件触发器

本文介绍了如何在AzureDataFactory中使用事件触发器,特别是针对存储事件的响应,如Blob的创建。通过创建和配置触发器,当上传新的Blob时,能自动触发pipeline,实现文件从源存储到目标存储的迁移。文章还提到了注册资源提供者和检查触发器运行状态的过程,以及事件触发在文件ETL操作中的实用性。
摘要由CSDN通过智能技术生成

本文属于【Azure 架构师学习笔记】系列
本文属于【Azure Data Factory】系列。
接上文【Azure 架构师学习笔记】-Azure Data Factory (3)-触发器详解-翻转窗口

前言

事件触发指的是存储事件,所以在新版的ADF 中,已经明确了是“存储事件”, 当对blob进行创建,删除时,就会触发事件。和“翻转窗口”有点不同的是,翻转窗口是一对一的触发,事件触发时多对多的关系,一个事件可以触发多个pipeline。

事件可以只选一个,也可以全选两个。本文使用【已创建Blob】来演示,简单来说就是上传一个文件(blob), 使触发器触发这个事件,并把文件从我个人storage account的“logicapp / source” 下搬到“dest / dest”。

配置步骤

新建触发器

如下图所示, 可以指定Blob路径的开头或结尾,作为演示,尽量保持简单。注意选择需要监控的“容器名”, 这里为“logicapp”:
在这里插入图片描述
选择之后会显示下面的预览,不过接下来会清空这个容器以便更准确地演示:

在这里插入图片描述

点击发布pipeline之后,我发现报了以下错误,如果首次使用,因为没有注册这个resource provider(事件触发器需要EventGrid resource provider),就要进行注册,参考这篇文字:Subscribe to events through portal
在这里插入图片描述
注册过后,可以正常发布。到管理页检查这个触发器是否成功创建并启用:

在这里插入图片描述

触发

因为这里选择了对新建(上传)的blob进行触发,下面是触发前源和目标的情况:

在这里插入图片描述
上传一个文件之后,再等十几秒刷新,可以看到文件已经自动同步到目标文件夹:

在这里插入图片描述

检查运行情况

在达到我们目的之后,接下来检查运行情况:
在这里插入图片描述

忽略前几次调试带来的失败,可以看到触发器和pipeline都成功执行,达到了我们预期的结果。
在这里插入图片描述

小结

事件触发对文件的ETL 操作非常有用,可以通过对“新文件到达”或者“文件被删除、归档”等需求进行自动化处理。下面是官网中的操作流程图:

在这里插入图片描述
对于另外一个自定义事件触发,相对深入,暂时不过多研究,因为目前本人又有新任务需要去做研究,所以关于ADF 的触发前先到处为止。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值