推荐:云原生数据质量引擎——Cloud Data Quality Engine

推荐:云原生数据质量引擎——Cloud Data Quality Engine

cloud-data-qualityData Quality Engine for BigQuery项目地址:https://gitcode.com/gh_mirrors/cl/cloud-data-quality

在这个数据驱动的时代,数据质量的保障是成功的关键。为此,谷歌云平台推出了Cloud Data Quality Engine(简称CloudDQ),一款专为Google BigQuery设计的云原生数据质量验证工具,旨在帮助企业轻松实现高效、可扩展的数据质量监控。

项目介绍

CloudDQ是一款革命性的命令行界面应用,它允许用户在Google BigQuery的环境中定义和调度自定义的数据质量检查任务。这项服务将验证结果存放在您指定的BigQuery表中,便于通过仪表板或程序化方式监控和消费,确保您的数据分析工作建立在坚实可靠的基础上。

技术分析

CloudDQ的核心在于其声明式规则配置机制,支持CI/CD流程,这意味着您可以像编写代码一样管理数据质量规则,使得规则的创建、测试与部署更加自动化、高效。该工具直接在BigQuery内执行验证,无需额外的数据提取步骤,利用BigQuery的强大性能进行就地验证,对大数据量的处理游刃有余,同时减少安全风险。

该系统通过YAML配置文件定义复杂业务规则,并支持参数化SQL逻辑,让规则既灵活又强大。执行时,CloudDQ根据配置在BigQuery中构建SQL视图,通过批量作业收集验证结果至汇总表,便于后续分析。

值得注意的是,数据验证过程依赖于BigQuery槽的使用,优化资源管理和成本控制可以通过预分配专用槽来实现固定费率计费,对于生产环境尤为适用。

应用场景

CloudDQ广泛适用于多种场景:

  • 数据治理: 自动化监控企业级数据仓库的数据质量。
  • BI报告: 结合商务智能工具,实时展示数据健康状态。
  • 数据管道质量保证: 在数据流经ETL过程中实施点检,保障数据准确性。
  • 开发与测试: 在数据产品开发周期中快速迭代数据验证规则。

项目特点

  • 云原生设计: 完美融入Google Cloud生态系统,特别适合BigQuery用户。
  • 声明式规则配置: 提升了规则管理的灵活性与版本控制的能力。
  • 无缝集成: 直接利用BigQuery的计算能力,无需额外基础设施。
  • 程序化结果访问: 支持通过API或报表工具直接消费数据质量反馈。
  • 高度可扩展: 支持高级规则编写,满足个性化数据质量要求。
  • 简易部署与管理: 特别推荐与Dataplex结合使用,享受无服务器部署的便捷。

综上所述,Cloud Data Quality Engine不仅是数据科学家和工程师的强大助手,也是任何重视数据质量的组织不可或缺的工具。通过简化复杂的质量监控流程,它帮助我们更专注于数据分析的本质,而不仅仅是数据准备。立即探索CloudDQ,开启您高效、可靠的云数据之旅吧!


本推荐文章旨在介绍CloudDQ的核心价值和技术亮点,希望能激发您对其深入了解的兴趣并助力您的数据质量管理。

cloud-data-qualityData Quality Engine for BigQuery项目地址:https://gitcode.com/gh_mirrors/cl/cloud-data-quality

  • 4
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
基于YOLOv9实现工业布匹缺陷(破洞、污渍)检测系统python源码+详细运行教程+训练好的模型+评估 【使用教程】 一、环境配置 1、建议下载anaconda和pycharm 在anaconda中配置好环境,然后直接导入到pycharm中,在pycharm中运行项目 anaconda和pycharm安装及环境配置参考网上博客,有很多博主介绍 2、在anacodna中安装requirements.txt中的软件包 命令为:pip install -r requirements.txt 或者改成清华源后再执行以上命令,这样安装要快一些 软件包都安装成功后才算成功 3、安装好软件包后,把anaconda中对应的python导入到pycharm中即可(不难,参考网上博客) 二、环境配置好后,开始训练(也可以训练自己数据集) 1、数据集准备 需要准备yolo格式的目标检测数据集,如果不清楚yolo数据集格式,或者有其他数据训练需求,请看博主yolo格式各种数据集集合链接:https://blog.csdn.net/DeepLearning_/article/details/127276492 里面涵盖了上百种yolo数据集,且在不断更新,基本都是实际项目使用。来自于网上收集、实际场景采集制作等,自己使用labelimg标注工具标注的。数据质量绝对有保证! 本项目所使用的数据集,见csdn该资源下载页面中的介绍栏,里面有对应的下载链接,下载后可直接使用。 2、数据准备好,开始修改配置文件 参考代码中data文件夹下的banana_ripe.yaml,可以自己新建一个不同名称的yaml文件 train:训练集的图片路径 val:验证集的图片路径 names: 0: very-ripe 类别1 1: immature 类别2 2: mid-ripe 类别3 格式按照banana_ripe.yaml照葫芦画瓢就行,不需要过多参考网上的 3、修改train_dual.py中的配置参数,开始训练模型 方式一: 修改点: a.--weights参数,填入'yolov9-s.pt',博主训练的是yolov9-s,根据自己需求可自定义 b.--cfg参数,填入 models/detect/yolov9-c.yaml c.--data参数,填入data/banana_ripe.yaml,可自定义自己的yaml路径 d.--hyp参数,填入hyp.scratch-high.yaml e.--epochs参数,填入100或者200都行,根据自己的数据集可改 f.--batch-size参数,根据自己的电脑性能(显存大小)自定义修改 g.--device参数,一张显卡的话,就填0。没显卡,使用cpu训练,就填cpu h.--close-mosaic参数,填入15 以上修改好,直接pycharm中运行train_dual.py开始训练 方式二: 命令行方式,在pycharm中的终端窗口输入如下命令,可根据自己情况修改参数 官方示例:python train_dual.py --workers 8 --device 0 --batch 16 --data data/coco.yaml --img 640 --cfg models/detect/yolov9-c.yaml --weights '' --name yolov9-c --hyp hyp.scratch-high.yaml --min-items 0 --epochs 500 --close-mosaic 15 训练完会在runs/train文件下生成对应的训练文件及模型,后续测试可以拿来用。 三、测试 1、训练完,测试 修改detect_dual.py中的参数 --weights,改成上面训练得到的best.pt对应的路径 --source,需要测试的数据图片存放的位置,代码中的test_imgs --conf-thres,置信度阈值,自定义修改 --iou-thres,iou阈值,自定义修改 其他默认即可 pycharm中运行detect_dual.py 在runs/detect文件夹下存放检测结果图片或者视频 【特别说明】 *项目内容完全原创,请勿对项目进行外传,或者进行违法等商业行为! 【备注】 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用!有问题请及时沟通交流。 2、适用人群:计算机相关专业(如计科、信息安全、数据科学与大数据技术、人工智能、通信、物联网、自动化、电子信息等)在校学生、专业老师或者企业员工下载使用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

沈书苹Peter

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值