基于AI大模型的数据治理

一、什么是大模型?

大模型是指具有数千万甚至数亿参数的深度学习模型。近年来,随着计算机技术和大数据的快速发展,深度学习在各个领域取得了显著的成果,如自然语言处理,图片生成,工业数字化等。为了提高模型的性能,研究者们不断尝试增加模型的参数数量,从而诞生了大模型这一概念。本文讨论的大模型将以平时指向比较多的大语言模型为例来进行相关介绍。

大模型的原理是基于深度学习,它利用大量的数据和计算资源来训练具有大量参数的神经网络模型。通过不断地调整模型参数,使得模型能够在各种任务中取得最佳表现。通常说的大模型的“大”的特点体现在:参数数量庞大、训练数据量大、计算资源需求高等。很多先进的模型由于拥有很“大”的特点,使得模型参数越来越多,泛化性能越来越好,在各种专门的领域输出结果也越来越准确。

一个基本架构,三种形式:

当前流行的大模型的网络架构其实并没有很多新的技术,还是一直沿用当前NLP领域最热门最有效的架构——Transformer结构。相比于传统的循环神经网络(RNN)和长短时记忆网络(LSTM),Transformer具有独特的注意力机制(Attention),这相当于给模型加强理解力,对更重要的词能给予更多关注,同时该机制具有更好的并行性和扩展性,能够处理更长的序列,立马成为NLP领域具有奠基性能力的模型,在各类文本相关的序列任务中取得不错的效果。

图片

根据这种网络架构的变形,主流的框架可以分为Encoder-Decoder, Encoder-Only和Decoder-Only,其中:

1)Encoder-Only,仅包含编码器部分,主要适用于不需要生成序列的任务,只需要对输入进行编码和处理的单向任务场景,如文本分类、情感分析等,这类代表是BERT相关的模型,例如BERT,RoBERT,ALBERT等

2)Encoder-Decoder,既包含编码器也包含解码器,通常用于序列到序列(Seq2Seq)任务,如机器翻译、对话生成等,这类代表是以Google训出来T5为代表相关大模型。

3)Decoder-Only,仅包含解码器部分,通常用于序列生成任务,如文本生成、机器翻译等。这类结构的模型适用于需要生成序列的任务,可以从输入的编码中生成相应的序列。同时还有一个重要特点是可以进行无监督预训练。在预训练阶段,模型通过大量的无标注数据学习语言的统计模式和语义信息。这种方法可以使得模型具备广泛的语言知识和理解能力。在预训练之后,模型可以进行有监督微调,用于特定的下游任务(如机器翻译、文本生成等)。这类结构的代表也就是我们平时非常熟悉的GPT模型的结构,所有该家族的网络结构都是基于Decoder-Only的形式来逐步演化。

图片

可以看到,很多NLP任务可能可以通过多种网络结果来解决,这也主要是因为NLP领域的任务和数据的多样性和复杂性,以及现代深度学习模型的灵活性和泛化能力,具体哪种结构有效,一般需要根据具体场景和数据,通过实验效果进行选择。

二、大模型面临的挑战

大模型要发挥价值,需要构建从数据产生、数据整理、模型训练、模型适配到实际部署的完整生态系统。大模型的应用也面临着一些挑战和限制。一方面,大模型的训练和使用需要大量的计算资源和存储资源,成本较高。另一方面,大模型的训练需要大量的标注数据,但标注数据的获取和整理成本也较高。

此外,大模型的可解释性和泛化能力也需要进一步研究和改进。如果不对大模型进行数据治理,可能会导致数据质量低下、数据难以利用、资源浪费、成本增加、数据安全和隐私泄露风险增加等一系列问题。因此,为了确保大模型的有效应用和可持续发展,必须进行数据治理。

三、数据治理的框架和核心内容

不同的利益相关者群体对数据治理的关注点不一样,因此各自的视图也不一样。其中管理者视图可以概括为“五域模型”,分别是“管控域”、“过程域”、“治理域”、“技术域”、“价值域”。

图片

管理者视角-数据治理五域模型

管控域:在数据治理战略指导下制订企业数据治理组织,明确组织的责、权、利,岗位编制及技能要求。

治理域:是数据治理的主体,明确数据治理的对象和目标。

技术域:数据治理的支撑手段,指的工具平台。

过程域:是数据治理的方法论。

价值域:通过对数据资产的管控挖掘数据资产的价值,并通过数据的流动、共享、交易变现数据资产。

图片

技术视角:企业大数据治理实践指南框架

数据治理体系,包括数据战略、数据治理管控体系(数据治理组织、制度、流程、管控机制、绩效体系及标准体系)、数据架构、主数据、元数据、指标数据、时序数据、数据质量、数据安全、数据集成与交换、数据开放和共享、数据资产管理能力成熟度评估以及数据价值、数据共享、数据变现等多方面。

图片

数据治理车轮图

从数据战略、数据管控(组织管理、制度体系、流程管理及绩效)、三个核心体系(数据标准体系、数据质量体系、数据安全体系)和工具等分别进行介绍数据治理体系。

图片

企业数据管控和三个核心体系

详见:24张架构图讲透数据治理核心内容

四、AI大模型在数据治理中的应用

目前,企业的数据治理工作以人工实施为主,其中一些重复性较强的工作,如:数据标准制定和映射、元数据信息完善、数据目录挂载等,需要消耗大量的人力和时间成本,这给本来就难以量化业务价值的治理工作的顺利推进带来了更多的困难。AI大模型的引入,可以有效地解决这一难题。相比传统的人工为主的数据治理,基于AI大模型的数据治理具有以下优势:

  • 自动化:AI大模型可以通过学习和分析数据治理各项工作的特征和规则,自动化批量进行大规模数据的数据标准、元数据、数据质量管理、数据安全管理等数据治理任务,减少了人工处理的工作量,提升治理工作效率。

  • 实时性:AI大模型可以实时监控和分析数据的变化,并及时进行预警或直接处理,提升数据治理的响应速度。

  • 扩展性:AI大模型可以通过学习和迭代,持续提升自己的能力,以适应高度变化的业务和技术环境对数据治理的需求。

基于上述考量,在数据治理领域,基于AI大模型的能力,可以从如下主要场景实现从人工治理到智能治理的进化。

(一) 数据标准管理

无论是以人工为主的数据标准管理,还是基于AI大模型的智能化数据标准管理,首先都需要我们对企业的数据标准现状进行详尽的调研工作。调研的内容包括:企业当前的数据业务含义、数据标准分类、数据标准内容,业务和技术团队对当前数据标准的改进需求(以下简称“改进需求”),相关的国际标准、国家标准、地方标准和行业标准(以下统一简称为“外部标准”)等。

在此基础之上,利用AI大模型,可以从以下几个方面提升数据标准管理的智能化程度:

1.标准智能制定

基于企业现有标准、改进需求和外部标准,自动制定适合企业的数据标准。和人工制定的标准一样,自动制定的标准,也需要经过企业的业务和技术专家的审定后,才能正式发布使用。

2.标准智能落标

前向落标:按企业的数据标准实施策略,逐步赋能周边系统,在建表时,自动为字段推荐/匹配合适的数据标准。

后向落标:按企业的数据标准实施策略,逐步治理存量数据,批量自动化为其推荐/匹配合适的数据标准。

3.标准智能维护

随着业务需求和环境的变化,数据标准需要不断更新和维护。我们可以通过AI大模型,自动监测和分析业务数据的变化,提供标准的新增、变更、下线建议,帮助企业及时进行数据标准维护。

(二) 元数据管理

Gartner在其“数据编织”的架构中提出了Metadata Activation(国内一般翻译为“主动元数据”或“元数据激活”)的概念,随后又在其“元数据管理成熟度”中(见图3-2)对主动元数据进行了解释,概括来说就是:主动元数据指的是一种数据管理方式,即,发现、获取尽可能多的元数据,并以丰富的元数据为基础,利用各种AI技术手段(ML、NGL、知识图谱等),主动改进数据管理的工具和活动,提升数据管理的效率,降低管理成本。

图片

图3:Gartner数据编织架构

图片

图4:Gartner元数据管理技术成熟度

Gartner在提出数据编织概念时,AI大模型还没出圈,但我们可以想象,如果Gartner更新其对数据编织的阐述,肯定会毫不犹豫地把AI大模型加入其架构中。

在元数据管理中,利用AI大模型,可以从以下几个方面提升智能化程度:

1.元数据智能挖掘

企业在做元数据采集时,由于源系统设计和管理的不规范,大多数情况下只能采集到最基础的技术元数据信息(如:数据库、Schema、表名、字段名等),需要花费大量人力和时间完善其他的核心元数据信息(如:表的中文名、业务口径、描述、标签,字段的中文名、描述、取值说明、敏感等级等)。通过AI大模型的推理能力,可以基于最基础的技术元数据信息和业务样例数据,自动填充其他的核心元数据信息。

2.数据血缘智能挖掘

业务和技术的发展,以及随之而来的日益复杂的加工逻辑、多源异构的数据库和多种类型的加工脚本,这些都给数据血缘解析(尤其是字段级血缘解析)带来了极大的挑战。通过AI大模型的代码解读能力,可以提升复杂代码、异构数据库和多类型的加工脚本场景下,血缘解析的成功率和准确率。再进一步,如果能利用AI大治理模型总结并生成表级和字段级的业务口径或者数据处理逻辑,将极大地提升人们理解数据、数据溯源和数据影响分析的效率。

3.数据智能分类

基于数据对象的元数据、业务样例数据,自动推荐数据对象所属的数据分类或挂载的数据目录。

4.数据推荐

基于企业中数据使用者的个人信息(部门、岗位、参与的业务等)、在大数据体系平台(数据开发平台、数据治理平台、BI报表平台等)中的操作行为(搜索、查看、收藏、订阅等)和数据对象的元数据、业务样例数据,向数据使用者推荐他们需要的数据对象。

(三) 数据质量管理

在数据质量管理中,利用AI大模型,可以从以下几个方面提升管理的智能化程度:

1.质量规则推荐

基于数据对象的元数据和业务样例数据,自动为数据对象推荐/匹配表级和字段级的数据质量规则。

2.质量阈值推荐

通过持续分析历史的质量校验结果数据,向用户提供建议的质量异常阈值,并能持续调整建议的结果。

3.质量异常自动定位

基于数据血缘链路和数据质量校验结果,自动定位数据质量异常的源头。

4.质量异常智能修复

针对部分数据质量异常(如重复数据、缺失数据、不一致数据等),基于数据对象的元数据和质量正常的业务样例数据,自动修复数据中的异常。

(四) 数据安全管理

在数据安全管理中,利用AI大模型,可以从以下几个方面提升管理的智能化程度:

1.敏感数据智能识别

基于数据对象的元数据、业务样例数据和企业的数据分级策略,自动识别数据对象的敏感等级。

2.脱敏/加密规则推荐

基于数据对象的元数据、业务样例数据、敏感等级和企业的数据安全策略,自动为数据对象推荐/匹配脱敏或加密规则。

3.数据风险智能识别

基于数据对象的元数据、血缘、敏感等级,企业的数据安全策略和已有的数据权限策略,自动识别数据风险并提供异常处理策略,应用场景主要包括:

图片

五、大模型下数据治理的未来展望

随着大模型的不断发展,数据治理将面临更多的挑战和机遇。未来,数据治理将更加注重智能化技术的应用。利用人工智能和机器学习技术对数据进行自动化的分类、标签化和质量检测等操作,提高数据治理的效率和准确性。同时,随着区块链技术的不断发展,数据安全和隐私保护将更加得到重视。区块链的去中心化特性和加密技术可以为数据提供更加安全可靠的存储和传输方式。此外,随着边缘计算的不断发展,数据的处理和分析将更加接近数据源本身,进一步加速数据处理速度和提高实时性。

总结

大模型下的数据治理是一项复杂而重要的任务。通过建立完善的数据质量管理体系、数据安全与隐私保护体系、数据流程管理体系和数据生命周期管理体系等策略,可以有效地实现数据的合规、安全和高效利用。同时,需要不断优化和完善数据治理体系,以适应不断变化的大模型技术和业务需求。只有这样,才能更好地发挥大模型的优势,推动各行业的快速发展和创新进步。

附:大模型赋能数据治理

大模型与数据治理的关系: 数据治理提升数据质量,大模型分析计算能力丰富数据治理手段。

赋能体系建设:

  • 知识库建设: 建设数据治理知识库和业务知识库。

  • 交互能力库建设: 构建提示词,便于用户快速访问、快速交互。

赋能途径:

  • 提质: 提升数据治理对业务的服务质量,加强业务参与感。

  • 降本: 降低数据治理实施成本,主要包含时间成本、业务损失成本等。

  • 增效: 丰富数据治理手段,提升数据治理效率。

提质:

  • 术语体系建设: 建设符合业务场景的术语体系,使数据部门与业务部门“有的聊”。

  • 应用建设: 利用大模型辅助分析应用场景建设成果,使应用场景建设更加合理。

  • 数据质量问题定位: 建设全面的数据质量报告,借助大模型的理解能力快速定位数据质量问题。

降本增效:

  • 数据质量规则设计: 利用大模型快速生成数据质量稽核规则。

  • 提升业务理解: 利用大模型作为业务专家为数据团队进行业务赋能。

  • 标准体系建设: 基于业务建设需求,快速生成与业务需求相匹配的初步数据标准。

  • 元数据管理: 利用大模型对元数据变更进行评估,生成数据任务流程和数据加工逻辑。

  • 26
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值