工业大数据分析指南材料整理

文章目录

序言

如今,全球掀起了以制造业转型升级为首要任务的新一轮工业变革,工业大数据作为引领这场变革的主要驱动力,已经成为当今工业领域的热点之一。新一代信息技术与制造业的深度融合,将促进工业领域的服务转型和产品升级,重塑全球制造业的产业格局。
工业大数据是智能制造的核心,以“大数据+工业互联网”为基础,用云计算、大数据、物联网、人工智能等技术引领工业生产方式的变革,拉动工业经济的创新发展。工业大数据分析技术作为工业大数据的核心技术之一,可使工业大数据产品具备海量数据的挖掘能力、多源数据的集成能力、多类型知识的建模能力、多业务场景的分析能力、多领域知识的发掘能力等,对驱动企业业务创新和转型升级具有重大的作用。可以从以下三个方面来理解。
首先,资源优化是分析的目标。企业之间竞争的本质是资源配置效率的竞争,优化资源配置效率是企业技术创新应用的主要动力,也是工业大数据分析的核心目标。工业大数据分析是实现新一代信息技术与制造业融合的重要技术支撑,其目的是不断优化资源的配置效率,实现生产全过程的可视化、高端定制化生产、产品生产节能增效、供应链配置优化、企业智能化管理等,达到提升质量、降低成本、灵活生产、提高满意度等目的,促进制造业全要素生产率的提高。
其次,数据建模是分析的关键。来源于产品生命周期的各个环节中的海量数据,为工业大数据分析提供了前提和基础,而海量的工业数据如果不经过清洗、加工和建模等处理是无法直接应用于实际的业务场景。工业大数据分析通过模型来描述对象,构建复杂工业过程与知识之间的映射,实现知识清晰化、准确化的表达。
最后,知识转化是分析的核心。确定性和稳定性是工业应用的两个基本特点,这就决定了工业大数据分析技术就是感知信息和提炼知识,其核心在于如何把海量数据转化为信息,信息转化为知识,知识转化为决策,以应对和解决制造过程的复杂性和不确定性等问题。

工业大数据分析概论

工业大数据分析的概述

工业大数据分析的概念

工业大数据分析是利用统计学分析技术、机器学习技术、信号处理技术等技术手段,结合业务知识对工业过程中产生的数据进行处理、计算、分析并提取其中有价值的信息、规律的过程。
工业数据分析多领域交叉:
在这里插入图片描述

工业大数据分析的相关技术

下图是工业大数据系统参考框架,从底至上分别是由工业大数据平台技术到工业大数据的应用技术。
在这里插入图片描述
总体上看,“大数据平台技术”关注的主要偏重IT技术,而“大数据应用技术”关注的重点主要是业务和领域知识。而大数据分析技术则是深度融合这两类技术知识,并结合机器学习技术、产品分析技术等数据分析技术,去解决实际业务问题的技术统称。

工业大数据分析的基本过程

工业数据分析的基本任务和直接目标是发现与完善知识,企业开展数据分析的根本目标却是为了创造价值。这两个不同层次的问题,需要一个转化过程进行关联。为了提高分析工作的效率,需事先制定工作计划,
在这里插入图片描述
知识发现是个探索的过程,并不能保证每次探索都能成功,上述计划本质上是罗列了可能的方案。在不同的途径中,工作量和成功的概率、价值成本都是不一样的,一般尽量挑选成功概率大、工作量相对较小、价值大成本低的路径作为切入点,尽量减少探索成本。在项目推进或者探索的过程中,还会根据实际的进程,对预定的计划及顺序进行调整。

工业大数据分析的类型

根据业务目标的不同,数据分析可以分成四种类型:
描述型分析:描述型分析用来回答“发生了什么”、体现的“是什么”知识。工业企业总的周报、月报、商务智能(BI)分析等,就是典型的描述型分析。描述型分析一般通过计算数据的各种统计特征,把各种数据以便于人们理解的可视化方式表达出来。
诊断型分析:诊断型分析用来回答“为什么会发生这样的事情”。针对生产、销售、管理、设备运行等过程中出现的问题和异常,找出导致问题的原因所在,诊断分析的关键是剔除非本质的随机关联和各种假象。
预测型分析:预测型分析用来回到“将要发生什么?”。针对生产、经营中的各种问题,根据现在可见的因素,预测未来可能发生的结果。
处方型(指导型)分析:处方型(指导型)分析用来回答“怎么办”的问题。针对已经和将要发生的问题,找出适当的行动方案,有效解决存在的问题或把工作做得更好。
四种问题的难度是递增的:描述性分析的目标只是便于人们理解;诊断式分析有明确的目标和对错;预测式分析,不仅有明确的目标和对错,还要区分因果和相关;而处方式分析,则往往要进一步与实施手段和流程的创新相结合。

工业大数据分析价值

设备尺度的价值点,如何使用、如何保证正常使用、如何优化下一代。
车间尺度的价值点,避免七种浪费,即等待的浪费、搬运的浪费、不良品的浪费、动作的浪费、加工的浪费、库存的浪费、制造过多(早)的浪费。
企业尺度的价值点,除了生产过程,工业企业的业务还包括研发设计(创新)、采购销售、生产组织、售后服务等多方面的工作。相关工作的价值,多与跨越时空的协同、共享、优化有关。比如,把设计、生产、服务的信息集成起来;加强上下级之间的协同、减少管理上的黑洞;把历史数据记录下来,对工业和产品设计进行优化;把企业、车间计划和设备控制、反馈结合起来等等。
跨越企业的价值点,包括供应链、企业生态、区域经济、社会尺度的价值。这些价值往往涉及到企业之间的分工、协作、以及企业业务跨界重新定义等问题。

工业大数据分析支撑业务创新

一般来说,工业大数据分析服务于现有业务,但越来越多的企业开始把这一工作作为业务创新、转型升级的手段。两类工作的性质不同,前者重点在如何进行数据分析,后者重点是如何应用数据分析。
大数据推动业务创新需要确认几个问题:想做什么(业务目标)、为什么这么做(价值存在性)、打算怎么做(技术线路、业务路径)、需要知道什么(信息和知识,数据分析的目标)、怎么才能知道(数据分析过程)。
在这里插入图片描述

工业大数据分析的特殊性

进入大数据阶段,数据本身的变化是最基本的,在此基础上引发工作方法和价值体现的改变。对于数据的变化,非工业领域往往强调数量变化,但在工业领域,数据变化的重点更是数据完整性和质量的提升。工业大数据分析方法的重点,是如何利用数据条件的改善,得到质量高的分析结果。这使得工业大数据分析方法不同于传统的数据分析,也不同于商务大数据分析。此外,工业场景的边界都有专业领域的机理进行约束,所以工业大数据的分析注重数据模型和机理模型的融合,它的重要特征是数据与机理的深度融合。

从工业数据分析到工业大数据分析

工业数据分析是“本”,大数据分析技术是“术”。无论复杂的算法(如深度学习)还是简单的算法(如线性回归),都有可能带来过去无法企及的效果。人们甚至更乐于采用一些简单的算法。但在大数据的条件下,这些简单算法的有效性却大大提高了,能帮助人们得到可靠性更高、适用范围更大的模型。原因包括:
便于模仿(场景下的模仿):近邻算法等。
便于检验:在大数据的背景下,很难具备泛化性的现象有了本质性的好转。
视角全面:数据来源广泛时,有条件从不同的角度观察对象、分析验证,也有更好的条件辨别和剔除虚假的现象。这些都有利于建立可靠性极高的模型、甚至可能挖掘出新的科学规律。
我们在实践中认识到工业大数据分析的瓶颈难点,往往不是计算机存储和处理数据的能力,而是数据关联关系的复杂性。要解决这类问题,不能仅仅停留在算法层面,而是必须借鉴工程思想和方法,这是其挑战所在。

工业大数据与商务大数据分析

工业过程对分析结果的精度、可靠度要求高,而工业对象和过程本身的复杂性也高。数据分析得到的知识,必须超越人们以往已有的知识,换而言之,工业大数据的分析,往往要在更差的条件下得到更好的结果。
工业大数据分析困难程度的增加,会引发分析方法的质变。对于复杂的工业过程数据分析,人们往往要强调因果性,而不能仅仅止步于相关关系;强调领域知识和数据分析过程的深度融合,而不是漠视已有的领域知识;强调复杂问题简单化,而不是追求算法的复杂和高深。这些思想变化的本质,都是问题复杂度的增加引发的。
工业对象复杂度的增加,也会导致分析工作失败可能性的显著增加。要提高数据分析的工作效率,关键之一就是设法降低分析过程失败的概率,所以数据分析的前期准备性工作和后期的评估和验证工作就显得特别重要。

工业大数据建模的难点

工业大数据分析的过程,并非选择好一个算法就可以一蹴而就的,而往往是个持续改进、修正、完善的过程。
与商务或互联网大数据分析相比,工业大数据分析的难点就在复杂性上,不能仅仅看作基础算法,导致这种差异性的原因主要有三点:首先,工业产品大多是在人类知识发现的基础上制造出来的,人们对工业过程的认识原本就相对深刻,分析过程不能止步于肤浅的认识、只有分析得到的知识具有更高精度和可靠性的时候才有实用价值;其次,人们对工业大数据分析结果的可靠性要求很高,不能满足于似是而非的结论;再次,工业过程数据的复杂性很高、数据质量也不理想,建模的困难度往往很大。所以,工业大数据分析面临的主要矛盾是:业务需求高、数据条件差
基于历史数据的大数据分析也有极大的局限性。导致局限性的原因有两个方面,首先是人类接触的大量信息和知识并未出现在数字空间;其次是在数据足够多、分布完整、质量良好的前提下可以建立理想的数据模型,但当模型涉及到的因素很多、形成真正的复杂多维度问题(如变量数目大于40)且机理不清晰时,就不能有足够的数据来建立和验证模型(因为数据需求量有可能是维度的指数函数)。克服局限性的主要手段就是充分利用专业领域知识,领域知识的本质作用可以看作“降维”,故而可以让有限的数据,分析到足够可靠的结果。

工业数据分析中的常见问题

业务和数据理解不当导致的失误

设定不具备价值的目标,业务上难以实施的目标,分析难度过大的目标

建模和验证过程的失误

不能及时终止子目标,应事先对数据的质量和条件进行评估,避免由于数据质量低难得到高质量的分析结果。
目标衡量的失误,工业界对结论的可靠性要求很高,对分析结果的评估,是值得仔细研究的问题,而多数团队对这个问题的重要性认识不足。

避免失误的方法

工业领域的数据分析不能仅仅把数据分析工作看成利用单纯的数据分析技巧的过程,而是数据分析和领域知识融合的过程。在进行深入的数据分析之前,必须对业务需求、专业领域背景知识、数据的基本情况作尽可能深入的理解,明确问题的内涵,要学会选择合适的方法解决合适的问题,还要对分析结果的可靠度有科学的评估办法

工业大数据分析框架

CRISP-DM 模型

CRISP-DM 模型是欧盟起草的跨行业数据挖掘标准流程(CrossIndustry Standard Process for Data Mining)的简称。
这个标准以数据为中心,将相关工作分成业务理解数据理解数据准备建模验证与评估实施与运行等六个基本的步骤,如下图所示。在该模型中,相关步骤不是顺次完成,而是存在多处循环和反复。在业务理解和数据理解之间、数据准备和建模之间,都存在反复的过程。
在这里插入图片描述

CRISP-DM 模型的落地难点

工业数据关联关系复杂,工业数据质量差,工业场景的分析要求高。

工业大数据分析的指导思想

工业大数据分析过程的效率低下,很可能是大量无效的循环往复导致的。所以,工业大数据分析方法的关键,是如何减少不必要的反复提高数据分析的效率
减少无效反复的重要办法是采用工程上常见的“以终为始”的思维方式。在进行深入研究之前,要进行一个相对全面的调研,从如何应用、如何部署开始,反推需要进行的研究。要减少不必要的探索,关键是数据分析知识和领域知识、相关信息的有机结合。实际分析工作中又不能假设或者要求数据分析人员事先对这些知识和信息有着充分的理解。所以要设法让分析师在分析的过程中,更加主动、有针对性地补充相关知识,即所谓“人在环上”。
最后,要努力提高数据分析的自动化程度,充分利用计算机的计算和存储能力、减少人为的介入。

业务理解

业务理解和数据理解的目的,一方面,只有深入理解业务,才能实现领域知识与数据分析的有机融合、从而得到高水平的分析结果;另一方面,真正成为一个领域专家需要多年的积累,完整地掌握业务知识是不现实的。所以,难免需要在后续的建模、评估、实施过程中,需要通过与专业人士的交流与合作,来补充必要的知识。

认识工业对象

工业系统的抽象化

特定的生产设备、生产环节可以看成小的工厂,而车间、工厂也可以看成大的设备——它们都可以抽象成“系统”,差别只是系统的大小和复杂程度不同。其中,大系统往往可以分解成若干相互作用的子系统。
与系统相关的要素常被抽象三类:外部向系统的输入、系统向外部的输出、系统内部状态。其中,系统的输入输出包括控制指令、物质和能量,即所谓控制流、物质流和能量流;内部状态包括工艺参数、设备状态、产品状态、工作模式等。控制问题的复杂性在于相关要素未必都是能够直接测量或者间接观测的、而且内部状态未必是受控的。

工业系统的功能描述

系统功能可以用输入输出关系描述,所有的输出都可以看作一种“功能”。比如,高炉不仅生产铁水,还可以生产煤气、高炉渣。工业系统提供有用功能的同时,往往也会有些负面的作用。比如,汽车在提供交通功能的同时会产生污染、噪声、安全问题。于是,系统的某些功能就是抑制、弱化、预防这些负面作用的。,功能之间往往是互相关联、相互影响的。理解工业对象时,需搞清楚各个功能之间的关系。当技术手段对其他功能产生负面影响时,就会影响技术的实用性。应用数据分析的结果时,要事先想到并避免这些问题。

系统功能与业务场景的关联

经常出现的问题是对某些重要功能的忽视,比如提高安全性的防范功能、提高稳定性的抗干扰功能等。
系统设计出来的功能都是有用的、与场景有关的。如汽车上的空调、刮雨器。通过分析系统可能面对的场景,就可以发现一些可能被忽视的功能;通过完整地认识场景,就能够完整地认识功能。
场景变化可以分成外部场景的变化和内部场景的变化。外部场景的变化指的是系统的环境和输入发生的变化,内部场景的变化包括设备磨损、性能劣化等连续变化,也包括操作异常和故障等突发的变化。

系统功能到技术原理的理解

对应工业系统的每个功能,都会对应一套实现逻辑或流程,这里称之为技术原理。要深入了解系统,可以通过流程来认识技术原理。
需要特别注意的是场景的变化可能引发流程的变化。比如,在钢铁生产过程中,钢种、规格变了,工艺流程可能就会变。另外,对于系统内部连续或突发的变化,工业界往往有一套预防、检测、应对、弱化影响的机制;要深刻理解工业系统,必须重视相关的原理。

理解数据分析的需求

工业过程中的数据分析需求

数据分析是业务优化活动中的一环,数据分析的目标是业务目标所决定的。DMAIC 模型是企业管理中常用的一套用于改进的操作方法,包括界定 D(Define)、测量 M(Measure)、分析 A(Analyze)、改进I(Improve)、控制 C(Control)等五个步骤。我们这里借助 DMAIC 模型,理解数据分析的前序和后续工作,从而明确数据分析工作的前置条件和发挥作用的基础。

  1. 界定:准确定位用户关心的、需要解决的业务问题。主要从业务方面了解客户、需求、存在的问题、解决问题的意义等。在这个过程中,最好能明确问题发生的场景、类型,希望分析得到的输入输出关系等。
  2. 测量:这个阶段的工作,就是要把业务需求转化成数据问题。或者说,用数据来描述业务需求,对问题更加深刻的认识。
  3. 分析:运用统计技术方法找出存在问题的原因。
  4. 改进:在数据分析的基础上,找到解决问题的方法。改进可以看成一个优化数学问题、确定怎么做是最好的。
  5. 控制:具体的实施和落实。具体的实施必须是在流程中完成的,会涉及到各种软硬件条件和管理制度。
    五个步骤中,前面两个步骤在进入数据分析之前完成,用于明确对数据分析的目标和要求;而后面两个步骤要在数据分析之后完成,以创造价值。为了避免无效的分析工作,应该在分析之前就确定改进和控制的路径是不是存在,这是提高数据分析工作效率的有效方法。

数据分析的价值需求

数据分析的目的是创造价值,要确认两个方面的问题:价值是真的存在、还是想当然的;价值是否足够大、投入产出是否核算。

具体业务场景的数据分析需求

工业对象和过程往往都是复杂的系统。这意味着,在不同的场景下问题之间的关系将会发生改变。数据分析之所有应用价值,往往就是因为场景的变化使得经验不再适用、需要用数据来说话。所以,数据分析需坚持的一个原则是分析和应用都要结合具体的流程。如前文所述,分析结果的应用,一定存在某个流程中,如果现在还没有这样的流程,就要考虑如何建立这样的流程、并对合理性进行论证,才能保证最后的分析结果是可以落地的。

数据分析需求的梳理方法

对工业对象和业务需求的理解建议用5W1H方法(Why、What、Where、When、Who、How),对问题进行深入的理解。在此基础上,围绕业务目标进行分析,把与业务目标相关的因素找出来并进行分类,以此类推,再把相关因素的相关因素找出并进行分类。对此,思维导图和鱼刺图是非常合适的工具。但是,这些工具难以描述对相关要素的逻辑、时序关系。所以,对于重点关键问题,还可用 ER 图、流程图、Petri 网等方法,对要素、活动之间的关系进行更加深入的描述。

工业数据分析目标的评估

工业知识的理解

知识的作用就是让我们能够从一部分信息推断出另外一部分信息。诊断型分析、预测型分析、处方型分析本质上都是要获得这样的知识。工业知识往往是复杂多变量的。

工业知识的合用性

知识F(X)->Y是否合用与业务目标有关。例如,诊断式分析要判断问题产生的原因,所用的信息可以是问题产生之后的表象,也就是说 X 可以出现在 Y 之后;对于预测式分析,X 则一定要出现在 Y 之前,这样的信息才能被用来预测。对于这两种分析,XY 之间不一定具备因果关系,而对于处置式分析,则 X 需要与 Y 有因果关系。
需要关注的问题:方法的合理性,业务流程和基础手段的约束

专业领域知识的融合

“知识重用”可以避免不必要的风险和成本,是工业大数据分析的重要原则。
专业领域的知识和数据模型的融合方式有两种,其一是利用专业领域知识识别影响业务问题的关键因子,并加工有效特征,作为工业建模的输入变量来融入工业分析模型中;其二是利用产品工作机理建立高效的诊断、检测、预测模型,利用数据模型去优化机理模型控制参数,实现机理模型和数据模型的融合。

制造的全生命周期

产品全生命周期可以分成生命初期(BOL)、生命中期(MOL)和生命后期(EOL)三个阶段。生命初期以设计制造为主,生命中期以使用维修为主,后期则以回收及再利用为主。工业大数据分析在产品运维服务领域具有最广阔的应用前景,但也面临最艰难的挑战,其应用面临的主要挑战是跨生命周期数据的管理和分析。

数据理解

在CRISP-DM模型中,业务理解和数据理解的箭头是双向的,业务理解和数据理解要在不断反复的过程中深化。业务理解是数据理解的基础和起点,用于全面理解工业对象和业务需求;数据理解是从数据的角度认识对象和业务、是认识的深化,即判断是否有数据解。

数据来源

工业大数据即工业数据的总和,我们把它分成三类。即企业信息化数据、工业物联网数据和外部跨界数据。

业务与数据的关系

业务流程数据的消费者,也是数据的生产者,在理想情况下,数据可以刻画工业系统及其运行轨迹的完整映像。但是,在现实条件下只能部分地刻画工业对象、也只能记录工业对象运行的部
分痕迹。
实际工作中,不能单纯通过数据,理解工业对象及相关业务,而是要结合一定的专业领域知识,才能理解数据的含义。业务理解是数据理解的基础、是数据理解的起点;反过来,离开数据,人们对对象的理解将会是粗糙的、模糊的,不利于对系统和业务的精准控制和优化。所以,数据理解支撑对业务理解的深化。

离散行业的数据源

离散工业主要是通过对原材料物理形状的改变、组装,成为产品,使其增值。离散制造的产品往往由多个零件经过一系列并不连续的工序的加工最终装配而成。加工此类产品的企业可以称为离散制造型企业。例如火箭、飞机、武器装备、船舶、电子设备、机床、汽车等制造业,都属于离散制造型企业。高端装备是指技术含量高、资金投入大、涉及学科多、服役周期长,一般需要组织跨部门、跨行业、跨地区的制造力量才能完成的一类技术装备。
在互联网与大数据环境下,分散化制造对网络化协同制造需求日益加剧,企业的生产要素和生产过程必将进行战略性重组,从而引发企业内和跨企业业务过程的集成、重构、优化与革新。当前,围绕制造跨生命周期业务过程集成与优化方面的研究主要集中在异质业务过程匹配与共享、跨企业业务过程整合与改进、企业间业务过程的外包机制等方面。未来,还需要针对互联网大数据环境下智能制造跨生命周期异质业务过程柔性集成、基于海量运行日志的高端装备制造、跨生命周期业务流程智能优化等方面进行深入研究。

流程行业的数据源

流程行业的生产规模往往较大、信息系统的完备性较好、自动化水平相对较高,具有较好的数据条件。流程行业的计算机系统是分层次的,最常见的是把信息和控制分成基础自动化(BA)、制造执行系统(MES)、企业资源计划(ERP)三层。等级越低对实时性要求越高、数据采集的频度越高,但数据保存的期限却非常短;级别越高则数据覆盖范围越大,数据保存时间相对较长,但很少采集高频数据。

数据的分类及相互关系

数据质量

数据质量的定义

数据质量的本质是满足特定分析任务需求的程度。从这种意义上说,需求和目标不同,对数据质量要求就不一样。为了避免数据分析工作功亏一篑,应该尽量在进行分析之前,根据需求对数据质量进行评估。业务需求分析要“以终为始”,要从“部署”和应用开始。

数据质量的组成要素

完整性,规范性,一致性,准确性,唯一性,关联性。

数据质量的影响因素

是否稳定可靠,是否可直接检测、人为因素(主观认识、数据处理)、观测精度、噪声。

数据准备

业务系统的数据准备

就是要实现跨企业、跨部门或跨领域不同业务系统之间的数据整合和共享,关键是要实现机构、人员、装备物资、项目等基础信息的标准化和互联互通,业界通常称为数据集成,打破“信息孤岛”,拆除“数据烟囱”,实现基础数据资源的互通和共享最关键的一步是数据统筹,包括“聚、通、用”三个环节,数据统一汇聚到一个平台上建立数据共享开放标准和机制,之后主动开展更多应用,使相互融通、相互支持的数据形成聚合效应,推动各部门基础数据共享互通,保证基础数据的“一数一源”。可从以下几个方面着手。一是要进行数据资源梳理,搞清“是谁的”、“是什么”、“在何时”以及“在何地”等元数据信息,构建基于网络环境的信息资源目录,二是要建立数据资源标准化和共享交换体系。

工业企业的数据准备

就是要针对要解决的问题开展数据治理,实现数据资源的互通和共享。因此,公司需要一个类似数据治理委员会的机构,他的职责是执行现有数据策略、挖掘未被满足的需求以及潜在安全问题等,创建数据治理策略,使数据的采集、管护、储存、访问以及使用策略均实现标准化,同时还会考虑各个部门和岗位的不同需求。工业大数据分析需要产品全生命周期数据作支撑,工业企业数据准备的核心,是实现产品跨生命周期的数据有效集成与溯源。

物联网的数据准备

支持万物互联的物联网(Internet of Things,IoT)是通过射频识别(RFID)、无线传感器、全球定位系统、激光扫描器等信息传感设备,按约定的协议,把任何物品与互联网连接起来,进行信息交换和通讯,以实现智能化识别、定位、跟踪、监控和管理的一种网络。物联网创造出的数据将远多于互联网,物联网包含了数以亿级的节点,代表各种对象,从小型的无处不在的传感器设备、手持设备到大型网络服务器和超级计算机集群,数据每时每刻都在大量产生,以时间序列为数据形态。有对决策贡献大的数据,也有帮助较小的数据,还有噪声数据,各种数据性质不同,处理的方式、存储的手段以及在此之上的信息提取方法各不相同,这些数据在不同的系统或场合中被使用、重用或引用,比如数据的查询、分析等。对如此海量数据的有效治理是物联网数据得以应用的关键所在。
产品追溯是工业大数据分析和应用的一个典型应用场景。它是指产品从制造、流通、消费到回收的整个生命周期过程中,利用标识技术记录和查询产品状态、属性、位置等信息的过程,其目的是全方位记录产品信息数据,促进企业内部信息系统之间、企业之间、企业和用户之间信息的有效共享,提高工业企业网络化、智能化水平。物联网数据准备应基于统一的标识解析体系实现数据的互联、互通、共享和溯源。标识及标识解析技术是实现产品追溯的核心关键。

建模分析的数据准备

数据预处理概述

主要有数据的异常值处理、数据的缺失值处理、数据的归约处理等

数据异常处理

异常数据点对象被称作离群点,不同的环境,异常值也可以有不同的类型,有点异常值、背景异常值或集体离群值,异常数据的处理方法有基于统计学的方法、基于多元高斯的方法、基于相似度的方法、基于密度的方法、基于聚类技术的方法、基于模型的方法等。

数据缺失处理

处理数据缺失的方法很多,根据数据的基础情况、数据的缺失情况来综合选择。如果数据量足够大,缺失数据比例小,则缺失数据可以直接删除;如果数据连续缺失,则可以利用平滑方法填补等。数据的插值方法主要有利用纵向关系进行插值,如线性插值法、拉格朗日插值法、牛顿插值法、三次样条函数插值法等;利用横向关系插值,如多元插值法等;内插值法,如 sinc 内插值法等。

数据归约处理

数据归约技术可以在保持原有数据完整性的前提下得到数据的归约表示,使得原始数据压缩到一个合适的量级同时又不损失数据的关键信息。数据归约的主要策略有数据降维、数量归约、数据压缩。
数据降维基本原理是将样本点从输入空间通过线性或非线性变换映射到一个低维空间,从而获得一个关于原数据集紧致的低维表示。数据降维的方法有很多,如主成分分析、T-SNE方法、流形学习降维等。数量归约是用代替、较小的数据集来替换原有的数据集,方法主要有参数方法和非参数方法。参数方法就是利用模型进行数据估计、非参数方法则是利用聚类、数据立方体等技术进行归约表示。数据压缩是使用数据变换的方式对原始数据进行压缩表示,使得压缩数据能够实现原始的数据的重构又不损失数据中的有价值信息。主要的压缩方法有无损压缩和有损压缩。

数据建模

数据建模的本质是发现知识

模型的形式化描述

基本描述

F ( X ) = Y F(X)=Y F(X)=Y其中,X 为可以获得的数据,Y 为希望得到的数据,F 是 X 到 Y的映射。建模就是选择 X,确定其定义域、并获得映射 F 的过程。

模型的深入表述

如前所述,数据建模中最常见的困难是部分数据无法获得。对此,一般的解决方法是:从可以获得的数据中找到一些与之相关的数据,再用间接的手段确定模型。这样的思维其实是常见的。例如,古人常常根据鸡叫的声音判断时间。
我们把自变量 X 分成两部分:可以准确得到的记为 X1,难以准确得到的部分记为 X2。为了获得 X2,我们可以可虑如下三类相关数据,分别记为 Z1、Z2和 Z3。
Z1是影响 X2的因素之一 : X 2 = F ( Z 1 , ζ ) X2=F(Z1,\zeta) X2=F(Z1,ζ)其中,Z1是可观测的变量,ζ是难以观测的干扰。
X2是影响 Z2的原因之一 : Z 2 = F ( X 2 , ζ ) Z2=F(X2,\zeta) Z2=F(X2,ζ),其中,Z2是可观测的变量,ζ 是难以观测的干扰。
X2与 Z3 有共同影响因素 : Z 3 = F 1 ( ζ ) Z3=F1(\zeta) Z3=F1(ζ) X 2 = F 2 ( ζ ) X2=F2(\zeta) X2=F2(ζ),其中,Z3是可观测的变量,ζ 是难以观测的数据。
我们实际上要建立的模型就是: Y = G ( X 1 , Z ) , Z = ( Z 1 , Z 2 , Z 3 ) Y=G(X1,Z),Z=(Z1,Z2,Z3) Y=G(X1,Z),Z=(Z1,Z2,Z3) 其中,Z是建模时可供选择的数据;G 是实际上能够建立的模型。

对建模思想的影响

科学模型往往能高精度地描述客观物理对象及其运动过程,如果模型的结构和参数都是正确的,模型的精度和真实性、可靠性往往就是一致的。在这种背景下,对于结构确定的模型,人们往往能够通过优化误差优化模型参数,从而逼近真实的模型。然而,受到现实条件的约束,需要选择 Z 而不是直接采用 X。这样一来,我们就得不到理想的模型,上述“一致性”在不再成立了,Z 和 X 之间的关系非常复杂,Z 的选择不同就意味着模型特点的不一样。

工业建模的基本过程

建模过程本质上是个寻优的过程、找到最合适描述对象的模型。数据建模的关键是选择特征、模型结构和算法。

建模的基本思路

如前所述,建模过程需要不断地尝试变量、模型结构和算法。其中,变量和模型结构决定了模型的精度、适用范围和可靠度;算法决定了在特定范围内的优化的目标、执行效率和效果。模型结构确定之后,优化算法确定的是模型相关的参数,模型结构不同,有效的算法也不相同。
对于复杂的工业过程,人的领域知识往往不足以选择出最优的变量和模型结构,要根据数据建模的实际结果对前面的选择加以调整、重新进行优化。这时,人们会遇到新的困难:如何理解从数据分析的结果以得到新的认识?如何根据新的认识调整模型?要将领域知识和数据分析方法有机融合,就要解决这个问题。
从某种意义上说,决策树是一种能将机理知识和统计算法较好地融合起来的算法,故而在实际问题中应用较广。但决策树主要用于寻找特定问题发生的原因,难以建立连续的数学模型。为此,还要寻找新的方法,以推进融合。

模型融合的方法

为了把领域知识和数据分析过程有机地融合起来,我们提出的思路是基于分解的综合。这个方法把复杂的建模过程分成两步:

  1. 建立子模型。针对特定的场景和少数的变量建立简单的子模
    型。模型的复杂,本质上是场景的复杂,在大数据的背景下,
    数据有可能具有遍历各种场景的可能性。
  2. 子模型的迭代与综合。为了便于模型应用在各种不同的场景,
    需要把模型综合起来。综合的过程一般是求精的迭代过程,通
    过发现问题,不断修正和完善子模型,实现实用化的综合。

如前所述,经典统计分析方法的问题在于先验知识不足,并且统
计分析结果的适用性基础在于独立同分布。既然如此,推荐的方法就
是首先在数据分析的过程中确定先验知识,然后用统计分析方法建立
子模型。其要点包括:

  • 将判断模型是否符合某些先验条件,作为前置性的工作。
  • 通过对数据的选择和处理,让它符合先验条件。

经典统计建模最基本的要求是干扰的随机性,即不存在系统性的干扰。所以落实上述思想的基本方向就是剔除系统干扰。一般来说,所谓的系统性干扰指的是没有纳入模型输入变量的因素,剔除系统干扰的方法有两种:一种是把系统干扰因素固定下来、变成“常数”;另一种是把系统干扰的作用计算出来、剔除出去。

模型的优化过程

模型的优化过程往往是认识更加深入的过程、是模型精度和可靠性不断提高、适用范围逐渐扩大的过程。这个过程的驱动力是模型在某些场景下出现的“异常”或者“误差”,优化的过程就是找出产生误差的具体原因的过程。导致这种现象的原因大体有两种:

  1. 间接原因引发的。所谓“间接原因”,就是原因背后隐藏的更加深层次的原因。比如,检测过程出现差错导致模型错误。越是深层次的原因,越不容易发现,然而越是深层次的原因往往更加重要,因为解决了深层次的问题,往往可以一劳永逸地解决很多问题。丰田要求“多问几个为什么”,就是要强调寻找深层次的原因。
  2. 几个因素共同作用的结果。模型遇到一个特殊的奇点时,应该首先与领域专家讨论,然后再用数据来验证可能的情况。

工业建模的特征工程

数据初步筛选

对建模过程中可能用到的变量进行了分类,这些变量中,除了和分析结果有直接因果关系的,还有间接因果关系的;除了有因果关系的,还有具有相关关系的;除了有相关关系的,还有用于区别场景和状态的。筛选数据,可以从最基本的因果关系出发,找到理论上所需要的数据。当理论上所需要的数据不存在的时候,再去找与之相关的数据。
面对大量的相关数据,应该进行初步的筛选,筛选出能表征关键因素的数据,才能有效地进入下一步。首先根据领域人员的建议,挑出若干相对重要的变量;在此基础上,根据拥有统计工具的情况,采用一些简单有效的算法(如回归分析、方差分析),找出相对重要的变量。这样选出的重要变量未必是真正重要的,而落选的变量也不一定是不重要的,初步筛选的目的,只是找到一个相对较好的起点。

特征变换

所谓特征就是能够表征业务问题关键因素的数据字段。原始字段有时不能够有效的表征影响因变量的属性,可采用特征提取技术、特征变换技术,基于原始数据字段加工出有效的高阶特征。特征变换是指对原始数据字段通过映射函数或者某一种特点规则来提取新特征的过程。特征变换的技术主要有概念分层、数据标准化、归一化、函数变换等。
概念分层是将连续属性划分成特定区间,用区间的标记值代替区间内的数值。概念分层会减少了离散变量的取值数量,减少概念层级过高造成的模型过拟合。概念分层技术主要有非监督的方法和有监督的方法。
数据标准化是为了消除数据分析工程中使用变量量纲不一致的问题,如果量纲不一致,将导致在权重、系数、相似度量时会有不同的评判尺度,导致模型的误差较高。数据标准化使得数据无量纲化后,不同量级的数据在横向比较时,能减少数据量级差异带来的误差。标准化的方法主要有线性标准化方法和非线性标准化方法。
函数变换是使用某些常见的函数对原始变量进行转换的过程。通过特定的函数变换能够改变数据的分布特征,常用在对数据分布比较敏感的模型当中。常见的函数变换有指数变换、对数变换、BOX-COX变换等。

特征组合

特征组合是基于原始特征和变换特征,选择两种及其以上的特征、采用某种组合特征得到高阶特征的一种方法。组合特征充分考虑的不同特征的关联关系,通过组合特征来表征、提取这种关系,得到新的特征作为组合特征输入到模型中去。常用的特征组合方法有基于特定领域知识的方法、二元组合法、独热矢量组合方法、高阶多项式组合方法等。

特征筛选

在精度允许的情况下,模型应该选择尽量少的变量和特征,以尽量提高模型的可靠性,这就要求根据具体的数据基础和业务场景来筛选合适的特征进行建模分析。同时,通过特征筛选助于排除相关变量、偏见和不必要噪音的限制来提高模型开发的工作效率和模型的鲁棒性。特征选择有三种基本的方法:

  1. 基于嵌入(Embed)的方法:学习算法中本来就包含有特征选择的过程,例如决策树一类的分类器,它们在决定分枝点时就会选择最有效的特征来对数据进行划分。但这种方法是在局部空间中进行优选,效果相对有限。
  2. 基于封装(Wrapper)的方法:特征选择过程与训练过程整合在一起,以模型的预测能力作为衡量特征子集的选择标准,例如分类精度,有时也可加入复杂度惩罚因子。多元线性回归中的前向搜索和后向搜索可以说是封装方法的一种简单实现。不同的学习算法要搭配不同的封装方法,如果是线性分类器,可以采用 LASSO 方法。如果是非线性分类器,如树模型则可以采用随机森林封装。封装法可以选择出高质量的子集,但速度会较慢。
  3. 基于过滤(Filter)的方法:特征选择过程独立于训练过程,以分析特征子集内部特点来预先筛选,与学习器的选择无关。过滤器的评价函数通常包括了相关性、距离、信息增益等。在数据预处理过程中删除那些取值为常数的特征就是过滤方法的一种,过滤法速度快但有可能删除有用的特征。

特征的迭代

当模型出现较大误差时,我们往往需要考虑增加一些特征,挖掘更深层组合因子。这些特征常常来自于以下两种情况:

  1. 间接数据。很多重要的数据与模型所需要的数据是间接相关的,比如时间、温度、季节等。间接相关的数据往往容易被忽略掉,需要特别引起重视。
  2. 逻辑变量。逻辑变量一般是与分类、分组、状态相关的变量,如数据测量的方式等。这些变量的重要性往往很大,应该引起足够的重视。

工业数据分析的算法介绍

在工业大数据的分析中,用到的分析算法主要有传统的统计分析类算法、通用的机器学习类算法、针对旋转设备的振动分析类算法、针对时序数据的时间序列类算法、针对非结构化数据的文本挖掘类算法、统计质量控制类算法、排程优化类算法等。

传统的统计分析类算法

传统的统计分析类算法主要包括数据的离散趋势描述方法、集中趋势描述方法、多元统计学方法、方差分析、功效分析、假设检验分析、列联表分析、对应分析等。
主成分分析与对应分析:
在这里插入图片描述

通用的机器学习类算法

通用的机器学习类算法主要有分类算法,包括决策树、随机森林、梯度提升树算法、Bayes 类算法等;聚类算法,包括基于网格聚类算法、基于距离聚类算法、基于密度的聚类算法、谱聚类算法等;回归算法,线性回归算法、广义线性回归算法、弹性网络回归、岭回归、样条函数回归等;关联规则挖掘算法,Apriori 算法,FTP 算法等;同时还包括数据异常处理算法、缺失值处理算法等。

针对旋转设备的振动分析类算法

针对旋转设备的振动分析类算法主要分成三类:振动数据的时域分析算法,主要提取设备振动的时域特征,如峭度、斜度、峰度系数等;振动数据的频域分析算法,主要从频域的角度提取设备的振动特征,包括高阶谱算法、全息谱算法、倒谱算法、相干谱算法、特征模式分解等;振动数据的时频分析算法,综合时域信息和频域信息一种分析手段,对设备的故障模型有较好的提取效果,主要有短时傅里叶变换、小波分析等。

针对时序数据的时间序列类算法

工业设备产生的数据都是高频时序数据,针对时序数据的时间序列类算法主要分六个方面:时间序列的预测算法如 ARIMA,GARCH 等;时间序列的异常变动模式检测算法,包含基于统计的方法、基于滑动窗窗口的方法等;时间序列的分类算法,包括 SAX 算法、基于相似度的方法等;时间序列的分解算法,包括时间序列的趋势特征分解、季节特征分解、周期性分解等;时间序列的频繁模式挖掘,典型时序模式智能匹配算法(精准匹配、保形匹配、仿射匹配等),包括 MEON 算法、基于 motif 的挖掘方法等;时间序列的切片算法,包括 AutoPlait算法、HOD-1D 算法等。

针对非结构化数据的文本挖掘类算法

工业生产过程中会积累大量的非结构化数据,如维修工单、工艺流程文件、故障记录等,针对这类的非结构化数据的文本挖掘类算法,主要涉及分词算法、关键词提取算法、词向量转换算法、词性标注算法等

统计质量控制类算法

在工业生产过程中,需要对生产的产品质量进行检测、控制和优化,这对该类统计质量控制类算法主要有基于 SPC 的控制方法、基于EWMA 控制图的控制方法、六西格玛的方法等。

排程优化类算法

传统工业的大批量生产过程会导致高库存,生产过程间存在人力和物力的浪费,需要通过排程优化、调度优化来灵活安排生产过程,提高生产效率和资源利用率。排程优化类算法主要有线性规划、整数规划、混合整数规划、动态规划、分支定界、基于图论的网络模型优化等。此外,由于实际应用场景中决策变量和边界条件过多,导致模型求解困难,在求解过程中常常采用一些启发式的算法进行求解。

模型的验证与评估

知识的质量

在模型验证时常常会遇到这样的情况:建模时精度很高,应用时精度却显著下降;模型对正常情况的精度很高,对异常情况的精度恰恰很低。这两种问题,都是分析结构质量不高引起的,是评估时应该重点关注的问题。

知识的确定性与准确性

DIKW 体系理论认为,知识是信息的关联。由于信息之间存在关联,人们可以从一部分信息推断另外一些信息。但是,这些推断有确定性高低之分。例如,寒潮肯定会带来降温,这就是确定性高的知识;而打雷的声音未必能推断出下雨,这就是确定性低的知识。虽然从打雷的声音推断出下雨的确定性是低的,但低多少却是不清楚的。要想知道低多少,知识还要具备“准确性”的属性。

知识的适用范围

“真理跨出一步就变成谬误”,知识常常会有失效的时候。知识的作用越大,失效时带来的损失往往就越大。为了避免知识的失效,需要研究知识的适用范围。一般来说,知识来源于对过去实践的总结。离开产生知识的场景时,知识就可能失效。工业大数据的历史数据往往囊括各种场景,故而有条件深入分析知识的适用范围。这就是概率统计理论中的独立同分布假设。

知识的质量与可靠性

如前所述,知识有精度、确定性和适用范围的属性,这些属性都可以归结为知识的质量指标,但综合的质量指标最终决定于应用场景对这些质量指标的要求。所谓的可靠知识,就是适应范围明确的前提下,知识或模型的精度和确定性足够高。

传统数据分析方法及其问题

传统数据分析方法往往是根据精度进行评估,但在工业大数据的很多应用场合,单纯看精度是无法保证模型或数据分析结果的有效性,而必须对数据分析的质量进行全面评估。

基于精度的验证方法

传统的模型评估和验证一般用精度来衡量的,精度高的分析结果被认为是好的。衡量精度有很多种方式和方法,其步骤往往包括抽样、测量、试验、统计、误差计算等。其中,误差计算方式一般用绝对值的平均值或均方差,却很少用“最大误差”来衡量,这是因为误差特别大的情况往往是数据本身的问题所导致的。

精度验证方法的局限性

在解决实际问题的过程中,经常会发现如下几类问题:第一是差异很大的模型精度验证结果却可能是相近的,难以确定哪个模型更好;第二是即便是平均精度很高的模型,也会偶尔出现严重的偏差;第三是模型的精度会在使用过程中莫名其妙地降低。这些问题在各种数据建模过程中都很常见,但由于工业追求确定性、可靠性,这些情况往往是不可接受的。
导致这些现象的本质原因,就是上一章提到的“精度、可靠度和真实性、一致性的丧失”。最常见的情况是精度和可靠度可能产生矛盾,就不能单凭精度来评估模型是否可用。导致这种矛盾的常见原因有:

  1. 变量存在检验误差时,最佳估计往往不是“无偏估计”,而是“有偏估计”。这意味着精度最高的模型,在物理意义上是“错误”且外延性差的。遇到这种情况,即便是检测精度(针对某类或某种特定范围的数据)得到提升,但是模型精度也可能会相反下降,故而精度的稳定性很差。
  2. 为了提高模型的精度,往往选择复杂模型,但模型复杂程度高时泛化性却可能降低。
  3. 特征和变量只能在有限的数据来源中选取,往往不理想。
  4. 顾此失彼的问题也可能导致精度和适用范围的矛盾。

解决验证问题的传统方法

如前所述,数据建模方法本质上有两大类:一种是基于先验知识的经典统计分析方法;一种是不依靠先验知识的纯数据建模方法。依靠先验知识的经典统计方法,虽然可以用概率的思想和方法来衡量预测结果的可靠性,但是现实的数据是否符合这些假设却常常是无法确认的。所以,统计分析方法的应用范围受到了很大的限制。
不依靠先验知识的纯数据建模方法,把训练样本和验证样本分开,当模型对验证样本的精度与训练样本精度接近时,就认为模型的精度是可信的。这种验证方法的前提是新增样本与建模和验证样本都是独立同分布的,而在现实中这样的条件未必能够满足。

基于领域知识的模型验证与评估

工业应用要求确定性和可靠性。对工业大数据分析来说,评估模型或知识的可靠性是难点所在,而可靠性评估的重点是模型在什么范围内有效,而不仅仅看平均精度。具体地说,需要分场景检验模型。
数据可以让认识更深刻,但单凭数据看工业过程或者研究模型的适用范围则无异于“管中窥豹”,难以判断有效的范围。这是因为,生产数据涉及到的参数,往往在事先设定的工作点附近波动。这些参数不能指出为什么要把参数设定在这个范围内。而且,当关键参数的波动范围控制得很小时,其重要性可能完全显现不出来。
事实上,产品设计和工艺参数往往是根据长期积累的知识、经验和数据而得出的,而这些资源往往并不在工业大数据收集的范围之内,但它们对评估模型的价值往往很大,故而模型评估要利用数据之外的知识和数据。

对适用范围的评估

范围的检验,本质是针对不同场景的综合检验。工业大数据分析涉及到很多自变量,它们的变化范围就构成了模型“自然”的范围。比如,某钢厂钢材的碳含量是 0.001%~0.78%、Mn 含量是0.1%~3%。建模的样本在这个范围内,则需要评估的范围就在这两个变量框定的矩形范围内。变量更多时,则是高维度的“超立方体”。
理想的验证方法,是把“超立方体”内密集布点、全面验证。但这往往是做不到的。简化的验证方法是对“超立方体”的顶点进行评估。原则上讲,这样的做法只适合于相对简单的对象,比如各个要素的作用是可加的。一般情况下,这种检验存在漏洞,即便是在各个变量的“顶点”上评估合理,也无法保证整个范围内部是合理的。为此,建议补充考虑如下的几种情况:

  1. 非线性。现实的工业对象往往是非线性的,在某些内部的空间点上可能形成突变或者非单调的影响。对于这样的一些内部区域,必须要单独评估。
  2. 逻辑变量。模型往往会涉及到很多逻辑变量。逻辑变量发生变化时,会引发模型、综合指标或其他变量含义的变化。理论上讲,某个逻辑变量不同时,模型要重新验证。从某种意义上说,就是在不同的场景下验证模型。
  3. 时变检验。反映真实客观规律的模型往往不随时间变化。对于这样的一些模型,一般要验证模型误差的时变性。如果模型的误差与时间关联度太高,就说明模型遗漏了重要的因素。
  4. 次要变量检验。在现实中,影响工业对象的要素非常多,为了便于分析往往不得不忽视一些“次要”的因素。但是,这些“次要”的因素在某些情况下可能变得非常重要。模型完成之后,应该尽可能对地对“次要”变量的影响做一个检验。

针对上述这些不同的问题和场景,原则上都要进行评估和验证,但现实中往往是走不通的。比如,对于包括 N 个变量的非线性模型会有 N 个顶点,当 N 的数量达到 30 个时就会有 10 多亿个顶点;再考虑到其他的场景,现实中根本无法一一罗列。另外,场景多了,每个场景中的样本就少了,甚至根本就没有样本,而没有实际样本也就不能有效检验。所以,现实的检验无法脱离数据分布的实际条件。
对于这样的困难,需要依赖于人对领域知识的认识来确定需要具体分析的场景。事实上,数据分析的定位主要就是深化人的认识,拓展知识范围反而是次要的。

对精度的评估

虽然有效的模型检验不能仅仅依赖于(平均)精度,但是精度检验依然是重要的,即便是针对具体的场景,检验通常最终也会落实到精度上。
由于工业大数据的数据质量不一定高,模型的(平均)精度往往不会很高。特别当检验数据出现较大误差或者出现重要的变化而未被检测时,模型的误差可能会非常大。这样,即便有些模型和子模型本身是准确的,精度也会被误差掩盖掉。

场景的综合评估

模型应区分场景进行检验。所谓“场景”就是在一定的范围内,模型的原理不会发生改变。一般情况下,模型总是会对某些场景合适、某些场景不合适。这时,需要对验证结果进行综合评估,判断模型存在的问题。
我们假设模型由若干子模型构成。这时,对场景的综合评估就会转化为对“子模型”的判断,这些失效的场景有什么共性,进而分析哪些子模型失效,以及是否需要考虑哪些要素(增加子模型)。

模型的迭代评估

CRISP-DM 中连接“数据建模”和“验证与评估”的箭头是单向的,而现实中的工业大数据分析却往往是双向的,当验证评估存在问题的时候,需返回前面一步重新建模。
重新建模的依据,就是前面对场景的综合评估。一般来说,当某些场景下模型存在显著误差时,就要通过综合分析误差分布特征和领域知识,猜测误差是哪一个子模型引起的。这个过程结束后,提出修正模型的思路,返回到上一步的数据建模。
评估过程也可能是相对满意的。对于相对满意的情况,可能有两种做法:一种是进入下一步的实施与运行,另外一种情况则是扩大样本选取的范围并返回数据建模,在更大的范围内建模。

总结与展望

可以把验证可靠性的过程,理解为在不同场景下确认分析精度的问题。划分“场景”就是把某些关键要素固定下来,以此希望某些规律在这个范围内是不变的。一般来说,用于划分“场景”的要素可能涉及多个;用来划分场景的要素越多,场景就分得越细、反之则会越粗。如果场景分得粗,有些问题就不容易发现;但如果分得过细,就需要验证太多种场景。数据分析的本质是提取共性,所以分析过程希望尽量少的分场景建模,除非不分场景会导致很大的误差,一般来说不会分出太多的场景。但是,一旦需要重新划分场景,前面的分析过程需要重新进行一次。这样一来,就要耗费大量的时间和精力。
要解决这样的问题,需要在验证和建模过程中尽量减少人的参与,让机器自动地进行建模和验证。人的介入越少,分析的时间效率就越高。这应该是数据分析方法的一个发展方向。

模型的部署

在 CRISP-DM 体系中,部署一般是指从模型中找到知识,并以便于用户使用的方式重新组织起来,其成果可以是研究报告、也可以是可重用的数据挖掘程序或者是模型服务程序。工业大数据分析结果还会以管理控制软件的方式应用在企业的业务、管理或者监控流程中。
分析结果要用好,必须有好的通道,故而需要纳入管理和控制的业务流程中。知识一旦纳入实际的流程中,对稳定性、可靠性、真实性的要求就会变高,故而需要考虑实际应用场景带来的不利影响。同时,一个模型只有不断优化,才具有生命力。

模型部署前应考虑的问题

“知识本身不是力量、会用知识才是力量”。学会部署就是学会应用知识。

模型部署对工作方式的改变

数据分析是用来发现新知识的。但在没有新知识之前,人们也能把过去的工作进行下去,只是有了新的知识可能做得更好。

模型部署的标准化与流程化

在管理规范的企业,多数业务活动的内容和步骤都有明确的规定,且往往是被标准和流程规范的。

模型部署的自动化与智能化

先进企业的管理和控制流程往往是在计算机系统上实施自动化或者智能化。

实施和运行中的问题

实施和运行中普遍面临的一个问题是:建立分析模型所用的数据和运行中所用的数据存在差异。导致差异的原因包括:数据质量问题、运行环境问题、精度劣化问题、范围变化问题。

数据质量问题

建立模型时,往往会对数据进行筛选,剔除掉一些错误和不合适的劣质数据。但在实际应用的过程中,尤其是知识用于实时控制和管理中,很多劣质数据无法像建模时那样剔除。这样,分析或预测结果自然也就会出现更多异常。

运行环境问题

当分析结果用于实时控制或者管理时,会对数据采集的实时性、计算的效率、计算机存储量、计算的稳定性等提出要求。

精度劣化问题

模型参数常常与建模所用样本的分布有关。所以,人们常常假设建模和应用模型时遇到的数据是“独立同分布”的,但这个要求在现实中常常是做不到的。故而,即便只是样本比例发生变化,也可能会导致模型误差的变化。当数据模型与机理的结合度不高时(如采用神经元方法),这种现象更是会频繁发生。于是,部署时精度很高的模型,会随着时间的推移变得越来越差。因此,迁移学习可以为该问题的解决提供新的手段。

范围变化问题

任何模型都是在一定的范围内才能有效,例如:针对一类产品建立的模型,对另外一类产品可能就不合适了;同一个生产过程在不同的工况下所使用的模型也可能有所差别。事实上,产品的改变、设备的改变、原料的改变、工艺的改变都可能使模型失效,这就为特定模型的使用带来了前提约束和边界条件。

问题的解决方法

数据质量问题

对于数据质量问题,必须根据实际情况采取妥善的应对措施。典型的措施一般包括以下两种办法:

  1. 改善数据收集。通过管理或技术手段,提高数据的质量、防止数据出错。
  2. 限制应用范围。当数据出现质量问题的迹象时,停止模型相关的新功能。

运行环境问题

数据采集的实时性,通常通过分布式消息队列和流处理技术来实现,Flink、Spark、Storm 等流处理框架能够把大量的实时处理任务自动化并行,降低延迟的同时提升吞吐量。
计算效率通常通过近似算法、并行算法和流式算法来实现,提升效率的代价可能会牺牲最优解。
存储量的可扩展性通过分布式系统来实现,例如 HDFS、对象存储Swift 等,这些技术通过分片技术实现存储容量的水平扩展。
计算 稳 定性 通 过集 群 计算 框 架来 实 现, 例 如批 处 理框 架MapReduce、Spark、流处理框架 Flink、Spark-streaming 等,这些计算框架不仅能自动分发任务,还能在任务出错的时候提供重试功能。

精度劣化问题

模型劣化的本质原因是一些非本质性的关联发生了改变。所以,解决精度劣化的最好办法是采用本质性的关联,让模型与科学原理更好地融合。另外一个常见的办法就是定期、不定期地重新修正模型,并尽量争取实现模型自动修正。

范围变化问题

如果模型的准确性和可靠性对应用影响很大,就必须有适当的预防和应对措施,防止越界的应用。典型的做法是把模型的应用限制在经过检验的特殊范围内,而范围要结合领域知识来确定。
解决范围变化问题的另外一种做法是增强模型的鲁棒性和泛化性,或采用信息融合技术,在面对不同的条件输入下使模型仍能取得满意的效果,或者至少不至于劣化到无法使用。

部署后的持续优化

模型运行过程中应该进行持续的优化,否则技术就没有生命力。没有哪个模型在建立之初就是完美的,一般需要经过长时间的优化和改进,才能更好地满足用户需要。优化包括精度的提高、适用范围的扩大、知识的增加等。
模型的精度很大程度上决定于数据的质量。特定数据的质量往往取决于基础的维护和管理的水平。但维护和管理都要花费成本,所以对于重要性不大的数据,人们往往疏于维护和管理,从而导致数据的质量很差。如果分析模型确实能够为企业带来效益,数据的重要性和经济价值就会大大增加,从而为提高数据的精度奠定基础,这是推动模型不断优化的动力。
一般来说,企业的产品、工艺、设备、原料等都是在不断变化、甚至不断创新的,这可能导致模型的使用率不断降低。现实中,如果模型的投入率低到一定的程度,模型就会被边缘化,甚至会被放弃。这时候,维护人员一定要设法让模型的适用范围不断扩大,以适应这些变化。
随着数据质量的提高和数量的增加,可能会经常发现新的知识和规则,这时就需要对模型进行完善。因此,模型的架构必须灵活,必须能够适应这些变化。特别地,由于工业应用对可靠性和稳定性的要求很高,模型的变动本身就可能成为不稳定因素。故而,如何减少模型变动所可能产生的不利影响是必须考虑的问题。

展望未来

当前,以大数据、云计算、物联网等为代表的新一轮科技革命席
卷全球,工业数字化、网络化和智能化的步伐不断加快,工业大数据逐渐成为传统制造业与新一代信息技术深度融合的落脚点。
工业大数据技术产品创新正逐渐从技术驱动转向应用驱动,广阔的市场空间和大量的应用需求为工业大数据发展提供了强大的驱动力。
工业大数据将成为推动制造业创新发展的重要基础,为中国的工业升级和转型注入强大动力。企业在新技术条件下,实现贯穿于产品设计、生产、管理、仓储、物流、服务等全部流程和环节的大数据采集、存储、管理和分析,从大数据中挖掘出其中的隐含价值,达到提升生产效率、提高产品质量、增强管理能力、降低生产成本等目的,提升了企业生产力、竞争力和创新力。

  • 8
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
工业大数据分析指南 pdf 是一本关于工业领域大数据分析的指南书籍,旨在帮助读者了解和应用工业大数据分析的基本原理、方法和技术。 该指南首先介绍了工业大数据分析的背景和重要性,解释了为什么工业领域需要大数据分析。然后,它详细介绍了工业大数据分析的基本概念,包括数据收集、数据存储和数据预处理等方面的内容。读者可以通过学习这些基本概念,了解工业大数据分析的基本框架和流程。 接下来,指南介绍了一些常用的工业大数据分析方法和技术,如统计分析、机器学习和人工智能等。这些方法和技术可以帮助读者从大量的工业数据中提取有价值的信息,用于企业决策、生产优化和故障诊断等方面。 此外,该指南还重点介绍了工业大数据分析的案例分析和实践经验。通过这些案例分析,读者可以了解到工业大数据分析在实际应用中的具体效果和价值。同时,实践经验部分包含了一些工业界的专家经验分享和实施建议,可以帮助读者更好地应用工业大数据分析技术。 最后,该指南还提供了一些工业大数据分析相关的资源和工具,供读者进一步学习和实践使用。这些资源和工具包括数据集、算法代码和可视化工具等,可以帮助读者更加深入地理解和应用工业大数据分析。 综上所述,工业大数据分析指南 pdf 是一本全面介绍工业大数据分析的指南书籍,对于工业领域从业人员和学习者来说是一本非常有价值的参考资料。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值