数据类产品设计和实现思路

声明

个人原创, 转载需注明来源 https://www.cnblogs.com/milton/p/16216347.html

数据类产品

对数据类产品(或服务)的需求是信息化发展到一定阶段的必然产物, 在信息化时代, 现实世界的大部分活动都已经(或即将)被投射成数据, 在这个大背景下, 数据产品的作用也越来越大.

  • 对于所有个体, 大至一国政府, 小至个人, 对内的数据收集, 数据治理, 对外情报收集和分析, 知己知彼才能形成竞争优势
  • 对于政府, 各个职能部门天然存在对实时数据的需求, 对环境, 卫生, 经济, 金融, 教育, 制造等各行业的统计分析, 问题预警和政策制定都离不开数据. 使用数据系统可以避免中间人修饰, 提高决策准确性和速度. 对于政府的执行单位, 使用数据产品降低监管成本, 避免人为的不确定性, 将监管常态化, 与上下游机构和行业企业的报告交叉验证, 出现问题能快速预警, 及时修复.
  • 对于企业, 一部分企业的业务本身就是构建在数据之上, 像金融新闻广告游戏娱乐, 数据和速度是天生的需求, 另一部分企业的业务与数据没有直接关联, 但是在企业的生产过程中, 通过数据产品可以提升效率, 提高企业的竞争优势; 对于关系国计民生的行业, 企业为了符合监管政策, 也会产生对数据产品的需求.

2B的数据产品的用户为企业, 政府, 或科研机构,提供数据治理, 数据仓库, 数据挖掘, 智能决策等服务. 受限于当前的技术, 以及不同行业不同角色之间的差异, 没有通用于所有业务场景的数据产品服务商, 数据产品需要根据不同业务场景的需求制定解决方案. 像SAS这样的市场前排产品, 也是通过不同的行业套件保持竞争优势.


业务场景

数据产品的常见业务场景

  • 应对监管需求, 部署监管要求的规则, 生成符合监管要求的报告
  • 医药科研类场景, 对线上线下采集的数据进行收集分析和验证
  • 智慧城市, 对电力燃气供水交通等民生数据的收集, 预警和处置
  • 网安对媒体的热点监控, 舆情监控和处置
  • 游戏传媒广告类产品, 根据数据进行实时决策
  • 银行和金融行业的风控, 反洗钱, 客户画像, 打分, 决策, 预警等
  • 工业自动化, 配合ERP, MES, IOT等系统产生的数据进行分析和产生报告

运行模式拆分

根据不同的数据形态, 可以分为

  • 静态数据分析, 一般针对日志, 交易流水等存量信息进行事件分析, 用于周期跑批, 问题复盘, 案件调查等业务场景
  • 动态数据分析, 数据对象为实时的日志, 交易流水, 传感器记录等, 常用于业务监控和自动化, 例如网络安全的预警, 拦截, 交易的拦截, 风险预警等业务场景.

功能模块拆分

从功能上可以分为以下几个模块:

  • 输入适配
  • 建模转换
  • 分析处理
  • 输出适配
  • 行业套件

所有的数据产品, 都会由这些功能组成, 只是侧重点不同. 例如 SAS/ACCESS 侧重于输入适配; SAS/Warehouse Administrator 是典型的ETL工具, 侧重于建模转换; SAS OLAP Server(前身是SAS MDDB Server)属于BI工具, 侧重于分析处理, 而 SAS/STAT, SAS/GHAPH, SAS/QC, SAS/IML 这些都是贯穿于整个产品使用过程的功能组件, 在这些模块的基础上, 通过 SAS/QC, SAS/ETS, SAS/OR, SAS/ITSV, SAS/GIS, SAS/CFO Vision 这些行业套件为客户提供服务.

下面对各模块分别说明


1. 输入适配

数据输入相当于ETL中的E部分, 是整个系统的数据入口. 数据输入模块通过内建的或用户自定义的规则, 将原始数据接入处理系统. 数据输入是对产品性能和用户体验影响很大的一个模块.

数据输入主要分为以下几部分内容

接口适配

  • 数据源适配, 常见的传统关系型数据库 Oracle, DB2, SQL Server, MySQL, PostgreSQL, 以及 MongoDB, Redis, Hive, Clickhouse, TIDB 等新型数据库, 以及 Spark, Kafka 等消息数据库
  • 文件系统的适配, 文件解压缩, 解密处理
  • 各种文件格式的解析, 例如CSV, Excel, Access, log等
  • 被动接收接口, 提供数据接口, 接收第三方系统推送的数据并正确解析
  • 数据采集, 通过内建工具或用户自定义工具主动采集数据

格式适配

  • 行数据, 传统的关系型数据主要使用行数据
  • 列数据, HBASE等列数据库
  • 地理数据, 二维, 三维坐标数据
  • 文本数据, HTML, XML, JSON 这类非结构数据
  • 允许用户自定义格式

数据存储

  • 对于读取频次较低, 或逻辑较为简单的数据规则, 可以直接从数据源读取数据进行处理
  • 对于读取速度较慢的数据, 需要频繁读取的数据, 可以将数据缓存在本地, 方便后续环节处理

预处理

在数据层面对读取的数据进行清洗, 筛除或替换无效的值, 以及做一些基础转换. 这一步与模型转换的区别, 在于是否与业务逻辑有关. 原则是去除无效信息, 但是尽可能保留源数据的信息.

第三方数据导入

从第三方接口获取数据, 如征信接口, 高风险IP和地区名单等

技术面分析

数据输入部分, 涉及的技术实现主要包含以下几部分

接口适配

  • 不同数据源(传统数据库, NoSQL, 图数据库)的数据抽取接口
  • 文件类型数据的读取, 压缩文件的解压
  • 安全和隐私相关的验签, 解密, 脱敏
  • 屏蔽数据源中的故障和脏数据
  • 便于扩展新的数据源, 数据格式
  • 使数据系统适用于更多的业务场景, 避免过早遇到功能或性能瓶颈

数据存储机制

  • 面向不同场景的需求, 用于存储结构化, 半结构化和非结构化的数据, 需要满足分析模块对数据容量, 访问速度的要求
  • 提供MB级到PB级的数据存储方案, 实现对不同体量的数据的存储, 并保证数据存取速度, 保证数据的完整性和安全性
  • 对高速率数据的接收能力, 类似双十一这种峰值每秒百万交的数据接收, 如何保证高效且不丢失数据

数值类型和数据格式处理

  • 定义基础数值类型, 并在基础数值类型上扩展(或组合)出有实际意义的数值类型, 对输入的数据需要有一定的自动识别能力.
  • 对常见格式的自动识别和处理, 例如CSV, Excel, Access
  • 对非行结构数据的识别, 例如HTML, XML, JSON等
  • 对非结构化数据的识别, 例如新闻内容, 聊天记录等
  • 对二进制数据, 常见媒体格式的处理, 图片格式, 视频格式, 流媒体解析(和存储)

预处理和错误处理

  • 简单的过滤逻辑, 例如数值校验, 脏数据清理, 重复数据的判断和清理
  • 基本的路由规则, 将数据分发到不同的流水线
  • 数据源日志记录
  • 监控数据源错误率, 适当发出预警

这部分的开发量比较大, 完整覆盖是不可能做到的, 只能针对性的覆盖业务相关的数据接口和类型范围. 根据项目及业务的领域不同, 定义不同的覆盖面, 确定性能指标.


2. 建模转换

数据建模和转换是原始数据和分析处理之间的桥梁, 属于ETL的T和L部分. 建模转换的职能主要有

模型定义

模型定义是分析和处理的需求, 不同的分析处理, 需要的数据输入格式, 质量和数量都会不同, 这些会体现在模型定义上. 例如对于证券分析, 对于股票有不同时间单位的价格, 3秒, 5秒, 1天, 5天, 对每个时间单位有高值, 低值, 开盘, 收盘等不同价格, 只有满足这些数据字段和格式, 才能进行后续的数据分析处理. 只有数据真实有效, 才能得出有意义的结果.

这部分功能和行业套件是相关的, 除了通用的基础模型外, 都是行业套件中的模型定义. 当数据导入后, 需要对数据数值和格式进行判断, 推荐最接近的模型.

数据管理

数据管理的功能在于给用户提供一个数据的管理手段, 让用户可以用命令行或图形界面操作数据集, 为后续的建模和分析做好准备工作

  1. 数据分组, 分类
  2. 数据单元的命名, 删除, 复制, 移动,
  3. 数据单元的抽取, 切割, 合并
  4. 数据的标签管理
  5. 查看数据, 这里会涉及数据可视化的一些功能
  6. 数据的单个编辑和批量编辑

模型识别和映射

根据输入的数据, 计算与系统中各模型的匹配度, 推荐最接近的模型, 匹配度计算分两个因素

  1. 带元数据的数据(例如表格字段定义, excel表头等), 可以根据字段标识文本进行计算
  2. 不带元数据的数据(例如不带表头的csv, 未知来源的日志等), 需要对数据的实际数值进行分析, 计算其最接近的数据类型, 与各模型中的相似字段进行比对

实现机制

  1. 文本匹配, 使用关键词或正则, 需要行业经验和人工设置规则, 配置简单, 效果明显. 缺点是需要行业知识, 配置不好效果会比较差.
  2. 算法聚类, 贝叶斯, SVM或神经网络, 综合已知的数据结构提取特征量, 使用机器建模对不同数据格式进行学习分类, 方法是通用的, 需要结合客户的实际场景, 配合人工结果进行持续训练, 使其达到更好的匹配效果.
  3. 用户手工指定. 对于匹配失败的数据, 需要用户手工匹配

数据转换

数据转换用于将原始数据适配至模型输入

  1. 基础转换规则的管理
    • 基础计算, 例如从英制距离转为公里, 从日期文本转换为时间戳, 或者人民币按当时的浮动汇率转为美元
    • 字符串操作, 替换, 子串, 提取等
    • 聚合操作, 按指定的属性进行聚合, 并提取指定字段的聚合计算的结果
    • 字典转换, 根据预设字典表进行查表转换
    • 与其他数据集的联合转换
  2. 接口形式的数据转换, 例如使用第三方接口从文本中提取关键词, 提取热词等
  3. 规则管道的管理, 使用多个规则, 按条件组合, 用于复杂的数据转换

技术实现

数据的建模转换涉及的技术实现主要有

  1. 模型管理和同步, 需要管理内建的和行业组件中产生的模型, 提供用户创建和编辑接口
  2. 模型的可视化
  3. 数据的管理和同步, 根据前面的描述, 涉及到
    • 分组分类的管理,
    • 单元的命名, 删除, 复制, 移动
    • 数据单元的抽取, 切割, 合并
    • 数据的标签管理
    • 查看数据, 这里会涉及数据可视化的一些功能
    • 数据的单个编辑和批量编辑
  4. 数据模型识别匹配
    • 材料收集, 规则收集
    • 关键词收集, 正则编写, 性能测试
    • 机器识别算法的测试和选型, 数据准备, 训练, 调优
  5. 转换规则管理
    • 新增, 编辑, 删除, 移动, 条件设置
    • 规则的可视化
    • 中间过程的可视化
    • 第三方转换接口的接入
  6. 规则管道的配置, 可视化

3. 分析处理

数据分析和处理是数据类产品的核心模块, 主要负责模型和决策引擎的运行, 这一步集中了密集的计算和数据处理, 因此要设计合理的机制方便硬件扩容

服务注册和任务分发

采用合适的任务分发机制, 确保资源分配均衡合理, 使用必要的缓冲机制削平业务毛刺.

资源管理

  • 对不同任务使用的计算资源进行调配, 实时增加/减少计算资源.
  • 根据任务的负载自动创建和分配资源, 以保证分析处理的服务质量
  • 当任务空闲时回收资源

性能监控

对计算资源的负载和错误率进行监控, 实时预警

技术实现

调研现有的分布式服务治理框架, 根据业务场景进行选型. 技术上, 对于分片较小的任务场景, 可以使用集中服务注册和分发机制, 对于分片较大的任务, 可以采用消息队列机制, 技术上的目标主要有

  1. 简单稳健, 易于维护, 能实时进行资源伸缩
  2. 时间任务管理
  3. 有完善的完成确认机制, 确保任务不丢失
  4. 设计合理的调度机制保证集群的工作效率

视业务场景和预算, 可以采用KVM, Dubbo, Spring Cloud, Kafka 或 K8s 等不同维度的组合方案


4. 输出适配

输出功能包括数据可视化, 数据导出, 数据输出接口, 自动化操作(预警, 拦截等). 数据输出功能实际上分布于系统中的每个环节.

从产品功能上分, 主要有以下几方面

数据可视化

数据可视化包括以下几方面

  • 结构化数据可视化
    • 行数据库可视化
    • 列数据库可视化
  • 半结构化数据可视化
    • MongoDB等文档型数据库
    • Memcache, Redis等NoSQL数据库
    • HTML, XML, JSON等格式化文本
  • 非结构化数据可视化
    • 新闻内容聊天记录等
    • 二进制内容可视化
      • 图片
      • 音频
      • 视频
      • 行业数据格式

数据导出格式化

导出格式化包括

  • 系统其他模型的输入
  • 输出CSV, Excel
  • 输出图片(各种chart), gif(动态chart), svg等
  • 输出PDF
  • 输出音频, 视频
  • 其他行业格式

数据装载(Load)

将数据通过接口, 导出至其他持久化存储

  • 关系型数据库
  • 非关系型数据库

输出至接口

根据业务场景的需要, 通过接口与第三方系统集成, 实现业务联动, 对实时数据处理产生的预警, 拦截和报告, 使用多种途径进行传输.

技术实现

在技术上有一部分是和数据输入重叠的, 需要适配各种第三方系统的接口, 但是实现成本主要体现在可视化上, 图形, 图像, 报表和行业特定格式的输出

  1. 数据可视化, 对各种数值类型和已知数据格式的查看, 对不同场景可能有不同的展示变体
  2. 对数据生成各种类型的chart, table, 以及动态chart, 对不同场景可能有不同的显示和格式要求, 包括遮盖脱敏等
  3. 生成不同格式的文件
  4. 文件系统的附加操作: 签名, 加密, 压缩
  5. 处理异构数据之间的映射转换
  6. 第三方数据接收接口的适配

这部分开发首先是基础的可视化和输出, 比如常见的文档图片文件, 又可以进一步分成后端代码生成和数据接口输出然后由第三方程序(前端JS, 安卓, IOS控件等)生成.
其次是项目或行业相关的可视化输出, 例如证券行业里需要的走势图, 统计图表, GIS项目需要的地图绘制和统计图表.
前者大部分场合都会用到, 所以是必须开发的, 后者根据项目需求设置好覆盖范围和性能指标规划开发任务.


5. 行业套件

行业套件是搭建在前面基础功能之上的上层建筑, 通过行业经验以及监管需求创建好标准数据模型和输入输出机制, 预置业内常用系统的适配, 提供可行的集成方案.

行业套件的目的是降低行业用户使用门槛, 实现快速部署, 快速展示效果, 提升使用方的使用和购买意愿. 主要的产品功能包括

业务逻辑集成

  • 内建行业数据模型, 只需要用户数据满足模型入参条件, 就可以使用内建的模型进行处理
  • 内建行业业务逻辑, 例如财务相关的会计和审计算法和模板, 人力相关的报表和审批流程
  • 便于扩展, 用户可以通过界面进行自定义

接口和数据集成

  • 对行业常见的上下游系统接口进行集成, 例如金蝶, 用友等标准财务系统, salesforce等CRM系统, 用户只需要配置账户环境, 就可以进行数据接入
  • 监管接口的集成, 降低用户接入监管系统的难度和迁移难度, 这部分根据政府监管机构的政策变化, 需要有人定期维护, 保证可用性
  • 行业数据接口, 例如汇率, 股价, 地理数据, 行政区划, 高风险地区名单等便于用户用于制定规则决策和生成报表的素材.

报表和规则管理

  • 内建常用报表, 用户可以直接使用或只需要少量修改就可以接入用户业务系统, 快速生成符合监管要求的报表
  • 内建满足监管要求的业务处理规则, 实现实时的信息上报, 预警跟踪, 处置报告生成等功能
  • 根据客户场景和预算, 提供不同实时性的处理机制

用户培训

提供相关的业务培训, 客户教育一方面是产品增值服务, 另一方面可以增加服务粘性. 在培训中与客户或潜在客户的交互可以发掘更多的业务需求.

技术实现

技术上更多的是调研和总结客户的行业需求

  1. 政府监管实施细则, 字面之下实际的执行标准, 当前客户的实际流程
  2. 总结出对应业务和监管场景的数据模型, 处理流程和报表格式
  3. 依托基础模块之上实现上述的业务逻辑, 并进行必要的二次开发
  4. 适配行业上下游系统接口
  5. 跟随监管及市场需求, 定期维护

行业套件的开发成本来源于三方面

  • 已知的标准业务逻辑, 在一个确定的流程里定义好数据的模型, 再针对各环节的覆盖面评估开发量, 分批或分期实现.
  • 未知或者潜在的业务逻辑. 这些不确定性带来的成本, 需要与与客户深入合作或灰度测试后才能明确, 如果有资深从业人员参与需求评审, 可以降低这部分的不确定性.
  • 实施成本. 与客户现有系统, 与第三方系统集成产生的开发成本. 这部分的成本与客户和第三方现有系统的技术架构, 技术团队的能力, 以及客户和第三方的配合意愿都有关系.
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
单片机简介 一台能够工作的计算机要有这样几个部件构成:CPU(进行运算、控制)、 RAM (数据存储)、ROM(程序存储)、输入/输出设备(例如:串行口、并行输出口 等)。在个人计算机上这些部件被分成若干块芯片,安装一个称之为主板的印刷 线路板上。而在单片机中,这些部件全部被做到一块集成电路芯片中,所以就称 为单片机(也称微控制器 MCU),而且有一些单片机中除了上述部份外,还集成 了其它部份如 A/D,D/A 等。体积不大,一般用 40 脚封装, 当然功能多一些 单片机也有引脚比较多的, 如 68 引脚, 功能少的只有 10 多个或 20 多个引 脚,有的甚至只 8 只引脚。 1.2 51 单片机简介 51 单片机是对所有兼容 Intel 8031 指令系统的单片机的统称。该系列单片 机的始祖是 Intel 的 8004 单片机,后来随着 Flash rom 技术的发展,8004 单片 机取得了长足的进展,成为应用最广泛的 8 位单片机之一,其代表型号是 ATMEL 公司的 AT89 系列,它广泛应用于工业测控系统之中。很多公司都有 51 系列的兼 容机型推出,今后很长的一段时间内将占有大量市场。51 单片机是基础入门的 一个单片机,还是应用最广泛的一种。需要注意的是 51 系列的单片机一般不具 备自编程能力。 80C51 是 MCS-51 系列中的一个典型品种;其它厂商以 8051 为基核开发出的 CMOS 工艺单片机产品统称为 80C51 系列。 当前常用的 80C51 系列单片机主要产 品有: Intel(英特尔)的:i80C31、i80C51、i87C51,i80C32、i80C52、i87C52 等; ATMEL(艾德梅尔)的:AT89C51、AT89C52、AT89C2051,AT89S51(RC),AT89S52 (RC)等; Philips(飞利浦)、华邦、Dallas(达拉斯)、Siemens(西门子)等公司的许多产品
数据分析思路 数据分析是在当今每个企业都所需要涉及的⼀门学科,数据分析的书随便⼀搜就会有太多教⼤家如何的去使⽤。⼤致能把搜到的书分为两 :第⼀数据理论统计学相关的,第⼆就是数据分析⼯具应⽤型的。⽽⼤部分我们所购买的书基本都是某⼀⼯具如何使⽤去进⾏ 数据分析,但是看完过后还是不太懂什么是数据分析,应⽤到实际⼯作场景中照样很迷茫不知道该如何下⼿,这是什么原因呢?有的⼩伙伴 会说:我想分析的根本没有数!拿到的这个数也就只能做做折线图,同⽐环⽐两组数对⽐⼀下!业务当中发⽣了什么数据好像不能看出来! 不知道⼀个函数得出的结果代表什么!还有可能我根本不会⽤⼀些⼯作等等。。。 那为什么很多伙伴都想学数据分析呢?我想原因可能很简单:就是数据分析相关的岗位⼯资⾼啊!现在进⼊⼤数据时代不会点数据分析你具 备核⼼竞争⼒吗? 本⽂就以个⼈愚见来探讨⼀下如何去做数据分析。⽂章⼤致分四个层次分别为: 需求层 、 数据层 、 分析层 、 输出层 。也是数据分析按重要 顺序排的⼤体步骤。 需求层 需求层为什么是最重要的呢?因为需求是数据分析的开始,也是你要分析的⽬标⽅向。如果你都不知道你要分析什么,还怎么谈如何分析? 数据分析需求的来源往往有3种场景:1.监控到现有的指标出现了异常情况需要通过数据分析去找原因;2.公司要对现有的运营模式或者某 个产品进⾏评估确定是否需要进⾏调整或者优化;3.公司下达了战略⽬标或短期⽬标需要通过分析看如何达成。要确定需求就必须与需求⽅ 进⾏沟通,清楚的确认需求的内容或者⾃⼰要分析前必须要清楚你想要的结果是什么⽅向。举个简单的例⼦:年底将近,双⼗⼀⼤促销在 即,数据分析师们⼜到了⼀年最⾟苦,最悲催的时间段。然⽽,有多少⽆意义的加班,是因为业务部门不会提需求所导致的。需求提的不合 理,业务部门看了不解决问题,就会反反复复的再提需求。导致数据分析师们⾟苦加班还不落好,背上⼀个:"分析没深度啊!"的坏名 声。其实这不能怪需求⽅不会提需求,⽽是你作为数据分析⼈员要⽤你的经验,你的专业技能,你的沟通技巧去引导,去确定,去达成⼀ 致。 所有要做到清晰的确定需求,需要⾃⾝具备:1、对业务、产品、需求背景有⽐较深的了解。了解的⾜够对你才能去引导去判断这个需求; 2、光了解需求⽅是还不够的,你需要从获得的需求快速的去结合你所掌握的技能组⼯具有个初步的分析思路;3、综合判断后你再决定是 否需要分析,应该怎么分析,与需求⽅沟通确定清楚两⽅理解是否⼀致。如果⽆法做到就会出现很多⽆法避免的问题。 理论上数据分析师所从事的⼯作是给出业务⽅相应的数据结果,⽽不是解决⽅案。虽然也有分析两个字,但是如何设计解决⽅案是业务部门 的事。运营部门就该做活动⽅案,产品经理就该出产品⽅案,销售部门就该想东西怎么卖。这才是业务部门的本职⼯作。吵吵着:"你说我 不⾏,你⾏你上啊"是玩忽职守的扯⽪表现。如果连具体的业务⽅案都让分析师来想了,分析师也⼲脆把业务部门的⼯资领了算了。但是当 下专业的数据分析师是需要⽐业务⽅更了解业务,你不了解业务下的结论领导或者需求⽅感信任吗?所以,⼀个业务技术双精通的数据分析 师,是可以替业务⽅搞定上边所有问题的,不依赖业务⽅的判断,因为他⾃⼰就是个业务⾼⼿,有丰富的实战经验与业务能⼒。但这种⼈是 可遇不可求的。⼤部分数据分析师还是70%时间处理数据的技术男。 在需求层我总结⼀下我们所需要了具备的能⼒:1、对业务、产品、需求背景有⾜够的了解,如果不了解说明你在这块应该先去充充电; 2、然后当你⽆法想到分析⽅法的时候说明你对现有的数据不够了解。你同样该去了解了解数据的来源,数据的流转,数据的定义。 数据层 ⽬标需求确定过后,现在的你就需要开始准备相关的数据了。数据层⼤致分为: 数据获取 、 数据清洗 、 数据整理 。有的伙伴会问,数据应该 从哪来呢?数据来源取决于你分析需求,有直接从企业数据库通过SQL进⾏取数、有通过各统计⽹站进⾏数据下载,有通过爬⾍技术在互联 ⽹进⾏数据抓取,也有通过企业已经加⼯好的数据报表,这⾥主要去讲在⼤数据时代如何去准备数据。因为利⽤数据库才能实现数据下的 真正核⼼分析,你才能配上数据分析师这次名称。 ⼤数据(Big Data)是指"⽆法⽤现有的软件⼯具提取、存储、搜索、共享、分析和处理的海量的、复杂的数据集合。⼤数据挖掘商业价值的 ⽅法主要分为四种1.客户群体细分,然后为每个群体量定制特别的服务;2.模拟现实环境,发掘新的需求同时提⾼投资的回报率;3.加强部 门联系,提⾼整条管理链条和产业链条的效率;4.降低服务成本,发现隐藏线索进⾏产品和服务的创新。 为什么⼤数据实现这些场景?因为⼤数据型⼤致可分为三:1.传统企业数据(Traditional enterprise data):包括 CRM syst

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值