互联网采集数据有哪几种常见的方法?

首先,数据获取分两大类,数据交换购买以及数据采集。
数据采集主要又分两大类:
自产(SDK采集、埋点)
API采集
SDK采集,核心是提供服务,在基于服务顺带采集部分数据。例如MobTech的ShareSDK,初衷是为了解决分享以及授权登录的功能,然后才是采集数据。这里的难点是思维上的转变以及数据获取上的壁垒攻克。
埋点其实和SDK采集类似,当前其实更趋向无埋点。
爬虫,也即是API采集。根据自己数据仓库需要去请求外部的API。例如基站定位查询、IP查询、微博舆情等等。爬虫的学问也挺多,爬虫Robots协议、反爬虫、投毒等等。
个人建议根据最小可行性方案,然后再去考虑是数据采集还是数据交换购买,再以此制定一些方案等。
​1、离线搜集:

工具:ETL;

在数据仓库的语境下,ETL基本上便是数据搜集的代表,包括数据的提取(Extract)、转换(Transform)和加载(Load)。在转换的过程中,需求针对具体的事务场景对数据进行治理,例如进行不合法数据监测与过滤、格式转换与数据规范化、数据替换、确保数据完整性等。

2、实时搜集:

工具:Flume/Kafka;

实时搜集首要用在考虑流处理的事务场景,比方,用于记录数据源的履行的各种操作活动,比方网络监控的流量办理、金融运用的股票记账和 web 服务器记录的用户访问行为。在流处理场景,数据搜集会成为Kafka的顾客,就像一个水坝一般将上游源源不断的数据拦截住,然后依据事务场景做对应的处理(例如去重、去噪、中心核算等),之后再写入到对应的数据存储中。

3、互联网搜集:

工具:Crawler, DPI等;

Scribe是Facebook开发的数据(日志)搜集体系。又被称为网页蜘蛛,网络机器人,是一种按照一定的规矩,自动地抓取万维网信息的程序或者脚本,它支持图片、音频、视频等文件或附件的搜集。

除了网络中包含的内容之外,关于网络流量的搜集能够运用DPI或DFI等带宽办理技术进行处理。

4、其他数据搜集方法

关于企业生产经营数据上的客户数据,财务数据等保密性要求较高的数据,能够通过与数据技术服务商合作,运用特定体系接口等相关方式搜集数据。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值