mongodb+unauthor_Hadoop+MongoDB的四种方案

背景:

公司核心业务库现存在MongoDB中,分布在6台MongoDB节点。现面临如下问题:

1.最大的一张表有10多个G,MongoDB在查询方面尚能胜任,但是涉及到复杂计算时会比较吃力。

2.MongoDB中有三张表,分别记录了最终用户在三个不同系统(电话,游戏,桌牌等)的行为,需要按用户汇聚成一张表。

考虑到MongoDB集成Hadoop来获得计算能力,先要让hadoop能访问到MongoDB中数据,下面讨论各个方案:

一)一个不安全的方案--MongoDB-connectorfor hadoop

支持通过Hive建表直接访问MongoDB中的数据:

CREATE TABLE default.caller_intent

(

id STRING

merchantIdINT,

effective BOOLEAN,levelSTRING,

status STRING,

canceled BOOLEAN,

levelIdINT,

sendMsg BOOLEAN

)

STOREDBY 'com.mongodb.hadoop.hive.MongoStorageHandler'

WITH SERDEPROPERTIES('mongo.columns.mapping'='{"id":"_id"}')

TBLPROPERTIES('mongo.uri'='mongodb://root:changme@10.1.1.1:27017/caller.caller_intent');

问题:

1)mongo数据库需要暴露密码给hadoop平台,两个平台是不同团队维护。

2)hadoop对mongo的操作是难以预料的,在不当时间内做不当操作可能会影响mongodb负载。

如果你的团队没有这样的问题,可以考虑这个方案。

二)一个好想法,但只是“想法”--MongoDB-oplog同步到hadoop

通过oplog来同步数据是一个好想法,不过目前没有好的工具包支持同步到Hive(倒是有同步到solr和ElasticSearch的),自己开发成本太高,作罢。

三)一个可行方案:写入MongoDB的同时写入到kafka,然后通过flume到HDFS。

问题:

在这个方案施行以前的历史数据需要手动导入。

四)另一个想法:另建一个备MongoDB集群同步主集群数据,hadoop平台拥有该备Mongo集群权限。

问题:增加一台服务器资源,却只是为了安全的考虑,成本-效益不高。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值