linux hive的作用,Hive的基本应用 - Hadoop和Hive的实践应用_服务器应用_Linux公社-Linux系统门户网站...

前面我已经搭好了Hadoop和hive环境,并且在hive中创建了表page,将数据load了进去。现在我想从这个表中统计每个url的流量,并放到其他关系中数据库中或者展现在页面上,怎么办?

去官网是看一下,不难发现可以用java ,Python,php都可以实现,下面就用python 简单的写了写

from hive_service import ThriftHive

from hive_service.ttypes import HiveServerException

from thrift import Thrift

from thrift.transport import TSocket

from thrift.transport import TTransport

from thrift.protocol import TBinaryProtocol

urlcount={}

def getFlowbyHive():

try:

transport = TSocket.TSocket('219.*.*.200',10000)

transport = TTransport.TBufferedTransport(transport)

protocol  = TBinaryProtocol.TBinaryProtocol(transport)

client = ThriftHive.Client(protocol)

transport.open()

client.execute("select URL, count(*) from page GROUP BY URL")

while (1):

row = client.fetchOne()

sp = row.split('/t')

if (len(sp)<2):

continue

if (row == None):

break

urlcount[sp[0]]=sp[1]

print sp[0],sp[1]

transport.close()

except Thrift.TException, tx:

print '%s' % (tx.message)

需要在219.*.*.200服务器上启动hive服务,用于python,java等程序连接hive,bin/hive --service hiveserver 10001不跟端口号默认10000支持nohup后台启动执行程序,完了urlcount中现在应经存上了url:count的键值对,入库或展现由你来处理了。

HWI是Hive Web Interface的简称,是hive cli的一个web替换方案。0.7默认是自带hwi的,conf/hive-default.xml文件都是默认值,在后台启动hwi服务

nohup bin/hive --service hwi > /dev/null 2> /dev/null &

浏览器中输入:http://10.20.151.7:9999/hwi/ 就可以访问,可以查看数据仓库,执行语句了0b1331709591d260c1c78e86d0c51c18.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值