Hive基本操作

1、本地文件导入表的测试

(1)在本地新建“生词本”

相关命令与内容:

  1. vim vocab.txt
  2. ------------------------------内 容------------------------------
  3. 1.ability
  4. 2.ambition
  5. 3.headquarters
  6. 4.industrialize
  7. ------------------------------内 容------------------------------

(2)进入hiveshell模式

相关命令:

hive

注意:当环境变量设置后才能直接使用以上命令。

(3)建立新表并查看存在新表与新表结构

建立一个存放“生词本”单词的表格,字段之间是“.”分割。

相关命令:

  1. create table VOCAB(num int,word string)row format delimited fields terminated by '.';
  2. show tables;
  3. desc VOCAB;

(4)导入数据到表中

相关命令:

load data local inpath '/home/hadoop/vocab.txt' overwrite into table VOCAB;

5)查询表中内容

相关命令:

select * from VOCAB;

2、词频统计

(1)在本地建立不完全相同的词频文件

相关命令与内容:

  1. vim wordCount.txt
  2. ------------------------------内 容------------------------------
  3. I,100
  4. have,1000
  5. a,200
  6. pen,3000
  7. you,2222
  8. are,777
  9. amazing,9999
  10. ------------------------------内 容------------------------------

(2)进入hiveshell模式

相关命令:

hive

(3)建立新表并查看存在新表与新表结构

建立一个存放不完全相同的词频单词的表格,字段之间是“,”分割。

相关命令:

  1. create table WOCO(word string,count int)row format delimited fields terminated by ',';
  2. show table;
  3. desc WOCO;

(4)导入数据到表中

相关命令:

load data local inpath '/home/hadoop/wordCount.txt' overwrite into table WOCO;

(5)查询表中内容

相关命令:

select * from WOCO;

(6)使用命令进行mapreduce筛选查询

相关命令:

  1. select WOCO.word from WOCO;
  2. select * from WOCO where WOCO.count>1000; //筛选满足出现次数大于1000的单词;
  3. select * from WOCO sort by count desc limit 3;//通过降序来筛选单词
  • 10
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值