hive-sql语句-小小结

使用的CDH-5.8.3部署和管理整个hadoop生态集群,使用hive版本是hive-1.1.0

hive的官网上说不支持hive的一条条的插入(使用insert into命令),但是在执行过程中能完全运行insert into命令。


使用sqoop-1.4.6 对mysql与hive的数据的互相传输

1、使用sqoop由mysql导入到hive中

命令:

sqoop import --connect jdbc:mysql://mysql-ip:3306/kbyxdb --username mysql-name  --password mysql-password --table kbyx_weibo_wbuser_copy --hive-import --hive-database sinaweibo --hive-overwrite --create-hive-table --hive-table kbyx_weibo_wbuser_copy --null-string '\\N' --null-non-string '\\N' --fields-terminated-by '\t' --lines-terminated-by '\n';

使用sqoop由hive导入到mysql中

sqoop export --connect  "jdbc:mysql://mysql-ip:3306/mysql-database-name?useUnicode=true&characterEncoding=utf-8" --username root --password zysdadmin123 --table xiuxiu_user --export-dir /user/hive/warehouse/kbyx.db/xiuxiu_user --input-fields-terminated-by '\t' -input-null-string '\N'

其分割符'\t' 要与hive表的分隔符一致,hive表的默认分隔符为'\001',而sqoop的默认分隔符为','

创建分区表:

create table if not exists user_bicinfo(id int,userid int,username string,sex string,imgurl string,vip string,level int,status string,location string, platformid string) partitioned by(date string) row format delimited fields terminated by '\t' lines terminated by '\n';

使用sqoop-1.4.6向分区表中导入数据

sqoop import --connect jdbc:mysql://mysql-ip:3306/mysql-database-name --username mysql_user_name --password mysql_user_password --table user_group_relation --hive-import --hive-overwrite --hive-database iqiyi --hive-table user_group_relation --hive-partition-key 'date' --hive-partition-value '2017-08-21' --null-string '\\N' --null-non-string '\\N' --fields-terminated-by '\t' --lines-terminated-by '\n';

查询1:

在同一张表中,分别有字段电影id(movie_id,其中一个电影的id号为342067)、每部电影所看的用户id(user_id)。

查询条件是:看过电影342067的所有用户所看过的电影的前十名,并把查询结果存入第三方表中

         set hive.exec.mode.local.auto=true;
         set hive.exec.parallel=true;
         set hive.exec.dynamic.partition=true;
         set hive.exec.dynamic.partition.mode=nonstrict;
         set hive.merge.mapfiles=true;
         set hive.merge.mapredfiles=true;
         set  hive.groupby.skewindata=true;
         set hive.vectorized.execution.enabled=true;
         set hive.vectorized.execution.reduce.enabled=true;
         set hive.merge.mapfiles=true;
         set hive.merge.mapredfiles=true;
         set mapred.job.reuse.jvm.num.tasks=10;
         set hive.merge.size.per.task=256000000;
         set mapred.max.split.size=256000000;
         set mapred.min.split.size.per.node=256000000;
         set mapred.min.split.size.per.rack=256000000;
         set hive.exec.reducer.bytes.per.reducer=512000000;
         set mapred.reduce.tasks = 5;

以上设置根据自己的数据和集群的配置

create table weibo_user comment '第一个字段为电影id号,第二个字段为统计个数,第三个为时间' row format delimited fields terminated by '\t' lines terminated by '\n' as select w.movie_id,count(w.movie_id) as num,from_unixtime(unix_timestamp(),'yyyy-MM-dd HH:mm:ss') as time  from maoyan_user_watched w join maoyan_user_watched m on (w.user_id = m.user_id) where m.movie_id = 342067 group by w.movie_id sort by num desc limit 10;

查询2:

表userinfo和表maoyan_user_watched,看过某部电影用户的地区分布,并存入第三方表中

        set hive.exec.mode.local.auto=true;
         set hive.exec.parallel=true;
         set hive.exec.dynamic.partition=true;
         set hive.exec.dynamic.partition.mode=nonstrict;
         set hive.merge.mapfiles=true;
         set hive.merge.mapredfiles=true;
         set  hive.groupby.skewindata=true;
         set hive.vectorized.execution.enabled=true;
         set hive.vectorized.execution.reduce.enabled=true;
         set hive.merge.mapfiles=true;
         set hive.merge.mapredfiles=true;
         set mapred.job.reuse.jvm.num.tasks=10;
         set hive.merge.size.per.task=256000000;
         set mapred.max.split.size=256000000;
         set mapred.min.split.size.per.node=256000000;
         set mapred.min.split.size.per.rack=256000000;
         set hive.exec.reducer.bytes.per.reducer=512000000;
         set mapred.reduce.tasks = 5;

根据自己的数据和集群的配置

create table maoyan_area_distribution comment'每个地区的分布,任务时间'  row format delimited fields terminated by '\t' lines terminated by '\n' as select /*+streamtable(userinfo)*/ userinfo.area,count(userinfo.area) as num,from_unixtime(unix_timestamp(),'yyyy-MM-dd HH:mm:ss') from userinfo full outer join maoyan_user_watched on (maoyan_user_watched.user_id = userinfo.userid) where maoyan_user_watched.movie_id = 344264 group by userinfo.area sort by num desc;


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
1.上传tar包 2.解压 tar -zxvf hive-1.2.1.tar.gz 3.安装mysql数据库 推荐yum 在线安装 4.配置hive (a)配置HIVE_HOME环境变量 vi conf/hive-env.sh 配置其中的$hadoop_home (b)配置元数据库信息 vi hive-site.xml 添加如下内容: javax.jdo.option.ConnectionURL jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true JDBC connect string for a JDBC metastore javax.jdo.option.ConnectionDriverName com.mysql.jdbc.Driver Driver class name for a JDBC metastore javax.jdo.option.ConnectionUserName root username to use against metastore database javax.jdo.option.ConnectionPassword hadoop password to use against metastore database 5.安装hive和mysq完成后,将mysql的连接jar包拷贝到$HIVE_HOME/lib目录下 如果出现没有权限的问题,在mysql授权(在安装mysql的机器上执行) mysql -uroot -p #(执行下面的语句 *.*:所有库下的所有表 %:任何IP地址或主机都可以连接) GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY 'root' WITH GRANT OPTION; FLUSH PRIVILEGES; 6. Jline包版本不一致的问题,需要拷贝hive的lib目录中jline.2.12.jar的jar包替换掉hadoop中的 /home/hadoop/app/hadoop-2.6.4/share/hadoop/yarn/lib/jline-0.9.94.jar 启动hive bin/hive ---------------------------------------------------------------------------------------------------- Hive几种使用方式: 1.Hive交互shell bin/hive 2.Hive JDBC服务(参考java jdbc连接mysql) 3.hive启动为一个服务器,来对外提供服务 bin/hiveserver2 nohup bin/hiveserver2 1>/var/log/hiveserver.log 2>/var/log/hiveserver.err & 启动成功后,可以在别的节点上用beeline去连接 bin/beeline -u jdbc:hive2://mini1:10000 -n root 或者 bin/beeline ! connect jdbc:hive2://mini1:10000 4.Hive命令 hive -e ‘sql’ bin/hive -e 'select * from t_test'

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值