林子雨hive实践教程错误笔记

1.注意最后要加上这一句话,没有这句话,就会报错。

alter database hive set dbproperties('edited-by'='hadoop');#为hive设置键值对属性

hive-site.xml的正确配置方式应加上&useSSL=false,否则会出现warning提示。其中&是&在HTML中对应的转义符。

<configuration>
  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true&amp;useSSL=false</value>
    <description>JDBC connect string for a JDBC metastore</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
    <description>Driver class name for a JDBC metastore</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>hive</value>
    <description>username to use against metastore database</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>hive</value>
    <description>password to use against metastore database</description>
  </property>
</configuration>

2.创建内部表修正。

create table if not exists hive.usr(
      name string comment 'username',
      pwd string comment 'password',
      address struct<street:string,city:string,state:string,zip:int> comment  'home address',
      identify map<int,tinyint> comment 'number,sex') 
      comment 'description of the table'  
     tblproperties('creator'='me','time'='2019.1.4'); 

3.设置分区部分错误及修正。

alter table usr3 add if not exists 
     partition(city="beijing",state="China") 
     location '/usr/local/hive/warehouse/usr3/China/beijing'; #为表3增加一个分区,表2没有分区属性
alter table usr3 partition(city="beijing",state="China")
     set location 'hdfs://localhost:9000/usr/local/hive/warehouse/usr3/China/beijing';#注意location前面要加上绝对路径
alter table usr3 partition(city="beijing",state="China")   set fileformat sequencefile;   #修改存储属性          
alter table usr3 drop if exists  partition(city="beijing",state="China");#注意英文标点

4.注释

alter table usr change column pwd password string after address;#指定位置,修改之后后添加在address列的后面。
alter table usr replace columns(uname string);  #把所有的列删除,并替换成这个

5.case ...when ..then

select id,name,case  when id=1 then 'first' when id=2 then 'second' else 'third' end from stu; #注意最后的end from stu不能少。

6.标准 SQL 的子查询支持嵌套的 select 子句,HiveQL 对子查询的支持很有限,只能在from 引导的子句中出现子查询。

7.hive实现词频统计多测试及实例注释

create table word_count1 as 
select word, count(1) as count_word from
(select explode(split(line,' '))as word from docs) wuchangfa
group by word
order by word;

create table word_count2 as 
select count(1) as count_word from
(select explode(split(line,' '))as word from docs) wuchangfa;
#hive explode函数可以将一个array或者map展开,其中explode(array)使得结果中将array列表里的每个元素生成一行;explode(map)使得结果中将map里的每一对元素作为一行,key为一列,value为一列。

create table word_count3 as 
select word, count(1) as count_word from
(select explode(split(line,' |,|\\?|\\.'))as word from docs) wuchangfa
group by word
order by word;#分割多个字符的写法

 

  • 1
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
林子雨是一家知名的大数据分析公司,他们为了提高数据分析的效率和准确性,自己开发了一个存储和处理大数据的平台,称为HiveHive是一个基于Hadoop的数据仓库工具,可以将结构化和半结构化的数据以类似于SQL的查询方式进行操作和管理。由于Hive的强大功能和广泛应用,很多人都想下载并使用林子雨Hive数据集。林子雨公司为了方便用户,提供了以下几种方式进行Hive数据集的下载。 首先,用户可以直接访问林子雨公司的官方网站,在网站上注册账号并登录后,选择需要下载的Hive数据集,然后点击下载按钮即可。这种方式简单方便,适合不熟悉其他下载方式的用户。 其次,用户还可以通过林子雨公司提供的API接口进行Hive数据集的下载。用户需要先获取API密钥,然后使用该密钥调用API接口,指定需要下载的数据集和下载路径,即可将数据集下载到指定位置。这种方式适合开发人员或有一定编程经验的用户。 最后,用户还可以通过第三方数据下载平台下载林子雨Hive数据集。这些平台通常提供了丰富的数据集资源和方便的下载方式,用户只需在平台上搜索并选择需要的Hive数据集,然后点击下载按钮即可。这种方式适合不想注册账号或不愿意使用API的用户。 综上所述,林子雨Hive数据集的下载方式有多种,用户可以根据自己的需求和实际情况选择最适合自己的方式进行下载。无论选择哪种方式,只要保持数据的合法性和依法使用,就能充分利用Hive数据集进行数据分析和应用开发。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值