Hive笔记——影评项目

题目要求

有如此三份数据:
1、users.dat    数据格式为:  2::M::56::16::70072
对应字段为:UserID BigInt, Gender String, Age Int, Occupation String, Zipcode String
对应字段中文解释:用户id,性别,年龄,职业,邮政编码

2、movies.dat        数据格式为: 2::Jumanji (1995)::Adventure|Children's|Fantasy
对应字段为:MovieID BigInt, Title String, Genres String
对应字段中文解释:电影ID,电影名字,电影类型

3、ratings.dat        数据格式为:  1::1193::5::978300760
对应字段为:UserID BigInt, MovieID BigInt, Rating Double, Timestamped String
对应字段中文解释:用户ID,电影ID,评分,评分时间戳

题目要求:

数据要求:
(1)写shell脚本清洗数据。(hive不支持解析多字节的分隔符,也就是说hive只能解析':', 不支持解析'::',所以用普通方式建表来使用是行不通的,要求对数据做一次简单清洗)
(2)使用Hive能解析的方式进行

Hive要求:
1、正确建表,导入数据(三张表,三份数据),并验证是否正确

2、求被评分次数最多的10部电影,并给出评分次数(电影名,评分次数)

3、分别求男性,女性当中评分最高的10部电影(性别,电影名,影评分)

4、求movieid = 2116这部电影各年龄段(因为年龄就只有7个,
就按这个7个分就好了)的平均影评(年龄段,影评分)

5、求最喜欢看电影(影评次数最多)的那位女性评最高分的10部电影的
平均影评分(观影者,电影名,影评分)

6、求好片(评分>=4.0)最多的那个年份的最好看的10部电影

7、求1997年上映的电影中,评分最高的10部Comedy类电影

8、该影评库中各种类型电影中评价最高的5部电影(类型,电影名,平均影评分)

9、各年评分最高的电影类型(年份,类型,影评分)

10、每个地区(邮政编码)最高评分的电影名,把结果存入HDFS(地区,电影名,影评分)

一、数据清洗、建表

因为元数据的字段之间用::分割,所以我们使用shell进行一下清洗,将::都转换成逗号

vi change1.sh


#!/bin/bash
sed "s/::/,/g" /zgm/movies.dat>/zgm/movies2.dat
sed "s/::/,/g" /zgm/ratings.dat>/zgm/ratings2.dat
sed "s/::/,/g" /zgm/users.dat>/zgm/users2.dat


chmod +x change1.sh

/bin/sh change1.sh

或者在建表时:

 create external table if not exists ratings
      (userid bigint,
      movieid bigint,
      rating double,
      timestamped string)
      partitioned by (dt string,city string)
      row format serde 'org.apache.hadoop.hive.serde2.RegexSerDe'
      with serdeProperties ('input.regex'='([0-9]*)::([0-9]*)::([0-9]*)::([0-9]*)')
      location '/zgm/ratings'
      ;

 

建表、load数据的完整shell

#! /bin/bash
yesterday=$(date -d 'yesterday' +%Y%m%d)
logdir=/Log/movieLog/$yesterday

if(!-d "$logdir");then
mkdir "$logdir"
fi

hql1="
      use myhive;
          drop table users;
           create external table if not exists users
      (userid bigint,
      gender string,
      age int,
      occupation string,
      zipcode string
      )
      partitioned by (dt string,city string)
      row format serde 'org.apache.hadoop.hive.serde2.RegexSerDe'
      with serdeProperties ('input.regex'='([0-9]*)::([A-Z]*)::([0-9]*)::([0-9]*)::([0-9]*)')
      location '/zgm/users'
      ;

       load data local inpath '/zgm/users.dat' overwrite into table users partition(dt='${yesterday}',city='shandong');

        "
         $HIVE_HOME/bin/hive --database myhive -e "${hql1}"


hql2="
       drop table movies;
       create external table if not exists movies
           (movieid bigint,
           title string,
           genres string
           )
           partitioned by (dt string,city string)
           row format serde 'org.apache.hadoop.hive.serde2.RegexSerDe'
           with serdeProperties ('input.regex'='([0-9]*)::([^@]*)::([^ ]*)')
       location '/zgm/movies'
      ;
        load data local inpath '/zgm/movies.dat' overwrite into table movies partition(dt='${yesterday}',city='shandong');
     "

       $HIVE_HOME/bin/hive --database myhive -e "${hql2}"
hql3="
      drop table ratings;
      create external table if not exists ratings
      (userid bigint,
      movieid bigint,
      rating double,
      timestamped string)
      partitioned by (dt string,city string)
      row format serde 'org.apache.hadoop.hive.serde2.RegexSerDe'
      with serdeProperties ('input.regex'='([0-9]*)::([0-9]*)::([0-9]*)::([0-9]*)')
      location '/zgm/ratings'
      ;

      load data local inpath '/zgm/ratings.dat' overwrite into table ratings partition(dt='${yesterday}',city='shandong');
     "

         $HIVE_HOME/bin/hive --database myhive -e "${hql3}"

二、实现分析hql

2、求被评分次数最多的10部电影,并给出评分次数(电影名,评分次数)

#!/bin/bash

yesterday=$(date -d '1 day ago' +%Y%m%d)
echo $yesterday

runtime=$(date +%Y%m%d-%H:%M:%S)

logdir=/Log/movieLog/$yesterday/top10
if [ ! -d "$logdir" ];then
mkdir -p $logdir
echo "${logdir}不存在,创建完毕"
else echo "${logdir}已存在" 
fi



hql1="
create table if not exists dm_rating_Top10
(title string,
rcount int
)
partitioned by (dt string,city string)
row format delimited
fields terminated by ','
location '/zgm/movie_dm/topN';

set hive.exec.dynamic.partition.mode=nonstrict;
insert overwrite table dm_rating_Top10
partition (dt,city)
select title,t.rcount,t.dt,t.city
from (
select movieid,count(rating) as rcount ,dt,city
from ratings 
where dt='${yesterday}'
group by movieid,dt,city 
order by rcount desc
limit 10
) t
join movies 
on movies.movieid=t.movieid ; 
"


$HIVE_HOME/bin/hive --database myhive -e "${hql1}">$logdir/"${runtime}".log

3、分别求男性,女性当中评分最高的10部电影(性别,电影名,影评分)

select t2.gender,a.title,t2.rating
from movies a
join (
select t1.* from
(
select
b.gender ,c.movieid,c.rating,
row_number() over(partition by b.gender order by c.rating desc) as rn,dt
from users b join ratings c on b.userid=c.userid and c.dt='20200111'
) as t1
where t1.rn<=10
)  t2
on t2.movieid=a.movieid
distribute by t2.gender
sort by t2.rating; 

 

4、求movieid = 2116这部电影各年龄段(因为年龄就只有7个,
就按这个7个分就好了)的平均影评(年龄段,影评分)

select 
t1.agelevel,avg(t1.rating)
from
(select 
floor(b.age/10) as agelevel,
a.rating
from ratings a
join users b on a.userid=b.userid and a.movieid=2116
)t1
group by t1.agelevel
;

 

5、求最喜欢看电影(影评次数最多)的那位女性评最高分的10部电影的
平均影评分(观影者,电影名,影评分)

select b.userid,count(1) uc
from ratings b join
(
select 
a.userid
from users a where a.gender='F'
) t1 on t1.userid=b.userid
group by b.userid
order by uc desc
limit 1;

select c.movieid,c.rating
from ratings c
where c.userid=1150
order by rating desc
limit 10;
 

 

6、求好片(评分>=4.0)最多的那个年份的最好看的10部电影

//create view film_view as 
//select r.*,u.gender,u.age,m.title,m.genres 
//from ratings r
//join users u on r.userid = u.userid
//join movies m on r.movieid = m.movieid;


create view film_view2 as 
select r.*,m.title,substr(m.title,-5,4) as year
from ratings r
join movies m on r.movieid = m.movieid;
select 
f2.year,f2.mtitle,f2.rating
from film_view2 f2
where year=(
select t.year 
from(
select 
f.year,count(1) as c
from film_view2 f
where f.rating>4
group by year
order by c desc
limit 1) t
)
order by rating desc limit 10;

 

7、求1997年上映的电影中,评分最高的10部Comedy类电影

8、该影评库中各种类型电影中评价最高的5部电影(类型,电影名,平均影评分)

9、各年评分最高的电影类型(年份,类型,影评分)

10、每个地区(邮政编码)最高评分的电影名,把结果存入HDFS(地区,电影名,影评分)

 

 

### 回答1: 好的,下面是SparkSQL代码笔记03——连接Hive的中文回复: 在SparkSQL中,我们可以通过以下步骤连接Hive: 1. 首先,需要在SparkSession中启用Hive支持,可以使用以下代码: ``` from pyspark.sql import SparkSession spark = SparkSession.builder \ .appName("SparkSQL Hive Example") \ .config("spark.sql.warehouse.dir", "/user/hive/warehouse") \ .enableHiveSupport() \ .getOrCreate() ``` 其中,`enableHiveSupport()`方法启用了Hive支持,`config("spark.sql.warehouse.dir", "/user/hive/warehouse")`指定了Hive元数据存储的目录。 2. 接下来,我们可以使用`spark.sql()`方法执行Hive SQL语句,例如: ``` spark.sql("show databases").show() ``` 这将显示所有的Hive数据库。 3. 如果需要在SparkSQL中访问Hive表,可以使用以下代码: ``` df = spark.sql("select * from my_hive_table") ``` 其中,`my_hive_table`是Hive中的表名。 4. 如果需要在SparkSQL中创建Hive表,可以使用以下代码: ``` spark.sql("create table my_hive_table (id int, name string)") ``` 这将在Hive中创建一个名为`my_hive_table`的表,包含两个列:`id`和`name`。 以上就是连接Hive的基本步骤。需要注意的是,连接Hive需要在Spark集群中安装Hive,并且需要将Hive的JAR包添加到Spark的CLASSPATH中。 ### 回答2: SparkSQL是Apache Spark的一个组件,它提供了用于分布式数据处理的高级SQL查询引擎。SparkSQL支持连接多种数据源,其中之一就是Hive。 如何连接Hive? 在开始连接Hive之前,我们需要确保Hadoop和Hive的配置已经被正确的设置好了,以便Spark能够访问Hive元数据和数据。 首先,我们需要在Spark环境中添加Hive支持。运行下面的代码: `from pyspark.sql import SparkSession spark = SparkSession.builder \ .appName("hive_support") \ .enableHiveSupport() \ .getOrCreate()` 其中,`.enableHiveSupport()`将启用hive支持。 接下来,我们可以使用SparkSession连接Hive。运行下面的代码: `hive_df = spark.sql("SELECT * FROM default.student")` 其中,“default”是Hive的默认数据库,“student”是Hive数据库中的表名。 如果你要访问非默认的Hive数据库,可以使用下面的代码: `hive_df = spark.sql("SELECT * FROM dbname.student")` 其中,“dbname”是非默认的Hive数据库名。 我们还可以使用HiveContext来连接Hive。运行下面的代码: `from pyspark.sql import HiveContext hive_context = HiveContext(sc)` 其中,“sc”是SparkContext对象。 我们可以像这样从Hive中检索数据: `hive_df = hive_ctx.sql("SELECT * FROM default.student")` 现在你已经成功地连接Hive并从中检索了数据,你可以使用SparkSQL的强大功能对数据进行分析。而在连接Hive之外,在SparkSQL中还可以连接其他数据源,包括MySQL、PostgreSQL、Oracle等。 ### 回答3: Spark SQL是一个强大的分布式计算引擎,它可以支持处理多种数据源,并可通过Spark SQL shell、Spark应用程序或JDBC/ODBC接口等方式进行操作。其中,连接Hive是Spark SQL最常用的数据源之一。下面,将介绍如何通过Spark SQL连接Hive。 1、在Spark配置中设置Hive Support 要连接Hive,首先需要在Spark配置中开启Hive Support。在启动Spark Shell时,可以添加如下参数: ``` ./bin/spark-shell --master local \ --conf spark.sql.warehouse.dir="/user/hive/warehouse" \ --conf spark.sql.catalogImplementation=hive \ --conf spark.sql.hive.metastore.version=0.13 \ --conf spark.sql.hive.metastore.jars=maven ``` 这里以本地模式为例,设置Spark SQL的元数据存储在本地文件系统中,设置Hive为catalog实现,以及为Hive Metastore设置版本和JAR文件路径。根据实际情况,还可以指定其他参数,如Hive Metastore地址、数据库名称、用户名和密码等。 2、创建SparkSession对象 在连接Hive之前,需要先创建SparkSession对象。可以通过调用SparkSession.builder()静态方法来构建SparkSession对象,如下所示: ``` val spark = SparkSession.builder() .appName("SparkSQLTest") .config("spark.sql.warehouse.dir", "/user/hive/warehouse") .enableHiveSupport() .getOrCreate() ``` 这里通过builder()方法指定应用程序名称、元数据存储路径以及启用Hive Support,最后调用getOrCreate()方法创建SparkSession对象。 3、通过Spark SQL操作Hive表 通过Spark SQL连接Hive后,就可以通过Spark SQL语句来操作Hive表了。例如,我们可以使用select语句查询Hive表中的数据: ``` val df = spark.sql("SELECT * FROM tablename") df.show() ``` 其中,select语句指定要查询的列和表名,然后通过show()方法来显示查询结果。 除了查询数据之外,Spark SQL还可以通过insertInto语句将数据插入到Hive表中: ``` val data = Seq(("Alice", 25), ("Bob", 30)) val rdd = spark.sparkContext.parallelize(data) val df = rdd.toDF("name", "age") df.write.mode(SaveMode.Append).insertInto("tablename") ``` 这里先创建一个包含数据的RDD对象,然后将其转换为DataFrame对象,并指定列名。接着,通过insertInto()方法将DataFrame对象中的数据插入到Hive表中。 总之,通过Spark SQL连接Hive可以方便地查询、插入、更新和删除Hive表中的数据,从而实现更加灵活和高效的数据处理。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值