HQL的new map语法(三)-调优new map

 这次要说的是对查询语句进行优化——select new map()。

        select new map语句结果说明。

        语句一

String hql="select s.name from Student s";
List ls=session.createQuery(hql).list();
for(String obj[]:ls){
    System.out.pringln(obj[0]);
}

  结果list中,每条记录对应一个object数组,object[]中每个元素为hql语句中列的序号(从0开始)。

         语句二

String hql="select new map(s.name) from Student s";
List ls=session.createQuery(hql).list();
for(Map m:ls){
    System.out.pringln(m.get("0"));
}

 结果list中,每条记录对应一个map,map中key为hql语句中的序号,从0开始,key为字符,非数字。

         语句三

String hql="select new map(s.name as name)  from Student s";
List ls=session.createQuery(hql).list();
for(Map m:ls){
    System.out.pringln(m.get("name"));
}

结果list中,每条记录对应一个map,map中key为hql语句中的别名。

详解map

此处的map对应的是JDK中的HashMap。

个人理解是Hibernate在对此hql语句解析的时候,遇到map这个关键字,然后将后面的列作为值,别名作为键(若无别名,则用数字代替)存入到一个HashMap中。具体的代码没有看,谁有兴趣找到那段代码了发一下。

详解select new map的效率

我第一眼看到这个代码,第一感觉是这样降低了效率。

因为涉及到对字段的分析。并且认为map不是jdk的map而是hibernate中mapping的那个map。

而mapping中的map只有一个构造函数new Map(PersistentClass owne)。

所以我最刚开始认为是将字段封装成一个PersistentClass类,然后在new一个Map。

但是后来我发现并不是这个类,mapping中的类都是用来做映射文件用的,也就是说我的方向错了。

而用select new map这个语句到底是降低了效率还是提高了效率了呢?

简单说一下就是:你在写sql语句的时候,select * from效率高还是select 字段1,字段2 from 效率高?

答案很显然,前者效率一定不高于后者,因为后者可以只选择有用的数据进行传输。

现在再回来看select new map,不就是这个道理么?下面是我坐了几个例子进行了一下效率的对比(我用的是100条数据)。

        单表查询

//开始查询  
long startTime=System.currentTimeMillis();  
String hql="select new map(u.name as name) from User u";  
List<Map> list;  
list=session.createQuery(hql).list();  
//查询完毕  
double time=(System.currentTimeMillis()-startTime);  
NumberFormat numberFormat=new DecimalFormat("0.000");  
System.out.println(numberFormat.format(time/1000));  
//循环读取数据  
for(Iterator iter=list.iterator();iter.hasNext();){  
    Map map=(Map) iter.next();  
    System.out.println(map.get("name"));  
}  
//循环读取完毕  
time=(System.currentTimeMillis()-startTime);  
System.out.println(numberFormat.format(time/1000));  

 开始和结束时间分别为:0.178,0.185

//开始查询  
long startTime=System.currentTimeMillis();  
String hql="from User";  
List<Map> list;  
list=session.createQuery(hql).list();  
//查询完毕  
double time=(System.currentTimeMillis()-startTime);  
NumberFormat numberFormat=new DecimalFormat("0.000");  
System.out.println(numberFormat.format(time/1000));  
//循环读取数据  
for(Iterator iter=list.iterator();iter.hasNext();){  
    User map=(User) iter.next();  
    System.out.println(map.getName());  
}  
//循环读取完毕  
time=(System.currentTimeMillis()-startTime);  
System.out.println(numberFormat.format(time/1000));  

开始和结束时间分别为:0.201,0.210

        多表查询

//开始查询  
long startTime=System.currentTimeMillis();  
//String hql="select new map(r.name as name,a.username as username) from Role r,Admin a where r.id=a.role.id";  
String hql="select new map(r.name as name,a.username as username) from Admin a join a.role r";  
List<Map> list;  
list=session.createQuery(hql).list();  
//查询结束  
double time=(System.currentTimeMillis()-startTime);  
NumberFormat numberFormat=new DecimalFormat("0.000");  
System.out.println(numberFormat.format(time/1000));  
//读取数据  
for(Iterator iter=list.iterator();iter.hasNext();){  
    Map map=(Map) iter.next();  
    System.out.println(map.get("name")+","+map.get("username"));  
}  
//读取完毕  
time=(System.currentTimeMillis()-startTime);  
System.out.println(numberFormat.format(time/1000));  

  开始和结束时间分别为:0.171,0.181

//开始查询  
long startTime=System.currentTimeMillis();  
String hql="from Admin";  
List<Map> list;  
list=session.createQuery(hql).list();  
//查询结束  
double time=(System.currentTimeMillis()-startTime);  
NumberFormat numberFormat=new DecimalFormat("0.000");  
System.out.println(numberFormat.format(time/1000));  
//读取数据  
for(Iterator iter=list.iterator();iter.hasNext();){  
    Admin map=(Admin) iter.next();  
    System.out.println(map.getRole().getName()+","+map.getUsername());  
}  
//读取完毕  
time=(System.currentTimeMillis()-startTime);  
System.out.println(numberFormat.format(time/1000));  

开始和结束时间分别为:0.193,0.201
我对这个的定义就是,这是一个视图,是一个运行时创建的视图,而不是在数据库中创建好的视图。

通过上面的对比,我们不难发现,select new map可以选择特定的列作为数据进行展示。我测试的表一共5个字段,如果一个表的字段很多(50个),但只会用到其中几个,那么通过这种方法无疑会节省传输量,从而达到提高效率。

写在最后:

 在此,也希望大家用select语句一定不要用select *。

涉及到无用的字段比较多时,若遇到了效率瓶颈,那么可以考虑用select new map进行优。

若无瓶颈,则不建议用此方法,因为Hibernate作为一个优秀的ORM框架存在,使我们以面向对象的态势来对待数据持久化,而如此做之后,等于你将封装好的对象又拆开了。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hive是一个基于Hadoop的数据仓库工具,它使用HiveQL(HQL)作为查询语言,将HQL语句转换为MapReduce任务来执行。下面是Hive将HQL转换为MapReduce的过程: 1. 解析HQL语句:Hive首先解析HQL语句,生成抽象语法树(AST)。 2. 生成逻辑执行计划:Hive根据AST生成逻辑执行计划(Logical Execution Plan),该计划描述了查询的逻辑执行流程,包括输入数据、输出数据、数据过滤、数据聚合等。 3. 生成物理执行计划:Hive根据逻辑执行计划生成物理执行计划(Physical Execution Plan),该计划描述了如何将逻辑执行计划转换为MapReduce任务,包括如何对数据进行切分、如何进行数据传输、如何进行数据聚合等。 4. 生成MapReduce任务:Hive使用物理执行计划生成MapReduce任务,这些任务通过JobTracker调度在Hadoop集群中运行。MapReduce任务包括Map任务和Reduce任务,Map任务用于对输入数据进行处理和过滤,Reduce任务用于对Map任务的输出进行聚合。 5. 执行MapReduce任务:Hadoop集群开始执行MapReduce任务,Map任务从HDFS中读取输入数据,对数据进行处理和过滤,将结果写入HDFS中;Reduce任务从HDFS中读取Map任务的输出数据,进行聚合和统计,将结果写入HDFS中。 6. 返回查询结果:Hive从HDFS中读取MapReduce任务的输出结果,对结果进行格式化和排序,最终返回给用户。 总的来说,Hive将HQL转换为MapReduce的过程包括解析HQL语句、生成逻辑执行计划、生成物理执行计划、生成MapReduce任务、执行MapReduce任务和返回查询结果。这个过程需要涉及到Hive的元数据管理、查询优化、任务调度等多个方面的技术。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值