package com.akala.dbcache.core;
import java.lang.reflect.method;
import java.net.socketexception;
import java.util.arraylist;
import java.util.collections;
import java.util.hashmap;
import java.util.iterator;
import java.util.list;
import java.util.map;
import java.util.concurrent.concurrenthashmap;
import org.apache.log4j.logger;
import org.hibernate.criteria;
import org.hibernate.hibernateexception;
import org.hibernate.session;
import org.hibernate.transaction;
import org.hibernate.criterion.order;
import org.hibernate.criterion.projection;
import org.hibernate.criterion.projections;
import org.hibernate.criterion.restrictions;
import org.hibernate.criterion.simpleexpression;
/**
* 免责声明:本代码所有权归作者所有,在保持源代码不被破坏以及所有人署名的基础上,任何组织或个人可自由无限使用,使用者需自行承担所有风险。<br/>
* <br/>
* <b>舍得网是一个资源共享网站,只要一张舍得券就可以免费拿走网上的任何一件物品,注册成功后就可得到一张舍得券,成功给予别人一样物品也可以得到一张舍得券。</b><br/>
* <h1><a href="http://shedewang.com/?from=akala" target=_blank>进舍得网看看</a></h1><br/>
* <h1><a href="http://shedewang.com/akala.rar">舍得网高效数据库缓存源代码及文档下载</a></h1><br/>
* 警告:只有从上面这个地址下载才能保证代码是最新的。<br/>
* <br/>
* 该class是数据库缓存/分布式经典解决方案,可以承受超大规模的应用,该方案简单明了,效率高,配置起来非常简单,可以直接用。^_^<br/>
* 相对于代码行数,该class可以说是全亚洲最强大的数据库操作工具,本来想说全世界最强,想想还是谦虚点好,开个玩笑:)<br/>
* 缓存思路:<br/>
* 对于单个对象的缓存,用hashmap就可以了,稍微复杂一点用lru算法包装一个hashmap,再复杂一点的分布式用memcached即可,没什么太难的。<br/>
* 但是对于列表缓存,似乎没有太好的通用办法,一般的思路是只取列表的id,然后根据id去对象缓存中查找,下面分析本人如何改进列表缓存<br/>
* <br/>
* 一:mysql和hibernate的底层在做通用的列表缓存时都是根据查询条件把列表结果缓存起来,但是只要该表的记录<br/>
* 有任何变化(增加/删除/修改),列表缓存要全部清除,这样只要一个表的记录经常变化(通常情况都会这样),列表缓存几乎失效,命中率太低了。<br/>
* <br/>
* 二:本人想了一个办法改善了一下列表缓存,在表的记录有改变时,遍历所有列表缓存,只有那些被影响到的列表缓存才会被删除,而不是直接清除所有<br/>
* 列表缓存。这样处理有个好处,可以缓存各种查询条件(如等于、大于、不等于、小于)的列表缓存,但也有个潜在的性能问题,由于需要遍历,系统开销<br/>
* 比较大,如果列表缓存最大长度设置成10000,两个4核的cpu每秒也只能遍历完300多次,这样如果每秒有超过300个insert/update/delete,系统就吃不消了。<br/>
* <br/>
* 三:在前面两种解决办法都不完美的情况下,本人和同事经过几个星期的思索,总算得出了根据表的某几个字段做散列的缓存办法,这种办法无需大规模遍历,<br/>
* 所以系统开销很小,由于这种列表缓存按照字段做了散列,所以命中率极高。思路如下:<br/>
* <br/>
* 每个表有3个缓存map(key=value键值对),第一个map是对象缓存a,在a中,key是数据库的id,value是数据库对象(也就是一行数据);第二个map是<br/>
* 通用列表缓存b,b的最大长度一般1000左右,在b中,key是查询条件拼出来的string(如start=0,length=15active=0state=0category=109),value是该条件查询下<br/>
* 的所有id组成的list;第三个map是散列缓存c,在c中,key是散列的字段(如根据userid散列的话,其中某个key就是userid=109这样的string)组成的<br/>
* string,value是一个和b类似的hashmap。其中只有b这个map是需要遍历的,不知道说明白了没有,看完小面这个例子应该就明白了,就用论坛的回复表作说明:<br/>
* 假设回复表t中假设有字段id,topicid,postuserid等字段(topicid就是帖子的id,postuserid是发布者id)。<br/>
* <br/>
* 1:第一种情况,也是最常用的情况,就是获取一个帖子对应的回复,sql语句应该是象<br/>
* select id from t where topicid=2008 order by createtime desc limit 0,5 <br/>
* select id from t where topicid=2008 order by createtime desc limit 5,5 <br/>
* select id from t where topicid=2008 order by createtime desc limit 10,5 <br/>
* 的样子,那么这种列表很显然用topicid做散列是最好的,把上面三个列表缓存(可以是n个)都散列到key是topicid=2008这一个map中,当id是2008的帖子有新的<br/>
* 回复时,系统自动把key是topicid=2008的散列map清除即可。由于这种散列不需要遍历,因此可以设置成很大,例如100000,这样10万个帖子对应的所有回复列表都可以缓存起来,<br/>
* 当有一个帖子有新的回复时,其余99999个帖子对应的回复列表都不会动,缓存的命中率极高。<br/>
* <br/>
* 2:第二种情况,就是后台需要显示最新的回复,sql语句应该是象<br/>
* select id from t order by createtime desc limit 0,50 <br/>
* 的样子,这种情况不需要散列,因为后台不可能有太多人访问,常用列表也不会太多,所以直接放到通用列表缓存b中即可。<br/>
* <br/>
* 3:第三种情况,获取一个用户的回复,sql语句象<br/>
* select id from t where userid=2046 order by createtime desc limit 0,15 <br/>
* select id from t where userid=2046 order by createtime desc limit 15,15 <br/>
* 的样子,那么这种列表和第一种情况类似,用userid做散列即可。<br/>
* <br/>
* 4:第四种情况,获取一个用户对某个帖子的回复,sql语句象<br/>
* select id from t where topicid=2008 and userid=2046 order by createtime desc limit 0,15 <br/>
* 的样子,这种情况比较少见,一般以topicid=2008为准,也放到key是topicid=2008这个散列map里即可。<br/>
* <br/>
*
* 总结:这种缓存思路可以存储大规模的列表,缓存命中率极高,因此可以承受超大规模的应用,但是需要技术人员根据自身业务逻辑来<br/>
* 配置需要做散列的字段,一般用一个表的<b>索引键做散列</b>(注意顺序,最散的字段放前面),假设以userid为例,可以存储n个用户的m种列表,如果某个<br/>
* 用户的相关数据发生变化,其余n-1个用户的列表缓存纹丝不动。以上说明的都是如何缓存列表,缓存长度和缓存列表思路完全一样,如缓存象<br/>
* select count(*) from t where topicid=2008 <br/>
* 这样的长度,也是放到topicid=2008这个散列map中。如果再配合好使用mysql的内存表和memcached,加上f5设备做分布式负载均衡,该系统
* 对付像1000万ip/天这种规模级的应用都足够了,除搜索引擎外一般的应用网站到不了这种规模。<br/>
* 任何问题请发送mail到<a href="mailto:liuaike@shedewang.com">liuaike@shedewang.com</a>
*
* @author liuaike@shedewang.com
* @see <a href='http://www.shedewang.com' target=_blank>舍得网</a>
*
*/
public class basemanager {
/**
* 记录日志的logger,log4j配置文件必须配置一个名为operlogger的logger
*/
private static logger logger = loggerutil.getlogger("operlogger");
/**
* 用于存放所有该manager管理om的对象缓存 key=value,key都是long对象,value是baserecord对象
*/
private lrumap records_cache = new lrumap(config.getinstance().getmaxomcachelength());
/**
* 公用列表的cache,key=value,key是字符串,value是id组成的list。需要遍历,不能设置太大!
*/
private lrumap records_list_cache = new lrumap(config.getinstance().getmaxlistcachelength());
/**
* 用于存放recordset长度的cache,key=value,value存放integer对象
*/
private lrumap records_length_cache = new lrumap(config.getinstance().getmaxlengthcachelength()) ;
/**
* 二级缓存,根据applicationcontext.xml指定的字段来做二级缓存,只能支持等于查询,不需要遍历,可以设置大一点。<br/>
* 这里的key是包含hashfieldslist里字段的string,value是一个java.util.hashmap<string,arraylist>!!!<br/>
*/
private lrumap hash_list_cache = new lrumap(config.getinstance().getmaxsecondarycachelength()) ;
/**
* 二级长度缓存,根据applicationcontext.xml指定的字段来做二级缓存,只能支持等于查询,不需要遍历,可以设置大一点。<br/>
* 这里的key是包含hashfieldslist里字段的string,value是一个java.util.hashmap<string,integer>!!!<br/>
*/
private lrumap hash_length_cache = new lrumap(config.getinstance().getmaxsecondarycachelength()) ;
/**
* 缓冲update对象,对于帖子的点击次数的update可以用这个实现。
*/
private static map<string,basemanager> update_db_map = new concurrenthashmap<string,basemanager>();
/**
* 该manager管理的是哪个class
*/
private class recordclass = null ;
/**
* hibernate 配置文件,可以实现数据库按表拆分的分布式
*/
private string hibernateconfigfile = null ;
/**
* applicationcontext.xml里配置的二级散列缓存字段,如果有多个用;隔开。一般用userid做散列,2个字段散列足够了!
*/
private string hashfieldslist = null ;
/**
* 二级散列缓存的字段列表
*/
private string[] hashfields = null ;
/**
* 得到需要散列的字段数组
* @return
*/
private string[] gethashfields(){
if(hashfieldslist==null){
return null;
}else{
if(hashfields==null){
hashfields = hashfieldslist.split(";");
}
return hashfields;
}
}
/**
* 删除所有缓存!!!!!!!!!!!<br/>
* 删除所有缓存,尽供后台调用,前台页面别瞎用!<br/>
*/
public void clearallcache(){
records_cache.clear();
records_list_cache.clear();
records_length_cache.clear();
hash_list_cache.clear();
hash_length_cache.clear();
}
/**
* 增加一个shutdown钩子,在应用服务器tomcat/resin停止的时候把该需要update的数据更新了,免得漏掉update_db_map里需要update的对象
*/
static {
runtime.getruntime().addshutdownhook(new updatethread(update_db_map));
}
/**
* 负责定时update数据库的线程
*/
private static updatethread updatethread = null ;
/**
* 负责接收报文的线程,用于接收别的服务器删除缓存的通知
*/
private static udpreceiverthread udpreceiverthread = null ;
static{
//启动定时更新数据库的线程
if(updatethread==null){
updatethread = new updatethread(update_db_map);
updatethread.start();
}
if(config.getinstance().usedistributeddbcache()){
//启动接受报文的线程
if(udpreceiverthread==null){
try {
udpreceiverthread = new udpreceiverthread();
udpreceiverthread.start();
}
catch (socketexception e) {
e.printstacktrace();
}
}
}
}
/**
* 根据id获取记录。第一步从本机内存中取,如果没有则转向memcached server获取,<br/>
* 如果memcached server也没有才从数据库中获取,这样可以大大减轻数据库服务器的压力。<br/>
* @param id 记录的id
* @return baserecord对象
*/
public baserecord findbyid(long id){
//第一步:在本地缓存中查找
if(records_cache.containskey(id)){
return (baserecord)records_cache.get(id);
}
baserecord br = null;
//第二步:去memcached server中查找
if(config.getinstance().usememcached()){
br = this.getfrommemcachedserver(recordclass.getname()+""+id);
if(br!=null){
records_cache.put(id, br);
return br;
}
}
//第三步:读取数据库
session s = hibernateutil.currentsession(hibernateconfigfile);
try {
transaction tx= s.begintransaction();
br = (baserecord) s.get(recordclass, id);
tx.commit();
}catch(hibernateexception he){
he.printstacktrace();
}finally{
hibernateutil.closesession(hibernateconfigfile);
}
//第四步:放入本地缓存
records_cache.put(id, br);
//第五步:放入memcached缓存中
set2memcachedserver(br);
return br;
}
/**
* 根据id获取记录。第一步从本机内存中取,如果没有则转向memcached server获取,<br/>
* 如果memcached server也没有才从数据库中获取,这样可以大大减轻数据库服务器的压力。<br/>
* @param id 记录的id
* @return baserecord 对象
*/
public baserecord findbyid(string id){
if(!stringutils.isdigits(id))return null;
return findbyid(long.parselong(id));
}
/**
* 根据某一个字段的值来获取对象
* @param fieldname 字段名
* @param value 字段值
* @return baserecord 对象
*/
public baserecord findbyproperty(string fieldname,object value){
arraylist<simpleexpression> list = new arraylist<simpleexpression>();
list.add(restrictions.eq(fieldname,value));
list list2 = this.getlist(list, null, 0, 1);
if(list2==null || list2.size()==0) return null;
return (baserecord)list2.get(0);
}
/**
* 根据id从数据库中删除数据,如果有必要,可以重写该方法删除缓存中的纪录和列表中的list缓存!
* @param id long
* @return boolean
*/
public boolean deletebyid(long id){
baserecord br = this.findbyid(id);
return this.delete(br);
}
/**
* 根据id从数据库中删除数据,如果有必要,可以重写该方法删除缓存中的纪录和列表中的list缓存!
* @param id string
* @return boolean
*/
public boolean deletebyid(string id){
if(!stringutils.isdigits(id))return false;
return this.deletebyid(long.parselong(id));
}
/**
* 从数据库中删除数据,如果有必要,可以重写该方法删除缓存中的纪录和列表中的list缓存!
* @param br baserecord
* @return boolean
*/
public boolean delete(baserecord br){
long id = br.getid();
session s = hibernateutil.currentsession(this.hibernateconfigfile);
try {
transaction tx = s.begintransaction();
s.delete(br);
tx.commit();
if(config.getinstance().isdblog()){
logger.info("删除数据库对象:"+br);
}
} catch (hibernateexception e){
e.printstacktrace();
return false;
} finally {
hibernateutil.closesession(hibernateconfigfile);
}
//删除memcached缓存
if(config.getinstance().usememcached()){
if(memcachedutil.getmemcachedclient()!=null){
boolean ret = memcachedutil.getmemcachedclient().delete(this.recordclass+""+id);
}
}
//删除列表缓存
removelistcache(br,true);
//分布式删除对象缓存
removefromcache(id,true,true);
return true;
}
/**
* 更新一个数据库对象。如修改一个用户昵称时,不会影响任何排序,那么就不需要清除列表缓存。
* @param record 要更新的对象
* @param clearlistcache true表示需要清除列表缓存 false表示不需要
* @return boolean
*/
public boolean update(baserecord record,boolean clearlistcache){
session s = hibernateutil.currentsession(this.hibernateconfigfile);
try {
transaction ts = s.begintransaction();
s.update(record);
ts.commit();
//重新设置memcached server的缓存
set2memcachedserver(record);
//分布式删除对象缓存
removefromcache(record.getid(),false,true);
//删除列表缓存
if(clearlistcache){
removelistcache(record,true);
}
if(config.getinstance().isdblog()){
logger.info("修改数据库对象:"+record);
}
} catch (hibernateexception e) {
e.printstacktrace();
return false;
} finally {
hibernateutil.closesession(this.hibernateconfigfile);
}
return true ;
}
/**
* 创建一个数据库记录,并把对象放入本机缓存和memcached缓存。
* @param record baserecord
* @return baserecord 返回数据库中的对象,
*/
public baserecord create(baserecord record){
session s = hibernateutil.currentsession(this.hibernateconfigfile);
try{
transaction tx= s.begintransaction();
s.save(record);
tx.commit();
if(config.getinstance().isdblog()){
logger.info("创建数据库对象:"+record);
}
//放入memcached缓存中
set2memcachedserver(record);
//刚创建的纪录放入缓存中
records_cache.put(record.getid(),record);
//删除列表缓存
removelistcache(record,true);
} catch (hibernateexception e){
e.printstacktrace();
return null;
} finally {
hibernateutil.closesession(hibernateconfigfile);
}
return record;
}
/**
* 每个表必须有id这个字段,每个类必须有id这个field。自定义条件查询列表,理论上这个方法<br>
* 可以满足所有需求,特别注意缓存key的拼法!!!!!<br>
* 在memcached缓存上存的则不是list而是由分开的id列表,如:131425256887987<br/>
* key是象s10l20,createtime desc$age<90aget>80pid=12343这样的字符串<br>
* @param explist 查询条件
* @param orders 排序
* @param start 开始位置
* @param length 获取长度
* @return list 数据库记录
*/
public list<baserecord> getlist(list<simpleexpression> explist,list<order> orders,int start,int length){
list<string> flist = new arraylist<string>();//field set
if(explist!=null){
for(int i=0;i<explist.size();i++){
simpleexpression s1 = (simpleexpression)explist.get(i);
flist.add(s1.tostring());
}
}
collections.sort(flist);
stringbuffer keybuffer = new stringbuffer();
keybuffer.append("s").append(start).append("l").append(length).append(",");
if(orders!=null){
for(int i=0;i<orders.size();i++){
keybuffer.append(orders.get(i).tostring());
}
}
//注意,$之前的字符都不需要参与到清除缓存的计算,清除缓存只需要计算$后面的条件!!!
keybuffer.append("{1}quot;);
//二级缓存的key,如userid=78998
string secondarycachekey = null ;
string[] secondaryfields = this.gethashfields() ;
for(int i=0;i<flist.size();i++){
string condition = (string)flist.get(i);
if(secondarycachekey==null&&secondaryfields!=null&&secondaryfields.length>0){
for(int j=0;j<secondaryfields.length;j++){
if(condition.startswith(secondaryfields[j]+"=")){//条件包含二级缓存的字段则用二级缓存
secondarycachekey=condition;
}
}
}
keybuffer.append(condition).append("");
}
string key = keybuffer.tostring() ;//这就是列表的缓存key
//第一步 从缓存种查找
if(secondarycachekey==null){//从公用缓存中查找
if(records_list_cache.containskey(key)){
list list = (list)records_list_cache.get(key);//id list
arraylist<baserecord> olist = new arraylist<baserecord>();
for(int i=0;i<list.size();i++){
baserecord br = this.findbyid(list.get(i)+"");
if(br!=null)olist.add(br);
}
return olist;
}
}else{//从二级散列缓存种查找
hashmap secondarymap = (hashmap)hash_list_cache.get(secondarycachekey);
if(secondarymap!=null&&secondarymap.containskey(key)){//二级散列缓存里面找到了
list list = (list)secondarymap.get(key);
arraylist<baserecord> olist = new arraylist<baserecord>();
for(int i=0;i<list.size();i++){
baserecord br = this.findbyid(list.get(i)+"");
if(br!=null)olist.add(br);
}
return olist;
}
}
//第二步 从数据库中查找
session s = hibernateutil.currentsession(this.hibernateconfigfile);
try{
criteria ct = s.createcriteria(this.recordclass).setprojection(projections.property("id"));
if(explist!=null&&explist.size()>0){
for(int i=0;i<explist.size();i++)
ct.add(explist.get(i)); //加入查询条件
}
if(orders!=null&&orders.size()>0){
for(int i=0;i<orders.size();i++)
ct.addorder(orders.get(i)); //加入排序字段
}
ct.setfirstresult(start).setmaxresults(length);
list list = ct.list();
if(secondarycachekey==null){
records_list_cache.put(key, list);//放入list缓存
}else{
hashmap secondarymap = (hashmap)hash_list_cache.get(secondarycachekey);
if(secondarymap!=null){//放入二级散列缓存
secondarymap.put(key, list);
}else{
secondarymap = new hashmap();
secondarymap.put(key, list);
hash_list_cache.put(secondarycachekey, secondarymap);
}
}
arraylist<baserecord> olist = new arraylist<baserecord>();
for(int i=0;i<list.size();i++){
baserecord br = this.findbyid(list.get(i)+"");
if(br!=null)olist.add(br);
}
return olist;
} catch (hibernateexception e) {
e.printstacktrace();
return null;
} finally {
hibernateutil.closesession(hibernateconfigfile);
}
}
/**
* 根据条件得到数据库记录的长度,integer对象可以直接存在memcached缓存中,所以没有必要序列化!
* @param cs 查询条件
* @return 长度
*/
public int getlength(list<simpleexpression> explist){
list<string> flist = new arraylist<string>();
if(explist!=null){
for(int i=0;i<explist.size();i++){
simpleexpression s1 = (simpleexpression)explist.get(i);
flist.add(s1.tostring());
}
}
collections.sort(flist);
stringbuffer keybuffer = new stringbuffer();
keybuffer.append("{1}quot;);
//二级缓存的key,如userid=78998
string secondarycachekey = null ;
string[] secondaryfields = this.gethashfields() ;
for(int i=0;i<flist.size();i++){
string condition = (string)flist.get(i);
if(secondarycachekey==null&&secondaryfields!=null&&secondaryfields.length>0){
for(int j=0;j<secondaryfields.length;j++){
if(condition.startswith(secondaryfields[j]+"=")){//条件包含二级缓存的字段则用二级缓存
secondarycachekey=condition;
}
}
}
keybuffer.append(condition).append("");
}
string key = keybuffer.tostring();
//第一步 本地缓存
if(secondarycachekey==null){//公用部分查找
if(this.records_length_cache.containskey(key)){
integer res = (integer)records_length_cache.get(key);//id list
return res.intvalue();
}
}else{//二级散列缓存查找
hashmap secondarymap = (hashmap)this.hash_length_cache.get(secondarycachekey);
if(secondarymap!=null&&secondarymap.containskey(key)){//在二级缓存里找到了
integer res = (integer)secondarymap.get(key);
return res.intvalue();
}
}
//第二步 从数据库中获取
session s = hibernateutil.currentsession(this.hibernateconfigfile);
try {
criteria ct = s.createcriteria(this.recordclass).setprojection(projections.rowcount());
if(explist!=null&&explist.size()>0){
for(int i=0;i<explist.size();i++)
ct.add(explist.get(i)); //加入查询条件
}
integer leninteger = (integer)ct.uniqueresult();
if(secondarycachekey==null){
records_length_cache.put(key, leninteger);//放入list缓存
}else{
hashmap secondarymap = (hashmap)this.hash_length_cache.get(secondarycachekey);
if(secondarymap!=null){
secondarymap.put(key, leninteger);
}else{
secondarymap = new hashmap();
secondarymap.put(key, leninteger);
this.hash_length_cache.put(secondarycachekey, secondarymap);
}
}
return leninteger.intvalue();
} catch (hibernateexception e){
e.printstacktrace();
}finally{
hibernateutil.closesession(hibernateconfigfile);
}
return 0;
}
/**
* 此处返回的list是long对象或者iterator对象,而不是baserecord!!!!!!!!!!<br/>
* 遍历该list方法<br/>
* iterator iterator = list.iterator();<br/>
* while(iterator.hasnext()) {<br/>
* object[] o = (object[]) iterator.next();<br/>
* //...<br/>
* }<br/>
* @param explist
* @param orders
* @param project 包含sum count group等复杂组合查询条件的projection(s)
* @param start
* @param length
* @return list
*/
public list getprojectionlist(list<simpleexpression> explist,list<order> orders,projection project,int start,int length){
list<string> flist = new arraylist<string>();//field set
if(explist!=null){
for(int i=0;i<explist.size();i++){
simpleexpression s1 = (simpleexpression)explist.get(i);
flist.add(s1.tostring());
}
}
collections.sort(flist);
stringbuffer keybuffer = new stringbuffer();
keybuffer.append("2s").append(start).append("l").append(length).append(",");
if(orders!=null){
for(int i=0;i<orders.size();i++){
keybuffer.append(orders.get(i).tostring());
}
}
//注意,$之前的字符都不需要参与到清除缓存的计算,清除缓存只需要计算$后面的条件!!!
keybuffer.append("{1}quot;);
for(int i=0;i<flist.size();i++){
keybuffer.append(flist.get(i)).append("");
}
string key = keybuffer.tostring() ;//这就是列表的缓存key
//第一步 本地缓存
if(this.records_list_cache.containskey(key)){
list list = (list)records_list_cache.get(key);//id list
return list;
}
//第二步 查询数据库
session s = hibernateutil.currentsession(this.hibernateconfigfile);
try {
criteria ct = s.createcriteria(this.recordclass).setprojection(project);
if(explist!=null&&explist.size()>0){
for(int i=0;i<explist.size();i++)
ct.add(explist.get(i)); //加入查询条件
}
if(orders!=null&&orders.size()>0){
for(int i=0;i<orders.size();i++)
ct.addorder(orders.get(i)); //加入排序字段
}
ct.setfirstresult(start).setmaxresults(length);
list list = ct.list();
records_list_cache.put(key, list);//放入list缓存
return list;
} catch (hibernateexception e) {
e.printstacktrace();
return null;
} finally {
hibernateutil.closesession(hibernateconfigfile);
}
}
/**
* 如果要用distinct,project必须是projections.countdistinct("bbsthemeid");的形式
* @param explist
* @param project 包含sum count group等复杂组合查询条件的projection(s)
* @return int
*/
public int getprojectionlength(list<simpleexpression> explist,projection project){
list<string> flist = new arraylist<string>();//field set
if(explist!=null){
for(int i=0;i<explist.size();i++){
simpleexpression s1 = (simpleexpression)explist.get(i);
flist.add(s1.tostring());
}
}
collections.sort(flist);
stringbuffer keybuffer = new stringbuffer();
keybuffer.append("2{1}quot;);
for(int i=0;i<flist.size();i++){
keybuffer.append(flist.get(i)).append("");
}
string key = keybuffer.tostring();
//第一步 本地缓存查询
if(this.records_length_cache.containskey(key)){
integer res = (integer)records_length_cache.get(key);//id list
return res.intvalue();
}
//第二步 读数据库
session s = hibernateutil.currentsession(this.hibernateconfigfile);
try {
criteria ct = s.createcriteria(this.recordclass).setprojection(project);
if(explist!=null&&explist.size()>0){
for(int i=0;i<explist.size();i++)
ct.add(explist.get(i)); //加入查询条件
}
integer leninteger = (integer)ct.uniqueresult();
records_length_cache.put(key, leninteger);//放入list缓存
return leninteger.intvalue();
} catch (hibernateexception e) {
e.printstacktrace();
} finally {
hibernateutil.closesession(hibernateconfigfile);
}
return 0;
}
/**
* 非即时更新数据库对象。<br/>
* 利用缓存更新数据库,在压力特别大的时候用,比如在更新帖子的点击次数,这种情况没必要立即更新而且更新频繁所以采用缓存<br>
* 这种情况一般不更新缓存,因为一般这种点击次数的修改不会影响排列次序,如果做影响排列顺序的修改(如优先级)则<br>
* 必须用update()方法!<br>
* @param record 需要update的对象
* @return boolean
*/
public boolean puttoupdatemap(baserecord record){
string remotekey = "update2:"+this.recordclass.getname()+""+record.getid();
//记录需要更新的远程对象
update_db_map.put(remotekey,this);
//分布式...
if(config.getinstance().usedistributeddbcache()){
//重新设置远程服务器的key
if(config.getinstance().usememcached()){
if(memcachedutil.getmemcachedclient()!=null){
boolean ret = memcachedutil.getmemcachedclient().set(remotekey,
record,new java.util.date(config.getinstance().getmemcachedexpire()));
removefromcache(record.getid(),false,true);
}
}
}
return true;
}
/**
* 分布式从缓存中去掉对象,下次读取就会从memcached读取或者从数据库读取。在jsp或其他地方调用islocal一律用true。
* @param id the id
* @param realremove 是否真的删除,当删除数据库时调用
* @param islocal 是否是本地调用
*/
public void removefromcache(long id,boolean realremove,boolean islocal){
if(islocal){
//分布式清除缓存,发udp报文,通知其他服务器删除缓存
if(config.getinstance().usedistributeddbcache()){
string s = this.recordclass.getname()+"removefromcache"+id;
udpsenderutil.getinstance().sendall(s);
}
}
if(realremove||!islocal){
records_cache.remove(id);
}
}
/**
* 判断一个条件是否和一个object条件匹配。支持等于、不等于、大于、小于、大于或等于、小于或等于的缓存。主要还是等于条件的查询比较多!!<br/>
* 暂时不支持like or and的查询缓存,如果有这个需要,想其他办法吧。!<br/>
* @param fieldmap 一个对象所有field的值。
* @param c 条件字符串。如userid=4 and state=0
* @return
*/
private boolean issqlrestrictioninfieldmap(hashmap<string,string> fieldmap,string c){
boolean ismatched = true ;
int loc = 0 ;
if((loc=c.indexof("="))>-1){
string fieldname = c.substring(0,loc);
string fieldvalue = c.substring(loc+1);
string fieldvalue2 = fieldmap.get(fieldname);
if(!fieldvalue2.equals(fieldvalue)){
ismatched = false ;
}
}else if((loc=c.indexof("<>"))>-1){
string fieldname = c.substring(0,loc);
string fieldvalue = c.substring(loc+2);
string fieldvalue2 = fieldmap.get(fieldname);
if(fieldvalue2.equals(fieldvalue)){
ismatched = false ;
}
}else if((loc=c.indexof(">="))>-1){
string fieldname = c.substring(0,loc);
string fieldvalue = c.substring(loc+2);
string fieldvalue2 = fieldmap.get(fieldname);
if(stringutils.isdigits(fieldvalue)&&stringutils.isdigits(fieldvalue2)){
long fv = long.parselong(fieldvalue);
long fv2 = long.parselong(fieldvalue2);
if(!(fv2>=fv)){
ismatched = false ;
}
}
}else if((loc=c.indexof("="))>-1){
string fieldname = c.substring(0,loc);
string fieldvalue = c.substring(loc+2);
string fieldvalue2 = fieldmap.get(fieldname);
if(stringutils.isdigits(fieldvalue)&&stringutils.isdigits(fieldvalue2)){
long fv = long.parselong(fieldvalue);
long fv2 = long.parselong(fieldvalue2);
if(!(fv2=fv)){
ismatched = false ;
}
}
}else if((loc=c.indexof("<"))>-1){
string fieldname = c.substring(0,loc);
string fieldvalue = c.substring(loc+1);
string fieldvalue2 = fieldmap.get(fieldname);
if(stringutils.isdigits(fieldvalue)&&stringutils.isdigits(fieldvalue2)){
long fv = long.parselong(fieldvalue);
long fv2 = long.parselong(fieldvalue2);
if(!(fv2<fv)){
ismatched = false ;
}
}
}else if((loc=c.indexof(">"))>-1){
string fieldname = c.substring(0,loc);
string fieldvalue = c.substring(loc+1);
string fieldvalue2 = fieldmap.get(fieldname);
if(stringutils.isdigits(fieldvalue)&&stringutils.isdigits(fieldvalue2)){
long fv = long.parselong(fieldvalue);
long fv2 = long.parselong(fieldvalue2);
if(!(fv2>fv)){
ismatched = false ;
}
}
}
return ismatched ;
}
/**
* 本地(localhost)调用,在jsp中调用islocal一律用true。<br/>
* 自动删除列表缓存,列表缓存的key必须是由字段名称=字段值组成,如boardid=1threadid=3state=1<br>
* 所以删除时只要利用要删除的对象的字段值组成一个条件字符串,再看key中的条件是否满足这些条件就可以<br>
* 决定是否要删除这些缓存list<br>
* 这是一个比较好的自动删除缓存的办法<br>
* @param bt baserecord对象,如user
* @param islocal 是否本地调用
*/
public void removelistcache(baserecord bt,boolean islocal){
if(islocal){
//分布式清除缓存
if(config.getinstance().usedistributeddbcache()){
string s123 = this.recordclass.getname()+"removefromlistcache"+bt.getid();
udpsenderutil.getinstance().sendall(s123);
}
}
hashmap<string, string> fieldmap = new hashmap<string, string>();
//把对象的域值转换到一个hashmap里
object[] args = null ;
method[] ms = bt.getclass().getmethods();
string[] secondarycachefields = this.gethashfields();
try{
for(int i=0;i<ms.length;i++){
if(ms[i].getname().startswith("get")&&!ms[i].getname().equals("getclass")){
string fieldname = ms[i].getname().substring(3);//3 是 get的长度
fieldname = character.tolowercase(fieldname.charat(0))+fieldname.substring(1);
string fieldvalue = ms[i].invoke(bt, args)+"" ;
fieldmap.put(fieldname, fieldvalue);
//看看哪些域需要删除散列缓存
if(secondarycachefields!=null&&secondarycachefields.length>0){
for(int j=0;j<secondarycachefields.length;j++){
if(fieldname.equals(secondarycachefields[j])){
string secondarykey = fieldname+"="+fieldvalue ;
this.hash_list_cache.remove(secondarykey);
this.hash_length_cache.remove(secondarykey);
}
}
}
}
}
}catch(exception ex){
ex.printstacktrace();
}
removelistcache2(bt,records_length_cache,fieldmap);
removelistcache2(bt,records_list_cache,fieldmap);
}
/**
* 清除缓存,供本机调用。注意,如果修改的字段影响了两种排序,典型的像state由0改为1,那么修改之前也要调用一下该方法。<br/>
* 如果修改了字段只影响一个排序,如修改了帖子的更新时间,那么修改之前不要调用该方法,直接用update(baserecord,true)即可。<br/>
* 如果修改的字段不影响排序,典型的像修改了用户的昵称,那么用update(baserecord,false)即可,即不需要清除列表缓存。<br/>
* @param bt
*/
public void removelistcache(baserecord bt){
removelistcache(bt,true);
}
/**
* 分割字符串到数组,注意,缓存字符$之前的串不需要参与计算。每个缓存列表的key都包含$字符!!!<br/>
* 自己写的一个按照特定分界符分解字符串,比string的split方法快很多。<br/>
* @param s key
* @param delimiter 分界符号
* @return
*/
private string[] splitstring(string s,string delimiter){
s = s.substring(s.indexof("{1}quot;)+1);
arraylist l = new arraylist();
int index = s.indexof(delimiter);
while(index>-1){
string s0 = s.substring(0,index);
if(s0.length()>0)l.add(s0);
s = s.substring(index+1);
index = s.indexof(delimiter);
}
if(s.length()>0)l.add(s);
return (string[])l.toarray(new string[0]);
}
/**
* 自动删除列表缓存,列表缓存的key必须是由字段名称=字段值组成,如boardid=1threadid=3state=1<br>
* 所以删除时只要利用要删除的对象的字段值组成一个条件字符串,再看key中的条件是否满足这些条件就可以<br>
* 决定是否要删除这些缓存list<br>
* 这是一个比较好的自动删除缓存的办法<br>
* 暂时支持like语句,大于(>)语句,小于(<)语句,等于(=)语句的自动清除<br/>
* 已经实现了分布式清除缓存的功能!!!!!!!!!!!!!
* @param bt baserecord对象,如user
* @param rmap 缓存
*/
private void removelistcache2(baserecord bt,lrumap rmap,hashmap<string,string> fieldmap){
try{
//遍历删除公用缓存
iterator it = rmap.keyset().iterator();
if(it==null)return;
string k = null ;
string[] ks = null ;
while(it.hasnext()){
k = (string)it.next();
boolean ismatched = true ;
ks = splitstring(k,"");
if(ks!=null&&ks.length>0){
for(int i=0;i<ks.length;i++){
ismatched = issqlrestrictioninfieldmap(fieldmap,ks[i]);
if(!ismatched)break;
}
}
if(ismatched){
it.remove();
}
}
}catch(exception ex){
ex.printstacktrace();
}
}
/**
* 从memcached server获取对象,对象必须实现java.io.serializable。
* @param key 远程的key。
* @return baserecord对象
*/
public baserecord getfrommemcachedserver(string key){
if(key==null)return null;
if(config.getinstance().usememcached()){
if(memcachedutil.getmemcachedclient()!=null){
object ret = memcachedutil.getmemcachedclient().get(key);
if(ret!=null){
baserecord br = (baserecord)ret;
if(br!=null){
return br;
}
}
}
}
return null;
}
/**
* 把om对象放入memcached server。key是像com.chongai.om.node13434这样的字符串,后面的数字是对应的id
* @param om baserecord对象,可以是任何继承baserecord的对象
*/
public void set2memcachedserver(baserecord br){
if(br==null)return;
if(config.getinstance().usememcached()){
if(memcachedutil.getmemcachedclient()!=null){
boolean ret = memcachedutil.getmemcachedclient().set(br.getclass().getname()+""+br.getid(),
br,new java.util.date(config.getinstance().getmemcachedexpire()));
}
}
}
public string gethibernateconfigfile() {
return hibernateconfigfile;
}
public void sethibernateconfigfile(string hibernateconfigfile) {
this.hibernateconfigfile = hibernateconfigfile;
}
public class getrecordclass() {
return recordclass;
}
public void setrecordclass(class recordclass) {
this.recordclass = recordclass;
}
public string gethashfieldslist() {
return hashfieldslist;
}
public void sethashfieldslist(string hashfieldslist) {
this.hashfieldslist = hashfieldslist;
}
}
JVM参数调优是一个很头痛的问题,可能和应用有关系,下面是本人一些调优的实践经验,希望对读者能有帮助,环境LinuxAS4,resin2.1.17,JDK6.0,2CPU,4G内存,dell2950服务器,网站是http://shedewang.com
一:串行垃圾回收,也就是默认配置,完成10万request用时153秒,JVM参数配置如下
$JAVA_ARGS .= " -Dresin.home=$SERVER_ROOT -server-Xms2048M -Xmx2048M -Xmn512M -XX:PermSize=256M -XX:MaxPermSize=256M-XX:MaxTenuringThreshold=7 -XX:GCTimeRatio=19 -Xnoclassgc -Xloggc:log/gc.log-XX:+PrintGCDetails -XX:+PrintGCTimeStamps ";
这种配置一般在resin启动24小时内似乎没有大问题,网站可以正常访问,但查看日志发现,在接近24小时时,Full GC执行越来越频繁,大约每隔3分钟就有一次Full GC,每次Full GC系统会停顿6秒左右,作为一个网站来说,用户等待6秒恐怕太长了,所以这种方式有待改善。MaxTenuringThreshold=7表示一个对象如果在救助空间移动7次还没有被回收就放入年老代,GCTimeRatio=19表示java可以用5%的时间来做垃圾回收,1/(1+19)=1 /20=5%。
二:并行回收,完成10万request用时117秒,配置如下:
$JAVA_ARGS .= " -Dresin.home=$SERVER_ROOT -server-Xmx2048M -Xms2048M -Xmn512M -XX:PermSize=256M -XX:MaxPermSize=256M -Xnoclassgc-Xloggc:log/gc.log -XX:+PrintGCDetails -XX:+PrintGCTimeStamps-XX:+UseParallelGC -XX:ParallelGCThreads=20 -XX:+UseParallelOldGC-XX:MaxGCPauseMillis=500 -XX:+UseAdaptiveSizePolicy -XX:MaxTenuringThreshold=7-XX:GCTimeRatio=19 ";
并行回收我尝试过多种组合配置,似乎都没什么用,resin启动3小时左右就会停顿,时间超过10 秒。也有可能是参数设置不够好的原因,MaxGCPauseMillis表示GC最大停顿时间,在resin刚启动还没有执行Full GC时系统是正常的,但一旦执行Full GC,MaxGCPauseMillis根本没有用,停顿时间可能超过20秒,之后会发生什么我也不再关心了,赶紧重启resin,尝试其他回收策略。
三:并发回收,完成10万request用时60秒,比并行回收差不多快一倍,是默认回收策略性能的2.5倍,配置如下:
$JAVA_ARGS .= " -Dresin.home=$SERVER_ROOT -server-Xms2048M -Xmx2048M -Xmn512M -XX:PermSize=256M -XX:MaxPermSize=256M-XX:+UseConcMarkSweepGC -XX:MaxTenuringThreshold=7 -XX:GCTimeRatio=19-Xnoclassgc -Xloggc:log/gc.log -XX:+PrintGCDetails -XX:+PrintGCTimeStamps-XX:+UseCMSCompactAtFullCollection -XX:CMSFullGCsBeforeCompaction=0 ";
这个配置虽然不会出现10秒连不上的情况,但系统重启3个小时左右,每隔几分钟就会有5秒连不上的情况,查看gc.log,发现在执行ParNewGC时有个promotion failed错误,从而转向执行Full GC,造成系统停顿,而且会很频繁,每隔几分钟就有一次,所以还得改善。UseCMSCompactAtFullCollection是表是执行Full GC后对内存进行整理压缩,免得产生内存碎片,CMSFullGCsBeforeCompaction=N表示执行N次Full GC后执行内存压缩。
四:增量回收,完成10万request用时171秒,太慢了,配置如下
$JAVA_ARGS .= " -Dresin.home=$SERVER_ROOT -server-Xms2048M -Xmx2048M -Xmn512M -XX:PermSize=256M -XX:MaxPermSize=256M-XX:MaxTenuringThreshold=7 -XX:GCTimeRatio=19 -Xnoclassgc -Xloggc:log/gc.log-XX:+PrintGCDetails -XX:+PrintGCTimeStamps -Xincgc ";
似乎回收得也不太干净,而且也对性能有较大影响,不值得试。
五:并发回收的I-CMS模式,和增量回收差不多,完成10万request用时170秒。
$JAVA_ARGS .= " -Dresin.home=$SERVER_ROOT -server-Xms2048M -Xmx2048M -Xmn512M -XX:PermSize=256M -XX:MaxPermSize=256M-XX:MaxTenuringThreshold=7 -XX:GCTimeRatio=19 -Xnoclassgc -Xloggc:log/gc.log-XX:+PrintGCDetails -XX:+PrintGCTimeStamps -XX:+UseConcMarkSweepGC-XX:+CMSIncrementalMode -XX:+CMSIncrementalPacing-XX:CMSIncrementalDutyCycleMin=0 -XX:CMSIncrementalDutyCycle=10-XX:-TraceClassUnloading ";
采用了sun推荐的参数,回收效果不好,照样有停顿,数小时之内就会频繁出现停顿,什么sun推荐的参数,照样不好使。
六:递增式低暂停收集器,还叫什么火车式回收,不知道属于哪个系,完成10万request用时153秒
$JAVA_ARGS .= " -Dresin.home=$SERVER_ROOT -server-Xms2048M -Xmx2048M -Xmn512M -XX:PermSize=256M -XX:MaxPermSize=256M-XX:MaxTenuringThreshold=7 -XX:GCTimeRatio=19 -Xnoclassgc -Xloggc:log/gc.log-XX:+PrintGCDetails -XX:+PrintGCTimeStamps -XX:+UseTrainGC ";
该配置效果也不好,影响性能,所以没试。
七:相比之下,还是并发回收比较好,性能比较高,只要能解决ParNewGC(并行回收年轻代)时的promotionfailed错误就一切好办了,查了很多文章,发现引起promotion failed错误的原因是CMS来不及回收(CMS默认在年老代占到90%左右才会执行),年老代又没有足够的空间供GC把一些活的对象从年轻代移到年老代,所以执行Full GC。CMSInitiatingOccupancyFraction=70表示年老代占到约70%时就开始执行CMS,这样就不会出现Full GC了。SoftRefLRUPolicyMSPerMB这个参数也是我认为比较有用的,官方解释是softlyreachable objects will remain alive for some amount of time after the last timethey were referenced. The default value is one second of lifetime per freemegabyte in the heap,我觉得没必要等1秒,所以设置成0。配置如下
$JAVA_ARGS .= " -Dresin.home=$SERVER_ROOT -server-Xms2048M -Xmx2048M -Xmn512M -XX:PermSize=256M -XX:MaxPermSize=256M-XX:SurvivorRatio=8 -XX:MaxTenuringThreshold=7 -XX:GCTimeRatio=19 -Xnoclassgc-XX:+DisableExplicitGC -XX:+UseParNewGC -XX:+UseConcMarkSweepGC-XX:+CMSPermGenSweepingEnabled -XX:+UseCMSCompactAtFullCollection-XX:CMSFullGCsBeforeCompaction=0 -XX:+CMSClassUnloadingEnabled-XX:-CMSParallelRemarkEnabled -XX:CMSInitiatingOccupancyFraction=70-XX:SoftRefLRUPolicyMSPerMB=0 -XX:+PrintClassHistogram -XX:+PrintGCDetails-XX:+PrintGCTimeStamps -XX:+PrintGCApplicationConcurrentTime-XX:+PrintGCApplicationStoppedTime -Xloggc:log/gc.log ";
上面这个配置内存上升的很慢,24小时之内几乎没有停顿现象,最长的只停滞了0.8s,ParNew GC每30秒左右才执行一次,每次回收约0.2秒,看来问题应该暂时解决了。
参数不明白的可以上网查,本人认为比较重要的几个参数是:-Xms -Xmx -Xmn MaxTenuringThreshold GCTimeRatio UseConcMarkSweepGCCMSInitiatingOccupancyFraction SoftRefLRUPolicyMSPerMB
Memcached是什么?
Memcached是高性能的,分布式的内存对象缓存系统,用于在动态应用中减少数据库负载,提升访问速度。
Memcached由Danga Interactive开发,用于提升LiveJournal.com访问速度的。LJ每秒动态页面访问量几千次,用户700万。Memcached将数据库负载大幅度降低,更好的分配资源,更快速访问。
如何使用memcached-Server端?
在服务端运行:
# ./memcached -d -m 2048 -l 10.0.0.40 -p 11211
这将会启动一个占用2G内存的进程,并打开11211端口用于接收请求。由于32位系统只能处理4G内存的寻址,所以在大于4G内存使用PAE的32位服务器上可以运行2-3个进程,并在不同端口进行监听。
如何使用memcached-Client端?(Java版是这样的,参看http://www.whalin.com/memcached/#download)
String serverStr = "218.241.154.12:12321";
String[] serverlist = {serverStr};
//String[] serverlist = { "cache0.server.com:12345", "cache1.server.com:12345" };
//Integer[] weights = { new Integer(5), new Integer(2) };
int initialConnections = 100;
int minSpareConnections = 50;
int maxSpareConnections = 500;
long maxIdleTime = 1000 * 60 * 30; // 30 minutes
long maxBusyTime = 1000 * 60 * 5; // 5 minutes
long maintThreadSleep = 1000 * 5; // 5 seconds
int socketTimeOut = 1000 * 3; // 3 seconds to block on reads
//int socketConnectTO = 1000 * 3; // 3 seconds to block on initial connections. If 0, then will use blocking connect (default)
//boolean failover = false; // turn off auto-failover in event of server down
boolean nagleAlg = false; // turn off Nagle's algorithm on all sockets in pool
//boolean aliveCheck = false; // disable health check of socket on checkout
pool = SockIOPool.getInstance("mymemcache");
pool.setServers( serverlist );
//pool.setWeights( weights );
pool.setInitConn( initialConnections );
pool.setMinConn( minSpareConnections );
pool.setMaxConn( maxSpareConnections );
pool.setMaxIdle( maxIdleTime );
pool.setMaxBusyTime( maxBusyTime );
pool.setMaintSleep( maintThreadSleep );
pool.setSocketTO( socketTimeOut );
pool.setNagle( nagleAlg );
pool.setHashingAlg( SockIOPool.NEW_COMPAT_HASH );
pool.setAliveCheck( true );
pool.initialize();
mCachedClient = new MemCachedClient( "mymemcache" );
mCachedClient.setCompressEnable( false );
mCachedClient.setCompressThreshold(4096);
然后用mCachedClient的set/get/delete方法就可以了。memcached的吞吐量每秒大概能get两万次左右,这比mysql的select提高了好几倍,所以很多网站都用这个来做缓存,如豆瓣。
我在系统种也用了memcached,我的建议是在有分布式的时候才考虑用memcached,如果只有一台应用服务器就没有必要用memcached,毕竟Memcached的吞吐量还是有限,本地HashMap每秒可以get一百万次,用本地HashMap做缓存才是最快的。用了分布式后,缓存同步和分布式session都是比较难处理的问题,所以建议1000万pv/天以下的应用不要用分布式。