①Memcached出现于2003年,key支持250bytes,value支持1MB;redis出现于2009年,key和value都是支持512MB的。
持久化方面,memcached过期失效,redis可以缓存回收(6种回收机制),有存储,可算为NOSQL,有优化,支持190多种命令。
集群方面,memcached不支持集群,基于两次哈希,第一次哈希找到服务器节点,第二次哈希找到存储的值。
1)Redis不仅仅支持简单的k/v类型的数据,同时还提供list,set,hash等数据结构的存储。
2)Redis支持数据的备份,即master-slave模式的数据备份。
3)Redis支持数据的持久化,可以将内存中的数据保持在磁盘中,重启的时候可以再次加载进行使用。
Redis只会缓存所有的key的信息,如果Redis发现内存的使用量超过了某一个阀值,将触发swap的操作,Redis根据“swappability= age*log(size_in_memory)”计算出哪些key对应的value需要swap到磁盘。然后再将这些key对应的value持久化到磁盘中,同时在内存中清除。这种特性使得Redis可以保持超过其机器本身内存大小的数据。当然,机器本身的内存必须要能够保持所有的key,毕竟这些数据是不会进行swap操作的。
②memcached、redis和mongoDB三者之间的对比:
1)性能
都比较高,性能对我们来说应该都不是瓶颈
总体来讲,TPS(每秒事务处理量)方面redis和memcache差不多,要大于mongodb
2)操作的便利性
memcache数据结构单一
redis丰富一些,数据操作方面,redis更好一些,较少的网络IO次数
mongodb支持丰富的数据表达,索引,最类似关系型数据库,支持的查询语言非常丰富
3)内存空间的大小和数据量的大小
redis在2.0版本后增加了自己的VM特性,突破物理内存的限制;可以对key value设置过期时间(类似memcache)
memcache可以修改最大可用内存,采用LRU算法
mongoDB适合大数据量的存储,依赖操作系统VM做内存管理,吃内存也比较厉害,服务不要和别的服务在一起
4)可用性(单点问题)
对于单点问题,
redis,依赖客户端来实现分布式读写;主从复制时,每次从节点重新连接主节点都要依赖整个快照,无增量复制,因性能和效率问题,
所以单点问题比较复杂;不支持自动sharding,需要依赖程序设定一致hash 机制。
一种替代方案是,不用redis本身的复制机制,采用自己做主动复制(多份存储),或者改成增量复制的方式(需要自己实现),一致性问题和性能的权衡
Memcache本身没有数据冗余机制,也没必要;对于故障预防,采用依赖成熟的hash或者环状的算法,解决单点故障引起的抖动问题。
mongoDB支持master-slave,replicaset(内部采用paxos选举算法,自动故障恢复),auto sharding机制,对客户端屏蔽了故障转移和切分机制。
5)可靠性(持久化)
对于数据持久化和数据恢复,
redis支持(快照、AOF):依赖快照进行持久化,aof增强了可靠性的同时,对性能有所影响;memcache不支持,通常用在做缓存,提升性能;MongoDB从1.8版本开始采用binlog方式支持持久化的可靠性。
6)数据一致性(事务支持)
Memcache 在并发场景下,用cas保证一致性。
redis事务支持比较弱,只能保证事务中的每个操作连续执行。
mongoDB不支持事务
7)数据分析
mongoDB内置了数据分析的功能(mapreduce),其他不支持。
8)应用场景
redis:数据量较小的更性能操作和运算上。
memcache:用于在动态系统中减少数据库负载,提升性能;做缓存,提高性能(适合读多写少,对于数据量比较大,可以采用sharding)。
MongoDB:主要解决海量数据的访问效率问题。
5、设计一个缓存
A、过期时间
B、多态实现访问量
C、弱引用、软引用。
D、WeakHashMap的使用。
缓存技术的实现原理:LRU(Least Recently Used)缓存技术
可以使用两个标准的数据结构来实现,Map和Queue。因为需要支持多线程,需要使用实现了java.util.concurrent.*的Map和Queue。主要思路是使用一个Queue来维护FIFO和Map来对数据进行排序,当向缓存添加新的元素时,共有以下三种可能:
①如果该元素已经在Cache中存在(Map),我们会从Queue中删除元素并将其添加到Queue的第一个位置;
②如果缓存已经无法满足新增新的元素,我们会从Queue和Map中删除最后面的那个元素并把新元素添加进来;
③同时在Map和Queue中增加新的元素。
下面看一下代码参考:
import java.util.concurrent.ConcurrentHashMap;
import java.util.concurrent.ConcurrentLinkedQueue;
public class LRUCache<K, V> {
// LRU 缓存的最大容量.
private final int capacity;
// 用来保持最近使用的元素的 Queue.
private ConcurrentLinkedQueue<K> queue;
private ConcurrentHashMap<K, V> map;
/**
* 初始化 LRU 缓存
*
* @param capacity
*/
public LRUCache(final int capacity) {
this.capacity = capacity;
this.queue = new ConcurrentLinkedQueue<K>();
this.map = new ConcurrentHashMap<K, V>(capacity);
}
/**
* 检查该元素释放在缓存中存在,如果不存在则返回 null
*
* @param key
* @return
*/
public V get(final K key) {
return map.get(key);
}
/**
* 将元素添加到 LRU 缓存。如果 Key 已存在,则将其放到缓存的第一位置
*
* @param key
* @param value
* @throws NullPointerException
*/
public synchronized void put(final K key, final V value) {
if (key == null || value == null) {
throw new NullPointerException();
}
if (map.containsKey(key)) {
queue.remove(key);
}
while (queue.size() >= capacity) {
K expiredKey = queue.poll();
if (expiredKey != null) {
map.remove(expiredKey);
}
}
queue.add(key);
map.put(key, value);
}
}