Redis

一、简介

Redis是一个开源、支持网络、基于内存、键值对存储数据库,使用ANSI C编写。从2013年5月开始,Redis的开发由Pivotal赞助。在这之前,其开发由VMware赞助。根据月度排行网站DB-Engines.com的数据显示,Redis是最流行的键值对存储数据库。

 

二、数据模型

Redis的外围由一个键、值映射的字典构成。与其他非关系型数据库主要不同在于:Redis中值的类型不仅限于字符串,还支持如下抽象数据类型:

  • 字符串列表
  • 无序不重复的字符串集合
  • 有序不重复的字符串集合
  • 键、值都为字符串的哈希表

 

值的类型决定了值本身支持的操作。Redis支持不同无序、有序的列表,无序、有序的集合间的交集、并集等高级服务器端原子操作。

 

三、持久化

Redis通常将全部的数据存储在内存中。

2.4版本后可配置为使用虚拟内存,一部分数据集存储在硬盘上,但这个特性废弃了。

目前通过两种方式实现持久化:

  • 使用快照,一种半持久耐用模式。不时的将数据集以异步方式从内存以RDB格式写入硬盘。
  • 1.1版本开始使用更安全的AOF格式替代,一种只能追加的日志类型。将数据集修改操作记录起来。Redis能够在后台对只可追加的记录作修改来避免无限增长的日志。

 

四、 同步

Redis支持主从同步。数据可以从主服务器向任意数量的从服务器上同步,从服务器可以是关联其他从服务器的主服务器。这使得Redis可执行单层树复制。从盘可以有意无意的对数据进行写操作。由于完全实现了发布/订阅机制,使得从数据库在任何地方同步树时,可订阅一个频道并接收主服务器完整的消息发布记录。同步对读取操作的可扩展性和数据冗余很有帮助。

 

五、性能

当数据依赖不再需要,Redis这种基于内存的性质,与在执行一个事务时将每个变化都写入硬盘的数据库系统相比就显得执行效率非常高。写与读操作速度没有明显差别。

 

六、Windows下按在Redis

1. 下载地址:https://github.com/dmajkic/redis/downloads

我安装的是2.4.5-32bit的。下载相应jar,解压后包32bit的拷贝到D盘根目录。

2. cmd状态下,键入命令:redis-server.exe redis.conf

显示如图,就是安装成功:

 3. 重新打开一个cmd窗口,运行 redis-cli.exe -h 127.0.0.1 -p 6379,其中 127.0.0.1是本地ip,6379是redis服务端的默认端口。运行成功如下图所示:

 4. 测试一下:

比如:存储一个key为test,value为hello word的字符串,然后获取key值。

 

 七、简单命令介绍

1. String类型

Redis能存储二进制安全的字符串,最大长度为1GB

String类型还支持批量的读写操作

String类型其实也可以用来存储数字,并支持对数字的加减操作。

String类型还支持对其部分的修改和获取操作

 

2. List类型

Redis能够将数据存储成一个链表,并能对这个链表进行丰富的操作

Redis也支持很多修改操作

 

3. 集合(sets)类型

Redis能够将一系列不重复的值存储成一个集合 

Sets结构也支持相应的修改操作


Redis还支持对集合的子交并补等操作

3. 有序集合(Sorted Sets)类型

Sorted Sets和Sets结构相似,不同的是存在Sorted Sets中的数据会有一个score属性,并会在写入时就按这个score排好序。

 

4. Hash类型

Redis能够存储key对多个属性的数据(比如user1.uname user1.passwd) 

 

八、持久化(RDB与AOF)

通过./redis-benchmark -n 100000 -c 3000|more命令分析。开三千个客户,十万个请求。

发现RDB与AOF个有千秋,可参加截图:

 

RDB    AOF    
====== PING_INLINE ======  ====== PING_INLINE ======  
  100000 requests completed in 2.85 seconds  100000 requests completed in 2.84 seconds
  3000 parallel clients    3000 parallel clients  
  3 bytes payload     3 bytes payload   
  keep alive: 1     keep alive: 1   
35063.11 requests per second 35223.67 requests per second 
====== PING_BULK ======  ====== PING_BULK ======  
  100000 requests completed in 2.92 seconds  100000 requests completed in 2.82 seconds
  3000 parallel clients    3000 parallel clients  
  3 bytes payload     3 bytes payload   
  keep alive: 1     keep alive: 1   
34246.57 requests per second 35523.98 requests per second 
====== SET ======   ====== SET ======   
  100000 requests completed in 2.91 seconds  100000 requests completed in 2.88 seconds
  3000 parallel clients    3000 parallel clients  
  3 bytes payload     3 bytes payload   
  keep alive: 1     keep alive: 1   
34364.26 requests per second 34782.61 requests per second 
====== GET ======   ====== GET ======   
  100000 requests completed in 2.81 seconds  100000 requests completed in 2.86 seconds
  3000 parallel clients    3000 parallel clients  
  3 bytes payload     3 bytes payload   
  keep alive: 1     keep alive: 1   
35574.53 requests per second 34952.81 requests per second 
====== INCR ======  ====== INCR ======  
  100000 requests completed in 2.86 seconds  100000 requests completed in 2.90 seconds
  3000 parallel clients    3000 parallel clients  
  3 bytes payload     3 bytes payload   
  keep alive: 1     keep alive: 1   
35001.75 requests per second 34459.00 requests per second 
====== LPUSH ======  ====== LPUSH ======  
  100000 requests completed in 2.84 seconds  100000 requests completed in 2.85 seconds
  3000 parallel clients    3000 parallel clients  
  3 bytes payload     3 bytes payload   
  keep alive: 1     keep alive: 1   
35248.50 requests per second 35075.41 requests per second 
====== LPOP ======  ====== LPOP ======  
  100000 requests completed in 2.88 seconds  100000 requests completed in 2.83 seconds
  3000 parallel clients    3000 parallel clients  
  3 bytes payload     3 bytes payload   
  keep alive: 1     keep alive: 1   
34470.87 requests per second 35398.23 requests per second 
====== SADD ======  ====== SADD ======  
  100000 requests completed in 2.93 seconds  100000 requests completed in 2.84 seconds
  3000 parallel clients    3000 parallel clients  
  3 bytes payload     3 bytes payload   
  keep alive: 1     keep alive: 1   
34094.78 requests per second 35211.27 requests per second 
====== SPOP ======  ====== SPOP ======  
  100000 requests completed in 2.86 seconds  100000 requests completed in 2.81 seconds
  3000 parallel clients    3000 parallel clients  
  3 bytes payload     3 bytes payload   
  keep alive: 1     keep alive: 1   
34989.50 requests per second 35561.88 requests per second 

 以上列出的是ROB与AOF处理时间和速度。

 

下面我们分析一下原因,和他们各自的优劣:

RDB 的优点:
RDB 是一个非常紧凑(compact)的文件,它保存了 Redis 在某个时间点上的数据集。 这种文件非常适合用于进行备份: 比如说,你可以在最近的 24 小时内,每小时备份一次 RDB 文件,并且在每个月的每一天,也备份一个 RDB 文件。 这样的话,即使遇上问题,也可以随时将数据集还原到不同的版本。RDB 非常适用于灾难恢复(disaster recovery):它只有一个文件,并且内容都非常紧凑,可以(在加密后)将它传送到别的数据中心,或者亚马逊 S3 中。RDB 可以最大化 Redis 的性能:父进程在保存 RDB 文件时唯一要做的就是 fork 出一个子进程,然后这个子进程就会处理接下来的所有保存工作,父进程无须执行任何磁盘 I/O 操作。RDB 在恢复大数据集时的速度比 AOF 的恢复速度要快。


RDB 的缺点:
如果你需要尽量避免在服务器故障时丢失数据,那么 RDB 不适合你。 虽然 Redis 允许你设置不同的保存点(save point)来控制保存 RDB 文件的频率, 但是, 因为RDB 文件需要保存整个数据集的状态, 所以它并不是一个轻松的操作。 因此你可能会至少 5 分钟才保存一次 RDB 文件。 在这种情况下, 一旦发生故障停机, 你就可能会丢失好几分钟的数据。每次保存 RDB 的时候,Redis 都要 fork() 出一个子进程,并由子进程来进行实际的持久化工作。 在数据集比较庞大时, fork() 可能会非常耗时,造成服务器在某某毫秒内停止处理客户端; 如果数据集非常巨大,并且 CPU 时间非常紧张的话,那么这种停止时间甚至可能会长达整整一秒。 虽然 AOF 重写也需要进行 fork() ,但无论 AOF 重写的执行间隔有多长,数据的耐久性都不会有任何损失。


AOF 的优点:
使用 AOF 持久化会让 Redis 变得非常耐久(much more durable):你可以设置不同的 fsync 策略,比如无 fsync ,每秒钟一次 fsync ,或者每次执行写入命令时 fsync 。 AOF 的默认策略为每秒钟 fsync 一次,在这种配置下,Redis 仍然可以保持良好的性能,并且就算发生故障停机,也最多只会丢失一秒钟的数据( fsync 会在后台线程执行,所以主线程可以继续努力地处理命令请求)。AOF 文件是一个只进行追加操作的日志文件(append only log), 因此对 AOF 文件的写入不需要进行 seek , 即使日志因为某些原因而包含了未写入完整的命令(比如写入时磁盘已满,写入中途停机,等等), redis-check-aof 工具也可以轻易地修复这种问题。
Redis 可以在 AOF 文件体积变得过大时,自动地在后台对 AOF 进行重写: 重写后的新 AOF 文件包含了恢复当前数据集所需的最小命令集合。 整个重写操作是绝对安全的,因为 Redis 在创建新 AOF 文件的过程中,会继续将命令追加到现有的 AOF 文件里面,即使重写过程中发生停机,现有的 AOF 文件也不会丢失。 而一旦新 AOF 文件创建完毕,Redis 就会从旧 AOF 文件切换到新 AOF 文件,并开始对新 AOF 文件进行追加操作。AOF 文件有序地保存了对数据库执行的所有写入操作, 这些写入操作以 Redis 协议的格式保存, 因此 AOF 文件的内容非常容易被人读懂, 对文件进行分析(parse)也很轻松。 导出(export) AOF 文件也非常简单: 举个例子, 如果你不小心执行了 FLUSHALL 命令, 但只要 AOF 文件未被重写, 那么只要停止服务器, 移除 AOF 文件末尾的 FLUSHALL 命令, 并重启 Redis , 就可以将数据集恢复到 FLUSHALL 执行之前的状态。


AOF 的缺点:
对于相同的数据集来说,AOF 文件的体积通常要大于 RDB 文件的体积。根据所使用的 fsync 策略,AOF 的速度可能会慢于 RDB 。 在一般情况下, 每秒 fsync 的性能依然非常高, 而关闭 fsync 可以让 AOF 的速度和 RDB 一样快, 即使在高负荷之下也是如此。 不过在处理巨大的写入载入时,RDB 可以提供更有保证的最大延迟时间(latency)。AOF 在过去曾经发生过这样的 bug : 因为个别命令的原因,导致 AOF 文件在重新载入时,无法将数据集恢复成保存时的原样。 (举个例子,阻塞命令 BRPOPLPUSH 就曾经引起过这样的 bug 。) 测试套件里为这种情况添加了测试: 它们会自动生成随机的、复杂的数据集, 并通过重新载入这些数据来确保一切正常。 虽然这种 bug 在 AOF 文件中并不常见, 但是对比来说, RDB 几乎是不可能出现这种 bug 的。

RDB 和 AOF ,我应该用哪一个?
一般来说,如果想达到足以媲美 PostgreSQL 的数据安全性, 你应该同时使用两种持久化功能。如果你非常关心你的数据,但仍然可以承受数分钟以内的数据丢失, 那么你可以只使用 RDB 持久化。有很多用户都只使用 AOF 持久化, 但我们并不推荐这种方式: 因为定时生成 RDB 快照(snapshot)非常便于进行数据库备份, 并且 RDB 恢复数据集的速度也要比 AOF 恢复的速度要快, 除此之外, 使用 RDB 还可以避免之前提到的 AOF 程序的 bug 。因为以上提到的种种原因, 未来我们可能会将 AOF 和 RDB 整合成单个持久化模型。 (这是一个长期计划。)

 

九、java操作Radis

Maven依赖:

		<!-- Redis -->
		<dependency>
			<groupId>redis.clients</groupId>
			<artifactId>jedis</artifactId>
			<version>2.5.1</version>
		</dependency>

 

直接上代码:

 

package redis;

import java.util.HashMap;
import java.util.List;
import java.util.Map;
import redis.clients.jedis.Jedis;

public class Demo {
	public static void main(String[] args) {
		// 连接redis服务
		Jedis jedis = new Jedis("127.0.0.1", 6379);
		// 密码验证-如果你没有设置redis密码可不验证即可使用相关命令
		// jedis.auth("abcdefg");
		// 简单的key-value 存储
		jedis.set("redis", "myredis");
		System.out.println(jedis.get("redis"));
		// 删除一个key
		// 在原有值得基础上添加,如若之前没有该key,则导入该key
		// 之前已经设定了redis对应"myredis",此句执行便会使redis对应"myredisyourredis"
		jedis.append("redis", "yourredis");
		jedis.append("content", "rabbit");
		jedis.del("redis");
		// mset 是设置多个key-value值 参数(key1,value1,key2,value2,...,keyn,valuen)
		// mget 是获取多个key所对应的value值 参数(key1,key2,key3,...,keyn) 返回的是个list
		jedis.mset("name1", "yangw", "name2", "demon", "name3", "elena");
		System.out.println(jedis.mget("name1", "name2", "name3"));
		// map
		Map<String, String> user = new HashMap<String, String>();
		user.put("name", "cd");
		user.put("password", "123456");
		// map存入redis
		jedis.hmset("user", user);
		// mapkey个数
		System.out.println(String.format("len:%d", jedis.hlen("user")));
		// map中的所有键值
		System.out.println(String.format("keys: %s", jedis.hkeys("user")));
		// map中的所有value
		System.out.println(String.format("values: %s", jedis.hvals("user")));
		// 取出map中的name字段值
		List<String> rsmap = jedis.hmget("user", "name", "password");
		System.out.println(rsmap);
		// 删除map中的某一个键值 password
		jedis.hdel("user", "password");
		System.out.println(jedis.hmget("user", "name", "password"));
		// list
		jedis.del("listDemo");
		System.out.println(jedis.lrange("listDemo", 0, -1));
		jedis.lpush("listDemo", "A");
		jedis.lpush("listDemo", "B");
		jedis.lpush("listDemo", "C");
		System.out.println(jedis.lrange("listDemo", 0, -1));
		System.out.println(jedis.lrange("listDemo", 0, 1));
		// set
		jedis.sadd("sname", "wobby");
		jedis.sadd("sname", "kings");
		jedis.sadd("sname", "demon");
		System.out.println(String.format("set num: %d", jedis.scard("sname")));
		System.out.println(String.format("all members: %s",
				jedis.smembers("sname")));
		System.out.println(String.format("is member: %B",
				jedis.sismember("sname", "wobby")));
		System.out.println(String.format("rand member: %s",
				jedis.srandmember("sname")));
		// 删除一个对象
		jedis.srem("sname", "demon");
		System.out.println(String.format("all members: %s",
				jedis.smembers("sname")));
	}

}

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值