目录
Redis
##redis是分关系型数据库(nosql=not only sql)
Nosql
---nosql数据库的四大分类:
1、KV键值对
2、文档型数据库(bson的格式比较多)
3、列存储数据库
4、图关系数据库
----在分布式数据库中CAP原理CAP+BASE:
-问题1:传统的ACID分别是什么?
---1、A(Atomicity)原子性
---2、C(Consistency)一致性
---3、I(Isolation)独立性
---4、D(Durability)持久性
-问题2:CAP
---1、C:Consistency(强一致性)
---2、A:Availability(可用性)
---3、P:Partition tolerance(分区容错性)
CAP:
CAP理论的核心是:一个分布式系统不可能同时很好的满足一致性、可用性和分区容错性这三个需求,最多只能同时较好的满足两个。
因此,根据CAP原理将NoSQL数据库分成了满足CA原则、满足CP原则和满足AP原则三大类:
---CA: 单点集群,满足一致性,可用性的系统,通常在可扩展性上不太强大
---CP:满足一致性和分区容忍的系统,通常性能不是特别高
---AP:满足可用性和分区容忍性的系统,通常可能对一致性要求低一点
--CAP的3进2:
CAP的理论就是说在分布式存储系统中,最多只能实现上面的两点。
二由于当前的网络硬件肯定会出现延迟丢包等问题 ,所以
分区容忍性是我们必须需要实现的
所以我们只能在一致性和可用性之间进行权衡,没有NoSQL系统能同时保证这三点。
C:强一致性 A:高可用性 P:分布式容错性
CA:传统Oracle数据库
AP:大多数网站架构的选择
CP:Redis、Mongodb
-问题3:BASE是什么?
BA:基本可用(Basically Available)
S:软状态(Soft state)
E:最终一致(Eventually consistent)
它的思想是通过让系统放松对某一时刻数据一致性的要求来换取系统整体伸缩性和性能上的改观。为什么这么说呢?缘由就在与大型系统往往由于地域分布和极高性能的要求,不可能采用分布式事务来完成这些指标,想要获得这些指标,我们必须采用另外一种方式来完成,这里BASE就是解决这一问题的办法。
牺牲强一致性来换取AP(高可用性和分布式容错性)
入门概述:
1、是什么?
Redis:REmote DIctionary Server(远程字典服务器)
是完全开源免费的,用C语言编写的,遵守BSD协议,是一个高性能的(key/value)分布式内存数据库,基于内存运行并支持持久化的NoSQL数据库,是当前最热门的NoSQL数据库之一,也被人们称为数据结构服务器
---Redis与其他key-value缓存产品有一下特点
---1、Redis支持数据的持久化,可以将内存中的数据保持在磁盘中,重启的时候可以再次加载使用
---2、Redis不仅仅支持简单的key-value类型的数据,同时还提供list、set、zset、hash等数据结构的存储
---3、Redis支持数据的备份,即master-slave模式的数据备份
2、能干嘛?
---1、内存存储和持久化:redis支持异步将内存中的数据写到硬盘上,同时不会影响继续服务
---2、取最新N个数据的操作,如:可以将最新的10条评论的ID放在Redis的List集合里
---3、模拟类似于HttpSession这种需要设定国过期时间的功能
---4、发布、订阅消息系统
---5、定时器、计时器
3、去哪下?
4、怎么玩?
数据类型、基本操作和配置
持久化和复制,RDB/AOF
事务的控制
复制
……
Redis的安装:
---windows版安装(不建议使用):
····下载地址:http://github.com/dmajkic/redis/downloads
---Linux版安装:
····1、下载并获得redis-3.0.4.tar.gz后将它返给我们呢的linux目录/opt
····2、/opt目录下,解压命令:tar -zxvf redis-3.0.4.tar.gz
····4、解压完成后出现文件夹:redis-3.0.4
····5、进入目录redis-3.0.4中
····6、在redis-3.0.4目录中执行make命令
如果出现 gcc:命令未找到
解决:见拓展1-1
····7、如果make完成后继续执行,make install
如果二次make报:jemalloc/jemalloc.h:没有那个文件或目录
原因:在第一次make时产生的残留文件
运行make distclean 之后再make
····8、查看默认安装目录:usr/local/bin 进入到redis-3.0.4目录中,修改redis.conf文件(注意:需备份再修改)
修改第37行,将daemonize 后的no修改为yes
····9、启动
redis-server /……/redis.conf
redis-cli -p 6379
测试redis是否连接成功:
输入ping,返回结果:PONG
····10、永远的helloworld
set k1 hello
get k1
····11、关闭
输入:SHUTDOWN
随后再输入exit
····查看是否启动redis
1、ps -ef | grep redis
2、lsof -i : 6379
拓展:
1-1:安装gcc
····如果能上网:yum install gcc-c++
····如果不能上网:
--1、将redis-3.0.4.tar.gz放入我们的共享目录(CentOS的目录下)
/media/CentOS_5.5_FInal/CentOS
--2、进入/media/CentOS_5.5_FInal/CentOS分别执行以下命令:
rpm-ivh cpp-4.1.2-48.el5.i386.rpm
rpm-ivh kernel-headers-2.6.18-194.el5.i386.rpm
rpm-ivh glibc-headers-2.5-49.i386.rpm
rpm-ivh glibc-devel-2.5-24.i386.rpm
rpm-ivh libgomp-4.4.0-6.el5.i386.rpm
rpm-ivh gcc-4.1.2-48.el5.i386.rpm
1-2:Redis Test(可以不用执行)
启动后杂项基础知识讲解
---单进程
---单进程模型来处理客户端的请求。对读写等事件的响应时通过epoll函数的包装来做到的。redis的实际处理速度完全依靠主进程的执行效率
---Epoll时Linux内核为处理大批量文件描述符号而做了改进的epoll,是linux下多路复用IO接口select/poll的增强版本,它能显著提高程序再大量并发连接中只有少量活跃的情况下的系统CPU利用率
---默认16个数据库,类似数组下表从0开始,初始默认使用0号库
---select命令切换数据库
---Dbsize查看当前数据库的key的数量
---Flushdb:清空当前库
---Flushall:通杀全部库
统一密码管理,16个库都是同样的密码,要么都OK要么一个也连接不上
---Redis索引都是从0开始的
---为什么默认的端口号是6379---源自于一个小故事
Redis的数据类型
---Redis的五大数据类型
-String(字符串)
-Hash(哈希,类似java里的Map)
-Lish(列表)
-Set(集合):无序集合
-Zset(sorted set:有序集合)
Redis_Key关键字
-EXISTS 判断key是否存在
-例如:EXISTS k1 判断键名为k1的键是否存在
-keys *:查看所有的key
-get :获取key所对应的value
-move key db :当前库没有了,就移除了
-expire key 秒钟 :为给定的key设置过期时间
-ttl key :查看还有多少秒过期,-1表示永不过期,-2表示已经过期
-type key:查看key是什么类型
下表给出了与 Redis 键相关的基本命令:
序号 | 命令及描述 |
---|---|
1 | DEL key 该命令用于在 key 存在时删除 key。 |
2 | DUMP key 序列化给定 key ,并返回被序列化的值。 |
3 | EXISTS key 检查给定 key 是否存在。 |
4 | EXPIRE key seconds 为给定 key 设置过期时间,以秒计。 |
5 | EXPIREAT key timestamp EXPIREAT 的作用和 EXPIRE 类似,都用于为 key 设置过期时间。 不同在于 EXPIREAT 命令接受的时间参数是 UNIX 时间戳(unix timestamp)。 |
6 | PEXPIRE key milliseconds 设置 key 的过期时间以毫秒计。 |
7 | PEXPIREAT key milliseconds-timestamp 设置 key 过期时间的时间戳(unix timestamp) 以毫秒计 |
8 | KEYS pattern 查找所有符合给定模式( pattern)的 key 。 |
9 | MOVE key db 将当前数据库的 key 移动到给定的数据库 db 当中。 |
10 | PERSIST key 移除 key 的过期时间,key 将持久保持。 |
11 | PTTL key 以毫秒为单位返回 key 的剩余的过期时间。 |
12 | TTL key 以秒为单位,返回给定 key 的剩余生存时间(TTL, time to live)。 |
13 | RANDOMKEY 从当前数据库中随机返回一个 key 。 |
14 | RENAME key newkey 修改 key 的名称 |
15 | RENAMENX key newkey 仅当 newkey 不存在时,将 key 改名为 newkey 。 |
16 | SCAN cursor [MATCH pattern] [COUNT count] 迭代数据库中的数据库键。 |
17 | TYPE key 返回 key 所储存的值的类型。 |
Redis 字符串命令
下表列出了常用的 redis 字符串命令:
序号 | 命令及描述 |
---|---|
1 | SET key value 设置指定 key 的值。 |
2 | GET key 获取指定 key 的值。 |
3 | GETRANGE key start end 返回 key 中字符串值的子字符 |
4 | GETSET key value 将给定 key 的值设为 value ,并返回 key 的旧值(old value)。 |
5 | GETBIT key offset 对 key 所储存的字符串值,获取指定偏移量上的位(bit)。 |
6 | [MGET key1 key2..] 获取所有(一个或多个)给定 key 的值。 |
7 | SETBIT key offset value 对 key 所储存的字符串值,设置或清除指定偏移量上的位(bit)。 |
8 | SETEX key seconds value 将值 value 关联到 key ,并将 key 的过期时间设为 seconds (以秒为单位)。 |
9 | SETNX key value 只有在 key 不存在时设置 key 的值。 |
10 | SETRANGE key offset value 用 value 参数覆写给定 key 所储存的字符串值,从偏移量 offset 开始。 |
11 | STRLEN key 返回 key 所储存的字符串值的长度。 |
12 | [MSET key value key value ...] 同时设置一个或多个 key-value 对。 |
13 | [MSETNX key value key value ...] 同时设置一个或多个 key-value 对,当且仅当所有给定 key 都不存在。 |
14 | PSETEX key milliseconds value 这个命令和 SETEX 命令相似,但它以毫秒为单位设置 key 的生存时间,而不是像 SETEX 命令那样,以秒为单位。 |
15 | INCR key 将 key 中储存的数字值增一。 |
16 | INCRBY key increment 将 key 所储存的值加上给定的增量值(increment) 。 |
17 | INCRBYFLOAT key increment 将 key 所储存的值加上给定的浮点增量值(increment) 。 |
18 | DECR key 将 key 中储存的数字值减一。 |
19 | DECRBY key decrement key 所储存的值减去给定的减量值(decrement) 。 |
20 | APPEND key value 如果 key 已经存在并且是一个字符串, APPEND 命令将指定的 value 追加到该 key 原来值(value)的末尾。 |
Redis hash 命令
KV模式不变,单V也是一个键值对
重点记忆:hset/hget/hmset/hmget/hgetall/hdel
下表列出了 redis hash 基本的相关命令:
序号 | 命令及描述 |
---|---|
1 | [HDEL key field1 field2] 删除一个或多个哈希表字段 |
2 | HEXISTS key field 查看哈希表 key 中,指定的字段是否存在。 |
3 | HGET key field 获取存储在哈希表中指定字段的值。 |
4 | HGETALL key 获取在哈希表中指定 key 的所有字段和值 |
5 | HINCRBY key field increment 为哈希表 key 中的指定字段的整数值加上增量 increment 。 |
6 | HINCRBYFLOAT key field increment 为哈希表 key 中的指定字段的浮点数值加上增量 increment 。 |
7 | HKEYS key 获取所有哈希表中的字段 |
8 | HLEN key 获取哈希表中字段的数量 |
9 | [HMGET key field1 field2] 获取所有给定字段的值 |
10 | [HMSET key field1 value1 field2 value2 ] 同时将多个 field-value (域-值)对设置到哈希表 key 中。 |
11 | HSET key field value 将哈希表 key 中的字段 field 的值设为 value 。 |
12 | HSETNX key field value 只有在字段 field 不存在时,设置哈希表字段的值。 |
13 | HVALS key 获取哈希表中所有值。 |
14 | HSCAN key cursor [MATCH pattern] [COUNT count] 迭代哈希表中的键值对。 |
Redis 列表命令
下表列出了列表相关的基本命令:
序号 | 命令及描述 |
---|---|
1 | [BLPOP key1 key2 ] timeout 移出并获取列表的第一个元素, 如果列表没有元素会阻塞列表直到等待超时或发现可弹出元素为止。 |
2 | [BRPOP key1 key2 ] timeout 移出并获取列表的最后一个元素, 如果列表没有元素会阻塞列表直到等待超时或发现可弹出元素为止。 |
3 | BRPOPLPUSH source destination timeout 从列表中弹出一个值,将弹出的元素插入到另外一个列表中并返回它; 如果列表没有元素会阻塞列表直到等待超时或发现可弹出元素为止。 |
4 | LINDEX key index 通过索引获取列表中的元素 |
5 | LINSERT key BEFORE|AFTER pivot value 在列表的元素前或者后插入元素 |
6 | LLEN key 获取列表长度 |
7 | LPOP key 移出并获取列表的第一个元素 |
8 | [LPUSH key value1 value2] 将一个或多个值插入到列表头部 |
9 | LPUSHX key value 将一个值插入到已存在的列表头部 |
10 | LRANGE key start stop 获取列表指定范围内的元素 |
11 | LREM key count value 移除列表元素 /移除count个value |
12 | LSET key index value 通过索引设置列表元素的值 |
13 | LTRIM key start stop 对一个列表进行修剪(trim),就是说,让列表只保留指定区间内的元素,不在指定区间之内的元素都将被删除。 |
14 | RPOP key 移除列表的最后一个元素,返回值为移除的元素。 |
15 | RPOPLPUSH source destination 移除列表的最后一个元素,并将该元素添加到另一个列表并返回 |
16 | [RPUSH key value1 value2] 在列表中添加一个或多个值 |
17 | RPUSHX key value 为已存在的列表添加值 |
Redis 集合命令
下表列出了 Redis 集合基本命令:
序号 | 命令及描述 |
---|---|
1 | [SADD key member1 member2] 向集合添加一个或多个成员,且成员不可重复,例如:sadd set0 1 1 2 2 3 3 ,结果为1 2 3 |
2 | SCARD key 获取集合的成员数 |
3 | [SDIFF key1 key2] 返回第一个集合与其他集合之间的差异。 |
4 | [SDIFFSTORE destination key1 key2] 返回给定所有集合的差集并存储在 destination 中 |
5 | [SINTER key1 key2] 返回给定所有集合的交集 |
6 | [SINTERSTORE destination key1 key2] 返回给定所有集合的交集并存储在 destination 中 |
7 | SISMEMBER key member 判断 member 元素是否是集合 key 的成员 |
8 | SMEMBERS key 返回集合中的所有成员 |
9 | SMOVE source destination member 将 member 元素从 source 集合移动到 destination 集合 |
10 | SPOP key 移除并返回集合中的一个随机元素 |
11 | [SRANDMEMBER key count] 返回集合中一个或多个随机数 |
12 | [SREM key member1 member2] 移除集合中一个或多个成员 |
13 | [SUNION key1 key2] 返回所有给定集合的并集 |
14 | [SUNIONSTORE destination key1 key2] 所有给定集合的并集存储在 destination 集合中 |
15 | SSCAN key cursor [MATCH pattern] [COUNT count] 迭代集合中的元素 |
Redis 有序集合命令
下表列出了 redis 有序集合的基本命令:
序号 | 命令及描述 |
---|---|
1 | [ZADD key score1 member1 score2 member2] 向有序集合添加一个或多个成员,或者更新已存在成员的分数 |
2 | ZCARD key 获取有序集合的成员数 |
3 | ZCOUNT key min max 计算在有序集合中指定区间分数的成员数 |
4 | ZINCRBY key increment member 有序集合中对指定成员的分数加上增量 increment |
5 | [ZINTERSTORE destination numkeys key key ...] 计算给定的一个或多个有序集的交集并将结果集存储在新的有序集合 destination 中 |
6 | ZLEXCOUNT key min max 在有序集合中计算指定字典区间内成员数量 |
7 | [ZRANGE key start stop WITHSCORES] 通过索引区间返回有序集合指定区间内的成员 |
8 | [ZRANGEBYLEX key min max LIMIT offset count] 通过字典区间返回有序集合的成员 |
9 | ZRANGEBYSCORE key min max [WITHSCORES] [LIMIT] 通过分数返回有序集合指定区间内的成员 例如: ZRANGEBYSCORE zset01 (60 (90-------含义:大于不等于60且小于不等于90 例如: ZRANGEBYSCORE zset01 60 90 limit 2 2----------含义:成绩再60到90之间,从第二位取,取两个 |
10 | ZRANK key member 返回有序集合中指定成员的索引 |
11 | [ZREM key member member ...] 移除有序集合中的一个或多个成员 |
12 | ZREMRANGEBYLEX key min max 移除有序集合中给定的字典区间的所有成员 |
13 | ZREMRANGEBYRANK key start stop 移除有序集合中给定的排名区间的所有成员 |
14 | ZREMRANGEBYSCORE key min max 移除有序集合中给定的分数区间的所有成员 |
15 | [ZREVRANGE key start stop WITHSCORES] 返回有序集中指定区间内的成员,通过索引,分数从高到低 |
16 | [ZREVRANGEBYSCORE key max min WITHSCORES] 返回有序集中指定分数区间内的成员,分数从高到低排序 |
17 | ZREVRANK key member 返回有序集合中指定成员的排名,有序集成员按分数值递减(从大到小)排序 |
18 | ZSCORE key member 返回有序集中,成员的分数值 |
19 | [ZUNIONSTORE destination numkeys key key ...] 计算给定的一个或多个有序集的并集,并存储在新的 key 中 |
20 | ZSCAN key cursor [MATCH pattern] [COUNT count] 迭代有序集合中的元素(包括元素成员和元素分值) |
Redis_配置文件的讲解
1、redis.conf
-位置
redis/redis.conf
注意:修改配置文件之前要备份
-参数
-tcp-backlog:
设置tcp的backlog,backlog其实是一个连接队列,backlog队里额总和=未完成三次握手队列+已经完成三次握手队列。
在高并发环境下你需要一个高backlog值来避免客户端来避免客户端连接问题。注意Linux内核辉将这个值减小到/proc/sys/net/core/somaxconn的值,所以需要确认增大somaxconn和tcp_max_syn_backlog两个值来达到想要的效果
-tcp-keepalive
单位为秒,如果设置为0,则不会镜像keepalive检测,建议设置成60
-Syslog-enabled
是否把日志输出到syslog中
-syslog-ident
指定syslog里的日志标志
-syslog-facility
指定syslog设备,值可以是user或local0-local7.
-Maxmemory-policy
MAXMEMORY POLICY: how Redis will select what to remove when maxmemory
is reached. You can select among five behaviors:
//当内存达到MAXMEMORY时,可以选择以下五种行为
#
volatile-lru -> remove the key with an expire set using an LRU algorithm
//使用LRU算法移除key,支队设置了过期时间的键
allkeys-lru -> remove any key according to the LRU algorithm
//使用LRU算法移除key
volatile-random -> remove a random key with an expire set
//在过期集合中产出随机的key,只对设置了过期时间的键
allkeys-random -> remove a random key, any key
//移除随机的key
volatile-ttl -> remove the key with the nearest expire time (minor TTL)
//移除那些TTL值最小的key,即那些最近要过期的key
noeviction -> don't expire at all, just return an error on write operations
//不进行移除,针对写操作,只返回错误信息
-Maxmemory-samples
设置样本的数量,LRU算法和最小TTL算法都并非时精确的算法,而时估算值,所以你可以设置样本的大小,redis默认回去检查这么多个key并选在其中LRU的那个
-appendonly
默认为no,yes即开启aof持久化
-appendfilename
修改appendfile的名称
-appendfsync
always:同步持久化,每次发生数据变更会被立即记录到磁盘 性能较差但数据完整性比较好
everysec:出厂默认推荐,异步操作,每秒记录 如果一秒内宕机,有数据丢失
no
-no-appendfsync-on-rewrite
重写时是否可以运用appendfsync,用默认no即可,保证数据安全性
-auto-aof-rewrite-min-size
设置重写的基准值
-auto-aof-rewrite-percentage
设置重写的基准值
redis.conf参数说明(如何配置):
1、redis默认不是以守护进程的方式运行,可以用过该配置项修改,使用yes守护进程
daemonize no
2、当redis以守护进程方式运行时,Redis默认会把pid写入/var/run/redis.pid文件,可以通过pidfile指定
pidfile /var/run/reids.pid
3、指定redis监听端口,默认端口为6379,作者在在自己的一篇博文中解释了为什么选用6379作为端口,因为6379在手机按键上MERZ对应的号码,二MERZ取自意大利歌女Alessia Merz的名字
port 6379
4、绑定的主机地址
bind 127.0.0.1
5、当客户端限制多长时间后关闭连接,如指定为0,则关闭该功能
timeout 300
6、指定日志记录级别,redis总共支持四个级别:debug、verbose、notice、warming,默认为verbose
loglevel verbose
7、日志记录方式,默认为标准输出,如果配置redis作为守护进程方式运行,而这里又配置为日志记录方式为标准输出,则日志将会发送给/dev/null
logfile stdout
8、设置数据库的数量,默认数据库为0,可以使用SELECT <dbid>命令在连接上指定数据库id
databases 16
9、指定在多长时间内,有多少次更新操作,就将数据同步到数据文件,可以多条件配合
svae <seconds> <changes>
redis默认配中提供了三个条件:
save 900 1
save 300 10
save 60 10000
分别表示900秒(15分钟)内有一次更改,200秒(5分钟)内有10个更改以及60秒内有10000个更改
10、指定存储至本地数据库时是否压缩数据,默认为yes,redis采用lzf压缩,如果为了节省CPU时间,可以关闭该选项,但会导致数据库文件变得巨大
rdbcompression yes
11、指定本地数据库名,默认值为dump.rdb
dbfilename dump.rdb
12、指定本地数据库存放目录
dir ./
13、设置当本机为slav服务时,设置master服务的IP地址及端口,在redis启动时,它会自动从master进行数据同步
slaveod <masterip> <masterport>
14、当master服务设置了密码保护时,slav服务连接master密码
masterauth <master-password>
15、设置redis连接密码,如果配置了连接密码,客户端在连接redis时需要通过AUTH <password>命令提供密码,默认关闭
requirepass foobared
16、设置同一时间最大客户端连接数,默认无限制,redis可以同时打开的客户端连接数为redis进程可以打开的最大文件描述符数,如果设置maxclients 0,表示不做限制。当客户锻炼结束达到限制时,redis会关闭新的连接并向客户端返回max number ofclients reached错误信息
maxclients 128
17、指定reids最大内存限制,redis启动时会把数据加载到内存,达到最大内存最后,redis会先尝试清除已到期或即将到期的key,当此方法处理后,仍然会达到最大内存设置,将无法再进行写入操作,但仍然可以进行读取操作,redis新的vm机制,会把key存放内存,value会释放在swap区
maxmemory <bytes>
18、指定是否在每次更新操作后进行日志记录,redis在默认情况下时异步的把数据写入磁盘,如果不开启,可能会在断电时导致一段时间内的数据丢失。因为redis本身同步数据文件是按上面save条件来同步的,所以有的数据会在一段时间内只存在于内存中。默认为no
aooendonly no
19、指定更新日志文件名,默认为appendonly.aof
appendfilename appendonly.aof
20、指定更新日志条件,共有三个可选值;
no:表示等操作系统进行数据缓存同步到磁盘(快)
always:表示每次更新操作后手动调用fsync()将数据写到磁盘(慢,安全)
everysec:表示每秒同步一次(折中,默认值)
appendfsync everysec:
21、指定是否启用虚拟内存机制,默认为no,简单介绍一下,VM机制将数据分页存放,由redis将访问量较少的页即冷到swap到磁盘上,访问多的页面由磁盘自动换出到内存中(后面的文章中我会仔细分析redis的vm机制)
vm-enabled no
22、虚拟内存文件路径,默认值为/tmp/redis.swap,不可多个redis实例共享
vm-swap-file /tmp/redis.swap
23、将所有大于vm-max-memory的数据存入虚拟内存,无论vm-max-memory设置多小,所有索引数据都是内存存储的(redis的索引数据,也就是key),也就是说,当vm-max-memory设置为0的时候,其实是所有value都存在与磁盘。默认值为0.
vm-max-memory 0
24、redis swap文件分成了很多的page,一个对象可以保存在多个对象共享,vm-page-size是要根据存储的数据大小设定的。作者建议如果存储很多小对象,page最好设置成32或者64bytes,如果存储很多大对象,则可以使用更大的page,如果不确定,就使用默认值
vm-page-size 32
25、设置swap文件中的page数量,由于页表(一种表示页面空闲或使用的bitmap)是在放在内存中的,在磁盘上每8个page将小哈1byte的内存
vm-pages 134217728
26、设置访问swap文件的线程数,最好不要超过机器的核数,如果设置为0,那么所有对swap文件的操作都是串行的,可能会造成比较长时间的延迟。默认值为4
vm-max-threads 4
27、设置在向客户端应答时,是否把较小的包合并为一个包发送,默认为开启
glueoutputbuf yes
28、指定在超过一定的数量或者最大的元素超过某一临界值时,采用一种特殊的哈希算法
hash-max-zipmap-entries 64
hash-max-zipmap-value 512
29、指定是否激活配置哈希,默认为开启(后面在介绍redis的哈希算法时具体介绍)
activerehashing yes
30、指定包含其他的配置文件,可以在同一主机上多个redis实例之间使用用一份配置文件,而同时各个实例又拥有自己的特定配置文件
include /path/to/local.conf
redis的安全
查看当前redis密码:
-config get requirepass
设置密码:
-config set requirepass "123456"
登录:
-auth 123456
Redis_持久化
RDB(redis database):
-是什么?
在指定的时间间隔内将内存中的数据集快照写入磁盘
也就是行话讲的Snapshot快照,它恢复时是将快照文件直接读到内存里
Redis会单独创建fork,一个子进程来进行持久化,会先将数据写入到一个临时文件中,待持久化过程结束了,再用这个临时文件替换上次持久化好的文件。整个过程中,主进程是不进行任何IO操作的,这就确保了极高的性能
如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式比AOF方式更加高效。RDB的缺点是最后一次持久化后的数据可能丢失
-Fork?
Fork的作用是复制一个与当前进程一样的进程。新进程的所有数据(变量、环境变量、程序计数器等)数值都和原进程一致,但是是一个新的进程,并作为原进程的子进程
-RDB保存的是dump.rdb
-如何出发RDB快照
-配置文件中默认的快照配置
冷拷贝后重新使用,可以cp dump.rdb dump_new.rdb
-命令save或者bgsave:
SAVE:save时只管保存其他不管,全部阻塞
BGSAVE:redis会在后台异步进行快照操作,快照同时还可以相应客户端请求。可以通过lastsave命令获取最后一次成功执行快照的时间
-执行flushall命令,也会产生dump.rdb文件,但里面是空的无意义。
-如何恢复:
将备份文件(dump.rdb)移动到redis安装目录并启动服务即可
CONFIG GET dir 获取目录
-RDB优势与劣势:
-优势:
1、适合大规模的数据恢复
2、对数据完整性和一致性要求不高
-劣势:
1、在一定间隔时间做一次备份,所以如果redis意外down掉的话,就会丢失最后一次快照后的所有修改
2、Fork的时候,内存中的数据被克隆一份,大致两倍的膨胀性需要考虑
-如何停止?
动态所有停止RDB保存规则的方法:redis-cll config set save ""
AOF(append only file):
-是什么?
以日志的形式来记录每一个写操作,将redis执行过程中的所有写执行记录下来(读操作不记录),只许追加文件但不可以改写文件,redis启动之初会读取该文件重新构建数据,换而言之,redis重启的话就会根据日志文件的内容将写指令从前到后执行自已以完成数据的恢复工作。
-位置
在redis.conf配置文件中,标题为APPEND ONLY MODE 下修改
appendonly yes(默认为no,yes是打开aof持久化)
-AOF保存的时appendonly.aof文件
当appendonly.aof与dump.rdb两个文件同时存在时,appendonly.aof的优先级更高
当文件appendonly.aof文件发生损坏时使用命令:
reids-check-aof --fix appendonly.aof
-AOF启动/修复/恢复
正常恢复:
-启动:设置yes,修改默认的appendonly no,改为yes。将有数据的aof文件复制一份保存到对应目录(config get dir)
-恢复:重启redis,然后重新加载
异常恢复:
-启动:设置yes
备份被写坏的aof文件
-修复:redis-check-aof --fix appendonly.aof进行修复
-恢复:重启redis然后重新加载
-Rewrite
-是什么?
AOF采用文件追加方式,文件会越来越大,为避免出现此种情况,新增了重写机制,当AOF文件的大小超过所设定的阈值时,redis就会启动AOF文件的内容压缩,只能保留可以恢复数据的最小指令集,可以使用命令bgrewriteaof
-重写原理:
AOF文件持续增长而过大时,会fork出一条新进程来将文件重写(也是先写临时文件最后在rename),遍历新进程的内存中的数据,每条记录有一条set语句。重写aof文件的操作,并没有读取旧的aof文件,而是将整个内存中的数库内容用命令的方式重写了一个新的aof文件,这点和快照有点类似
-触发机制:
redis会记录上一次重写时的aof大小,默认配置是当aof文件大小是上一次rewrite后大写的一倍且文件大于64M时触发
-优势与劣势:
优势:
1、每秒同步:appendfsync always 同步持久化 每次发生数据变更会被立即记录到磁盘 性能较差但是数据完整性较好
2、每秒修改同步:appendfsync everysec 异步操作,每秒记录 如果一秒内宕机,有数据丢失
3、不同步:appendfsync no 从不同步
劣势:
1、相同数据集的数据而言aof文件要远远大于rdb文件,恢复速度慢于rdb
2、aof运行效率要慢于rdb,每秒同步策略较好,不同步效率和rdb相同
-官网建议
RDB持久化方式能够在指定的时间间隔能对你的数据进行快照存储
AOF持久化方式记录每次对服务器写的操作,当服务器重启的时候就会重新执行这些命令来恢复原始的数据,AOF文件进行后台重写,使得AOF文件的体积不至于过大
只做缓存:如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化方式。
同时开启两个持久化方式:
在这种情况下,当redis重启的时候会优先载入AOF文件来恢复原始数据,因为在通常情况下AOF文件保存的数据集要比RDB文件保存的数据集要完整。
RDB的数据不实时,同时使用两者时服务器重启也只会找AOF文件。那要不要只使用AOF呢?
作者建议不要,因为RDB更适合用于备份数据库(AOF在不断变化不好备份),快速重启,而且不会有AOF可能潜在的bug,留着作为一个万一的手段
性能建议:
因为RDB文件只用作后备用途,建议只在Slave上持久化RDB,而且只要15分钟备份一次就够了,只保留save 900 1这条规则
如果Enable AOF,好处时在最恶劣情况下也指挥丢失不超过两秒的数据,启动脚本较简单只load自己的AOF文件就可以了,代价一是带来了持续的IO,二是AOF rewrite的最后将rewrite过程中产生的新数据写到新文件,造成的阻塞几乎是不可避免的。之哟啊硬盘许可,应该尽量减少AOF rewrite的频率,AOF重写的基础大小默认值为64M太小了,默认超过原大小的100%时重写可以改到数值。
如果不enable AOF ,仅靠Master-Slave Replication实现高可用性也可以,能省掉一大笔IO也减少了rewrite时带来的系统波动,代价时如果Master/Slave同时倒掉,会丢失十几分钟的数据,启动脚本也要比较两个Master/S;ave中的RDB文件,载入较新你的那个,新浪微博用的就是这种框架
Redis_事务
-是什么:
可以一次执行多个命令,本质是一组命令的集合。一个事务中的所有命令都有序列化,按顺序地串行化执行而不会被其他命令插入,不许加塞。
-能干嘛:
一个队列中,一次性、顺序性、排他性的执行一系列命令
-怎么玩:
下表列出了 redis 事务的相关命令:
序号 | 命令及描述 |
---|---|
1 | DISCARD 取消事务,放弃执行事务块内的所有命令。 |
2 | EXEC 执行所有事务块内的命令。 |
3 | MULTI 标记一个事务块的开始。 |
4 | UNWATCH 取消 WATCH 命令对所有 key 的监视。 |
5 | [WATCH key key ...] 监视一个(或多个) key ,如果在事务执行之前这个(或这些) key 被其他命令所改动,那么事务将被打断。 |
常用命令:
case1:正常执行
case2:放弃事务
case3:全体连坐
case4:冤头债主
case5:watch监控
悲观锁/乐观锁/CAS(Check And Set)
-悲观锁(Pessimistic Lock):
顾名思义,就是很悲观,每次拿数据的时候都会认为别人会修改,所以每次拿数据的时候都会上锁,这样别人向拿这个数据就会block直到它拿到锁。传统的关系型数据库里边用到了很多这种锁机制,比如行锁,表锁等,读锁,写锁等,都是在做操作之前先上锁。
-乐观锁:
每次去拿数据的时候都认为别人不会修改,所以不会上锁,但是在更新的时候会判断一下在此期间被人有没有去更新这个数据,可以使用版本号机制。乐观锁适用于多读的应用类型,这样可以提高吞吐量。
乐观锁策略:提交版本必须大于记录当前版本才能执行更新
-CAS:
-3阶段:
1、开启:以MULTI开始一个事务
2、入队:将多个命令入队到事务中,接到这些命令并不会立即执行,而是放到等待执行的事务队列里面
3、执行:由EXEC命令触发事务
-3特性:
1、单独的隔离操作:事务中的所有命令都会序列化,按顺序的执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断
2、没有隔离级别的概念:队列中的命令没有提交之前都不会实际的被执行,因为事务提交前任何指令都不会被实际执行,也就不存在“事务内的查询要看到事务里的更新,在事务外查询不能看到”这个让人万分头疼的问题
3、不保证原子性:redis同一个事务中如果有一条命令执行失败,其后的命令仍然不会被执行,没有回滚。
Redis_消息订阅发布简介
-是什么?
进程间的一种消息通信模式:发送者(pub)发送消息,订阅者(sub)接受消息
Redis 发布订阅 (pub/sub) 是一种消息通信模式:发送者 (pub) 发送消息,订阅者 (sub) 接收消息。
Redis 客户端可以订阅任意数量的频道。
下图展示了频道 channel1 , 以及订阅这个频道的三个客户端 —— client2 、 client5 和 client1 之间的关系:
-命令:
下表列出了 redis 发布订阅常用命令:
序号 | 命令及描述 |
---|---|
1 | [PSUBSCRIBE pattern pattern ...] 订阅一个或多个符合给定模式的频道。 |
2 | PUBSUB subcommand [argument [argument ...]] 查看订阅与发布系统状态。 |
3 | PUBLISH channel message 将信息发送到指定的频道。 |
4 | PUNSUBSCRIBE [pattern [pattern ...]] 退订所有给定模式的频道。 |
5 | [SUBSCRIBE channel channel ...] 订阅给定的一个或多个频道的信息。 |
6 | UNSUBSCRIBE [channel [channel ...]] 指退订给定的频道。 |
实例
以下实例演示了发布订阅是如何工作的,需要开启两个 redis-cli 客户端。
在我们实例中我们创建了订阅频道名为 runoobChat:
第一个 redis-cli 客户端
redis 127.0.0.1:6379> SUBSCRIBE runoobChat
Reading messages... (press Ctrl-C to quit) 1) "subscribe" 2) "runoobChat" 3) (integer) 1
现在,我们先重新开启个 redis 客户端,然后在同一个频道 runoobChat 发布两次消息,订阅者就能接收到消息。
第二个 redis-cli 客户端
redis 127.0.0.1:6379> PUBLISH runoobChat "Redis PUBLISH test"
(integer) 1
redis 127.0.0.1:6379> PUBLISH runoobChat "Learn redis by runoob.com"
(integer) 1
# 订阅者的客户端会显示如下消息 1) "message" 2) "runoobChat" 3) "Redis PUBLISH test" 1) "message" 2) "runoobChat" 3) "Learn redis by runoob.com"
gif 演示如下:
-
开启本地 Redis 服务,开启两个 redis-cli 客户端。
-
在第一个 redis-cli 客户端输入 SUBSCRIBE runoobChat,意思是订阅
runoobChat
频道。 -
在第二个 redis-cli 客户端输入 PUBLISH runoobChat "Redis PUBLISH test" 往 runoobChat 频道发送消息,这个时候在第一个 redis-cli 客户端就会看到由第二个 redis-cli 客户端发送的测试消息。
案例
·先订阅后发布
1、可以一次性订阅多个,SUBSCRIBE c1 c2 c3
2、消息发布:PUBLISH c2 hello-redis
3、订阅多个,通配符*,PSUBSCRIBE new*
4、收取消息:PUBLISH new1 redis2015
Redis的复制(Master/Slave)
-是什么?
也就是我们所说的主从复制,主机数据更新后根据配置和策略,自动同步到备用机的master/slave机制,Master以写为主,Slave以读为主
-能干嘛:
-读写分离:
-容灾恢复:
-怎么玩?
1、配从库不配主库
2、从库配置:slaveof主库ip 主库端口
每次与master断开之后,都需要重新连接,除非你配置进redis.conf问及那
Info replication
恢复订阅:
SLAVEOF 127.0.0.1 6379
3、修改配置文件细节操作
拷贝多个redis.conf文件
开启daemonize yes
pid文件名
指定端口
Log文件名字
dump.rdb名字
4、常用三招:
-一主二朴:
-薪火相传:
-反客为主:
SLAVEOF no one 使当前数据库停止与其他数据库同步,转成主书数据库
-复制原理:
-Slave启动成功连接到master后会发送一个sync命令
-Master接到命令启动后台的存盘进程,同时收集所有接收到的用于修改数据集命令,在后台进程执行完成后,master将传送整个数据文件到slave,以完成一次同步
-全量复制:而slave服务在接受到数据库文件数据后,将其存盘并加载到内存中
-增量复制:Master继续将新的所有收集到的修改命令一次传给slave,完成同步,但是只要是重新连接master,一次完全同步(全量复制)将被自动执行
-哨兵模式:
定义:反客为主的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库
配置步骤:
1、调整结构,6379带着80、81
2、自定义的/myredis目录下新建sentinel.conf文件,名字不能错
3、配置哨兵,填写内容:
sentinel monitor 被监控数据库名字(自己起命字)127.0.0.1 6379 1
上面的数字1,表示主句挂掉之后salve投票看让谁接替称为主机,得票数多少后成为主机
4、启动哨兵:
redis-sentinel /myredis/sentinel.conf
上述目录依照各自的实际情况配置,可能目录不同
5、正常主从演示
6、投票新选
7、重新主从继续开工,Info replication查看
8、问题:如果之前的master重启回来,会不会双master冲突?
之前的master回来后变为slave,不会发生双master冲突
部分内容转载菜鸟教程