MySQL Redis 配置参数

MySQL Redis 配置参数

MySQL

Windows 系统下 MySQL 的配置文件是 my.ini,一般在安装目录的根目录
Linux 系统下一般是 /etc/my.cnf 或 /etc/mysql/my.cnf


#client 表示客户端设置,即客户端默认的连接参数,[client]和[mysql]都是客户端配置
[client]
#默认连接端口                
port = 3306
#用于本地连接的 socket 套接字
socket = /tmp/mysql.sock

#服务端基本设置
[mysqld]
#Mysql 服务的唯一编号 每个 mysql 服务 Id 需唯一
server-id = 1

#服务端口号 默认 3306 
port = 3306

#mysql 安装根目录 
basedir = /opt/mysql

#mysql 数据文件所在位置 
datadir = /opt/mysql/data

#临时目录 比如 load data infile 会用到 
tmpdir = /tmp

#设置 socket 文件所在目录
socket = /tmp/mysql.sock

#主要用于 MyISAM 存储引擎 , 如果多台服务器连接一个数据库则建议注释下面内容
skip-external-locking

#只能用 IP 地址检查客户端的登录,不用主机名
skip_name_resolve = 1

#事务隔离级别,默认为可重复读,mysql 默认可重复读级别 (此级别下可能参数很多间隙锁,影响性能)
transaction_isolation = READ-COMMITTED

#数据库默认字符集 , 主流字符集支持一些特殊表情符号(特殊表情符占用 4 个字节)
character-set-server = utf8mb4

#数据库字符集对应一些排序等规则,注意要和 character-set-server 对应 
collation-server = utf8mb4_general_ci

#设置 client 连接 mysql 时的字符集 , 防止乱码
init_connect='SET NAMES utf8mb4'

#是否对 sql 语句大小写敏感,1 表示不敏感 
lower_case_table_names = 1

#最大连接数
max_connections = 400

#最大错误连接数
max_connect_errors = 1000

#TIMESTAMP 如果没有显示声明 NOT NULL,允许 NULL 值
explicit_defaults_for_timestamp = true

#SQL 数据包发送的大小,如果有 BLOB 对象建议修改成 1G 
max_allowed_packet = 128M

#MySQL 连接闲置超过一定时间后 (单位:秒)将会被强行关闭
#MySQL 默认的 wait _timeout 值为 8 个小时 , interactive_timeout 参数需要同时配置才能生效 
interactive_timeout = 1800
wait_timeout = 1800

#内部内存临时表的最大值,设置成 128M 。
#比如大数据量的 group by,order by 时可能用到临时表,
#超过了这个值将写入磁盘,系统 IO 压力增大
tmp_table_size = 134217728
max_heap_table_size = 134217728

#禁用 mysql 的缓存查询结果集功能
#后期根据业务情况测试决定是否开启
#大部分情况下关闭下面两项
query_cache_size = 0
query_cache_type = 0


##----------------------------用户进程分配到的内存设置 BEGIN -----------------------------##

##每个 session 将会分配参数设置的内存大小
#用于表的顺序扫描,读出的数据暂存于 read _buffer_size 中,当 buff 满时或读完,将数据返回上层调用者
#一般在 128kb ~ 256kb, 用于 MyISAM 
#read_buffer_size = 131072

#用于表的随机读取,当按照一个非索引字段排序读取时会用到,
#一般在 128kb ~ 256kb, 用于 MyISAM 
#read_rnd_buffer_size = 262144

#order by 或 group by 时用到 
#建议先调整为 2M,后期观察调整
sort_buffer_size = 2097152

#一般数据库中没什么大的事务,设成 1 ~2M,默认 32kb 
binlog_cache_size = 524288

##---------------------------用户进程分配到的内存设置 END -------------------------------##

#在 MySQL 暂时停止响应新请求之前的短时间内多少个请求可以被存在堆栈中
#官方建议 back _log = 50 + (max_connections / 5), 封顶数为 900 
back_log = 130

############################日 志 设置##########################################

#数据库错误日志文件
log_error = error.log

#慢查询 sql 日志设置
slow_query_log = 1
slow_query_log_file = slow.log

#检查未使用到索引的 sql 
log_queries_not_using_indexes = 1

#针对 log _queries_not_using_indexes 开启后,记录慢 sql 的频次、每分钟记录的条数
log_throttle_queries_not_using_indexes = 5

#作为从库时生效 , 从库复制中如何有慢 sql 也将被记录
log_slow_slave_statements = 1

#慢查询执行的秒数,必须达到此值可被记录
long_query_time = 8

#检索的行数必须达到此值才可被记为慢查询
min_examined_row_limit = 100

#mysql binlog 日志文件保存的过期时间,过期后自动删除
expire_logs_days = 5

############################主从复制 设置########################################

#开启 mysql binlog 功能 
log-bin=mysql-bin

#binlog 记录内容的方式,记录被操作的每一行
binlog_format = ROW

#对于 binlog _format = ROW 模式时,减少记录日志的内容,只记录受影响的列
binlog_row_image = minimal

#master status and connection information 输出到表 mysql .slave_master_info 中 
master_info_repository = TABLE

#the slave's position in the relay logs 输出到表 mysql .slave_relay_log_info 中 
relay_log_info_repository = TABLE

#作为从库时生效 , 想进行级联复制,则需要此参数
log_slave_updates

#作为从库时生效 , 中继日志 relay -log 可以自我修复 
relay_log_recovery = 1

#作为从库时生效 , 主从复制时忽略的错误
slave_skip_errors = ddl_exist_errors

##---redo log 和 binlog 的关系设置 BEGIN ---##

#(步骤 1 ) prepare dml 相关的 SQL 操作,然后将 redo log buff 中的缓存持久化到磁盘 
#(步骤 2 )如果前面 prepare 成功,那么再继续将事务日志持久化到 binlog 
#(步骤 3 )如果前面成功,那么在 redo log 里面写上一个 commit 记录

#当 innodb _flush_log_at_trx_commit 和 sync _binlog 都为 1 时是最安全的,
#在 mysqld 服务崩溃或者服务器主机 crash 的情况下,binary log 只有可能丢失最多一个语句或者一个事务 。
#但是都设置为 1 时会导致频繁的 io 操作,因此该模式也是最慢的一种方式。

#当 innodb _flush_log_at_trx_commit 设置为 0,mysqld 进程的崩溃会导致上一秒钟所有事务数据的丢失 。
#当 innodb _flush_log_at_trx_commit 设置为 2,只有在操作系统崩溃或者系统掉电的情况下,上一秒钟所有事务数据才可能丢失。

#commit 事务时 , 控制 redo log buff 持久化磁盘的模式 默认为 1 
innodb_flush_log_at_trx_commit = 2

#commit 事务时 , 控制写入 mysql binlog 日志的模式 默认为 0
#innodb_flush_log_at_trx_commit 和 sync _binlog 都为 1 时,mysql 最为安全但性能上压力也是最大 
sync_binlog = 1

##---redo log 和 binlog 的关系设置 END ---##

############################Innodb 设置 ##########################################

#数据块的单位 8k,默认是 16k,16kCPU 压力稍小,8k 对 select 的吞吐量大
#innodb_page_size 的参数值也影响最大索引长度,8k 比 16k 的最大索引长度小
#innodb_page_size = 8192

#一般设置物理存储的 60 % ~ 70%
innodb_buffer_pool_size = 1G

#5.7.6 之后默认 16M 
#innodb_log_buffer_size = 16777216
#该参数针对 unix 、linux,window 上直接注释该参数 .默认值为 NULL 

#O_DIRECT 减少操作系统级别 VFS 的缓存和 Innodb 本身的 buffer 缓存之间的冲突
innodb_flush_method = O_DIRECT

#此格式支持压缩 , 5.7.7 之后为默认值 
innodb_file_format = Barracuda

#CPU 多核处理能力设置,假设 CPU 是 2 颗 4 核的,设置如下
#读多,写少可以设成 2 :6 的比例 
innodb_write_io_threads = 4
innodb_read_io_threads = 4

#提高刷新脏页数量和合并插入数量,改善磁盘 I /O 处理能力 
#默认值 200 (单位:页)
#可根据磁盘近期的 IOPS 确定该值
innodb_io_capacity = 500

#为了获取被锁定的资源最大等待时间,默认 50 秒,超过该时间会报如下错误:
# ERROR 1205 (HY000): Lock wait timeout exceeded; try restarting transaction
innodb_lock_wait_timeout = 30

#调整 buffer pool 中最近使用的页读取并 dump 的百分比 , 通过设置该参数可以减少转储的 page 数
innodb_buffer_pool_dump_pct = 40

#设置 redoLog 文件所在目录 , redoLog 记录事务具体操作内容 
innodb_log_group_home_dir = /opt/mysql/redolog/

#设置 undoLog 文件所在目录 , undoLog 用于事务回滚操作 
innodb_undo_directory = /opt/mysql/undolog/

#在 innodb _log_group_home_dir 中的 redoLog 文件数 , redoLog 文件内容是循环覆盖写入 。
innodb_log_files_in_group = 3

#MySql5.7 官方建议尽量设置的大些,可以接近 innodb _buffer_pool_size 的大小 
#之前设置该值较大时可能导致 mysql 宕机恢复时间过长,现在恢复已经加快很多了
#该值减少脏数据刷新到磁盘的频次
#最大值 innodb _log_file_size * innodb_log_files_in_group <= 512GB, 单文件 <=256GB
innodb_log_file_size = 1024M

#设置 undoLog 文件所占空间可以回收
#5.7 之前的 MySql 的 undoLog 文件一直增大无法回收
innodb_undo_log_truncate = 1
innodb_undo_tablespaces = 3
innodb_undo_logs = 128

#5.7.7 默认开启该参数 控制单列索引长度最大达到 3072 
#innodb_large_prefix = 1

#5.7.8 默认为 4 个 , Inodb 后台清理工作的线程数 
#innodb_purge_threads = 4

#通过设置配置参数 innodb _thread_concurrency 来限制并发线程的数量,
#一旦执行线程的数量达到这个限制,额外的线程在被放置到对队列中之前,会睡眠数微秒,
#可以通过设定参数 innodb _thread_sleep_delay 来配置睡眠时间 
#该值默认为 0, 在官方 doc 上,对于 innodb _thread_concurrency 的使用,也给出了一些建议:
#(1)如果一个工作负载中,并发用户线程的数量小于 64,建议设置 innodb _thread_concurrency=0;
#(2)如果工作负载一直较为严重甚至偶尔达到顶峰,建议先设置 innodb _thread_concurrency=128,
###并通过不断的降低这个参数,96, 80, 64 等等,直到发现能够提供最佳性能的线程数
#innodb_thread_concurrency = 0

#强所有发生的死锁错误信息记录到 error .log 中,之前通过命令行只能查看最近一次死锁信息
innodb_print_all_deadlocks = 1

Redis 配置文件参数

Linux 系统一般是在/etc/redis.conf


#在后台运行
#yes 开启,no 关闭 (老版本默认)
daemonize yes
#开启保护模式,如果未设置密码,将不允许外部访问,只能本地访问。关闭后,不设置密码也能远程链接了,会危险。
#默认开启
#默认开启。要是配置里没有指定 bind 和密码。开启该参数后,redis 只会本地进行访问,拒绝外部访问。要是开启了密码 和 bind,可以开启。否 则最好关闭,设置为 no 。
protected-mode yes
#redis 的进程文件 
pidfile /var/run/redis/redis-server.pid
#redis 监听的端口号 。
port 6379
#TCP 三次握手后,会将接受的连接放入队列中,tcpbacklog 就是队列的大小 。
#默认不用设置,但在 Linux 系统中要小于/proc/sys/net/core/somaxconn 值 。当系统并发量大并且客户端速度缓慢的时候,可以将这二个参数一起参考设定。该内核参数默认值一般是 128,对于负载很大的服务程序来说大大的不够。一般会将它修改为 2048 或者更大。在/etc/sysctl.conf 中添加 :net.core.somaxconn = 2048,然后在终端中执行 sysctl -p。
tcp-backlog 511
#指定 redis 监听的网卡,不设定将监听所有。如果有自己网卡,需要将网卡 ip 放到 127 前面,否则建立集群时会无法互相连通。
bind 192.168.1.1 127.0.0.1
#配置 unix socket 来让 redis 支持监听本地连接。
# unixsocket /var/run/redis/redis.sock
#配置 unix socket 使用文件的权限 
# unixsocketperm 700
# 此参数为设置客户端空闲超过 timeout,服务端会断开连接,为 0 则服务端不会主动断开连接,不能小于 0 。
timeout 300
#对 tcp 连接进行检测,单位秒。如果设置为 0 则不检测。检测可以防止客户端僵死,从而占用一个连接。
tcp-keepalive 60
#可以通过 upstart 和 systemd 管理 Redis 守护进程,这个参数是和具体的操作系统相关的。
supervised no
#指定了服务端日志的级别。级别包括:debug(很多信息,方便开发、测试),verbose(许多有用的信息,但是没有 debug 级别信息多),notice(适当的日志级别,适合生产环境),warn(只有非常重要的信息)
loglevel notice
#指定了记录日志的文件。空字符串的话,日志会打印到标准输出设备。后台运行的 redis 标准输出是/dev/null。
logfile /var/log/redis/redis-server.log
#是否打开记录 syslog 功能
# syslog-enabled no
#syslog 的标识符 。
# syslog-ident redis
#日志的来源、设备
# syslog-facility local0
#当前启动 16 个数据库,意思是链接当前 redis 后,可以用 select 1/2/3 来切换到不同的库,相当于 mysql 中的数据库了,这样好处是一个应用可以一个库,清理当前数据不会影响到其他库。
databases 16
# 快照配置持久化配置
# 注释掉“save”这一行配置项就可以让保存数据库功能失效
# 900 秒 (15 分钟 )内至少 1 个 key 值改变(则进行数据库保存--持久化)
save 900 1
# 300 秒 (5 分钟 )内至少 10 个 key 值改变(则进行数据库保存--持久化)
save 300 10
# 60 秒 (1 分钟 )内至少 10000 个 key 值改变(则进行数据库保存--持久化)
save 60 10000
#当 RDB 持久化出现错误后,再写入数据会报错,用于提示用户出问题了。
#yes 是开启,no 是关闭,默认开启
stop-writes-on-bgsave-error yes
#是否压缩 rdb 文件,rdb 文件压缩使用 LZF 压缩算法,压缩会消耗一些 cpu,不压缩文件会很大
#yes 开启,no 关闭,默认开启
rdbcompression yes
#使用 CRC64 算法来进行数据校验,防止 RDB 是错误的,但是这样做会增加大约 10 %的性能消耗
#yes 开启,no 关闭,默认开启
rdbchecksum yes
#rdb 文件的名称 
dbfilename dump.rdb
#数据目录,数据库的写入会在这个目录。rdb、aof 文件也会写在这个目录 
dir /var/lib/redis
################################# REPLICATION #################################
#复制选项,slave 复制对应的 master 。
# slaveof <masterip> <masterport>
#如果 master 设置了 requirepass,那么 slave 要连上 master,需要有 master 的密码才行。masterauth 就是用来配置 master 的密码,这样可以在连上 master 后进行认证。
# masterauth <master-password>
#当从库同主机失去连接或者复制正在进行,从机库有两种运行方式:1) 如果 slave -serve-stale-data 设置为 yes (默认设置),从库会继续响应客户端的请求。2) 如果 slave -serve-stale-data 设置为 no,除去 INFO 和 SLAVOF 命令之外的任何请求都会返回一个错误”SYNC with master in progress”。
slave-serve-stale-data yes
#作为从服务器,默认情况下是只读的(yes),可以修改成 NO,用于写(不建议)。
slave-read-only yes
#是否使用 socket 方式复制数据。目前 redis 复制提供两种方式,disk 和 socket 。如果新的 slave 连上来或者重连的 slave 无法部分同步,就会执行全量同步,master 会生成 rdb 文件。有 2 种方式:disk 方式是 master 创建一个新的进程把 rdb 文件保存到磁盘,再把磁盘上的 rdb 文件传递给 slave 。socket 是 master 创建一个新的进程,直接把 rdb 文件以 socket 的方式发给 slave 。disk 方式的时候,当一个 rdb 保存的过程中,多个 slave 都能共享这个 rdb 文件。socket 的方式就的一个个 slave 顺序复制。在磁盘速度缓慢,网速快的情况下推荐用 socket 方式。
repl-diskless-sync no
#diskless 复制的延迟时间,防止设置为 0 。一旦复制开始,节点不会再接收新 slave 的复制请求直到下一个 rdb 传输。所以最好等待一段时间,等更多的 slave 连上来。
repl-diskless-sync-delay 5
#slave 根据指定的时间间隔向主服务器发送 ping 请求。时间间隔可以通过 repl_ping_slave_period 来设置,默认 10 秒。
# repl-ping-slave-period 10
#复制连接超时时间。master 和 slave 都有超时时间的设置。master 检测到 slave 上次发送的时间超过 repl -timeout,即认为 slave 离线,清除该 slave 信息。slave 检测到上次和 master 交互的时间超过 repl -timeout,则认为 master 离线。需要注意的是 repl -timeout 需要设置一个比 repl -ping-slave-period 更大的值,不然会经常检测到超时。
# repl-timeout 60
#选择 yes 会将数据包合成后再发给从节点,用于网络环境禁止的情况,但有延迟。
#选择 no 会一直发送数据到从节点,用于网络环境不错的情况
#默认 no 
repl-disable-tcp-nodelay no
#复制缓冲区大小,这是一个环形复制缓冲区,用来保存最新复制的命令。这样在 slave 离线的时候,不需要完全复制 master 的数据,如果可以执行部分同步,只需要把缓冲区的部分数据复制给 slave,就能恢复正常复制状态。缓冲区的大小越大,slave 离线的时间可以更长,复制缓冲区只有在有 slave 连接的时候才分配内存。没有 slave 的一段时间,内存会被释放出来,默认 1m 。
# repl-backlog-size 5mb
#master 没有 slave 一段时间会释放复制缓冲区的内存,repl-backlog-ttl 用来设置该时间长度 。单位为秒。
# repl-backlog-ttl 3600
#当 master 不可用,Sentinel 会根据 slave 的优先级选举一个 master 。最低的优先级的 slave,当选 master 。而配置成 0,永远不会被选举。
slave-priority 100
#redis 提供了可以让 master 停止写入的方式,如果配置了 min -slaves-to-write,健康的 slave 的个数小于 N,mater 就禁止写入 。master 最少得有多少个健康的 slave 存活才能执行写命令。这个配置虽然不能保证 N 个 slave 都一定能接收到 master 的写操作,但是能避免没有足够健康的 slave 的时候,master 不能写入来避免数据丢失 。设置为 0 是关闭该功能。
# min-slaves-to-write 3
#延迟小于 min -slaves-max-lag 秒的 slave 才认为是健康的 slave 。
# min-slaves-max-lag 10
# 设置 1 或另一个设置为 0 禁用这个特性。
# Setting one or the other to 0 disables the feature.
# By default min-slaves-to-write is set to 0 (feature disabled) and
# min-slaves-max-lag is set to 10.
################################## SECURITY ###################################
#requirepass 配置可以让用户使用 AUTH 命令来认证密码,才能使用其他命令。这让 redis 可以使用在不受信任的网络中。为了保持向后的兼容性,可以注释该命令,因为大部分用户也不需要认证。使用 requirepass 的时候需要注意,因为 redis 太快了,每秒可以认证 15w 次密码,简单的密码很容易被攻破,所以最好使用一个更复杂的密码。
# requirepass foobared
#把危险的命令给修改成其他名称。比如 CONFIG 命令可以重命名为一个很难被猜到的命令,这样用户不能使用,而内部工具还能接着使用。
# rename-command CONFIG b840fc02d524045429941cc15f59e41cb7be6c52
#设置成一个空的值,可以禁止一个命令
# rename-command CONFIG ""
################################### LIMITS ####################################
# 设置能连上 redis 的最大客户端连接数量。默认是 10000 个客户端连接。由于 redis 不区分连接是客户端连接还是内部打开文件或者和 slave 连接等,所以 maxclients 最小建议设置到 32 。如果超过了 maxclients,redis 会给新的连接发送 ’max number of clients reached’,并关闭连接。
maxclients 10000
#redis 最大能占用多少内存容量,单位 bytes 。
#当内存满了,再由数据写入,将使用 maxmemory -policy 策略进行处理 。
#注意 slave 的输出缓冲区是不计算在 maxmemory 内的。所以为了防止主机内存使用完,建议设置的 maxmemory 需要更小一些,一般为内存的 4 /3。
#要考虑持久化问题,如果
maxmemory <bytes>
#内存容量超过 maxmemory 后的处理策略。
#volatile-lru:利用 LRU 算法移除设置过过期时间的 key 。
#volatile-random:随机移除设置过过期时间的 key 。
#volatile-ttl:移除即将过期的 key,根据最近过期时间来删除(辅以 TTL )
#allkeys-lru:利用 LRU 算法移除任何 key 。
#allkeys-random:随机移除任何 key 。
#noeviction:不移除任何 key,只是返回一个写错误。
#上面的这些驱逐策略,如果 redis 没有合适的 key 驱逐,对于写命令,还是会返回错误。redis 将不再接收写请求,只接收 get 请求。写命令包括:set setnx setex append incr decr rpush lpush rpushx lpushx linsert lset rpoplpush sadd sinter sinterstore sunion sunionstore sdiff sdiffstore zadd zincrby zunionstore zinterstore hset hsetnx hmset hincrby incrby decrby getset mset msetnx exec sort。
# maxmemory-policy noeviction
#lru 检测的样本数 。使用 lru 或者 ttl 淘汰算法,从需要淘汰的列表中随机选择 sample 个 key,选出闲置时间最长的 key 移除。
# maxmemory-samples 5
############################## APPEND ONLY MODE ###############################
#默认 redis 使用的是 rdb 方式持久化,这种方式在许多应用中已经足够用了。但是 redis 如果中途宕机,会导致可能有几分钟的数据丢失,根据 save 来策略进行持久化,Append Only File 是另一种持久化方式,可以提供更好的持久化特性。Redis 会把每次写入的数据在接收后都写入 appendonly.aof 文件,每次启动时 Redis 都会先把这个文件的数据读入内存里,先忽略 RDB 文件。
appendonly no
#aof 文件名 
appendfilename "appendonly.aof"
#aof 持久化策略的配置 
#no 表示不执行 fsync,由操作系统保证数据同步到磁盘,速度最快。
#always 表示每次写入都执行 fsync,以保证数据同步到磁盘。
#everysec 表示每秒执行一次 fsync,可能会导致丢失这 1s 数据。
appendfsync everysec
# 在 aof 重写或者写入 rdb 文件的时候,会执行大量 IO,此时对于 everysec 和 always 的 aof 模式来说,执行 fsync 会造成阻塞过长时间,no-appendfsync-on-rewrite 字段设置为默认设置为 no 。如果对延迟要求很高的应用,这个字段可以设置为 yes,否则还是设置为 no,这样对持久化特性来说这是更安全的选择。设置为 yes 表示 rewrite 期间对新写操作不 fsync, 暂时存在内存中 , 等 rewrite 完成后再写入,默认为 no,建议 yes 。Linux 的默认 fsync 策略是 30 秒。可能丢失 30 秒数据。
no-appendfsync-on-rewrite no
#新的 aof 文件大小是上次的 aof 文件的大小 2 倍(100)时,进行重写
auto-aof-rewrite-percentage 100
#表示运行 AOF 重写时文件最小体积, 默认为 64MB 
auto-aof-rewrite-min-size 64mb
#aof 文件可能在尾部是不完整的,当 redis 启动的时候,aof 文件的数据被载入内存 。重启可能发生在 redis 所在的主机操作系统宕机后,尤其在 ext4 文件系统没有加上 data =ordered 选项 (redis 宕机或者异常终止不会造成尾部不完整现象 。)出现这种现象,可以选择让 redis 退出,或者导入尽可能多的数据。如果选择的是 yes,当截断的 aof 文件被导入的时候,会自动发布一个 log 给客户端然后 load 。如果是 no,用户必须手动 redis -check-aof 修复 AOF 文件才可以。
aof-load-truncated yes
################################ LUA SCRIPTING ###############################
# 如果达到最大时间限制(毫秒),redis 会记个 log,然后返回 error 。当一个脚本超过了最大时限。只有 SCRIPT KILL 和 SHUTDOWN NOSAVE 可以用 。第一个可以杀没有调 write 命令的东西。要是已经调用了 write,只能用第二个命令杀。
lua-time-limit 5000
# REDIS CLUSTER #
#集群开关,默认是不开启集群模式。
# cluster-enabled yes
#集群内部配置文件,用于存储集群间的配置信息
# cluster-config-file nodes-6379.conf
#节点互连超时的阀值。集群节点超时毫秒数
#如果网络带宽紧张,可以调大数值,当前 15 毫秒
# cluster-node-timeout 15000
#在进行故障转移的时候,全部 slave 都会请求申请为 master,但是有些 slave 可能与 master 断开连接一段时间了,导致数据过于陈旧,这样的 slave 不应该被提升为 master 。该参数就是用来判断 slave 节点与 master 断线的时间是否过长。判断方法是:
#比较 slave 断开连接的时间和(node-timeout * slave-validity-factor) + repl-ping-slave-period
#如果节点超时时间为三十秒 , 并且 slave -validity-factor 为 10, 假设默认的 repl -ping-slave-period 是 10 秒,即如果超过 310 秒 slave 将不会尝试进行故障转移 
# cluster-slave-validity-factor 10
#master 的 slave 数量大于该值,slave 才能迁移到其他孤立 master 上,如这个参数若被设为 2,那么只有当一个主节点拥有 2 个可工作的从节点时,它的一个从节点会尝试迁移。
# cluster-migration-barrier 1
#默认情况下,集群全部的 slot 有节点负责,集群状态才为 ok,才能提供服务。设置为 no,可以在 slot 没有全部分配的时候提供服务。不建议打开该配置,这样会造成分区的时候,小分区的 master 一直在接受写请求,而造成很长时间数据不一致。
# cluster-require-full-coverage yes
################################## SLOW LOG ###################################
###slog log 是用来记录 redis 运行中执行比较慢的命令耗时。当命令的执行超过了指定时间,就记录在 slow log 中,slog log 保存在内存中,所以没有 IO 操作。
#执行时间比 slowlog -log-slower-than 大的请求记录到 slowlog 里面,单位是微秒,所以 1000000 就是 1 秒。注意,负数时间会禁用慢查询日志,而 0 则会强制记录所有命令。
slowlog-log-slower-than 10000
#慢查询日志长度。当一个新的命令被写进日志的时候,最老的那个记录会被删掉。这个长度没有限制。只要有足够的内存就行。你可以通过 SLOWLOG RESET 来释放内存。会创建一个列表存储,当前是最多 128 个数据。
slowlog-max-len 128
################################ LATENCY MONITOR ##############################
#延迟监控功能是用来监控 redis 中执行比较缓慢的一些操作,用 LATENCY 打印 redis 实例在跑命令时的耗时图表。只记录大于等于下边设置的值的操作。0 的话,就是关闭监视。默认延迟监控功能是关闭的,如果你需要打开,也可以通过 CONFIG SET 命令动态设置 。
latency-monitor-threshold 0
############################# EVENT NOTIFICATION ##############################
#键空间通知使得客户端可以通过订阅频道或模式,来接收那些以某种方式改动了 Redis 数据集的事件。因为开启键空间通知功能需要消耗一些 CPU,所以在默认配置下,该功能处于关闭状态。
#notify-keyspace-events 的参数可以是以下字符的任意组合,它指定了服务器该发送哪些类型的通知:
##K 键空间通知,所有通知以 __keyspace@__ 为前缀
##E 键事件通知,所有通知以 __keyevent@__ 为前缀
##g DEL 、 EXPIRE 、 RENAME 等类型无关的通用命令的通知
##$ 字符串命令的通知
##l 列表命令的通知
##s 集合命令的通知
##h 哈希命令的通知
##z 有序集合命令的通知
##x 过期事件:每当有过期键被删除时发送
##e 驱逐(evict)事件:每当有键因为 maxmemory 政策而被删除时发送
##A 参数 g$lshzxe 的别名
#输入的参数中至少要有一个 K 或者 E,否则的话,不管其余的参数是什么,都不会有任何 通知被分发。详细使用可以参考 http ://redis.io/topics/notifications
notify-keyspace-events ""
############################### ADVANCED CONFIG ###############################
#数据量小于等于 hash -max-ziplist-entries 的用 ziplist,大于 hash -max-ziplist-entries 用 hash 
hash-max-ziplist-entries 512
#value 大小小于等于 hash -max-ziplist-value 的用 ziplist,大于 hash -max-ziplist-value 用 hash 。
hash-max-ziplist-value 64
#数据量小于等于 list -max-ziplist-entries 用 ziplist,大于 list -max-ziplist-entries 用 list 。
list-max-ziplist-entries 512
#value 大小小于等于 list -max-ziplist-value 的用 ziplist,大于 list -max-ziplist-value 用 list 。
list-max-ziplist-value 64
#数据量小于等于 set -max-intset-entries 用 iniset,大于 set -max-intset-entries 用 set 。
set-max-intset-entries 512
#数据量小于等于 zset -max-ziplist-entries 用 ziplist,大于 zset -max-ziplist-entries 用 zset 。
zset-max-ziplist-entries 128
#value 大小小于等于 zset -max-ziplist-value 用 ziplist,大于 zset -max-ziplist-value 用 zset 。
zset-max-ziplist-value 64
#value 大小小于等于 hll -sparse-max-bytes 使用稀疏数据结构 (sparse),大于 hll -sparse-max-bytes 使用稠密的数据结构 (dense)。一个比 16000 大的 value 是几乎没用的,建议的 value 大概为 3000 。如果对 CPU 要求不高,对空间要求较高的,建议设置到 10000 左右。
hll-sparse-max-bytes 3000
#Redis 将在每 100 毫秒时使用 1 毫秒的 CPU 时间来对 redis 的 hash 表进行重新 hash,可以降低内存的使用。当你的使用场景中,有非常严格的实时性需要,不能够接受 Redis 时不时的对请求有 2 毫秒的延迟的话,把这项配置为 no 。如果没有这么严格的实时性要求,可以设置为 yes,以便能够尽可能快的释放内存。
activerehashing yes
##对客户端输出缓冲进行限制可以强迫那些不从服务器读取数据的客户端断开连接,用来强制关闭传输缓慢的客户端。
#对于 normal client,第一个 0 表示取消 hard limit,第二个 0 和第三个 0 表示取消 soft limit,normal client 默认取消限制,因为如果没有寻问,他们是不会接收数据的。
client-output-buffer-limit normal 0 0 0
#如果 60 秒内缓冲区消耗持续大于 64MB 或者直接超过 256MB 时,主节点将直接关闭复制客户端连接,造成复制失败。
client-output-buffer-limit slave 256mb 64mb 60
#对于 pubsub client,如果 client -output-buffer 一旦超过 32mb,又或者超过 8mb 持续 60 秒,那么服务器就会立即断开客户端连接。
client-output-buffer-limit pubsub 32mb 8mb 60
#redis 执行任务的频率为 1s 除以 hz 。
hz 10
#在 aof 重写的时候,如果打开了 aof -rewrite-incremental-fsync 开关,系统会每 32MB 执行一次 fsync 。这对于把文件写入磁盘是有帮助的,可以避免过大的延迟峰值。
aof-rewrite-incremental-fsync yes
  • 11
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值